Verehrtes Forum
liebe Gemeinde,
Gestattet, daß ich ein eigenes kleines Verständnisproblem schildere und die Frage nach meinem Denkfehler stelle:
Ich verstehe nicht, warum DECT und CT1+ in etwa die gleiche Reichweite bei 25fach größerer respektive kleinerer maximaler Sendeleistung haben. Man könnte die Frage auch anders stellen: Warum hätte DECT vermutlich nur eine sehr geringe Reichweite, wenn die Spitzenleistung 10mW wäre, so wie bei CT1+.
Daß die zeitlich gemittelte Sendeleistung auch bei CT1+ ungefähr 10mW beträgt, weiß ich. Auch die stärkere Dämpfung höherer Frequenzen ist mir bekannt, dürfte aber kaum den Faktor 25 ausmachen, DECT und CT1+ liegen schließlich nicht viel weiter auseinander als D-Netz und E-Netz.
Ebenfalls habe ich gelesen, daß ein Funkkanal bei DECT ein größeres Frequenzspektrum in Anspruch nimmt. DECT, so heißt es, sei breitbandiger als CT1+.
Während bei CT1+ die analoge Frequenzmodulation zum Einsatz kommt, werden die Daten bei DECT mittels GFSK übertragen, aber das ist doch auch "nur" eine Frequenzmodulation - oder?
Und wenn hier - wie Jürgen Kozlik auf seiner sehr guten Seite über DECT schreibt - eine binäre Eins durch die Erhöhungung der Mittenfrequenz um 288kHz dargestellt wird, eine binäre Null um eine gleich große Absenkung der Frequenz, dann stellen sich mir zwei Fragen:
Erstens, warum müssen es mehrere hundert kHz sein, wenn der Empfänger doch lediglich erkennen soll, daß überhaupt erhöht oder erniedrigt wird?
Zweitens sehe ich auch dann noch nicht, warum die benötigte Leistung so viel höher ist, wenn die erhöhten oder erniedrigten Frequenzen weit auseinander liegen, denn zu einer Zeit wird doch nur eine Frequenz gesendet, nur daß eben relativ schnell und häufig zwischen diesen Frequenzen hin- und hergesprungen wird.
Wo liegt mein Verständnisfehler?