Diskussion:Claude Shannon
Zum Archiv |
Wie wird ein Archiv angelegt? |
Auf dieser Seite werden Abschnitte ab Überschriftebene 2 automatisch archiviert, die seit 7 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. |
Abtastfrequenz
"Demnach muss die Abtastfrequenz (Sampling rate) für ein Signal mehr als doppelt so groß sein wie die höchste Frequenz, die in ihm enthalten ist, bzw. die Datenrate (Symbolrate) kann maximal doppelt so hoch sein wie die zur Verfügung stehende Bandbreite (Nyquist-Shannon-Abtasttheorem)."
Hier müsste doch eigentlich die Datenrate maximal halb so hoch sein, wie die zur Verfügung stehende Bandbreite? --62.180.118.126 12:35, 23. Sep. 2008
- Meines Erachtens nicht. Ein Gegenbeispiel ist die digitale NRZ-Kodierung. Hier wird ein Strom an binären Symbolen (0 oder 1) dadurch kodiert, daß ein digitales Übertragungssignal stabil bleibt, wenn eine 0 kodiert werden soll, und seinen Wert ändert, wenn ein Symbol "1" kodiert werden soll.
- Beispiel:
000000101010111111111 Symbolfolge, wird kodiert zu: 000000110011010101010 Übertragungssignal
- Wenn die Symbolrate 2Hz beträgt, dann ist die höchste Frequenz im Übertragungssignal 1Hz. Man erhält sie bei Kodierung der Symbolfoge "111111" zu "010101"
- Das bedeutet, daß die Symbolrate(2Hz) doppelt so groß sein kann wie die Bandbreite (1Hz) - die ursprüngliche Aussage
- Dies gilt auch wohl dann noch, wenn man das entstehende Rechteck-Übertragungssignal filtert.
- Da ich nicht weiß, ob die ursprüngliche Aussage direkt von Shannon stammt und/oder wirklich korrekt ist, habe ich den Halbsatz zunächst nur entfernt, damit sicher nichts Falsches im Artikel steht.
- Wer es bestätigen kann, möge es ggfs. wieder einfügen. Danke! (nicht signierter Beitrag von 85.176.232.205 (Diskussion | Beiträge) 03:46, 10. Jul 2009 (CEST))
Informationstheorie
Kommentar aus dem Artikel hierher verschoben --84.130.244.38 18:16, 6. Feb. 2012 (CET)
Hinweis: Das ist leider so nicht richtig: "Die Informationstheorie wurde entwickelt von [[Claude Elwood Shannon]" - Shannon hat keine "Informationstheorie" entwickelt. Es ist ein Unding, daß immer und immer wieder falsch voneinander abgeschrieben und sogar so gelehrt wird.
Shannon hat stets darauf bestanden, daß er eine "Kommunikationstheorie" entwickelt hat, all dieweil die Information seinerzeit erst noch der Ergründung und Beschreibung bedurfte und weil diese substanziell weit über die Arbeit Shannons an den Signalen der Informations-Technik, der Kommunikation, hinausreiche und nichts mit seinen technisch mathematischen Erkenntnissen zu tun habe, er beschäftige sich mit Signalen, nicht mit Information. Signale können Information tragen, müssen aber nicht. Datenübertragung sei noch lange keine Informationsübertragung. (Leider von unterwegs, die Quellen nicht zur Hand, dürfte nicht schwer sein, sie bei Shannon zu finden). Lu.R. (nicht signierter Beitrag von 77.186.177.140 (Diskussion) 04:21, 5. Feb. 2012 (CET))
- was willst du uns damit sagen? die informationstheorie gibt es zweifellos, und Shannon hat wensentlich zu ihr beigetragen, auch wenn er sie nicht so genannt hat. wenn du anderslautende quellen findest, kannst du sie gerne posten. --Mario d 18:58, 6. Feb. 2012 (CET)
Übersetzung
Woher stammt „Mathematische Grundlagen in der Informationstheorie“ als Übersetzung von „A Mathematical Theory of Communication“?—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)
- Ist der deutsche Titel des Buchs, z.B. hier--Claude J (Diskussion) 16:38, 8. Aug. 2019 (CEST)
Entropie
Entropie verlinkt aktuell auf den physikalischen Begriff, nicht auf den aus der Informationstheorie.—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)
- Soll es auch, Informationstheorie im zweiten Teil des Satzes verlinkt auf die informationstheoretische Entropie.--Claude J (Diskussion) 16:40, 8. Aug. 2019 (CEST)
Shannon-Index
Sollte der Shannon-Index nicht irgendwo erwähnt werden? --Lsky (Diskussion) 15:24, 24. Jan. 2022 (CET)
- jetzt unter "siehe auch"--Claude J (Diskussion) 18:20, 24. Jan. 2022 (CET)