Claude Shannon

aus Wikipedia, der freien Enzyklopädie
Claude Shannon (um 1963)

Claude Elwood Shannon (* 30. April 1916 in Petoskey[1], Michigan; † 24. Februar 2001 in Medford, Massachusetts)[2] war ein US-amerikanischer Mathematiker und Elektrotechniker. Er gilt als Begründer der Informationstheorie.

Leben

Claude Shannon wurde in einem Krankenhaus in Petoskey, Michigan, geboren und wuchs im nahen Gaylord auf, dem Wohnsitz der Eltern. In manchen Biografien wird deshalb fälschlicherweise Gaylord als Geburtsort angegeben. Sein Vater war Richter, seine Mutter Sprachlehrerin deutscher Herkunft. Während seiner High-School-Zeit arbeitete er als Bote für die Western Union.

Er folgte 1932 seiner Schwester Catherine an die University of Michigan. Sie schloss in jenem Jahr das Mathematikstudium ab, und er begann ein Elektrotechnik- und Mathematikstudium. 1936 wechselte er mit einem Abschluss in Mathematik und Elektrotechnik an das MIT. In seiner Abschlussarbeit zum Master in Elektrotechnik (1937), A Symbolic Analysis of Relay and Switching Circuits,[3] benutzte er Boolesche Algebra zur Konstruktion von digitalen Schaltkreisen. Die Arbeit entstand aus der Analyse der Relais-Schaltkreise im Analogrechner Differential Analyzer von Vannevar Bush (Dekan der Ingenieurwissenschaften am MIT), den Shannon für Anwender programmierte. 1940 erwarb er seinen Doktortitel in Mathematik mit einer Arbeit über theoretische Genetik (An Algebra for Theoretical Genetics) am MIT.

Nach kurzem Aufenthalt als Forscher am Institute for Advanced Study in Princeton, New Jersey, kam er 1941 als Mathematiker zu den ebenfalls in New Jersey gelegenen AT&T Bell Labs. Dort lernte er Mary Elisabeth Moore, technische Assistentin am Microwave Research Department, kennen. Sie heirateten 1949, zwei Söhne und eine Tochter gingen aus der Ehe hervor.

Nachdem er schon 1956 eine Gastprofessur am MIT angetreten hatte, wechselte er 1958 ganz dorthin, als Donner Professor of Science. 1978 wurde er vom MIT emeritiert. Seine professionellen Beziehungen zu den Bell Labs als Berater hielt er währenddessen bis 1972. In seinen letzten Lebensjahren litt er an der Alzheimer-Krankheit, an deren Folgen er auch starb.

Werk

1948 veröffentlichte er seine bahnbrechende Arbeit A Mathematical Theory of Communication (dt. Mathematische Grundlagen in der Informationstheorie).[4][5] In diesem Aufsatz konzentrierte er sich auf das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen gestörten Kommunikationskanal übermittelte Information am Zielort wiederhergestellt, also ohne Informationsverlust dekodiert werden kann. Dabei konnte er den aus der Physik bekannten Begriff der Entropie erfolgreich in der Informationstheorie anwenden.

Gleichzeitig erschien von ihm der Artikel Communication in the presence of noise („Nachrichtenübermittlung bei Vorhandensein von Hintergrundrauschen“),[6] in dem er die Darstellung frequenzbeschränkter Funktionen durch die Kardinalreihe[7] nach John Macnaghten Whittaker (1929 und 1935) mit Überlegungen zur maximalen Datenrate, insbesondere von Harry Nyquist, zu einer Theorie der Kanalkapazität in der digitalen Signalübertragung verknüpfte. Vor ihm, jedoch ohne seine Kenntnis, publizierte Wladimir Alexandrowitsch Kotelnikow 1933 ein gleichlautendes Resultat. Demnach muss die Abtastfrequenz (Sampling rate) für ein Signal mindestens doppelt so groß sein wie die höchste Frequenz, die in ihm enthalten ist, um ohne Informationsverlust wieder in ein analoges Signal rekonstruiert zu werden (Nyquist-Shannon-Abtasttheorem).

Ein weiterer bemerkenswerter Artikel erschien 1949, Communication Theory of Secrecy Systems,[8] in dem Shannon die formalen Grundlagen der Kryptographie klärte und sie damit in den Rang einer eigenständigen Wissenschaft erhob.

Theseus Maze, MIT Museum, Cambridge, Massachusetts

Shannon war vielseitig interessiert und kreativ; er soll bei Bell jonglierend auf einem Einrad in den Gängen herumgefahren sein.[9] Randprodukte seiner beruflichen Tätigkeit sind unter anderem eine Jongliermaschine, raketengetriebene Frisbees, motorisierte Pogostöcke, eine Maschine zum Gedankenlesen, eine mechanische Maus (Theseus, 1950), die sich mittels eines einfachen Gedächtnisses bestehend aus Relais-Schaltkreisen in Labyrinthen orientieren konnte, und schon in den 1960ern ein früher Schachcomputer.[10] Eine Arbeit von 1950 befasst sich bereits mit Schachprogrammen.[11] Die Arbeit war einflussreich und führte zu dem ersten Schachspiel auf Computern auf dem MANIAC-Rechner in Los Alamos 1956. Er baute auch die „ultimate machine“, ein Kästchen mit einem Schalter, den eine mechanische Hand wieder auf „aus“ stellte, nachdem man ihn eingeschaltet hatte.[12][10] Nach ihm wurde die Einheit des Informationsgehaltes einer Nachricht, das Shannon, benannt.

Mitte der 1960er Jahre begann er sich für Finanztransaktionen zu interessieren und hielt darüber mehrfach am MIT gut besuchte Vorlesungen (einer seiner Hörer war Paul Samuelson). Er schlug ein heute Constant Proportion Rebalanced Portfolio genanntes Verfahren vor, um aus Zufallsfluktuationen des Marktes Gewinn zu erzielen (nach jeder Transaktion Aufteilung des Kapitals in genau zwei Hälften, eine für Spekulation, die andere Barreserve).[13]

Nach der Teilung von AT&T im Jahre 1996 wurde der Großteil der Bell Labs der neuen Firma Lucent Technologies zugeschlagen. Das Forschungslabor der AT&T in Florham Park, New Jersey, wurde ihm zu Ehren AT&T Shannon Laboratory[14] getauft.

Zu seinen Forschungsergebnissen im Bereich von Booleschen Algebren gehören der Inversionssatz sowie der Entwicklungssatz von Shannon.

Ehrungen

1939 erhielt er den Alfred Noble Prize. 1956 wurde er in die National Academy of Sciences, 1957 in die American Academy of Arts and Sciences und 1983 in die American Philosophical Society gewählt. 1966 erhielt er die National Medal of Science. Im Jahr 1970 wurde er zum Mitglied der Leopoldina gewählt. 1985 erhielt er den damals erstmals verliehenen Kyoto-Preis. 1991 wurde er zum auswärtigen Mitglied (Foreign Member) der Royal Society gewählt.[15]

Am 30. April 2016 – zum 100. Geburtstag – widmet ihm Google ein Doodle, das ihn beim Jonglieren mit drei Binärzahlen „0“, „0“ und „1“ zeigt.[16]

In seinem Heimatort Gaylord ist ein Park nach ihm benannt, in dem seine Skulptur steht.[17]

Siehe auch

Literatur

  • Neil Sloane, Aaron Wyner (Hrsg.): Claude Elwood Shannon: Collected Papers, New York 1993. ISBN 978-0-7803-0434-5.
  • R. Price: A conversation with Claude Shannon: one man’s approach to problem solving, Cryptologia, Band 9, Heft 2, 1985, S. 167–175 und IEEE Comm. Mag., Band 22, 1985, S. 123–126.
  • Warren Weaver, Claude Elwood Shannon: The Mathematical Theory of Communication. University of Illinois Press, Urbana Ill 1949. ISBN 0-252-72548-4.
    • Mathematische Grundlagen in der Informationstheorie. Übersetzt von Helmut Dressler. Oldenbourg, München 1976. ISBN 3-486-39851-2 (dt. Ausgabe).
  • Axel Roch: Claude E. Shannon. Spielzeug, Leben und die geheime Geschichte seiner Theorie der Information. gegenstalt Verlag, Berlin 2009. ISBN 978-3-9813156-0-8.
  • Ioan James: Claude Elwood Shannon 30 April 1916 – 24 February 2001, Biographical Memoirs of the Fellows of the Royal Society, Band 55, 2009, S. 257–265.
  • James Gleick: Die Information: Geschichte, Theorie, Flut, Redline Verlag 2011. ISBN 978-3-86881-312-8.
  • Jimmy Soni, Rob Goodman: A Mind at Play, Simon and Schuster, New York 2017. ISBN 978-1-4767-6668-3.
  • K. Jäger, F. Heilbronner (Hrsg.): Lexikon der Elektrotechniker, VDE Verlag, 2. Auflage von 2010, Berlin/Offenbach, ISBN 978-3-8007-2903-6, S. 401–402.

Weblinks

Commons: Claude Shannon – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

  1. Ioan James, Claude Shannon, Biographical Memoirs of Fellows of the Royal Society, Band 55, 2009, S. 259, PDF. Unter anderem in Robert Slater, Portraits in Silicon, MIT Press 1989, und in Guido Walz (Hrsg.), Lexikon der Mathematik, Spektrum Verlag, 2. Auflage 2017, wird zwar Gaylord angegeben, in den Nachrufen zum Beispiel in der New York Times (George Johnson: Claude Shannon, Mathematician, Dies at 84, 27. Februar 2001) steht aber Petoskey.
  2. Claude Elwood Shannon (1916-2001) – Find a Grave... Abgerufen am 15. Februar 2021.
  3. veröffentlicht in Transactions Institute American Engineering, Bd. 57, 1938
  4. Claude Elwood Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Short Hills N.J. 27.1948, (Juli, Oktober), S. 379–423, 623–656. ISSN 0005-8580
  5. Am Anfang war das Bit: zum 100. Geburtstag von Claude Shannon. In: heise online. Abgerufen am 30. April 2016.
  6. Claude Shannon: Communication in the Presence of Noise. Stanford University (PDF, englisch; 301 kB). Zuerst Proc. IRE Bd. 37, 1949, S. 10–21.
  7. Bezeichnung von Whittaker. Siehe Nyquist-Shannon-Abtasttheorem
  8. Claude Elwood Shannon: Communication Theory of Secrecy Systems. In: Bell System Technical Journal. Band 28, Nr. 4, 1949, S. 656–715 (ucla.edu [PDF]).
  9. Claude Shannon: The Juggling Unicyclist Who Pedaled Us Into the Digital Age. Auf: time.com, abgerufen am 6. April 2018 (englisch)
  10. a b Jon Gertner: The Idea Factory: Bell Labs and the Great Age of American Innovation. Penguin, New York 2012, ISBN 978-1-59420-328-2, Kapitel The Informationist und Man and Machine.
  11. Programming a computer to play chess, Philosophical Magazine, Bd. 41, 1950, Nr. 314
  12. Frank Thadeusz: Das Leben des Seltsamen. In: Der Spiegel. Nr. 45, Hamburg 2009. ISSN 0038-7452
  13. William Poundstone: Fortune’s Formula, 2005, Kapitel Shannon’s Demon (auf die Analogie zu Maxwell’s Dämon anspielend).
  14. AT&T Research Locations
  15. Eintrag zu Shannon, Claude Elwood (1916–2001) im Archiv der Royal Society, London
  16. 100. Geburtstag von Claude Shannon, Google, 30. April 2016. (englisch)
  17. Claude Shannon Park in seinem Heimatort Gaylord