Bit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Terabit)

Der Begriff Bit (Kofferwort aus englisch binary digit)[1] wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet:

  • als Maßeinheit für den Informationsgehalt (siehe auch Shannon, Nit, Ban). Dabei ist 1 Bit der Informationsgehalt, der in einer Auswahl aus zwei gleich wahrscheinlichen Möglichkeiten enthalten ist. Der Informationsgehalt kann ein beliebiger reeller, nicht negativer Wert sein.
  • als Maßeinheit für die Datenmenge digital repräsentierter (gespeicherter, übertragener) Daten. Die Datenmenge ist der maximale Informationsgehalt von Daten mit gleich großer Repräsentation. Das Maximum stellt sich ein, falls alle möglichen Zustände gleich wahrscheinlich sind. Das Maximum ist ein ganzzahliges Vielfaches von 1 Bit. Es ist die Anzahl der für die Darstellung verwendeten binären Elementarzustände.
  • als Bezeichnung für eine Stelle einer Binärzahl (üblicherweise mit den Ziffern „0“ und „1“) oder allgemeiner für eine bestimmte Stelle aus einer Gruppe binärer Stellen.

Wortherkunft

Das Wort Bit ist eine Wortkreuzung aus

binary digit

englisch für „binäre Ziffer“ oder auch Binärziffer.[1] Es wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943, vorgeschlagen. Schriftlich wurde der Begriff zum ersten Mal 1948 auf Seite eins von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication[2] erwähnt. Die Bits als Wahrheitswerte verwendete George Boole als Erster.

Schreibweise

Die Maßeinheit heißt „Bit“ und hat – der IEC nach – „

bit

“ als Einheitenzeichen;[3][4] das alternative „b“[5] ist ungebräuchlich.[6] So wie man „100-Meter-Lauf“ und „100-m-Lauf“ schreiben kann, kann auch „32-Bit-Register“ und „32-bit-Register“ geschrieben werden. Insbesondere für die Angabe von Datenraten sind Einheitenvorsätze gebräuchlich, z. B. Mbit/s für Megabit pro Sekunde. Die Einheit wird nur im Singular verwendet, während der Plural für bestimmte „Bits“ einer Gruppe verwendet wird.

Darstellung von Bits

Anzahl
der Bits der Zustände
0 1
1 2
2 4
3 8
4 16
8 256
10 1024
12 4096
16 65 536
32 4 294 967 296
64 1.844674407e19

Die kleinstmögliche Unterscheidung, die ein digitaltechnisches System treffen kann, ist die zwischen zwei Möglichkeiten, in der Informatik auch als Zustände bezeichnet. Ein Paar definierter Zustände, zum Beispiel

  • Ein oder Aus bei der Stellung eines Lichtschalters,
  • geringer Widerstand oder hoher Widerstand beim Schaltzustand eines Transistors,

repräsentiert ein Bit.

In der digitalen Schaltungstechnik werden Spannungspegel zur Darstellung verwendet, die innerhalb einer Bauart (Logikfamilie) in definierten Bereichen liegen, siehe Logikpegel. Liegt die Spannung im hohen Bereich, so liegt der Zustand H vor, im unteren Bereich L (von engl.

high, low

).

Symbolisch, unabhängig von der physischen Repräsentation, werden die zwei Zustände eines Bits notiert als

  • wahr bzw. falsch (bei einer booleschen Variablen) oder
  • 1 bzw. 0 (bei einer Binärstelle einer numerischen Variablen)

Die Zuordnung H1, L0 heißt positive Logik, die umgekehrte Zuordnung negative Logik.

Während bei der Verarbeitung von Daten die physische Repräsentation mit zwei Zuständen vorherrscht, verwenden manche Speichertechnologien mehrere Zustände pro Zelle. So kann eine Speicherzelle 3 Bit speichern, wenn 8 verschiedene Ladungszustände sicher unterschieden werden können, siehe Tabelle. Ähnlich werden bei vielen Funkstandards mehrere Bit je Symbol übertragen, siehe z. B. Quadraturamplitudenmodulation.

Umgekehrt können mit n Bits, unabhängig von ihrer physischen Repräsentation, 2n verschiedene logische Zustände kodiert werden, siehe Exponentialfunktion. Mit beispielsweise zwei Bits können 22 = 4 verschiedene Zustände repräsentiert werden, z. B. die Zahlen Null bis Drei als 00, 01, 10 und 11, siehe Binärzahl.

Bitfehler

Wenn sich einzelne Bits aufgrund einer Störung bei der Übertragung oder in einem Speicher ändern, spricht man von einem Bitfehler. Ein Maß dafür, wie häufig bzw. wahrscheinlich Bitfehler auftreten ist die Bitfehlerhäufigkeit.

Es gibt Verfahren, die bei der Übertragung und Speicherung von Daten derartige Fehler erkennen und in gewissen Grenzen selbst korrigieren können, siehe Kanalkodierung. Im Allgemeinen erzeugen sie dazu gerade so viel Redundanz in der Information, wie für den Sicherheitsgewinn nötig ist.

Qubits in der Quanteninformationstheorie

Das Quantenbit (kurz Qubit genannt) bildet in der Quanteninformationstheorie die Grundlage für Quantencomputer und die Quantenkryptografie. Das Qubit spielt dabei analog die Rolle zum klassischen Bit bei herkömmlichen Computern: Es dient als kleinstmögliche Speichereinheit und definiert gleichzeitig als Zweizustands-Quantensystem ein Maß für die Quanteninformation. Hierbei bezieht sich „Zweizustand“ nicht auf die Zahl der Zustände, sondern auf genau zwei verschiedene Zustände, die bei einer Messung sicher unterschieden werden können.

Trivia

Im Januar 2012 gelang es, 1 Bit (2 Zustände) in nur 12 Eisenatomen zu speichern, die bisher geringste Atomanzahl für magnetisches Speichern. Dabei konnte eine stabile Anordnung/Ausrichtung der Atome für mindestens 17 Stunden nahe dem absoluten Nullpunkt der Temperatur nachgewiesen werden.[7]

Zum Vergleich:

  • Aktuelle NAND-Flash-Zellen benötigen etwa eine Million Elektronen zur Speicherung eines Bits über 10 Jahre bei Raumtemperatur.
  • DNA hat einen Informationsgehalt von 2 Bit je Basenpaar und hat je Bit eine Molekülmasse von etwa 315 Dalton statt 672 bei obigen 12 Eisenatomen.

Einzelnachweise und Anmerkungen

  1. a b Bit (Einheit in der EDV). Duden, Bibliographisches Institut, 2016
  2. Claude Elwood Shannon: A Mathematical Theory of Communication. (PDF) In: Bell System Technical Journal, Band 27, S. 379–423 und 623–656, Juli und Oktober 1948.
  3. IEC 60027-2,
    Ed. 3.0
    , (2005–2008):
    Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics
  4. DIN EN 80000-13: Größen und Einheiten – Teil 13: Informationswissenschaft und -technik (IEC 80000-13:2008), 2009, Eintrag 13-9.b
  5. nach IEEE 1541 und IEEE 260.1
  6. „b“ als Einheitenzeichen kann leicht verwechselt werden mit „B“ – dem Einheitenzeichen für das Byte und das Bel
  7. Science, Bd. 335, S. 196, doi:10.1126/science.1214131