Diskussion:Bit/Archiv

aus Wikipedia, der freien Enzyklopädie

Unklarheiten im Artikel

Benutzer:BJOTO
Als Laie hätte ich echte Probleme damit zu verstehen was mit all dem gemeint ist was da steht.
Vielleicht sollte man erstens mal darauf eingehen das ein Bit eine anliegende Spannung an einem Bereich ist Spannung = 1 und keine 0 und somit erst mal ein Zustand. Ein Prozessor, Speicher verarbeitet nur diese Zustände -> Richtig ?

Wie werden diese Zustände wieder umgewandelt ?
Binäre berechnung von Zahlen mit hilfe der BIT ?
Darstellung von Buchstaben und Zahlen mit BIT
Bit Arrays
Erklärungen :
Halbbyte = 4 BIT - Halbwort
Vollbyte = 8 BIT - Vollwort
Berechnung und Darstellung wie hier ? : http://www.thefox.ch/prog/decbin.php
Mir persönlich reicht dieser Artikel überhaupt nicht !
Wer anderer Meinung ist kann das Überarbeitungszeichen gerne wieder rausnehmen.
THX BJOTO -- 14:30, 24. Feb 2007 (CEST)


der Übergang von Pit zu Land kennzeichnet eine 1 - und was ist dann die 0? Übergang von Land zu Pit oder keine Änderung? -- WikiWichtel fristu 18:59, 6. Mär 2004 (CET)


Ich habe diesen Absatz mal entfernt:

Tatsächlich wird auf der CD jedes einzelne Bit durch eine kleine, eingeprägte, oder mit einem Laser-Strahl eingebrannte, Vertiefung dargestellt. Das Nicht-Vorhandensein ("Land") oder Vorhandensein ("Pit") solcher Vertiefungen an bestimmten Stellen entspricht hier aber nicht den Bit-Informationen 0 und 1, sondern der Übergang von Pit zu Land kennzeichnet eine 1. Damit längere Folgen von Nullen hierbei keine Probleme machen, werden für ein Byte (8 Bits) auf einer CD 14 Bits tatsächlich aufgezeichnet.

Er bringt hier nicht so viel, da bei der Datenspeicherung im ISO 9660 Format auf einer CD halt nur die 8 bit gezählt werden, da auch nur die 8 bit genutzt werden können. Dass dies bei anderen Schreibmethoden anders ist, spielt hier keine Rolle. --Supaari sag'smir! 15:36, 27. Okt 2004 (CEST)

Nun es ist so: Jeder Übergang Pit-Land und Land-Pit zählt als 1, jede nicht-änderung zählt als 0. Je 2 1er haben immer zwischen 2 und 11 0er Zwischen sich. Andere Zahlen fallen dann raus aus dem 14-Bit-Code. So wird aus einem 14 Bit-Code ein 8-Bit-Code. Technisch ist es schwierig weniger als 2 Nullen auf jede 1 folgen zu lassen. Welche 14-Bit-Folge welcher 8-Bit Folge entspricht ist dabei im sogenanntm "Red Book" festgehalten.

Definition unklar

Es gibt noch andere wichtige Fragen in dem Zusammenhang, die man einvernehmlich klären sollte. Ein Artikel Bit sollte meiner Meinung nach die Definition beinhalten -kleinste Informationseinheit- dann einen Verweis zu einer "vernünftigen" Definition von Information, und sodann Möglichkeiten zur "Verkörperung" von solchen Informationen. Also: Ein Bit existiert genau dann, wenn ein Informationsträger zwei Zustände annehmen kann, ein Mechanismus besteht, der gezielt einen solchen Zustand herstellt und ein weiterer Mechanismus besteht, der das vorhandensein dieses Zustandes feststellen kann. Ansonsten macht es keinen Sinn, über ein Bit zu reden. Weiterhin muss man sich klarmachen, dass das Bit dann ein Symbol ist für ein hoch komplexes Etwas, das in einer anderen (Begriffs-)Welt existiert.

Ob jetzt ein Bitwert 0 als Land oder See repräsentiert wird, ist eine technologische Frage. Oft ist es sogar sinnvoll, mehre Bits zusammenzufassen zu einer größeren Informationseinheit und diese dann redundant abzuspeichern. Das kann man gut diskutieren, dazu muss aber zuerst der "philosophische" Begriff losgelöst von der Technologie geklärt werden. RaiNa 11:06, 7. Mär 2004 (CET)


So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, Sein oder Nichtsein...

Sein oder Nichtsein?? --brunft 20:32, 8. Mär 2004 (CET)


Zugegeben etwas theatralisch - aber das gehört doch dazu... Und letztlich stimmts auch: ich kämpfe gerade um das (über)Leben meiner zweiten Platte, wo sich ein paar Sektoren nicht mehr lesen lassen.

Zu fristu: umgekehrt genau so (von Land nach Pit = 1). Zu RaiNa: ohne diese Mechanismen wäre das Ganze recht witzlos (und die Technologie spielt wirklich eine sehr untergeordnete Rolle). Ich finde den Artikel mittlerweile recht rund. Information ist übrigens wohl definiert: als Wissen, das zur Problemlösung benötigt wird. Hilft hier aber nicht so sehr weiter... --Myr 19:05, 9. Mär 2004 (CET)



Wie Du ja selber schreibst: "etwas theatralisch" - und genau deshalb gehört es hier nicht hin, weil das nichts mit Bits oder digitaler Darstellung zu tun hat. -- WikiTatze 11:02, 17. Mai 2008 (CEST)

Kilo, Mega, ...

In einem Punkt ist der Artikel schlichtweg falsch. Die Bezeichnungen Kilo, Mega, ... Bezeichnen auch in der IT Mengen von Tausend bzw. Millionen. Die Richtigen Präfixe kann man unter http://physics.nist.gov/cuu/Units/binary.html finden. Dazu gibt es Normen von IEC und IEEE sowie einen Entwurf von DIN die exakt die selben Präfixe verwenden. -- Nicht Registriert, 04:40, 24. Mai 2004 (CET)


Eine Umstrukturierung wie sie RaiNa vorschlägt finde ich ebenfalls sehr sinnvoll.

Der Kritik von 'Nicht Registriert' bezüglich kilo, mega kann ich nur zustimmen. Allgemein lässt sich sagen:

-) In der Halbleitertechnik (Speicher, CPU, ..) bedeuten die Präfixe 210
-) Bei den Festplatten bedeuten die Präfixe 103

Einzig eindeutiges Präfix sind k und K:

-) k (klein geschrieben) steht für 1000
-) K (gross geschrieben) steht für 1024

Leider werden k und K von vielen nicht richtig benutzt was letztendlich wohl zu den Bestrebungen der Normungsinstitue mit KiBi etc.

20. August 2004 by schg

Muss hier zwar nicht nochmal diskutiert werden. k vs. K ist aber unsinnig, da es bei M eben nicht funktioniert. M steht fuer Mega, m fuer milli, bei G waere es Giga vs. Gramm. Letztlich steht K schon fuer Kelvin. --82.141.58.95 00:09, 1. Dez 2005 (CET)

2009-03-19 by ormon

K ist definitiv KELVIN und kein Synonym für 1024. "K" wird auch immer wieder fälschlicherweise für 10^3 verwendet, was ebenfalls falsch ist. Noch ein Zitat aus des NIST dazu http://physics.nist.gov/cuu/pdf/SIFedReg.pdf "Because the SI prefixes strictly represent powers of 10, it is inappropriate to use them to represent powers of 2. Thus 1 kbit = 10^3 bit = 1000 bit and not 2^10 = 1024 bit, where 1 kbit is one kilobit."

Weitere Quellen von Normungsinstuten:

http://physics.nist.gov/cuu/Units/binary.html http://www.iec.ch/zone/si/si_bytes.htm http://webstore.iec.ch/preview/info_iec60027-2{ed3.0}b.pdf IEC INTERNATIONAL STANDARD 60027-2

Hier sollten endlich mal Fakten und weniger Glauben oder gefühltes Wissen herumgeschrieben werden.

--82.207.169.34 14:15, 19. Mär. 2009 (CET)

Definitionsversuche

Die ursprüngliche Definition des Bit kommt wohl aus der Nachrichtentechnik:

-) Das Bit ist die Einheit der Information
-) Das Bit ist der negative 2er-Logarithmus der Wahrscheinlichkeit

In einem System in dem die Wahrscheinlichkeit 50% ist dass etwas zutrifft ist die Information (Informationsmenge?) 1 Bit.

Beispiel 1
In einem System das 2 Zustände annehmen kann (zB 0 oder 1, High oder Low, Spannung oder keine Spannung) ist die Wahrscheinlichkeit für jeweils einen der beiden Zustände 50%.

Mit üblichen Taschenrechner funktioniert es so:

So wird es dann normalerweise auch in der Informationstechnik angewendet und stellt damit auch die kleinste Informationsmenge der IT dar.

Beispiel 2
Pferderennen, ich setze auf einen Aussenseiter dem 5% Siegeschancen zugestanden werden. Meine Erwartungshaltung dass es nicht gewinnt ist daher 95%:

Wenn das Pferd nun wirklich nicht gewinnt Enhalten die Nachrichten im Radio eine Informationsmenge von 0{,}014 Bit -> No, Na - das hättens nicht durchsagen brauchen, hat ja eh jeder damit gerechnet!
Gewinnt nun aber das Pferd ergibt dies eine Informationsmenge von

Wird nun in den Nachrichten gebracht dass das Pferd doch gewonnen hat dann ist jeder überrascht - Oh Wunder. Diese Nachricht hat einen grossen Informationsgehalt!

20. August 2004 by schg


Ich glaube, Du meinst die Maßeinheit Shannon für den Informationsgehalt (nicht Information oder Informationsmenge). Bit ist aber die Maßeinheit für die Informationsmenge (Datenmenge). Da Bit von Binary Digit, also Ziffer, die zwei Zustände darstellen kann, kommt, würde ich sagen bezeichnet die Einheit Bit die Menge an Information (ohne den Informationsgehalt zu beachten), die gemessen wird in: Verwendete Anzahl von binären Variablen zur Abbildung der Information. --Supaari sag'smir! 19:12, 20. Sep 2004 (CEST)

Bit und bit

1 bit

  • 1 bit ist die Einheit, in der Binäreintscheidungen gezählt werden.
  • Die Schreibweise beginnt mit einem Kleinbuchstaben

Bit

  • Das Bit (Plural: Bits) bezeichnet dagegen eine Binärziffer, d.h. eine einzelne Stelle eines Binärcodewortes
  • Die Schreibweise beginnt mit einem Großbuchstaben.
  • Das Wort ist die Abkürzung für Binäry Digit (Binärziffer)
Das habe ich auch schon mal gehört. Ich denke, das wäre eine wichtige Anmerkung, die im Artikel beachtet werden sollte, wenn es denn wirklich stimmt. Kannst Du vielleicht eine Quelle nennen, damit sicher ist, dass wir keine Randgruppenkonventionen in den Artikel schreiben? --Supaari sag'smir! 15:46, 27. Okt 2004 (CEST)
In der deutschen Sprache ist das äußerst unwahrscheinlich, meiner Ansicht nach falsch, da Substantive in Deutsch standardmäßig immer groß geschrieben werden (Ausnahme sind lediglich manche Markennamen, oder wenn keine Großbuchstaben verwendet werden (können)). Vielleicht kommt diese Unterscheidung aus einer anderen Sprache? --Hutschi 15:54, 27. Okt 2004 (CEST)
Hmm, ich habe zwar gerade ein Buch (W. Alex und G. Bernör, Einführung in UNIX und C), was das genauso erklärt, aber ich denke, ich kann Hutschi recht geben, denn fast alle anderen deutschsprachigen Informatik-Grundlagen-Skripte, die ich im Internet gefunden habe benutzen "Bit" ausschließlich groß geschrieben. Egal ob es gerade als Maßeinheit oder als Abkürzung für Binärziffer verwendet wird. Über das Plural-s bei mehreren Bits sind sich die Autoren allerdings uneinig. Ich denke aber auch bei einer Maßeinheit kann ein Plural-s nicht schaden, z.B. heißt es ja auch 22 Jahre oder 2 Gigaflops. Nach einigem Überlegen komme ich außerdem zu der Ansicht, dass sich die Angabe der Informationsmenge (gemessen in Bit) nicht von der Angabe einer Anzahl von Binärziffern unterscheidet. X Binärziffern stellen immer eine Informationsmenge von X Bit dar und X Bit sind nur X Bit, wenn sie durch X Binärziffern dargestellt werden können. Das einzige, was vielleicht im Artikel noch erwähnt werden sollte, ist, dass das Kürzel für Bit b und für Byte B ist. --Supaari sag'smir! 18:28, 27. Okt 2004 (CEST)
Ich stimme Hutschi im Wesentlichen auch zu. Substantive werden in Deutschland groß geschrieben, egal aus welcher Sprache sie entliehen sind. Einheiten werden dagegen in irgendeiner Norm geregelt. Im Bereich der Informationstechnik sind die Normen zum Teil noch sehr jung (2000), so dass zur Zeit langsam eine Umstellungsphase einsetzt. Im folgenden möchte ich das am Beispiel Meter und Mol erläutern:
Werden Meter und Mol als "normales" Wort gebraucht, so schreibt man sie groß. Also "Ich habe mehrere Meter Ethernet-Kabel gekauft." und "Ich habe ein paar Mol Sauerstoff für schlechte Zeiten deponiert." ;-) Demgemäß muss es dann wohl heißen "Auf deinem Speicherchip kann man aber nur wenige Bit speichern." (Großschreibung ist denke ich klar hier. Aber wie sieht es mit der Pluralbildung aus?)
Bei Einheiten gelten dagegen die Regeln von Normen. Im Falle von Bit dürfte das eine IEC-Norm sein. Sie ist mir leider nicht zugänglich; vielleicht kann da jemand aushelfen. Aber wieder zurück zu den Beispielen: "Ich habe 10 m Ethernet-Kabel gekauft." "Ich habe 4 mol Sauerstoff für schlechte Zeiten deponiert." (mol klein hier). Bei Bit weiß ich nicht, ob IEC "b", "bit" oder beides als Einheit definiert. Nachdem es "kbit/s" heißt, kann aber das groß geschriebene "Bit" eine Einheit sein. Einheiten werden mathematisch beliebig zusammengesetzt, ohne Wechsel der Schreibung. Also etwa: "Auf deinem Speicherchip kann man aber nur 200000 bit speichern." Vielleicht auch: "Auf deinem Speicherchip kann man aber nur 200000 b speichern." Dazu passen dann "10 kbit/s" und "10 kb/s". Eine Unterscheidung nach Datenrate und Datenmenge ist bei Einheiten normalerweise nicht vorgesehen. Hier werden mehrere Einheiten einfach zusammengesetzt. Walter
Hmm, ein sehr alter Thread! Aber na gut: der anonyme Monierer hat meiner Meinung nach völlig recht!! Das deckt sich nämlich mit der Aussage meines damaligen FH-Professors! Der meinte auch, wir sollen bitte "1 Bit" (das Bit selber) und "1 bit" (den Informationsgehalt) unterscheiden lernen. Also für eine Unterscheidung derselben wäre ich sehr zu haben! -andy 78.51.73.91 03:10, 3. Jun. 2008 (CEST)
Gibt es einen Beleg dafür, daß Bit von "binary digit" kommt? Es mag ja inzwischen ein fest verankerter Glaube sein, aber bisher habe ich nur Literatur gefunden, die diese Zuweisung als "Backronym", also als nachträglich angefügte Bedeutung, anführt. Solange kein Beleg vorhanden ist, bin ich dafür, die Behauptung als solche zu kennzeichnen. --Douba 10:08, 25. Nov. 2009 (CET)

Laienfrage

Als Laie erhoffte ich mir, zu erfahren, wie ein Computer mit nur 2 Zuständen, (Strom, nicht Strom), komplexe Aufgaben erfüllt. Ich meine, selbst das Morsealphabet hat zwar im Prinzip auch nur 2 Zeichen, aber effektiv doch 3, nämlich die Pause zwischen den Wörtern, denn ansonsten wüsste man ja nicht, wo welches Wort anfängt und welches aufhört. Versteht ihr mein Verständnisproblem? Ich versuchs mal so: Die kleinste Informationseinheit ist doch ein Bit, für den Computer jedoch ein Byte, also 8 Bit. Doch wie versteht der Computer, wo und wann ein Byte anfängt und aufhört? Sorry, bin eben ein Laie...

Das ist tatsächlich keine triviale Frage. Beim Morsealphabet ist es so, dass es in Wirklichkeit drei Zeichen hat: kurzer Ton, langer Ton und Pause. (Eventuell sogar 4: kurzer Ton, langer Ton, kurze Pause, lange Pause.) Das Feststellen, wann ein Text beginnt, erfolgt über die Pause und meist mit einer Anfangskodierung (Meldung des Senders).
Beim Computer gibt es so etwas ähnliches: Wenn ein Computer ein externes Signal empfängt, muss er zunächst den Anfang feststellen. Dazu kann ein zweites Signal dienen, dass den Zustand angibt: Ich beginne jetzt zu senden. Es kann aber auch einfach eine genügend lange Pause da sein. Ein Bit kann auch durch Frequenzunterschiede oder Phasenverschiebungen dargestellt werden. Beispiel: 1kHz-Ton=1 2Khz-Ton=0. Man muss noch eine Vereinbarung zur Länge der Töne treffen. Analog zum Morsealphabet könnte man nach jedem Bit aber auch eine Pause einlegen. Auf elektronischen Speichern kann der Platz eines Bits festgelegt sein, z.B. eine spezielle Speicherzelle enthält die Information. Auf einer Festplatte kann eine Position festgelegt sein, die durch eine Synchronspur bestimmt ist. Es sind aber auch viele andere Verfahren möglich. Ich habe noch vor etwa 20 Jahren an einem Computer gearbeitet, an dem man Bits mit Hilfe einer Art Klaviatur eingeben konnte, also Schaltern, die jeweils ein Bit darstellen. Auf Lochbändern ist die Position eines Bits durch seinen Platz und durch ein (kleineres) Positionsloch bestimmt. Das eigentlich wesentliche ist, dass man zwei verschiedene Zustände unterscheiden können muss und entsprechend zuordnen können muss. Solche Zustände können auch Zustandsänderungen sein, z.B. der Zeitpunkt des Umschaltens. Um festzulegen, wann ein Byte beginnt, gibt es auch verschiedene Möglichkeiten. Zum Beispiel ebenfalls die Position im Speicher. Bei einem Datenstrom (Telefonleitung) kann man auch mit einem Startbit beginnen. Dann folgt das Byte. Man kann aber auch ein zweites Signal senden, dass das Byte anzeigt. Wichtig ist, dass Sender und Empfänger sich auf das entsprechende Verfahren verständigen. --Hutschi 15:28, 4. Mär 2005 (CET)


Die kleinste Einheit ist auch für einen PC 1 Bit. Dass 8 Bit zu einem Byte zusammegefasst werden liegt daran, dass für die Kodierung von Zeichen verschiedene Bitmuster verwendet werden. (ASCII-Code ist ein 8Bit Code, dh. jedes Zeichen hat ein äquvalentes 8 Bit Muster). Wenn für jedes Zeichen immer gleich viel Bits verwendet werden, so weis der Computer auch wann ein Zeichen (oder auch Byte) anfängt und wo es aufhört. Codes mit immer gleicher sogenannter Wortlänge werden Blockcodes genannt. Mit diesen Blockcodes arbeitet normalerweise jeder Computer, es gibt dennoch Ausnahmen in denen keine Blockcodes verwendet werden (zB gepackte Dateien).
In der Codierung gibt es Verfahren um für die Zeichen eines Alphabets verschieden lange Bitmuster zu verwenden. In diesen Fällen kann der Computer nicht davon ausgehen dass ein Zeichen 8 Bit lang ist. Um dennoch jedes Zeichen richtig zu erkennen muss die Fano-Bedingung gelten, kurz es darf keine Kombination von Bitmustern möglich sein die ein anderes Zeichen ergibt. Eine Codierungsverfahren das immer die Fano-Bedingung einhält ist das Huffman-Codierung.
Als dritte Möglichkeit die für den Computer einen eindeutige Zuordnung für jedes Byte ermöglicht wäre eine Escapesequenz. So wie bei dem Morsealphabet die Pause. Wird aber meines Wissens so in der Form nicht verwendet. Es gibt zwar bei Bussystemen die Tristatetreiber die einen dritten hochohmigen Zustand erzeugen damit ein Register von dem Bus "getrennt" ist, sonst entstehen Kurzschlüsse. Hat aber mit der Problematik nur sehr wenig zu tun.
-- DwG 18:50, 28. Jan 2006 (CET)

Megabit

Die Speicherkapazität von Modulen z.B von Konsolen wie dem Neogeo, GBA oder N64 werden in Megabit angegeben, dabei ist war stets das achtel eines Megabytes gemeint, also des heutzutage Mebibytes. Kann mir mal jemand sagen wieso das nicht in der Tabelle steht?

Das steht unter Megabit nur Mbit = 10hoch6 oder 2hoch20 also 1000000 oder 1028576 Bytes, aber ein Megabit ist doch was ganz anderes nämlich nur ein achtel davon!

Also ich seh das so, die IECC oder wie diese Verbrecher heißen, haben das alte orginale Megabyte umdefiniert zum mebibit, aus dem alten Megabyte haben sie dann das 10hoch6 Megabit gemacht, das dieses selber aber schon vergeben war, nämlich für die Speicherkapazität von Chips haben sie dabei völlig ignoriert.

Jetzt haben wir das alte wie das neue Megabit einmal für 10hoch6 und einmal für 128 kibibit (früher Kilobyte) Diese Verbrecher haben also nicht nur alle Bezeichnungen verdoppelt für lauter neuer 10er Potenzen die eh kaum gebrächlich waren ausser den Festplattenkapazität-Fakern, sie haben dabei auch das alte klassische Megabit auch einfach ersatzlos gestrichen, das steht jetzt nur noch irgendwo im Raum und nirgends und keiner weiß so Recht in welche Norm das gehört!

Ich könnte ausrasten, das irgendwie im Kopf zu behalten, ist nämlich nicht schwieriger oder leichter als wie früher mit den 1,44Mbyte Disketten die in Wirklichkeit auch das Megabyte zu 1000 Kilobte umdefiniert haben!!

Ich finde die Wikipedia hat hier völlig voreilig neue Vorgaben zum Standard erklärt und ist überhaupt nicht auf die Probleme die daraus resultieren eingegangen! Niemand hatte das Recht die alten Binärpräfixe im Namen zu ändern, nur wegen lauter dämlicher 10er Potenzen. Damit ist man den Festplatten-Fälschern zwar entgegen gekommen, alle Ehrlichen vorher, eben z.B die Mbit-Fraktion wird aber dadurch in die Ecke gestellt, das ist eine ganze gemeine Nachläßigkeit der Iecc Bürokraten und der Wikipedia-wir-machen-alles-neue-mit-egal-wie-doof Fraktion! 217.88.148.130 01:57, 24. Nov 2005 (CET)

Das Problem äußerte sich im Artikel dann logischerweise schon in diesem Satz: für die Angabe der Kapazität einzelner Speicherchips (hier allerdings mit Binärpräfixen); Beispiel: ein 512-Mb-Chip (Megabit, nicht zu verwechseln mit MB)

Das ist es! Es geht jetzt nur noch darum etwas (nicht zu verwechseln) Die neue Mbit Definition ist nämlich mit der gebräuchlichen für Chips überhaupt nicht in Einklang zu bringen! So macht man Standards alte wie neue kaputt und zieht sie ins lächerliche! Das geht offenbar schon soweit das man nichtmal mehr weiß was ein Bit ist, früher war das mal 1 oder 0 bzw. Ja oder nein!

Ich glaub ich schau jetzt Tron, da war die Welt noch in Ordnung... 217.88.148.130 02:33, 24. Nov 2005 (CET)

Gewoehne Dir doch bitte einen besseren Ton an und lies Dir den Artikel Internationales Einheitensystem durch. Auch Du wirst in der Schule gelernt haben, wofuer Kilo und Mega stehen. Die Legende vom boesen Festplattenhersteller herauszukramen ist einfach nur traurig. Hier eine Diskussion anzufangen ist sowieso ueberfluessig, da dies bereits an anderer Stelle z.B. Diskussion:Byte erfolgt ist. --82.141.58.95 00:19, 1. Dez 2005 (CET)

Mbit vs Mbit/s

Also was ganzen unten dazu im Artikel steht, dass bei Mbit das M mit der Basis zwei 'arbeitet' und bei Mbit/s die Basis 10 verwendet wird höre ich zum ersten mal. Weder im Studium noch später im Beruf habe ich das bisher gehört. M bedeutet Mega und ist klar in den entsprechenden Normen definiert. k bedeute 1000, K bedeutet 1024, M etspricht hier 1024*1024 völlig unabhängig ob pro Zeiteinheit oder nicht.

Nein, bei Uebertragunsraten wird das SI-System benutzt. So uebertraegt eine DSL 6Mbit/s Leitung genau 6 Mb (6 000 000 000 bit) und nicht 6 MiB. K bedeutet uebrigens Kelvin, du meinst wahrscheinlich Ki.

Es wäre Praktisch die suche unter eingabe von "gbps" auf diese Seite zu verlinken, und ne kleine Info miteinzubauen das des Gigabit per second heißt --Docheinen 19:02, 2. Mai 2006 (CEST)

Falsche Schreibweise MBit/s (Ergänzung)

Mir ist aufgefallen, dass man diese falsche Schreibweise in Werbung und Medien wesentlich häufiger sieht und sich allgemein durchzusetzen scheint. Vielleicht aus Unwissen oder Ignoranz, vielleicht aber auch bloß, weil es ortographisch schöner aussieht!! Auf jeden Fall denke ich, dass es sinnvoll ist, darauf einzugehen. --w-sky 17:56, 27. Mai 2006

Das finde ich auch, ich finde sogar dass heute mehr Groß geschrieben wird als früher. Die momentane Definition der Groß- und Kleinschreibung finde ich zu sehr Mehrdeutig. Es ist eine Einheit und die wird klein geschrieben egal welche Sprache (nicht das Bit an sich). Man hat ja immer mehr Progrämmchen (in deutsch) die es als 32-bit oder 64-bit gibt und dem entsprechend auch namentlich Verknüpfungen erstellt. Dort ist bei mir alles klein sogar von Microsoft (welche aber auch wieder typisch eigen, gleichzeitig eine mit Großschreibung haben) -- Perhelion 23:07, 15. Dez. 2010 (CET)

Einlassung von Blaubirke

Blaubirke hat da eine Änderung gemacht und nicht verstanden, was daran falsch ist. Dem Bit ist es wirklich egal, ob er im Lotto gewonnen hat und ob die Null eine Wahrscheinlichkeit hat, eine Eins zu sein. Nach seiner Definition ist eine Speicherstelle, die ich 128 mal beobachte, dabei 64 mal 1 und 64 mal 0 erhalte, ein Bit groß, während eine Speicherstelle, die 1 mal 1 und 127 mal 0 ist, 8 Bit groß ist. Da ich keine Lust mehr habe, mich mit irgendjemandem zu streiten und nur versehendlich vergessen habe, mich vorher abzumelden, soll bitte ein anderer das wieder richtig stellen. Danke RaiNa 18:53, 21. Jul 2006 (CEST)

Es ist schon richtig, dass es dem Bit egal ist was darin abgespeichert wird. Aber es ist dem Bit auch egal ob er für etwas überhaupt abgespeichert wird. Wenn aber von Informationsmenge (das ist doch das selbe wie Informationsgehalt oder nicht?) geredet wird, dann ist es auch schon entscheidend was gespeichert wird. Wenn die Bitfolge einfach dubliziert wird, dann steht da ja auch nicht mehr "Information" da (auch wenn sich die Speicherbelegung verdoppelt). Wenn ich etwas falsch verstanden habe, dann erklär mir doch bitte was. Nur zu behaupten etwas sei falsch ist nicht überzeugend und hilft nicht der Wahrheitsfindung.
Ich würde auch gerde wissen, was du mit "nur versehendlich vergessen habe, mich vorher abzumelden" gemeint hast. --Blauebirke ☕✍  19:39, 21. Jul 2006 (CEST)
Wenn das was du schreibst gemeint ist, (und das scheint wirklich so zu sein), dann sollte der Begriff Datenmenge wie auch weiter oben im Artikel verwendet werden. Habe entsprechend geändert. Unter Diskussion:Bit#Definitionsversuche war schon eine ähnliche Diskussion. --Blauebirke ☕✍  17:30, 24. Jul 2006 (CEST)

Wie viele Informationen sind 2000 BIT

Hallo, ich habe eine Frage. Kann jemand erklären, wie viele Informationen in 2000 BIT Stecken? Also wie viele Bilder oder wie viel Musik! Ich weiss, es ist schwer zu verstehen, aber ich habe gelesen, unser Gehirn nimmt 2000 BIT pro Sekunden an Informationen auf. Ich würde dies gerne veranschaulichen. Vielen Dank (nicht signierter Beitrag von Biologie2000 (Diskussion | Beiträge) )

Naja.. ne komische Frage, und keine Informationen was für Bilder oder Musik du vergleichen möchtest. Ich probiers trotzdem (alles ohne Gewähr!) Mit einem Bit kann man zwei (21) Zustände abbilden - ein Pixel schwarz oder weiss-, mit 2000 Bit kann man rund 1,1481602 Zustände (22000) abbilden - möglich sind also z.B. soviele verschiedene quadratische Schwarz-Weiss-Bilder mit einer Kantenlänge von 44 Pixeln (Wurzel aus 2000, abgerundet). Oder 12.185.208.703.151.069.117.391.635 verschiedene TrueColor-Bilder (24 Bit Farbtiefe) mit der Kantenlänge 9 Pixel. Also nicht besonders viel. An Musik.. naja.. sagen wir eine durchschnittliche MP3-Datei benötigt 3 MB, dass sind 25.165.824 Bit. 2000 Bit entsprechen also dem 1/12582-fachen einer durchschnittlichen MP3-Datei.
Wenn du mich fragst, sind 2000 Bit viel zu wenig angesetzt - guck dir nurmal an, wieviele Informationen schon allein das Auge aufnimmt, an Farben und Co - Wenn du auf deinen Bildschirm guckst, hast du z.B. 1024x768 Pixel und siehst ein TrueColor-Bild mit 24 Bit Farbtiefe, schon allein das sind 18874368 Bit. PAL-Filme haben eine Bildrate von 25 fps, um einen flüssigen Eindruck im Gehirn zu erzeugen - das Auge muss also schon um deinen Monitor flimmerfrei abbilden zu können, geschätzte 20fps leisten. Also für deinen Monitor schonmal rund 377.487.360 Bit/Sekunde.. das ist sechs Größenordnungen größer als 2000 Bit pro Sekunde! Und das stellt nur einen Bruchteil deiner Wahrnehmung dar (Hören, Fühlen, etcpp) und die Auflösung des Auges ist dazu auch noch viel besser als die des Monitors! Sicherlich ist die Rechnung nicht exakt und stark vereinfacht.. aber es reicht, um zu zeigen, dass die Größenordnung der 2000 Bit pro Sekunde nicht stimmen kann. Vielleicht hast du einen Einheitenpräfix vor dem Bit vergessen? T z.B.. oder E.. das würde dann schon mehr Sinn machen, denke ich. Oder der Zeitrahmen war anders.--Schmiddtchen 00:27, 27. Dez. 2006 (CET)
Danke. Aber es sind BEWUSST 2000 Bit, also das, was du in deinem Bewusstsein verarbeitest. Über alle Sinnesorganze zusammen nimmt der Mensch vor den Filtern insgesamt 400 Milliarden Bits pro Sekunde auf!!!! -Biologie2000

Dass es bewusst 2000 bps sind, kann schon eher hinkommen. Das Gehirn funktioniert ja gänzlich anders als ein Rechner (viele wollen das nicht glauben; besonders Fremdsprachenlehrer in der Schule sind da fantastisch). Man sieht zum Beispiel, wenn man auf den Bildschirm guckt, keine Pixel, also diskrete Dateneinheiten, sondern man nimmt nur Informationen wahr, die als Farbflächen auf dem Bildschirm dargestellt werden. Und nicht nur dort. Der Mensch kann gleichzeitig an maximal sieben Dinge denken. Wieviel der einzelne Mensch schafft, ist ganz unterschiedlich. Aber meistens denkt man nicht an mehr als vier Dinge gleichzeitig. Das schneidet jetzt das Thema objektorientierte Programmierung an: Wenn ich an zwei Dinge denke, dann stelle ich mir zwei Objekte vor oder sehe sie oder höre sie oder nehme sie anders wahr. Zum Beispiel kann eins dieser Objekte meine Digitaluhr sein. Aber wenn ich die Zeit ablese, sehe ich meistens nicht bewusst die Uhr, sondern die Ziffern. Ich gucke mir zuerst die beiden Stundenziffern an und dann die beiden Minutenziffern. Es ist ziemlich schwer, da einen Informationsgehalt zu ermitteln. Wie viele Daten stecken im Rauschen meines Rechners, das mich die ganze Zeit umgibt? Wieviel Speicherplatz ein mit dem Auge wahrgenommenes Bild einnimmt, kann auch nicht so einfach per Anzahl der Rezeptoren mal Logarithmus dualis aus der Anzahl der unterscheidbaren Farben bestimmt werden, weil das Gehirn Daten überhaupt nicht speichert, sondern nur Informationen; und diese in einer völlig anderen Darstellungsform speichert als wir es von digitalen Speichermedien gewohnt sind. Deshalb halte ich die Schätzung mit den 2000 bps auch für sehr vage. Cocyhok 17:30, 6. Jan. 2007 (CET)

KBit und MBit

  • ein KBit besteht bei Speichern aus 1024 Bit
*ein MBit besteht bei Speichern aus 1042 KBit
 Die KByte und MByte sind bei Speichern jeweils 8 mal mehr als KBit und MBit (siehe Byte).

Richtig oder falsch ??? ;)--83.243.112.138 22:18, 26. Dez. 2006 (CET)

Falsch. 1 Byte == 8 Bit. 1 Kbit zu 1024 Bit entspricht somit 128 KByte. Damit ist die Zahl nicht achtmal größer, sondern nur ein Achtel so groß. Das selbe gilt für MBit: 1 Mbit zu 1024 KBit entsprechen 128 MByte. --Schmiddtchen 23:44, 26. Dez. 2006 (CET)
Richtig 1 Byte == 8 Bit.
Du brauchst 8 Bit um ein Byte darzustellen, also die 8 fache Menge in Bit für das Byte ;)...
--83.243.112.138 01:05, 27. Dez. 2006 (CET)
Neenee, Keule. Die Formulierung von dir schreit geradezu danach, missverstanden zu werden.. da du "8 fache Menge" ohne Bezug lässt, sieht das aus, als wären 8 Bit das Achtfache von einem Byte - das wäre so als wären 100 Cent das Hundertfache von einem Euro. Entweder du stellst dich blöd, verarschst uns, oder verwechselst Zahlen mit Werten. --Schmiddtchen 01:11, 27. Dez. 2006 (CET)

Die KByte und MByte = (sind) bei Speichern jeweils 8 mal mehr als KBit und MBit (siehe Byte). ;)--83.243.112.138 02:22, 27. Dez. 2006 (CET)

zum Thema gleich vs. entspricht: Deine Lösung mit genau ist optimal :) Bitte benutze zukünftig bei offesichtlichen Meinungsverschiedeneheiten die Diskussionsseite. Das gilt natürlich auch für Korinth.
zum Thema oben: ich mag mich nur ungern wiederholen, und ein Bild möchte ich auch nicht nicht malen. Die Relation, die du bisher verwendest, ist ganz einfach falsch rum: die KByte Zahl ist nur ein Achtel so groß, und nicht Achtmal so groß wie die entsprechende Zahl an Bits. Wenn das immernoch nicht das ist, was du meinst, musst du entweder weiter ausholen, dein Problem - bzw. was du erreichen möchtest- genauer schildern oder einfach nochmal drüber schlafen, in der Hoffnung, dass du mich morgen früh verstehst. Ein Spezifikum für Speicher gibts übrigens auch nicht. --Schmiddtchen 02:35, 27. Dez. 2006 (CET)

Unwichtige Bits

Den Satz "Allgemein gilt in der digitalen Welt, dass es keine „unwichtigen“ Bits gibt." verstehe ich - trotz aller Beispiele darunter - nicht.

Wenn ich Daten soviel komprimiere, dass ich keine Redundanz mehr darin habe, dann habe ich vielleicht keine unwichtigen Bits mehr, aber sobald ich Daten uebertrage und Codes verwende, die kleinere Uebertragungsfehler korrigieren, dann gibt es schon unwichtige Bits.

Ausserdem werden in der "digitalen Welt" (Was ist das eigentlich?) viele Programme bewusst oder unbewusst so geschrieben, dass viel mehr Daten irgendwo im Speicher abgelegt, ohne dass sie benoetigt werden, weil die Programme nicht darauf optimiert wurden. Ich wuerde sagen, dass Daten, die irgendwohin gespeichert werden und dann wieder geloescht werden ohne einmal gelesen zu werden schon irgendwie "unwichtige Bits" sind.

Aber vielleicht verstehe ich einfach nur nicht, worauf der Autor hier hinaus wollte. -- 130.83.2.27 15:25, 16. Jul. 2007 (CEST)

Die Maschine, die Anlage oder der Prozess ist das Maß aller Dinge. Das mit der "digitalen Welt" ist ein "modernes" Märchen. Logik gab es auch schon, als der Computer noch nicht entwickelt war. Die kleinen Helferlein sind so nützlich wie ein Hammer. Hier wird vieles übertrieben.--Kölscher Pitter 23:11, 4. Aug. 2007 (CEST)

komplexe Wahrheitstabellen

So programmiert keiner mit der SPS. Komplexe Wahrheitstasbellen braucht man ganz, ganz selten. Die Realität ist viel einfacher.--Kölscher Pitter 23:01, 4. Aug. 2007 (CEST)

Speicher

Wenn ich richtig gelesen habe, dann kommt in diesem Artikel der Begriff Speicher nicht vor. Und das wundert mich sehr.--Kölscher Pitter 10:04, 8. Aug. 2007 (CEST)

Was'n das?

Über die Hälfte des Artikels ist doch völlig off topic? Gibt es keinen Artikel Bitfehler, oder Datenkompression? --Pjacobi 12:19, 6. Mai 2008 (CEST)

Wenn du meinst den Abschnitt "Quantität und Qualität" (mit Raumfahrt und TCP/IP-Protololl ???) löschen, dann bin ich bei dir.-- Kölscher Pitter 12:34, 6. Mai 2008 (CEST)
Mehr noch. "Signale" scheint mir hier auch falsch zu sein, und der Ein-Zeilen-Absatz "Qubits" hilft auch niemanden. --12:37, 6. Mai 2008 (CEST)
"Signale" halte ich für erforderlich. Da wird viel verwechselt. Immerhin: Bit pro Sekunde. Bei "Qubits" hast du recht.-- Kölscher Pitter 12:55, 6. Mai 2008 (CEST)
(sorry für Zeitlupendiskussion, bin z.Zt. nicht so 100% dabei)
Bits haben nichts mit Pegeln zu tun (in my not so humble opinion), die Pegeldiskussion gehört in einen anderen Grundlagenartikel, aber in welchen? Logikgatter, Digitaltechnik, Logikschaltung,
--Pjacobi 22:36, 11. Mai 2008 (CEST)
Der Drucker hat 1 1/2 Stoppbits. Sowas kann man häufig lesen. Wegen der notwendigen Abgrenzung muss das erläutert werden. Außerdem: Wie kommen die Bits in den Speicher? Nur mit Signalen!-- Kölscher Pitter 22:54, 11. Mai 2008 (CEST)

Tabelle vor der Einleitung?

Das passt nicht!-- Kölscher Pitter 16:41, 9. Jun. 2008 (CEST)

Nit

Das verwirrt. Wenn dann an den Schluss unter Siehe Auch.-- Kölscher Pitter 16:46, 9. Jun. 2008 (CEST)

Größere Datenmengen können nur ganzzahlige Vielfache von 1 Bit sein.??

Dem Artikel Datenmenge entnehme ich, dass Datenmengen nicht grundsätzlich binär gespeichert werden müssen (Was mir korrekt erscheint). Ich meine, dass Datenmengen zwar mindestens 1 bit groß sind, aber darüber hinausgehend auch eine reelle Anzahl von bits enthalten können. Zum Beispiel ist die Datenmenge einer Dezimalziffer etwa 3,3 bit groß. Oder anders ausgedrückt: man kann mit 7 bits 2 Dezimalziffern speichern. Das beweist doch, dass die Datenmenge einer Dezimalziffer zwischen 3 und 4 bits beträgt.

Oder sehe ich da was falsch? RedNifre 11:13, 29. Sep. 2008 (CEST)

Ich denke, im Grunde genommen, hast Du recht. Daten können auch anders als in Bit gespeichert werden. Zum Beispiel kann gemessene Zeit in Form von Wasser in einem Zylinder gespeichert sein. Die Datenmenge, um eine Bestimmte Zeitangabe zu speichern müsste dann in Litern oder Metern Wassersäule angegeben werden. Wird eine Dezimalziffer im Dualcode gespeichert, so werden 4 Bit benöigt. Wenn man Die Dezimalziffern getrennt speichert bleibt das auch so, da man das vierte Bit nicht für die Zweite Dezimalziffer verwenden kann, wenns für die erste gerade nicht gebraucht wird. Speichert man allerdings eine Dezimalzahl mit bis zu zwei Ziffern, so braucht man sieben Bit (99 = 1100011). Man kann aber jetzt nicht sagen, dass eine Ziffer 3,5 Bit belegt. Das was Du meinst ist der Informationsgehalt, der allerdings besser in Shannon angegeben wird (wird im Punkt danach erwähnt).
Der von Dir kritisierte Satz ist allerdings sehr unklar. Die Aussage soll anscheinend auf Darstellungen von Datenmengen durch die Einheit Bit beschränkt verstanden werden. Das "Größere" bezieht sich wohl auf den Satz davor:
Dabei ist 1 Bit die kleinste darstellbare Datenmenge, die beispielsweise durch eine Binärziffer dargestellt werden kann.
Dieser Satz ist aber durch das "beispielsweise" auch schon sehr unklar. Er sollte unmissverständlich auf die Messung von Datenmengen bei digitaler Speicherung eingeschränkt werden. edit: Ich hab das mal versucht, und hoffe das ganze ist jetzt klarer. --Supaari mail 19:09, 29. Sep. 2008 (CEST)

Namen

Wer von euch hat denn diese komischen nicht-SI Namen erfunden ??? Noch nie gehört und noch nie gebraucht. Weg damit. (nicht signierter Beitrag von Jorumpl (Diskussion | Beiträge) 22:44, 17. Sep. 2010 (CEST))

Was meint Jorumpl genau? Vielleicht Bit (vs. bit)? Ja wie oben geschrieben kommt das aus dem Marketing- und Medienbereich, was sich im allgemein gläubigen Schreibgut festgesetzt hat. -- Perhelion 23:13, 15. Dez. 2010 (CET)
"SI" kommt im Artikel nur im Zusammenhang mit Präfix vor. Die IP meint wohl die Binärpräfixe: Kibibit usw. Die hat natürlich keiner von uns erfunden.
Lieber Jorumpl: Wenn du eine Enzyklopädie willst, die nur Dinge enthält, von denen du schon was gehört hast, schreibst du sie am besten selbst. --Hob 09:06, 16. Dez. 2010 (CET)
Achso, keine Bange "Ignoranz wird meist bestraft" , ja hört sich ziemlich selbstüberzeugt an. -- Perhelion 19:54, 16. Dez. 2010 (CET)

kbps

Ich habe gerade den Referenz-Link für die Schreibweise "kbps" entfernt, weil das Dokument nicht mehr existiert und auch keine neuere Version zu finden ist. Eine Suche führte mich weder bei din.de noch im ganzen Netz auf irgendwelche Hinweise, dass "kbps" die offizielle Schreibweise für "kbit/s" ist. Falls sonst niemand eine Referenz dafür hat, würde ich vorschlagen, letztere Schreibweise zu verwenden. UlFromPe 15:09, 30. Sep. 2010 (CEST)

Namensgebung für bit und Bedeutung

Moin! Claude Shannon gibt in der zitierten Arbeit für bit an: "binary indissoluble information unit". Kolligs (nicht signierter Beitrag von 78.54.71.170 (Diskussion) 11:21, 2. Okt. 2011 (CEST))

Kbit oder kbit ?

SI-Präfix für Kilo ist ein kleines 'k'. In der Tabelle "Vielfache von Bit" steht nun aber Kbit. Was ist korrekt? (nicht signierter Beitrag von 83.206.205.241 (Diskussion) 13:15, 8. Dez. 2011 (CET))

Sehe ich auch so, da es in der englischen Wikipedia und in den SI-Einheiten 'k' ist. Ich hab es geändert. --195.37.78.164 18:39, 29. Dez. 2011 (CET)

Miniarisierung? Potentialisierung?

Ich hoffe, dass ich mich nicht verschrieben habe. Sind dies wirklich korrekte Wörter?--79.242.106.200 18:19, 9. Feb. 2012 (CET)

Dreht die JEDEC etwa auch noch ihr eigenes Ding?

Kann es sein, daß die JEDEC(K) auch noch ihre ganz eigene Ansicht der Maßeinheiten Bitt und Bait/Büte bereit hält? Siehe [1] und [2]. Eigentlich hat das dann ja auch was Gutes, so ist dann wohl für jedes Geschmäkle etwas dabei. Ist doch schön, wenn jeder seinen eigenen ganz priwaten Standart hat. ;-) --92.224.251.218 23:46, 5. Jul. 2012 (MESZ)

doi

Was bedeutet doi? --Seth Cohen 19:56, 26. Okt. 2012 (CEST)

Digital Object Identifier. Sowas findet man öfters auf Wikipedia in Quellen (und bisher hab ichs immer nur abgekürzt gesehen). --MrBurns (Diskussion) 02:39, 27. Okt. 2012 (CEST)
Danke sehr. --Seth Cohen 17:25, 27. Okt. 2012 (CEST)

Bit ist keine "Maßeinheit"

Bit ist eine dimensionslose Größe, mit der lediglich ein logisches Konzept beschrieben wird.

Der erste Satzz im artikel Maßeinheit lautet:

Geometrische und physikalische Größen werden in Maßeinheiten (auch Größeneinheit oder physikalische Einheit) angegeben,[...]

Bits beschreiben jedoch keine geometrischen oder physikalischen größen, da die genaue physikalische Form (magnetisch, optisch, elektrisch,...) und geometrsiche Form (räumliche Ausdehnung), in der ein Bit gespeichert ist, irrelevant ist. Wenn ich x Bits von einer CD-RW in den RAM und von dort auf die Festplatte verschiebe, bleiben es trotzdem x Bits. Dementsprechend kann man bits auch nicht messen, sondern nur zählen. --MrBurns (Diskussion) 04:00, 2. Mär. 2014 (CET)

"bit" ist die Maßeinheit der Information (3. Bullet in der Einleitung). Insofern ist "nur zählen" falsch. Angewandt auf binärer Daten ist das Ergebnis stets ganzzahlig (2. Bullet). --Rainald62 (Diskussion) 13:41, 2. Mär. 2014 (CET)
Als Physikalsiche Größe kann man Information nur im Bezug auf die Informationsentropie betrachten (welche aus physikalsicher Sicht der Definition, die man auf Wikipedia unter Entropie_(Thermodynamik)#Statistische_Physik findet, entspricht, also abgesehen von einer Konstanten Zahl der zugänglichen Zuständ), im Artikel wird Bit aber auch als "Maßeinheit" der Datenmenge geenannt (und die ist die mit Abstand üblichste Verwendungdung von Bit ist für die Datenmenge). Die Datenmenge hat wenig mit dem physiklaischen Informatiosngehalt zu tun und ist normalerweise viel geringer. Im Sinnd er Datenmenge haben Bits keine physikalsiche Realität. --MrBurns (Diskussion) 14:10, 3. Mär. 2014 (CET)
Die Datenmenge binär dargestellter Daten ist gerade der maximale Informationsgehalt bei gegebener Darstellungsgröße. Dieses Maximum ergibt sich, falls alle Zustände gleich wahrscheinlich sind, und ist dann ganzzahlig, sonst kleiner und 'krumm'. Das heißt, der Informationsgehalt binärer Daten ist nie größer als die Datenmenge. Falls Du ein Verfahren findest, diese Grenze zu umgehen, stelle einen Patentantrag. --Rainald62 (Diskussion) 16:54, 3. Mär. 2014 (CET)
Ich bezog mich auf den physikalischen Informationsgehalt des Speichermediums. Alles andere ist unphysikalisch und hat daher nichts mit messen zu tun. Der physikalische Informationsgehalt des Speichermediums ergibt sich aus der Menge aller zugänglichen Zustände, die in den Atomen etc. für die jeweils betrachtete physikalische Größe vorliegen, um zu verstehen, was das genau ist, sind gewisse Kenntnisse der Quantenmechanik und Thermodynamik erforderlich, aber das Prinzip kann man auch ohne Kenntnisse dieser Fachgebiete verstehen: wenn man z.B. die magnetische Speicherung auf einer Festplatte betrachtet, dann enthält ein Bit sehr viele Atome, es hat jedoch jedes Atom sein eigenes Magnetfeld. Der physikalische Informationsgehalt des magnetischen Systems Festplatte entspricht also der Menge der Atome des Datenträgermaterials, die Zahl der Bits, die tatsächlich gespeichert sind, ist deutlich geringer (in dem Fall kann der physikalische Informationsgehalt nie ganz ausgenutzt werden, da es auch bei Ferromagneten unmöglich ist, beliebige Magnetisierungen einzelner Atome aufrecht zu erhalten, die Festplatte soll aber ein dauerhafter Speicher sein, das was bei einer HDD ausgerichtet wird ist der Mittelwert mehrere sog. weissscher Bezirke, daher wird man bei einer HDD wohl immer sehr viele Atome brauchen, um 1 Bit zu speichern). Bei den derzeitigen Festplatten hat man soviel ich weiß noch immer unter 1 Tbit/Quadratzoll Speicherdichte, wenn man das in metrische Einheiten umrechnet, sind das unter 1,55 Gbit/mm², daraus ergibt sich, dass jedes Bit (wenn es von der Ausdehnung quadratisch ist) über 645 nm² beansprucht (das ist inkl. der Flächen, die als "Puffer" zwischen den Bits leerbleiben, wozu die Flächen aber genau genutzt werden ist irrelevant, wenn man die Speicherdichte mit der physikalischen Informationsdichte vergleicht). Ein Atom hat in etwas eine Ausdehnung von 0,1 nm (= 1 Ångström), ein Oberflächenatom braucht also ca. 0,01 nm² Fläche (der genauer Wert hängt von der Gitterstruktur ab, in unserem Beispiel sind dieser Unterschiede aber irrelevant, da es nur auf die Größenordnung ankommt). Man sieht also, dass die Flächenbitdichte also um einen fünfstelligen Faktor höher ist als die Atomflächendichte. Daher selbst wenn die Speicherschicht nur eine Atomlage dick ist (was unrealistisch ist), hat man 6 Größenordnungen zwischen der Speicherdichte und der physikalischen Informationsdichte (und damit auf das ganze medium bezogen auch zwischen der Datenmenge und dem physikalischen Informationsgehalt (genauer: Informationsentropie, aber das ist wohl die einzige anerkannte Methode, den physikalischen Informationsgehalt eines Systems zu messen).--MrBurns (Diskussion) 09:39, 4. Mär. 2014 (CET)
Diese Seite dient der Verbesserung des Artikels. Was möchtest Du ändern? Und falls es mehr ist als nur eine Formulierung, dann mit Beleg. --Rainald62 (Diskussion) 03:53, 5. Mär. 2014 (CET)
Ich will: als Maßeinheit für die Datenmenge digital repräsentierter (gespeicherter, übertragener) Daten. ändern in: als Einheit für die Datenmenge digital repräsentierter (gespeicherter, übertragener) Daten. Begründung: Datenmenge ist keine physikalische Größe, kann daher nicht gemessen werden. Was man eigentlich tut: man misst z.B. die Magnetisierung eines bestimmten Bereichs einer Datenträgeroberfläche, die man vorher schon als 1 Bit definiert hat. Je nachdem, was man dort misst, sagt man dann, das Bit habe den Wert 0 oder 1 oder undefiniert. Die Datenmenge ist wie viele solche Bits es ingesamt gibt, also etwas, das von Menschen definiert wurde und nicht etwas, das in der Natur vorkommt. Man kann zwar auch eine physikalsiche Größe (physikalischer Informationsgehalt bzw. Informationsentropie) betzrachten und in Bit messen, dies hat jedoch wenig mit der Datenmenge zu tun (Begründung siehe oben). --MrBurns (Diskussion) 05:31, 5. Mär. 2014 (CET)
Mit [[Maßeinheit|Einheit]] wäre ich einverstanden. Ansonsten müsstest Du für die Unterscheidung von Einheit und Maßeinheit Quellen liefern. Diese Disussion sollte allerdings dort geführt werden oder auf der QS-Physik. --Rainald62 (Diskussion) 14:12, 6. Mär. 2014 (CET)

Welche physikalische oder geometrische Größe repräsentiert denn das Bit? Ob ich ein Bit jetzt als eine bestimmte Spannung, Wellenlänge, Stromstärke, Lautstärke oder sonst was definiere ist doch lediglich Definitionssache; und damit nicht eindeutig. --178.19.236.5 09:44, 7. Aug. 2014 (CEST)

Schreibweisen

Es geht ein bischen drunter und drüber mit der Groß/Klein-Schreibung der Einheit. Mal waren es 1 Bit und dann vier Bits. Kann man so nicht machen.--Kiu77 (Diskussion) 12:46, 20. Nov. 2013 (CET)

Das Objekt ist ein "Bit", die Einheit ist "bit" (kleingeschrieben).
Einheiten werden niemals dekliniert (haben also kein Genitiv- oder Plural-'s'), das (großgeschriebene) 'Bit' unterliegt der normalen Deklination.
Laut Duden sind 'Bit' und 'Bits' beides zulässige Plural-Formen von 'Bit'.
--arilou (Diskussion) 13:42, 9. Apr. 2015 (CEST)

"JA/NEIN" Begrifflichkeit

Es ist irrefuehrend, zu stark auf dieses "JA/NEIN" abzuheben. Ein bit kann zwei Zustaende halten. Ob das "JA/NEIN" ist, oder Teil einer groesseren Sache, ist eine Frage der _Interpretation_. Noch irrefuehrender ist es dann, wenn in der Erklaerung das bit durch einen Schalter "JA/NEIN" implementiert wird. Es koennten ja mal 12 Volt versus 5 Volt sein (nur des Arguments wegen), dann ist Schluss mit "Strom: ja/nein", ein bit ist es aber immer noch! Naja vielleicht ist hat es sich didaktisch als brauchbar erwiesen, aber ich denk schon lang nicht mehr an ja/nein, wenn ich bit hoere.

Man könnte vielleicht AN/AUS verwenden/erwähnen. --Marvin2k (Diskussion) 13:05, 25. Sep. 2015 (CEST)
Das macht's auch nicht besser. --arilou (Diskussion) 14:59, 1. Okt. 2015 (CEST)

Plural

Der Plural wechselt zwischen "Bit" und "Bits". (nicht signierter Beitrag von 79.224.195.243 (Diskussion) 19:17, 21. Nov. 2013 (CET))

Laut Duden beides zulässige Pluralformen für 'Bit'. Also: Alles in Ordnung. --arilou (Diskussion) 13:40, 9. Apr. 2015 (CEST)
Richtig(er) wäre es wohl mit s, oder eben konsequent klein schreiben, da im Englischen es diesen Plural ohne s wohl nicht gibt. Allerdings wäre dies tatsächlich sprachlich inkonsistent, daher wird der Plural mit s sein Schattendasein behalten, wenn nicht sogar verschwinden.User: Perhelion  08:58, 2. Okt. 2015 (CEST)
"Bit" ist ein eingedeutschtes, somit deutsches Wort. Englische Plural-Regeln sind somit wurscht.
Deine Prophezeihungen in allen Ehren ~ für das Bit gilt: Einheitenzeichen "bit" (immer ohne 's', da Einheitenzeichen nicht dekliniert werden!), das Hauptwort/Name ist "Bit", und dessen Pluralformen sind laut Duden "Bit" oder "Bits".
--arilou (Diskussion) 09:11, 2. Okt. 2015 (CEST)
Aja, dein Duden in allen Ehren ~ taugt bei Fachbegriffen nicht immer sonderlich viel. Aber schon lustig, wenn man bedenkt, dass es wohl früher im Deutschen überhaupt gar keinen Plural mit s gab. Lassen wir das Englische Englisch und das Deutsche Deutsch (allerdings dürfte dir bekannt sein, dass dies in der EDV eher nicht üblich ist).
Gut, die Prophezeihung ist dann evtl. etwas daneben, für Gruppen oder als Nomen ist der Plural bestimmt noch sinnvoll.User: Perhelion  09:26, 2. Okt. 2015 (CEST)