Diskussion:Arbeitsspeicher
Füge neue Diskussionsthemen unten an:
Klicke auf , um ein neues Diskussionsthema zu beginnen, und unterschreibe deinen Beitrag bitte mit Signatur und Zeitstempel oder--~~~~
.REDIRECT von Binärwort zu Datenwort möglich?
Wäre ein REDIRECT von Binärwort (hier im Text verlinkt zu finden) zu Datenwort korrekt? --Fritz 07:33, 22. Mai 2003 (CEST)
Ist völlig korrekt, habe die Änderung gemacht und Datenwort eingesetzt. Vanis 09:14, 22. Mai 2003 (CEST)
Abkürzungen
Im Artikel wurden die Abkürzungen KiB, MiB,GiB (statt kB, MB, GB) verwendet. Absicht?
(Der vorstehende Beitrag stammt von 139.18.11.187 – 11:00, 4. Nov. 2004 (CET) – und wurde nachträglich signiert.)
- KB und KiB bezeichnen unterschiedliche Werte. Ersteres basiert auf dem 10-er System, letzteres auf dem 2-er System. Daher denke ich, dass die Angaben so richtig sind. Genauer gesagt sind 1 KB=Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle 10^3} =1000 bytes und 1 KiByte=Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle 2^{10}} =1024 bytes
- (Der vorstehende Beitrag stammt von 212.102.225.226 – 11:12, 4. Nov. 2004 (CET) – und wurde nachträglich signiert.)
Patent-Klauerei
Sollte man der amerikanischen Patent-Klauerei und Geschichtsfälscherei wirklich Vorschub leisten ?
Wenn Konrad Zuse die Grundlagen der angeblichen "Von-Neumann-Architektur" bereits Jahre vor eben diesem "Herrn von Neumann" begründet hat - und darauf auch nachweislich Patente hatte - dann sollte man diese auch "Zuse"-Architektur nennen und gegebenfalls auf den Begriff von Neumann-Architektur verlinken, nicht umgekehrt.
(Der vorstehende Beitrag stammt von 194.8.197.204 – 16:04, 12. Dez. 2004 (CET) – und wurde nachträglich signiert.)
- Hat er nicht. Die frühen Zuse-Rechner waren Harvard-Maschinen. Zuse war zwar Visionär, aber von Neumanns Entwurf 1945 war ebenfalls bahnbrechend und führte sogar zu realen, insbesondere auch kommerziellen Maschinen (UNIVAC). --Hubi 09:57, 13. Dez 2004 (CET)
CL2 ; 2,3 ; 3 ...
Ich fände es schön wenn ein Kundiger unter den Nutzern dieser Seite eventuell noch den Unterschied zwischen CL2 ; 2,5 ;3 usw. erklären konnte. Ich denke, das ist recht wichtig.
(Der vorstehende Beitrag stammt von 84.184.182.116 – 12:41, 17. Mai. 2005 (CEST) – und wurde nachträglich signiert.)
AMD64 hat 48 Bit Adressraum ?!
Im Artikel AMD64 steht das der AMD64 CPU nur einen 48 Bit Adressraum unterstützt. Also 256 TiB bzw. mit den jetzigen 40-Adress-Pins "nur" 1 TiB?
Die Anbindung des physikalischen Speichers erfolgt durch den Adressbus, dessen „Breite“ in Bits angegeben wird: |
# 16 Bit: Maximal 64 KiB. Generation der s.g. 8-Bit-Computer |
# 20 Bit: Maximal 1 MiB. Generation des PC/XT-Standards und der DOS-Ära. |
# 24 Bit: Maximal 16 MiB. Bei PCs der Adressraum des 80286, bei Apple der Adressraum der ersten Macintosh-Computer (Motorola 68000) |
# 32 Bit: Maximal 4 GiB. Bei PCs der Adressraum von 80386 bis Pentium 4/Athlon. Bei Apple Adressraum bis Macintosh G4. |
# 64 Bit: Maximal 16 EiB. Bei PCs der Adressraum von AMD64 und Intel Itanium, bei Apple der <Adressraum des Power Mac G5. |
Siehe: Vorsilben der 1024er-Größenordnungen |
(Der vorstehende Beitrag stammt von 84.181.11.76 – 01:12, 6. Apr. 2006 (CEST) – und wurde nachträglich signiert.)
- Die 64 bit stimmen sicher nicht, da glaub ich die 48 bit eher. -MrBurns 04:29, 5. Nov. 2006 (CET)
Zugriffszeiten
Wie kommt man eigentlich auf Zugriffszeiten von mehreren hundert Nanosekunden? Die Zugriffszeit ist soviel ich weiß CAS + RAS. Bei modernem DDR2667-Speicher hat man einen physikalischen takt von 333MHz, was 3ns entspricht. Gut Werte sind für CAS und RAS je 4 Taktzyklen. Also wäre eine gute Zugriffszeit 8*3 ns, also 24 ns. -MrBurns 04:22, 5. Nov. 2006 (CET)
- Ganz grob: Die Zugriffszeit auf den Datenbus ist bei modernen Rams viel kleiner als die Zugriffszeit auf eine einzelne Speicherzelle. Mehrere hundert Nanosekunden dauert ein erster Zugriff auf ein bestimmtes Bit. Die Logik des Speicherchips legt dann jedoch die benachbarten Bits derselben Reihe in ein Register, evtl. für Burst-Zugriff auch die folgende Reihe. Auf die statischen Register kann schneller zugegriffen werden. Die 24 ns geben quasi den best case, die mehrere 100 ns den worst case. Der Normalfall dürfte bei den üblichen Zugriffspatterns näher bei 24 ns liegen. --Hubi 11:21, 24. Nov. 2006 (CET)
- Also meine Latenzen beziehen sich sher wohl auf den Zugruiff auf die Speicherzelle, weil sonst würden die Latenzen ja nur vom Bus abhängen, aber nicht davon, welchen Speicher man installiert hat. Und außerdem fallen die Latenzen nur 1 mal an. Wenn man größere Datenmengen auf einmal überträgt, d.h. auf den ersten Block (bei DDR-RAM 64 Bit oder 128 Bit im Dual Channel Modus) muß man z.B. 24ns lang warten, danach wird im Idealfall ein Block (bzw. bei DDR 2 Blocks) pro Speichertaktzyklus (bei modernem Speicher ca. 3-5 ns) übertragen. -MrBurns 17:53, 16. Dez. 2006 (CET)
Krasser Fehler im ersten Satz?!
"Der Arbeitsspeicher oder Hauptspeicher ist in der Informationstechnik der Speicher eines Computers, in dem Datenobjekte, also Programme und die von diesen in Mikroprozessoren zu verarbeitenden Nutzdaten, abgelegt und zu einem späteren Zeitpunkt (unverändert) abgerufen werden können."
Ist das nicht radikal falsch? Meiner Ansicht nach wäre das eine Beschreibung für die Festplatte.
(Der vorstehende Beitrag stammt von 84.44.197.48 – 09:24, 25. Mär. 2007 (CEST) – und wurde nachträglich signiert.)
- Die Beschreibung trifft durchaus auf den Arbeittspeicher zu. Im Arbeitsspeicher können auch komplette Programme geladen werden. Eigentlich wird immer das komplette Programm geladen, nur eventuell nicht alle in der .exe Datei gespeicherten Daten. Ein Beispiel wäre ein großes selbstextrahierdendes Archiv: das eigentliche programm zum extrahieren wird komplett in den RAM geladen, von den komprimierten Daten wird allerdings nur ein Teil geladen, weil die ganze .exe Datei zu groß für den RAM wäre. Und die Programme und Daten bleiben auch unverändert. Nur kann der Prozessor einen Speicherblock natürlich mit neuen daten überschreiben. Aber die Aufgabe, Daten zu verändern ist die der CPU, solange die Daten nur im RAM gespeichert weren verändern sie sich auch nicht. -MrBurns 22:58, 25. Mär. 2007 (CEST)
- Die Einleitung ist falsch, weil diese nicht abgrenzt das Besondere des Arbeitspeichers zu anderen Speicher (Festplatte, Stick usw.). Die CPU greift direkt über Adressen auf dem Arbeitspeicher zu. Bei der Festplatte erfolgt der Zugriff über etliche Zwischenschritte (z.B. FAT-Tabelle) und sequenziell. Hier ist also zu formulieren. --straktur 23:01, 26. Mär. 2007 (CEST)
- Beim Arbeitsspeicher gibts (zumindestens in jeder moderenen Architekutr) auch eine Zwischenschritt: die Umrechnung von der logischen in die physikalische Addresse. Die Einleitung ist nicht falsch, sondern nur ungenau. -MrBurns 02:02, 27. Mär. 2007 (CEST)
- Alles schon im Netz zu finden z.B. [1] --straktur 21:03, 27. Mär. 2007 (CEST)
- Die Einleitung ist falsch, weil diese nicht abgrenzt das Besondere des Arbeitspeichers zu anderen Speicher (Festplatte, Stick usw.). Die CPU greift direkt über Adressen auf dem Arbeitspeicher zu. Bei der Festplatte erfolgt der Zugriff über etliche Zwischenschritte (z.B. FAT-Tabelle) und sequenziell. Hier ist also zu formulieren. --straktur 23:01, 26. Mär. 2007 (CEST)
Eigentlich bedarf es keines Arbeitsspeicher. Die CPU könnte direkt mit der Festplatte Daten austauschen. Aber dies ist zeitaufwendig. Deshalb sind Betriebssysteme anders programmiert. Daten werden zwischengespeichert: im schnellen Arbeitsspeicher. Der Unterschied zwischen Arbeitsspeicher und Festplatte/Stick ist also programmierbedingt. Der Artikel bedarf einer Überarbeitung. --straktur 23:00, 24. Apr. 2007 (CEST)
- 'Hinkender Vergleich': Wenn das BS direkt auf der Platte arbeiten würde, würde es auch die Updates (z.B. für Dateninhalte) dort vornehmen - und damit die Grundversion des Programms zerstören. Außerdem kann die CPU "direkt" per Maschinenbefehl auf den AS zugreifen und ihn updaten; beides sind HW-Komponenten IM Rechner, die eng zusammenarbeiten. Das mit dem AS hat also schon seine Berechtigung. Die Definition und Weiteres ist zwischenzeitlich überarbeitet.--VÖRBY 12:41, 17. Jul. 2011 (CEST)
Fortsetzung siehe auch Diskussion:Arbeitsspeicher#Hauptspeicher und Arbeitsspeicher --VÖRBY 19:51, 19. Mai 2011 (CEST)
Absatz Handel
Der ist mir nicht ganz verständlich.
- Diese Hersteller teilen sich 97 Prozent Marktanteil. Die eigentlichen Hersteller der Speichermodule, wie Corsair, Kingston Technology, MDT, OCZ etc. suchen sich jeweils nur die besten Chips (Takt, Latenz) heraus und bezahlen dafür einen Aufpreis.
- Wer ist nun der Hersteller? Zuerst werden die nur noch acht genannt, dann werden die «eigentlichen» Hersteller genannt. Hö?
- Wofür genau bezahlen die «eigentlichen» Hersteller einen Aufpreis? Dafür, dass sie die besten Chips raussuchen? Wenn sie die doch selber herstellen? Oder nicht?
Vielleicht kann mir jemand etwas auf die Sprünge helfen. – Simon Diskussion/Galerie 18:46, 22. Mai 2007 (CEST)
- Die Hersteller der Speichermodule stellen die Chips eben nicht selber her (ausgenommen die Chiphersteller Samsung und Infineon/Qimoda, welche auch Spiechermodule mit den eigenen Chips herstellen (die besten Chips werden aber trotzdem an Firmen wie Corsair und Kingston verkauft, für High-Performance-Speicher). -MrBurns 23:50, 22. Mai 2007 (CEST)
Den Absatz finde ich auch etwas problematisch. Wenn ein Hersteller sich einen Chip sucht, dann zahlt er den, aber er zahlt nicht den Aufpreis (er kann ja auch ggf. einen billigeren Chip nehmen). Und wenn es "Insgesamt [...] nur noch acht Speicherchiphersteller [gibt], dann müssen sich diese logischerweise nicht nur 97 Prozent sondern 100% Marktanteil teilen, denn dann würde ja kein anderer Hersteller mehr Chips herstellen?
(Der vorstehende Beitrag stammt von 77.178.89.2 – 16:15, 30. Jun. 2007 (CEST) – und wurde nachträglich signiert.)
- Allerdings ist es so, dass Chips mit unterschiedlcihen modellnummern oft baugliech sind und die Modellnummern (und damit auch die Spezifikationen) erst nach tests auf die Leistungsfähigkeit des jeweiligen Chips vergeben werden. Das ist Vergleichbar mit prozessoren, nur dass bei letzteren nach den Tests meistens der Multiplikator (heute meistens durch das Durchtrennen von Leitungen mit Laser) festgelegt wird, um das übertakten zu erschweren. --MrBurns 19:28, 30. Jun. 2007 (CEST)
Die in der Liste der Speicherchiphersteller Aufgeführte Firma FOS-Systems mit Sitz in Frankreich stellt nur Fiber-Optische-Sensoren her und keine Speicherchips.-- milde 21:46, 14. Feb. 2009 (CET)
- Kingston ist wieder in der Liste gelandet und es stehen immer noch 9 obendrüberNico 17:24, 8. Feb. 2010 (CET)
Kingston = Chiphersteller?
Der Benutzer Kolodez hat Kingston Technology zu den Chipherstellern hinzugefügt, aber soviel ich weiß stellen die ähnlich wie die anderen Hersteller von hochwertigen Speichermodulen (z.B. Corsair, MDT, G.E.I.L., OCZ) selber keine chips her. Dazu passt, dass weder unter Kingston Technology noch unter en:Kingston Technology steht, dass sie Speicherchips herstellen. Ich denke, Kolodez hat sich den Artikel nicht genau genug durchgelesen und hat gemeint, es wären Speichermodulhersteller gemeint, weil sonst hätte er die Zahl wohl von 9 auf 10 erhöht, weil mit Kingston sind 10 gelistet.
Deshalb hab ich Kingston mal entfernt. --MrBurns 13:35, 22. Nov. 2007 (CET)
Außerdem war die Auflistung von Kingston Technology ein Wiederspruch zu dem schon viel älteren Satz direkt unter der Liste. --MrBurns 13:45, 22. Nov. 2007 (CET)
Aus irgendeinem Grund ist Kingston wieder in der Liste der Chiphersteller gelandet. Ich habe es entfernt (ungesichtete Version). Zudem ist Intel mittlerweile kein Produzent von DRAM mehr, soweit mir bekannt. --ein Gast, 26. Jan. 2015 (nicht signierter Beitrag von 2001:638:904:FFC9:2939:7172:BAC2:89 (Diskussion | Beiträge) 21:09, 26. Jan. 2015 (CET))
RAM und Arbeitsspeicher
Hallo, kann mir jemand verraten,wieso diese Seite 2x vorhanden ist!
Einmal als "Random Access Memory" und ein mal als "Arbeitsspeicher"
Sollten diese Wörter keine 'Synonyme' sein, dann ist das bereichtig.
Doch entspricht das nicht dem Fall.
(Der vorstehende Beitrag stammt von 77.4.19.79 – 23:40, 30. Dez. 2007 (CET) – und wurde nachträglich signiert.)
- Random Access Memory und Arbeitsspeicher sind nicht wirklich synonyme, obwohl sie oft so verwendet werden, was in diesen Fällen auch nicht falsch ist. Arbeitsspeicher ist die Funktion im OS, RAM ist der Speichertyp. z.B. ist das i-RAM von Gigabyte kein Arbeitsspeicher, da es sich um DRAM handelt, der vom OS für eien Festplatte gehalten wird handelt (praktische die Hardwareversion einer RAM-Disk). Auch der klassische CMOS-Speicher vom BIOS ist ein RAM, aber kein Arbeitsspeicher. Im PC- und Heimcomputerbereich wird jedoch traditionell RAM als Arbeitsspeicher verwendet, weshalb man beides als Synonym verwendet. --MrBurns 07:11, 25. Feb. 2008 (CET)
Wo RAM-Kenndaten auslesen?
Wo kann man bei Windows 2k bitte auslesen, was für Speicher in welcher Speicherbank sitzen? Das BS muß es doch wissen, es arbeitet ja damit. (Vermutlich ist die Frage auch für andere BS interessant?)
- Das BS muß das agrnicht wissen. Das BS muß nur wissen, welche Sepicher-Addressen zur Verfügung stehen. Dabei werden virtuelle, lineare Addressen verwendet, welche dann erst vom Speichercontroller in Banknummer + Zeilen- und Spaltenaddresse umgerechnet werden. Bei modernen 'Dual Channel Motherboards erfolgt dabei meist sogar eien Aufteilung auf mehrere Module, um die Performance zu steigern, ob das eine fixe Aufteilung ist (z.B. wenn Bank 0 und 2 belegt sind, dann werden alle geraden Addressen auf Bank 0 und alle ungeraden auf Bank 2 geschrieben) oder ob das erst bei der Anfrage aufgeteilt wird, um die Performance weiter zu optimieren weiß ich nicht.
- Zum Auslesen gibts einige third-party-Programme, z.B. das programm Everest, von dem es auch eine freewareversion gibt (allerdings nur bis v2.20, danach shareware). Laut Wikipedia läuft das selbst in der neuiesten Version auf 2k, ältere Versionen laufen sicher unter 2k, das weiß ich. Ich bin mir ziemlich sicher, dass man das unter Windows ohne Third-Party-Software nicht auslesen kann. --MrBurns 07:25, 25. Feb. 2008 (CET)
Erstes Bild
Es ist sehr unwahrscheinlich, dass SDRAM erst 2007 erschienen ist
Oder steht das Jahr für etwas anderes??
(Der vorstehende Beitrag stammt von Moritz92 – 21:41, 12. Mai 2008 (CEST) – und wurde nachträglich signiert.)
Habe ein weiteres Bild hochgeladen, hoffe es findet verwendung. Ist mein erstes hier und möchte auch meinen teil hierzu beitragen, wenn ich kann.
Ich weiß leider nicht, ob und wie es in die Seite eingebunden wird. Matt van doorn (Diskussion) 21:07, 1. Feb. 2014 (CET)
- Wir haben doch schon ein Bild solcher Module im Artikel, ein weiteres wäre Overkill. Findest Du Deines aktueller, das bisherige Bild veraltet? Das wäre eher ein Grund, dann aber für einen Austausch und nicht für eine zusätzliche Aufnahme. --PeterFrankfurt (Diskussion) 03:33, 2. Feb. 2014 (CET)
- Es ist aktueller und zeigt eben im Vergleich die 3 verschiedenen Module. DDR1-3 (von unten nach oben). Deshalb dachte ich, es wäre sinnvoll es hier einzufügen. Matt van doorn (Diskussion) 09:43, 2. Feb. 2014 (CET)
- Na ja, dafür zeigt es aber die älteren Formen nicht mehr, und die ganz neu hinzugekommenen sehen ja nur in winzigen Details (auf die es hier gar nicht ankommt) ein bisschen anders aus, wenn überhaupt. Daher halte ich das alte Bild vorerst für geeigneter. --PeterFrankfurt (Diskussion) 05:30, 3. Feb. 2014 (CET)
- Die Unterschiede im Aussehen ergeben sich durch die unterschiedliche Position der Einkerbung, was eine DAU-Sicherung ist, die Unterschiedliche Zahl an Pins (DDR1: 184, DDR2/3: 240) und dadurch, dass unterschiedliche Chips verwendet werden: bei DDR1/2-DIMMs werden soviel ich weiß TSOP2- und BGA-Chips verwendet (wobei bei DDR1 noch TSOP2 dominiert und bei DDR2 schon BGA) und bei DDR3 soviel ich weiß ausschließlich BGA-Chips. --MrBurns (Diskussion) 22:14, 5. Feb. 2014 (CET)
- Eben, und diese minimalen Unterschiede bei den Kerben fallen überhaupt nicht auf, und bei den neuesten Varianten passiert da auch nichts, die technischen Unterschiede stecken da wohl nur im (EEP)ROM auf dem Modul, und da kann man nicht reinkucken. --PeterFrankfurt (Diskussion) 04:30, 7. Feb. 2014 (CET)
- DIMMs mit BGA-Chips schauen aber doch deutlich anders aus als solch mit TSOP2-Chips. Siehe auch dieses Foto hier: der 1. und 2. DIMM von oben hat BGA, der unteste TSOP2. --MrBurns (Diskussion) 09:29, 7. Feb. 2014 (CET)
- Eben, und diese minimalen Unterschiede bei den Kerben fallen überhaupt nicht auf, und bei den neuesten Varianten passiert da auch nichts, die technischen Unterschiede stecken da wohl nur im (EEP)ROM auf dem Modul, und da kann man nicht reinkucken. --PeterFrankfurt (Diskussion) 04:30, 7. Feb. 2014 (CET)
- Die Unterschiede im Aussehen ergeben sich durch die unterschiedliche Position der Einkerbung, was eine DAU-Sicherung ist, die Unterschiedliche Zahl an Pins (DDR1: 184, DDR2/3: 240) und dadurch, dass unterschiedliche Chips verwendet werden: bei DDR1/2-DIMMs werden soviel ich weiß TSOP2- und BGA-Chips verwendet (wobei bei DDR1 noch TSOP2 dominiert und bei DDR2 schon BGA) und bei DDR3 soviel ich weiß ausschließlich BGA-Chips. --MrBurns (Diskussion) 22:14, 5. Feb. 2014 (CET)
- Na ja, dafür zeigt es aber die älteren Formen nicht mehr, und die ganz neu hinzugekommenen sehen ja nur in winzigen Details (auf die es hier gar nicht ankommt) ein bisschen anders aus, wenn überhaupt. Daher halte ich das alte Bild vorerst für geeigneter. --PeterFrankfurt (Diskussion) 05:30, 3. Feb. 2014 (CET)
Speichergrenzen
einige infos zu speichergrenzen
http://www.pc-experience.de/wbb2/thread.php?threadid=24883
(Der vorstehende Beitrag stammt von 145.253.99.146 – 13:25, 22. Mai 2008 (CEST) – und wurde nachträglich signiert.)
Vielfache von Bits und Bytes
Hallo,
mir ist aufgefallen, daß hier nun anscheinlich für jedes (binäre) Vielfache von Bits und Bytes ein eigener Link gesetzt wurde (siehe Abschnitt Anbindung des Arbeitsspeichers), was eigentlich überflüssig und sogar zum Teil falsch ist, wenn z.B. von der Abkürzung KiB direkt auf Byte verwiesen wird (korrekt wäre in diesem Fall eigentlich KiB, siehe auch Binär-Präfixe). Diese falsche und inflationäre Verlinkung trägt meiner Meinung nach jedenfalls nicht zum Verständnis bei, sondern sorgt wohl eher für weitere Verwirrungen bei diesen Dezimal-inkompatiblen Einheiten. Bei anderen Einheiten-Kürzeln (wie z.B. MeV, GHz oder TWh) funktioniert das doch eigentlich ganz gut, aber warum stellen sich einige der IT-Leute da immer wieder nur so eigenwillig an? Ist denn das so schwer, auch die Binär-Präfixe einfach mal korrekt zu verwenden?
MfG .. Conrad 17:46, 17. Okt. 2008 (CEST)
- Es gibt leider zu viele verborte ITler, die sich gegen die korrekten IEC-Präfixe wehren und unbedingt ihre alten dämlichen MB und GB schreiben wollen. Damit das nicht ständig in gekünstelte Nachfragerei: "Was ist denn ein MiB?" und bewscheuerte Rausrederei von wegen: "Kennt doch eh niemand, also müssen wir doch der Verständlichkeit halber unbedingt MB schreiben, wo wir MiB meinen", mündet, ist eben vor einigen Jahren hier die Gangart entstanden, den Artikel, in dem die IEC-Präfixe erklärt sind, und wo auch anschaulich klar gemacht ist, warum sie überhaupt eingeführt worden sind, an jeder Ecke zu verlinken. Manche von den bescheurten ewigen IEC-Binärpräfixfeinden haben leider Sichtungsrecht, weswegen die Etablierung dieser 1996 standardisierten Präfixe möglicherweise leider ein ewiger Kampf gegen Windmühlen bleiben wird; aber wer weiß. --SvenEric 18:26, 16. Nov. 2008 (CET)
- Es läuft grad eine Diskussion darüber unter anderem auf der Benutzerdiskussionsseite von Cristof, da er fast schon Bot-mäßig wie am Fließband viele solcher Edits in letzter Zeit getätigt hat und sich dabei auf ein IMHO weder repräsentatives und schon gar nicht strikt bindendes Meinungsbild beruft. Wenn du die auch alle zurücksetzen willst, bis die Diskussion ausgestanden ist, wünsche ich dir/euch viel Duchhaltevermögen. Vielleicht kriegen wir die Sache aber doch noch friedlich ausdiskutiert. Ich würde es mir wünschen. --RokerHRO 18:51, 16. Nov. 2008 (CET)
- Öhm, ich bin für IEC-Binärpräfixe, Cristof ist ganz offensichtlich dagegen - diesen Unterschied möchte ich doch bitte nicht verleugnet wissen. Ich habe heute gerade die Binärpräfixe in diesem Artikel hier wieder gesetzt, die Cristof mit seinen unsinnigen binär gedachten ISO-Dezimalpräfixen ersetzt hatte. Ich glaube nicht, dass eine Diskussion da lohnt, weil der IEC-Standard nunmal ein Fakt ist und hier ja lediglich entweder IEC-Binärpräfixe (Ki, Mi usw.) oder ISO-Dezimalpräfixe (M, G usw.) genutzt werden können, nicht von jedem ein bisschen - wie sollte da ein Kompromiss möglich sein? und ohne Möglichkeit auf einen Kompromiss gibts auch keine sinnvolle Diskussion - es kann in dem Fall eben nur richtig und falsch geben und nichts, das man noch heraus diskutieren könnte. ;-) --SvenEric 19:59, 16. Nov. 2008 (CET)
- Mir ist noch unklar, wofür Cristof ist. Darum hatte ihn ihn ja auch gefragt, ob er selber auch für den Kuddelmuddel (SI-Präfixe mal normwidrig mit binärer Bedeutung mal mal normgerecht mit dezimaler Bedeutung zu verwenden) ist, und wenn ja: warum. Oder ob er nur "sklavisch" die seiner Meinung nach "bindende Entscheidung des Meinungsbildes" umsetzt. Aussagen von ihm, dass er jede Meinungsbild-Entscheidung akzeptiert und umgesetzt hätte, lassen ja eher Letzteres vermuten. Also lohnt es sich schon zu diskutieren. Z.B. erstmal darum, ob und wenn ja wann und wie ein Meinungsbild eine für alle bindende Entscheidung herbeiführen kann oder soll. Also: Bei welchen Fragestellungen ein Meinungsbild ein geeignetes Mittel zur Lösungsfindung darstellt, welche formalen Kriterien so ein Meinungsbild dann erfüllen muss (z.B. dass die Konsequenzen der einzelnen Optionen vor dem Start des Meinungsbildes dargelegt werden müssen), welches Quorum erreicht werden muss, damit davon auszugehen ist, dass die Mehrheit der Leute hier den Ausgang des Meinungsbildes für einen bindenden Entscheidungsfindungsprozess hält usw. usf.
- All diese Fragen sind weiterhin offen, doch ich denke nicht, dass es hoffnungslos ist. Falls du es anders siehst: Welche Alternative schlägst du denn vor? Einen Edit-War anzetteln? Dann leg mal los, hab dir ja den Link gegeben, wo du Cristofs Verschlimmbesserungen nachschlagen kannst. Im Moment stehen die Chancen wohl gut, denn Cristof scheint gerade inaktiv zu sein, zumindest antwortet er nicht mehr auf seine Diskussionsseite. ;-)
- --RokerHRO 22:57, 16. Nov. 2008 (CET)
- @SvenEric: Diesen Streit gibt es ja nicht erst seit heute. Da es zwei Faktionen gibt, die Verfechter und die Ablehner der IEC-Binärpräfixe, hatte man ein Meinungsbild abgehalten, um die Sache zu klären. Im Meinungsbild "Benennung von Datenmengen" haben sich unter großer Beteiligung 2/3 der Abstimmenden gegen die Verwendung der IEC-Binärpräfixe ausgesprochen.
- Benutzer RokerHRO hat das Meinungsbild von vornherein abgelehnt. Er versucht auch nach diesem klaren Meinungsbild die Verwendung der IEC-Binärpräfixe zu propagieren, indem er das Meinungsbild in seinem Sinne anders interpretiert — gegen eine Mehrheit von immerhin über 100 Stimmen. -- Cristof 22:56, 18. Nov. 2008 (CET)
- Die IEC-Normen sind übrigens auch keienswegs bindend, genauso wenig wie andere Normen. z.B. werden in der englischen Wikipedia weiterhin fleißig Meilen, Fuß, Zoll, etc. verwendet, vor allem bei USA-beszogenen Artikeln, obwohl die USA auch schon lange offiziell das metrische System als Norm haben, nur verwendet es dort eben fast keiner, genauso wie weltweit fast keiner IEC-Präfixe verwendet, mal abgesehen vielleicht von einigen wenigen neueren wissenschaftlichen Publikationen, der Wikipedia und einigen Websites, die sich von der WP "inspirieren" haben lassen. Die IEC ist mMn ein von der Industrie dominiertes Gremium, also keineswegs neutral (auch wenn sies theoretisch sein sollte). Das alles und das Meinungsbild sind mMn genug, um sich vond en IEC-Präfixen wieder abzuwenden. --MrBurns 00:18, 19. Nov. 2008 (CET)
- Ich habe sowohl auf der Diskussionsseite des Meinungsbildes (als das Meinungsbild noch lief), als auch auf Cristofs Benutzerdiskussionsseite begründet, warum ich das Meinungsbild an sich (nicht seinen Ausgang, aber die nachträgliche Interpretation des Ergebnisses) kritisierte und weiterhin kritisiere. Auf meine dort aufgeführten Kritikpunkte am Meinungsbild inklusive möglicher Lösungsvorschläge ist Cristof bisher leider nicht wirklich eingegangen, was ich sehr schade finde. --RokerHRO 00:54, 19. Nov. 2008 (CET)
- Ein solches gekünsteltes Meinungsbild als Entscheidungsgrundlage zu verwenden ist populistisch wirksam, aber deswegen nicht sinnvoll. 1. Ist die Stimmzahl einfach im Vergleich zu der Anzahl an Schreiberlingen in der Wikipedia absolut albern - dh. wenn die gilt, muss auch der Flughafen Tempelhof weiterbetrieben werden, weil von den wenigen, die sich für das Thema den Aufwand machten, eine Abstimmung zu suchen, die meisten dafür waren. Und zweitens kann ich bei so einer "Volksabstimmung" natürlich auch immer das Ergebnis vorhersagen, wenn es um pro oder contra alte Gewohnheiten geht. Mach mal eine Volksabstimmung darüber, ob Fischfangquoten rigoroser durchgesetzt werden sollten, während du darauf hinweist, dass dafür alle - jeder einzelne - weniger Fisch essen müssten. In Japan ist eine Volksmehrheit für kommerziellen Walfang, in Südafrika eine Mehrheit für Enteignung weißer Grundbesitzer - im letzten Fall gibts deswegen einen verfassungsmäßigen Mindertheitenschutz gegen den Mehrheitswillen. Auch in der Demokratie ist Mehrheit kein absolutes Argument. Ich möchte mal wissen, wie wenige Wikipedia-Interessierte von deinem Meinungsbild überhaupt jemals etwas gehört haben... --88.73.132.9 19:43, 19. Nov. 2008 (CET) P.S. Lenin hatte auch eine Mehrheit gegen die Demokratie...
- Noch unpassendere Vergleiche sind dir nicht eingefallen? Hier gehts um ein technisches Thema, nicht um ein politisches. --MrBurns 20:37, 19. Nov. 2008 (CET)
- Ein solches gekünsteltes Meinungsbild als Entscheidungsgrundlage zu verwenden ist populistisch wirksam, aber deswegen nicht sinnvoll. 1. Ist die Stimmzahl einfach im Vergleich zu der Anzahl an Schreiberlingen in der Wikipedia absolut albern - dh. wenn die gilt, muss auch der Flughafen Tempelhof weiterbetrieben werden, weil von den wenigen, die sich für das Thema den Aufwand machten, eine Abstimmung zu suchen, die meisten dafür waren. Und zweitens kann ich bei so einer "Volksabstimmung" natürlich auch immer das Ergebnis vorhersagen, wenn es um pro oder contra alte Gewohnheiten geht. Mach mal eine Volksabstimmung darüber, ob Fischfangquoten rigoroser durchgesetzt werden sollten, während du darauf hinweist, dass dafür alle - jeder einzelne - weniger Fisch essen müssten. In Japan ist eine Volksmehrheit für kommerziellen Walfang, in Südafrika eine Mehrheit für Enteignung weißer Grundbesitzer - im letzten Fall gibts deswegen einen verfassungsmäßigen Mindertheitenschutz gegen den Mehrheitswillen. Auch in der Demokratie ist Mehrheit kein absolutes Argument. Ich möchte mal wissen, wie wenige Wikipedia-Interessierte von deinem Meinungsbild überhaupt jemals etwas gehört haben... --88.73.132.9 19:43, 19. Nov. 2008 (CET) P.S. Lenin hatte auch eine Mehrheit gegen die Demokratie...
Geschichte der Speicherchips
Seit wann gibt es den Megabit-Chip? Wurde schon ein Gigabit-Chip entwickelt? Oder wo ist die Entwicklung angelangt? Irgendwie ist die Geschichtsdarstellung etwas dürftig.--78.48.21.34 02:10, 3. Dez. 2008 (CET)
- ich schätze mal, dass es Megabit-Chips seit Mitte der 1980er-Jahre am Markt gibt (siehe DRAM#Geschichte), wo überhaupt mehr etwas über die Geschichte von DRAM drinsteht, der Intel 80386 kam 1986 auf den markt). Gogabit-Chips gibts auch schon,w eil sonst wäre es nicht möglich, 4GB-DIMMs herzustellen, weil sonst müsste man 512Mbit-Chips verwenden und bräuchte man 32 Chips, die man aber nicht auf einem DIMM unterbringen könnte. Nur werden halt nicht viele derartige Chips hergestellt, weil im Desktop-Bereich kommen fast alle Leute mit 8GB RAM oder weniger aus, was sich üblicherweise auch mit 2GB-DIMMs realisieren lässt. Außerdem unterstützen die meisten Desktop-Mainboards gar keine 4GB-DIMMs. Im Serverbreeich gibt es sogar schon 8GB-DIMMs (z.B. [2]). Wenn man sich auf geizhals.at ein apar Preisentwicklungen im Serverbereich anschat, findet man heraus, dass es dort 4GB-DIMMs, also 1 Gbit-Chips schon seit mindestens Anfang 2006 gibt, während sie im Desktopbereich erst Mitte 2008 aufgetaucht sind (man sieht auch schön den exponentiellen Preisverfall der Speicherpreise). --MrBurns 10:52, 4. Dez. 2008 (CET)
Handel
Zitat: Handel [Bearbeiten] Insgesamt gibt es auf der Welt nur noch neun Speicherchiphersteller:
Nanya Elpida Hynix Micron Technology Promos Powerchip Qimonda (Vertrieb auch als Marke "Aeneon", ehemalig Infineon/Siemens) Samsung FOS-Systems
Was ist mit den anderen Speicherhersteller:
Corsair
Kingston
Mushkin
MDT
GeIL
A-Data
Buffalo
Crucial
OCZ
Patriot
- Kingston stellt meines Wissens keine Speicherchips her, sondern nur Speichermodule, also die Platinen, auf denen die Speicherchips (und ein paar Helferchips) drauf sind. --RokerHRO 20:09, 5. Dez. 2008 (CET)
- Das gilt nicht nur für Kingston, sondern auch für alle anderen, die unter "andere Speicherhersteller" aufgelistet sind. --MrBurns 05:51, 9. Dez. 2008 (CET)
- Okay, dann ändere es doch, bzw. drösel es auf nach Speicherchiphersteller und (bekannte) Modulhersteller. --RokerHRO 13:57, 9. Dez. 2008 (CET)
Diese Aussage (Insgesamt gibt es auf der Welt nur noch neun Speicherchiphersteller) müßte vollkommen anders formuliert werden, hier werden nur Speicherchips für Hauptspeicher von Personalcomputern betrachtet. Es gibt aber auch noch kleinere statische RAM's welche z.B. von Atmel hergestellt werden. Auch EPROM/Flachspeicher können als Hauptspeicher eingesetzt werden. Hier wären als Hersteller z.B. Atmel und AMD zu nennen. Ich verweise auch auf die Hauptspeicher von kleineren Rechnern z.B. in Steuerungen oder Telefongeräten.--217.93.53.196 22:58, 19. Aug. 2010 (CEST)
Memory remapping
hallo
ich habe eine Anmerkung zu dem Artikel Arbeitsspeicher
da es sehr viele Anwender betrifft, wäre der folgende Artikel (nicht von mir) sicherlich in der Linkliste gut aufgehoben:
http://www.pc-experience.de/wbb2/thread.php?threadid=24883 (nicht signierter Beitrag von 85.176.169.110 (Diskussion | Beiträge) 15:19, 20. Apr. 2009 (CEST))
Bits und Bytes
Es fällt mir ja nicht besonders schwer, deshalb stelle ich mich jetzt mal ganz dumm. ;) Ich habe ein Modul mit 1 Gigabyte (byte=8bit). Ergo habe ich bei einem 32Bit System 256 Double Word Mega RAM und bei einem 64Bit System 128 Quadruple Word Mega RAM. Oder wie? Ich hoffe irgendjemand versteht was ich meine. --Lastwebpage 12:53, 22. Okt. 2009 (CEST)
- Naja, 1 "Gigabyte" (genauer: 1 GiB) sind 1024×1024×1024 Byte. Sofern man mit 1 Doubleword = 4 Byte und 1 Quadword = 8 Byte meint, sind das also 256×1024×1024 Doubleword oder 128×1024×1024 Quadword. Wo ist da jetzt das Problem? Ich seh es grad nicht... --RokerHRO 20:42, 22. Okt. 2009 (CEST)
- JA, so ist auch meine Rechnung, nur hätte dann ein 32-Bit System (Windows) nicht mehr "Speicherzeilen" als ein 64-Bit System? --Lastwebpage 10:24, 23. Okt. 2009 (CEST)
- Nö. x86-CPUs können byteweise auf den Speicher zugreifen, daher ist "1 Byte" schon die richtige "Basis"einheit. Und in jedem Betriebsmodus (Real Mode, 16- und 32-Bit-Protected Mode, 64-Bit-Mode) sind 8-, 16-, 32- und 64-Bit-Speicherzugriffe möglich. (32-Bit-Zugriffe seit dem Intel 80386, 64-Bit-Zugriffe seit Intel Pentium) --RokerHRO 10:38, 23. Okt. 2009 (CEST)
- Danke für die Aufklärung. Es scheint mir so als wäre da nämlich nicht allen klar. ;) (nicht signierter Beitrag von Lastwebpage (Diskussion | Beiträge) 12:15, 23. Okt. 2009 (CEST))
- Hm? Wem ist was nicht klar? --RokerHRO 12:29, 23. Okt. 2009 (CEST)
Verwendung des Cachespeichers als Arbeitsspeicher
@ den Autor/die Autoren: Ich kenne und habe kein Programm das mit dem Cache alleine zurecht kommt. Was ich weiß geht das nicht einmal mit Windows 95 8-Bit. Bitte überarbeite/t diesen Satz:" Bei geringem Speicherbedarf können Programme bzw. Teile davon fast ausschließlich im Cache laufen, ohne dass der Arbeitsspeicher angesprochen werden muss." --geschrieben von Huedibest 23:59, 8. Jul. 2010 (CEST)
- In meinen Augen wird damit nur die Realität beschrieben, wie sie ganz von alleine passiert, wenn ein kleines Programm eben komplett in den Cache passt und gerade nichts ausgelagert werden muss. Das kann und braucht dann auch kein Programmierer zu veranlassen (ich bin mir nicht sicher, ob man das überhaupt könnte), das passiert einfach, wenn wenig sonst los ist. Vielleicht soll das auch einen Wink auf die Problematik von Benchmarks sein, weil man solche Spezialfälle schlecht berücksichtigen oder ausschließen kann. - Und bist Du Dir sicher, dass Du kein solches Programm hast? Da gibt es genügend Tools im System-Ordner, die nur ein paar KB groß sind (und trotzdem lange laufen können), wo der Cache in MB bemessen ist. --PeterFrankfurt 02:39, 9. Jul. 2010 (CEST)
Passende Arbeits - speicher für Laptop finden
Um den passenden Arbeitsspeicher für ein bestimmtes Notebook Modell zu finden, kann die Nutzung von Speicher Konfiguratoren im Internet hilfreich sein.
Je nach Notebook Modell passen die folgenden Speicher Typen:
SD-Ram Laptop Speicher PC-100 (100Mhz) PC133 (133Mhz)
DDR SoDimm Laptop Speicher PC2100 (266Mhz) PC2700 (333Mhz) PC2700s (333Mhz) PC3200 (400Mhz)
DDR2 SoDimm Laptop Speicher PC2-4200 (533Mhz) PC2-5300 (667Mhz) PC2-6400 (800Mhz)
DDR3 SoDimm Laptop Speicher PC3-8500 (1066Mhz) PC3-10600S (1333Mhz)
Um schnell den passenden Speicher zu finden, kann man in "Speicher Konfiguratoren" das betreffende Laptop Modell eintragen.
Zum Beispiel auf der Webseite www.ramfinder.de, auf der Kingston sowie auf anderen Seiten.
Wieviel Arbeitsspeicher erkannt werden, hängt vom Prozessor als auch vom verwendeten Betriebssystem ab.
Ob Windows Xp oder Vista oder auch Windows 7 4 Gb oder mehr erkennt, das liegt auch am Prozessor Typ, und zwar erkennt ein 32 bit Prozessor nur 3.25 Gb Ram und ein 64 bit Prozessor 4Gb und mehr. Es spielt auch das Betriebsystem eine Rolle, so erkennen 32 bit Systeme egal ob xp, vista oder win 7 nur 3.25GB RAM und 64 bit Betriebssysteme, xp, vista oder win7 erkennen 4 Gb und mehr.
- Ja, schön, das wird man aber nicht in den Artikel hineinlassen, da das zu sehr nach "How-To" riecht, und das ist verpönt. --PeterFrankfurt 03:35, 9. Okt. 2010 (CEST)
Abschnitt Handel
ACHTUNG: Ich habe den Abschnitt in Mai 2011 in „Hersteller“ umbenannt -
was ja auch durch die Texte in den folgenden, zeitlich schon vorher vorhandenen
Diskussionen bestätigt wird!--VÖRBY 15:57, 30. Mai 2011 (CEST)
Ist hier ein Fehler in dem Abschnitt? Zitat: "Insgesamt gibt es auf der Welt nur noch neun Speicherchiphersteller:
* Nanya * Elpida Memory * Hynix * Micron Technology * Promos * Powerchip * Samsung * FOS-Systems * Kingston
Diese Hersteller teilen sich 97 % Marktanteil. Anbieter von Speichermodulen, wie Corsair, Kingston Technology, MDT, OCZ, A-Data etc. (sogenannte Third-Party-Hersteller) kaufen Chips bei den genannten Herstellern und löten diese auf ihre Platinen, wofür sie ein eigenes Layout entwerfen. Außerdem programmieren sie die SPD-Timings gemäß ihrer eigenen Spezifikationen, die durchaus spitzer eingestellt sein können als die der Originalhersteller."
Ist Kingston jetzt ein Speicherchiphersteller oder nicht. In diesem Text ist Kingston = Kingston Technology einmal als Speicherchiphersteller bezeichnet und einmal als Thid-Party-Hersteller.
--87.187.62.171 10:49, 1. Dez. 2010 (CET)
- Bitte lies den Tet nochmal, am Besten auf der Artikelseite, und nicht in deinem "Zitat"... Achte genau auf die kursivgeschriebenen Texte ... Kingston macht beides. --P.C. ✉ 10:55, 1. Dez. 2010 (CET)
Leistung von Speichermodulen
- (nicht jeder findet diesen Abschnitt zu detailliert)
Die angegebenen Werte in Nanosekunden sind ja gut und schoen, aber hier wird wohl vergessen, das DDR2 Speicher mit Commandrate 2 standardisiert ist (Im Gegensatz zu SDRAM und DDR SDRAM) Wenn man das in betracht zieht, sieht es mit den angegebenen Werten auch nicht mehr so lecker aus im Vergleich. Zudem ist DDR2 oder DDR3 nicht schneller. Es koennen nur mehr Daten pro Takt uebertragen werden. Zumindest sollte das nicht so formuliert werden. In der Praxis stehen DDR1 400 und DDR2 800 nahe bei einander. Und DDR3 ist nur auf Grund der Energieeffizienz im Vorteil. In der Praxis bleibt von der angegebenen Datenrate des Moduls im Schnitt nicht mehr als 25% ueber. Bei DDR2 sind es knapp unter 50%. Hier spielt naemlich auch der Faktor eine Rolle, das die uebertragenen Bits nicht alle benoetigt werden. Ein großteil der uebertragenen Daten wird verworfen. Hier spielt der Speichercontroller, die CPU und die Anwendung eine sehr große Rolle.87.139.55.127 17:58, 2. Feb. 2011 (CET)
Denke auch, die Formulierung ist überarbeitungswürdig: Aus meiner Sicht müsste klarer dargestellt werden, was diese Zeiten konkret mit dem Speicher zu tun haben - im Gegensatz etwa zu den Prozessor-Geschwindigkeiten (die hier wohl keine Rolle spielen sollten, was aber erwähnenswert ist). Kann das jemand verständlicher (laientauglicher) formulieren? --VÖRBY 09:57, 20. Mai 2011 (CEST)
Auch erscheinen mir - und sicherlich nicht nur mir - die Typ-Bezeichnungen absolut unklar. Besser wären einige wenige Beispiele für bekannte Computertypen und die Angabe, zu welcher Zeit diese Leistungen erreicht wurden. Bsp: 360-20 / 1970 / 64KB Speicher / Zugriffszeit ?? Wahrscheinlich gibts dazu auch Links.
--VÖRBY 11:24, 20. Mai 2011 (CEST)
Aus Benutzer Diskussion:PeterFrankfurt hierhin übernommen: --VÖRBY 10:21, 14. Jul. 2011 (CEST)
Hallo Peter, du hast Ergänzungen vorgenommen. In der Diskussion unter 'Leistung von Speichermodulen' (zwischenzeitlich Überschrifts-untypisch erweitert) habe ich die kritische Frage eingestellt, ob dieses Kapitel (bzw. die Form und der Detaillierungsgrad der darin enthaltenen Informationen) Enzyklopädie-geeignet ist. Wie stehst du dazu? Ich denke, dass diesbezüglich Formeln schon passen, aber die vielen Einträge mit den Typbezeichnungen sind doch hier wohl nicht angebracht. Bitte dort kurz deine Meinung einstellen, vielleicht auch den Artikel entsprechend kürzen.
Grüße von --VÖRBY 09:04, 13. Jul. 2011 (CEST)
- Deinen Beitrag in der Diskussion habe ich so aufgefasst, dass Du beklagst, dass das alles immer noch arg undurchsichtig sei. Finde ich auch. Deshalb habe ich das ausgerechnete Beispiel, das eine IP eingestellt hat (und ich bloß umformatiert habe), begrüßt, indem es ansatzweise ein praktisches Gefühl vermittelt, von was für Zeiten man denn da redet und vor allem, wie man die aus den reichlich kryptischen Angaben berechnen kann. Optimistischerweise gehe ich davon aus, dass die Rechnung korrekt ist, das Ergebnis stimmt ja für den betrachteten Fall netterweise mit den Angaben kurz darüber (ohne Rechengang) überein. Insofern sah ich es nur als Unterstützung der Verständlichkeit an. --PeterFrankfurt 01:15, 14. Jul. 2011 (CEST)
- Meine konkrete Meinung dazu ist:
- Diese Liste gehört einfach nicht in ein Lexikon, zumal die Werte relativ nahe beieinander liegen - woraus ichz schließe, dass nur eine bestimmte Art von Speichermodulen dargestellt ist.
- Für welchen der genannten Werte gilt die Formel?
- Warum gibt es manchmal4, manchmal nur 3 Werte?
- Die Erläuterungen CAS usw. gehören m.E. in das Formelkapitel, am besten auch VOR die Auflistung.
- Die Aussagen zu JEDEC und den Spezifikationen passen m.E. nicht in das Leistungskapitel, zumindest nicht in das Unterkapitel 'Formel'.
- Auch die Aussagen unter 'Praxis' versteht wohl nur ein Detailkenner. Für meine Begriffe auch nicht 'lexikalisch'. Was dort steht, lässt außerdem vermuten, dass die Formel komplexer ist als dargestellt.
- Verstehst du mehr davon? Siehst du dich dazu in der Lage, dieses Kapitel zu säubern? --VÖRBY 09:16, 14. Jul. 2011 (CEST)
- Meine konkrete Meinung dazu ist:
- Nö, ich will da nichts "säubern", ich sehe da keinen Dreck. Nein, ich verstehe leider auch nicht alle Details, aber ich habe solche Bausteine (einzelne Chips, nicht bloß Riegel) schon in der Hand gehabt und weiß über die Existenz der 4-fach- und 3-fach-Zahlenangaben. Ob die vernünftig genug erklärt werden (Anzahl benötigte Taktzyklen für Zugriffe in 4 oder 3 verschiedenen, definierten Ausgangssituationen, wie Burst oder Neuzugriff und was weiß ich noch), müsste noch geklärt werden. Wichtig und relevant ist das allemal, sie haben z. B. direkten Einfluss auf Einstellungsparameter, zu denen man über manche Mainboard-BIOSse Zugang hat und mit denen man Optimierungen oder Verschlimmbesserungen erreichen kann. Insofern ist das tägliches Brot für viele Leute und in meinen Augen vollkommen relevant. Zu der Formel kann ich nicht arg viel sagen, sie erscheint "glaubhaft", es kommt offensichtlich "das richtige" raus, und im Lichte der praktischen Bedeutung, was heißen jene Zahlenquadrupel?, liefert sie eben den Weg zu der Aussage, dass diese Angaben zum Resultat führen, dass im Endeffekt eine Zugriffszeit von soundsoviel Nanosekunden auftritt. Sehr nützlich, finde ich, da wird aus abstrakten, leeren Zahlenangaben pralle Geschwindigkeitsrealität. Es hat zu diesem Themenkomplex hier schon diverse Fachleute gegeben, die z. B. den Artikel zu DRAMs sehr schön schlüssig bereichert haben, vielleicht sind die ja noch zu kriegen. --PeterFrankfurt 00:45, 15. Jul. 2011 (CEST)
- Ah, gerade fällt es mir ins Auge, steht doch da:
- DDR400 CL2-2-2-5
- 10 ns - 10 ns - 10 ns - 25 ns (CAS-tRCD-tRP-tRAS)
- Da steht, wofür die 4 Zahlenwerte stehen, für die Timingparameter, wie sie dann im DRAM-Artikel erläutert werden. --PeterFrankfurt 01:12, 15. Jul. 2011 (CEST)
Hauptspeicher und Arbeitsspeicher
Dass der Arbeitsspeicher auch Hauptspeicher genannt wird, ist so leider nicht korrekt. Der Arbeitsspeicher besteht allein aus dem RAM-System, während der Hauptspeicher RAM und Rom einschließt. (nicht signierter Beitrag von 84.58.110.249 (Diskussion) 13:44, 18. Mai 2011 (CEST))
- Wo steht denn diese Definition? --PeterFrankfurt 03:11, 19. Mai 2011 (CEST)
- Halte das mit RAM/ROM auch für sehr unrichtig. Im Übrigen scheint mir AS ein Überbegriff zu sein und nicht nur ein Synonym. AS kann der z.B. auch ein Workbereich auf Platten sein - den z.B. ein SORT benutzt. Die jetzige Definition ist zu schwammig (was ist ein 'später Zeitpunkt'?), die Unterschiede zur Festplatte alles andere als vollständig.
- Vorschlag: Der gesamte jetzige Text wird aktualisiert (s.u.) und unter Hauptspeicher eingestellt. Unter Arbeitsspeicher wird die engere und die erweiterte Bedeutung beschrieben und auf HS verlinkt.
- Lt. Duden 'Informatik': "HS ( engl. ....) Bezeichnung für den Speicher, der die gerade auszufühfrenden Programme oder Programmteile und die (dazu) benötigten Daten enthält. Der HS ist eine Komponente der Zentraleinheit. Da der Prozessor unmittelbar auf den Hauptspeicher zugreift, beeinflussen dessen Leistungsfähigkeit und Größe in wesentlichem Maß die Leistungsfähigkeit der gesamten Rechenanlage."
- --VÖRBY 17:05, 19. Mai 2011 (CEST)
- Dass der Artikel Hauptspeicher eine Weiterleitung hierher ist, bedeutet ein Synonym. Auch etwas mutig, aber ein konkretes Gegenargument habe ich jetzt nicht, nur so ein Bauchgefühl. Ansonsten sieht die Duden-Definition ok aus, abschreiben dürfen wir aber auch nicht einfach, nix guttenbergen. Und nicht nur der Prozessor greift ja auf den Speicher zu, DMA gibt's auch noch. --PeterFrankfurt 02:06, 20. Mai 2011 (CEST)
- zu „Gegenargument“: In erweitertem Sinn ist ein AS ein Speicher, der zum vorübergehenden Arbeiten benutzt wird. Dazu könnten auch temporäre Dateien, Tabellen etc. benutzen. DMA kann man m.E. durchaus auch als 'Systemzugriff' betrachten; ob man das explizit erwähnen sollte, scheint mir fraglich.
- Mir wurde in WP schon oft vorgehalten, zu wenig 'Belege' zu liefern. Wie sollten die denn aussehen, wenn man nicht (exakt) zitieren dürfte? Ich denke, mit korrektem Quellverweis sind solche Angaben ok; siehe auch Wikipedia:Zitate. Ich werden also den Text mal umschreiben und einen Admin bitten, die Sache mit der Weiterleitung (Synonym) zu überdenken.
- --VÖRBY 09:18, 20. Mai 2011 (CEST)
- zu „Gegenargument“: In erweitertem Sinn ist ein AS ein Speicher, der zum vorübergehenden Arbeiten benutzt wird. Dazu könnten auch temporäre Dateien, Tabellen etc. benutzen. DMA kann man m.E. durchaus auch als 'Systemzugriff' betrachten; ob man das explizit erwähnen sollte, scheint mir fraglich.
- Zu "abschreiben": Man soll es halt mit eigenen Worten formulieren, darf den Sinn aber gern 100%ig übernehmen, wenn die Quelle angegeben wird. Als echtes Zitat mit der Vorlage:Zitat fügt man eigentlich nur authentische (Interview-)Aussagen von irgendwelchen Promis oder aus Klassiker-Litaraturwerken ein, weniger bei Sachthemen, es sei denn, man hätte DIE Originalformulierung vom alten Pythagoras zu seinem Satz zur Hand (hab ich noch nicht gesehen). --PeterFrankfurt 16:47, 20. Mai 2011 (CEST)
- Nee, also die derzeitige Form mit diesem direkten Duden-Zitat finde ich überhaupt nicht gut. Duden ist nicht als die päpstliche Autorität für EDV-Hardwarebelange registriert und verdient diese Ehre eines so prominenten Zitats irgendwie nicht. Wenn man sowas von Herrn Zuse oder Herrn Turing hätte, wäre es was anderes. Hier sollte es besser mit eigenen Worten neu formuliert werden, die ref auf den Duden kann ja gerne bleiben. --PeterFrankfurt 03:16, 21. Mai 2011 (CEST)
- Zu "abschreiben": Man soll es halt mit eigenen Worten formulieren, darf den Sinn aber gern 100%ig übernehmen, wenn die Quelle angegeben wird. Als echtes Zitat mit der Vorlage:Zitat fügt man eigentlich nur authentische (Interview-)Aussagen von irgendwelchen Promis oder aus Klassiker-Litaraturwerken ein, weniger bei Sachthemen, es sei denn, man hätte DIE Originalformulierung vom alten Pythagoras zu seinem Satz zur Hand (hab ich noch nicht gesehen). --PeterFrankfurt 16:47, 20. Mai 2011 (CEST)
Hallo Peter! Der bisherige, wahrscheinlich "mit eigenen Worten formulierte" Einleitungstext war einfach nicht wirklich richtig. Da passt der neue Text (und auch du hattest das INHALTLICH ja bestätigt) besser - und ich sehe keinen Grund, da etwas umzuformulieren. Auch habe ich mich dabei an Wikipedia:Belege (1.) und Wikipedia:Zitate (2.) orientiert:
- Alle nicht-trivialen Aussagen eines Artikels müssen belegt und auf diese Weise nachprüfbar sein. Werden wörtliche Zitate aus modernen Arbeiten im Artikel verwendet, besteht nach dem Urheberrecht der deutschsprachigen Länder die Rechtspflicht zur genauen Quellenangabe. Dies bedeutet unter anderem, dass bei einem zitierten Werk die genaue Fundstelle (Seitenzahl) anzugeben ist.
- Ein wörtliches Zitat muss genau sein. Es ist nicht gestattet, den Text zu korrigieren, an die heutige Rechtschreibung anzupassen oder Verbformen zu beugen usw. Damit sich ein Zitat trotzdem passend in einen Text einfügt, kannst du Wörter oder Buchstaben in eckigen Klammern hinzufügen. Alles, was nicht buchstäblich in der zitierten Quelle enthalten ist, sollte in eckigen Klammern stehen, selbst, wenn es nur einzelne Buchstaben sind. Wenn du Teile der zu zitierenden Quelle auslässt, solltest du das mit einem Auslassungszeichen und ebenfalls in eckigen Klammern deutlich machen („[…]“) – nicht jedoch am Anfang oder Ende des Zitats.
Du siehst also, ich habe den besten Willen, formal richtig zu arbeiten. Hast jemand eine 'wissenschaftlichere Quelle'? Dann kann er ja den zitierten Einleitungstext ersetzen. Ich halte ihn jedoch für korrekt und auch für passend kurz. Außerdem denke ich, dass die beim Duden auch gewissenhaft recherchiert haben. Grüße von --VÖRBY 12:21, 21. Mai 2011 (CEST)
- Wie gesagt, formal und inhaltlich ok. Aber der Duden als ultimative Quelle für technische Fachspezifika passt irgendwie nicht, da grummelt es mir tief im Bauch. Biologen oder Mathematiker würden das glaubich auch nicht machen. --PeterFrankfurt 16:28, 21. Mai 2011 (CEST)
Trommel als Hauptspeicher?
Ich möchte keinen neuen Unterpunkt aufmachen, aber in der Geschichte fehlt der Magnettrommelspeicher. -- wefo 10:36, 14. Jul. 2011 (CEST)
- Meines Wissens waren das - wie die Magnetplatten - keine internen 'Hauptspeicher' - auf die der Prozessor (Steuer- und Rechenwerk) direkt zugreifen konnte. Wenn das richtig ist, würde nichts fehlen. --VÖRBY 11:22, 14. Jul. 2011 (CEST)
- Der erste Rechner, an dem ich ein Praktikum machen musste, hatte eine bitweise Eingabe und Anzeige. Wir berechneten damit 5 + 7. Damals fragte ich mich, ob es irgendwo eine "richtige" Eingabe über einen Fernschreiber gibt. Ich hielt die Technik also für eine Art Simulation, die darauf ausgerichtet war, den Studenten Grundkenntnisse zu vermitteln. Etwas Ähnliches konnte man Ende der 1980er Jahre im KaDeWe kaufen, da entsprachen die Abmessungen DIN A4 (ich war nur in Versuchung, wurde aber nicht verführt). Auch das EPROM-Programmiergerät, an dem ich später zu tun hatte, entsprach von der Bedienung her diesem Stand. Leider habe ich Ende der 1960er Jahre nicht versucht, dem Praktikumsrechner „unter den Rock zu kucken“. Aber etwa zu jener Zeit wurde ein Bit mit einem diskret aufgebauten bistabilen Multivibrator gespeichert (also wie mit Röhren, aber mit Transistoren – so eine Speicherkarte könnte ich im Keller haben). Bei meinem postgradualen Studium hatte der Rechner einen Magnettrommelspeicher. Die Trommel drehte sich ständig, also nicht so, wie heute eine Festplatte, die zwischendurch „schläft“. Zu jener Zeit war auch von den Magnetkernspeichern die Rede, möglicherweise hatten wir die Gelegenheit, in so einen Schrank zu kucken. Die Aufteilung der Speicherung auf verschiedene Ebenen mit unterschiedlichen Zugriffszeiten und Zugriffstechniken ist insoweit normal. Weil die Bedienung zeitlich zufällig ist, war die Zugriffszeit beim Magnettrommelspeicher eine zufällige Größe. Die Elektronik habe ich wahrscheinlich nicht gesehen, ich weiß auch nicht, wie damals die ZRE/CPU beschaffen war. Die ZRE mit dem Z80 war dann ein großer Fortschritt für kleinere Anlagen. Zu der ZRE gab es eine Speicherkarte. Große Bedeutung hatte für mich dann der ZX81, bei dem natürlich der RAM als Arbeitsspeicher diente, während zur Langzeitspeicherung ein Kassettengerät verwendet wurde. Das war damit nicht wesentlich anders, als die zentralen Großrechenanlagen mit ihren Bandlaufwerken. -- wefo 13:01, 14. Jul. 2011 (CEST)
- Aus deiner Beschreibung lässt sich leider nicht erkennen, ob der Magnettrommelspeicher nun ein interner Speicher (mit direktem Zugriff) oder ein Datenspeichergerät war. Frühere Platten drehten sich auch ständig - wie diese deine Trommel. Und "Magnetkernspeicher" könnten die Ferritkernspeicher sein, die früher als interne Speicher verwendet wurden - die aber was anderes als die M-Trommel wären.
- Wie gesagt, wenn du sicher bist, dass auf die M-Trommel DIREKT zugegriffen wurde, sollte man das bei Historie aufnehmen, die Historie von Speichermedien gehört aber nicht hier hin. Grüße von --VÖRBY 14:43, 14. Jul. 2011 (CEST)
- Die Unterschiede liegen in den Zugriffszeiten der Speicherebenen. Und – um es klar zu sagen – meine Erinnerungen sind für die WP ohnehin nur TF. In der Informatik haben wir es mit einer Entwicklung des Begriffssystems zu tun, bei der es mir schon etwas schwerfällt, die Erfahrungen mit dem ZX81, dem PC 1715, dem C510, dem Spectrum, dem HP41 und dem EPROM-Programmiergerät (für das ich ein Abbild logischer Gleichungen definierte, die mit Hilfe eines kleinen Programms in den gewünschten Inhalt eines EPROMs umgerechnet wurden, der dann seinerseits die sonst aufwendige logische Schaltung ersetzte) mit dem Begriff "Arbeitsspeicher" in Verbindung zu bringen. Beim ZX81 kannte ich jedes Bit persönlich, denn ich schrieb mein eigenes ROM-Buch. Und da sind wir bei den Begriffen ROM und RAM, die beide so etwas wie den heutigen Arbeitsspeicher ausmachten. Eine Besonderheit bestand darin, dass auch die Muster der Zeichen im ROM abgelegt waren und direkt gelesen wurden. Das alles passt nicht zur heutigen Begriffswelt. Beim PC 1715 enthielt der ROM lediglich einen Urlader, der eine serielle Schnittstelle und eine Floppy-Disk abfragte (in genau dieser Reihenfolge, die serielle Schnittstelle dürfte für die Fertigung gedacht gewesen sein, sie ersparte das Einlegen der Diskette mit dem eigentlichen Hauptprogramm). Weitere Programme (z. B. Textprogramme oder Disassembler) befanden sich nach meiner Erinnerung auf der zweiten Diskette (und wurden in den jeweils benötigten Stückchen in den RAM geladen). (Die Assemblersprache brachte mich zur Verzweiflung, weil ich in Hex-Zahlen dachte und die Assembler-Sprache als zu umständlich und vor allem als unlogisch empfand. Heute fahre ich aus der Haut, wenn mein Rechner irgendetwas „nachladen“ oder „aktualisieren“ will und mich stört das Hochladen beim Sat-Receiver sehr, der ja im Unterschied zu einem „richtigen“ Dampfradio auch nichts weiter als ein spezialisierter Computer – mit einem Arbeitsspeicher – ist). Wenn wir zum ZX81 zurück kucken, dann können wir den ROM bezüglich des direkten Zugriffs als Arbeitsspeicher auffassen, aber er hat nicht das andere mE entscheidende Merkmal, die Speicherung des (wähl- bzw. änderbaren) Programms in einem RAM. Und angesichts von Caches müssen wir uns fragen, ob das, was wir als Arbeitsspeicher bezeichnen, überhaupt noch einen „direkten“ Zugriff hat. Interessant ist in diesem Zusammenhang auch der Unterschied zwischen der getakteten Steuerung des Z80 und der verzögerungsgesteuerten Steuerung des 6502. Die mir bekannten RAMs sind im Prinzip verzögerungsgesteuert (benötigen aber Impulse mit einem bestimmten Zeitsystem), soweit eine Floppy oder eine Trommel benutzt werden, gibt es eine zumindest interne (asynchrone) Taktung. Bedeutet nun eine interne Taktung, dass es kein „direkter Zugriff“ mehr ist? Für die Trommel als Arbeitsspeicher wäre das eine interessante Frage. Oder anders: Sind die bei einem EMR recht zahlreichen Register der Arbeitsspeicher oder ist dies der aufgabenspezifische ROM (ich denke da an Tastaturen, die sich für mich nicht wesentlich vom ZX81 unterscheiden). Das alles sind Fragen, die wohl nur geeignete Primärquellen ausreichend sicher beantworten können. -- wefo 15:45, 14. Jul. 2011 (CEST)
- Aus deiner Beschreibung lässt sich leider nicht erkennen, ob der Magnettrommelspeicher nun ein interner Speicher (mit direktem Zugriff) oder ein Datenspeichergerät war. Frühere Platten drehten sich auch ständig - wie diese deine Trommel. Und "Magnetkernspeicher" könnten die Ferritkernspeicher sein, die früher als interne Speicher verwendet wurden - die aber was anderes als die M-Trommel wären.
- Der erste Rechner, an dem ich ein Praktikum machen musste, hatte eine bitweise Eingabe und Anzeige. Wir berechneten damit 5 + 7. Damals fragte ich mich, ob es irgendwo eine "richtige" Eingabe über einen Fernschreiber gibt. Ich hielt die Technik also für eine Art Simulation, die darauf ausgerichtet war, den Studenten Grundkenntnisse zu vermitteln. Etwas Ähnliches konnte man Ende der 1980er Jahre im KaDeWe kaufen, da entsprachen die Abmessungen DIN A4 (ich war nur in Versuchung, wurde aber nicht verführt). Auch das EPROM-Programmiergerät, an dem ich später zu tun hatte, entsprach von der Bedienung her diesem Stand. Leider habe ich Ende der 1960er Jahre nicht versucht, dem Praktikumsrechner „unter den Rock zu kucken“. Aber etwa zu jener Zeit wurde ein Bit mit einem diskret aufgebauten bistabilen Multivibrator gespeichert (also wie mit Röhren, aber mit Transistoren – so eine Speicherkarte könnte ich im Keller haben). Bei meinem postgradualen Studium hatte der Rechner einen Magnettrommelspeicher. Die Trommel drehte sich ständig, also nicht so, wie heute eine Festplatte, die zwischendurch „schläft“. Zu jener Zeit war auch von den Magnetkernspeichern die Rede, möglicherweise hatten wir die Gelegenheit, in so einen Schrank zu kucken. Die Aufteilung der Speicherung auf verschiedene Ebenen mit unterschiedlichen Zugriffszeiten und Zugriffstechniken ist insoweit normal. Weil die Bedienung zeitlich zufällig ist, war die Zugriffszeit beim Magnettrommelspeicher eine zufällige Größe. Die Elektronik habe ich wahrscheinlich nicht gesehen, ich weiß auch nicht, wie damals die ZRE/CPU beschaffen war. Die ZRE mit dem Z80 war dann ein großer Fortschritt für kleinere Anlagen. Zu der ZRE gab es eine Speicherkarte. Große Bedeutung hatte für mich dann der ZX81, bei dem natürlich der RAM als Arbeitsspeicher diente, während zur Langzeitspeicherung ein Kassettengerät verwendet wurde. Das war damit nicht wesentlich anders, als die zentralen Großrechenanlagen mit ihren Bandlaufwerken. -- wefo 13:01, 14. Jul. 2011 (CEST)
Danke Wefo. Du steckst (stecktest) da ja wohl sehr tief drin in der Technik. Da ich diesbezüglich technisch überhaupt nicht versiert bin, würde ich mich gerne aus der Diskussion ausklingen.
So wie ich das alles verstehe, gehen wir im Artikel nicht weiter in die Tiefen der historischen Entwicklung: Die Magnettrommeln sind sicher 'Speicher', aber wahrscheinlich keine 'Arbeitsspeicher' - nach der Definition in der Einleitung des Artikels. Die von dir angesprochenen Begriffe ROM und RAM passen da m.E. schon eher hin (als Varianten von Hauptspeicher). Man könnte dazu den jetzigen Abschnitt 'Cache' erweitern und 'Kategorien von Hauptspeichern' (oder so ähnlich) nennen. Wie gesagt, so wie ich als 'Laie' das sehe.
Ich grüße dich: --VÖRBY 16:06, 14. Jul. 2011 (CEST)
- Nach meinen Ansprüchen bin ich ebenfalls ein Laie, aber im Magnettrommelspeicher heißt es: „In vielen frühen Computersystemen wurde der Hauptarbeitsspeicher durch ein solches Trommelsystem gebildet“, was die im Grunde von mir bereits erwähnte Frage nach dem Begriffssystem unterstreicht. Ist der „Hauptarbeitsspeicher“ kein „Arbeitsspeicher“, weil in verschiedenen Systemen gedacht wird? Du bist aktiv, und das ist erfreulich. Bei Deiner Aktivität wollte ich Dich mit meinem Hinweis unterstützen, wünsche Dir viel Erfolg bei den Verbesserungen und grüße Dich ebenfalls. -- wefo 17:56, 14. Jul. 2011 (CEST)
- Nachtrag: Ich habe Stichwörter nachgeschlagen und festgestellt, dass meine Darstellungen mit der WP nur sehr bedingt vereinbar sind. Die ZRE war eine ganz bestimmte Leiterkarte im EGS (einheitliches Geräte-System, z. B. DDR), die neben der CPU U880 (entspricht weitgehend dem Z80) auch die Bausteine PIO (programmierbare parallele Ein- und Ausgabe) und SIO (dasselbe in seriell, z. B. verwendbar, um einen Fernschreiber anzusteuern) enthielt. Das alles fehlt in der WP. Nochmals Gruß -- wefo 18:11, 14. Jul. 2011 (CEST)
Einige Quellen bestätigen die Verwendung als Hauptspeicher. Habe also kurz ergänzt. Danke. --VÖRBY 22:20, 14. Jul. 2011 (CEST)
SI- oder IEC-Notationen
Hauptspeichergröße in SI- oder IEC-Norm notieren? Hinweis im Artikel auf beide Versionen?
Die Diskussion wurde unter Benutzer Diskussion:Raumfahrtingenieur#Arbeitsspeicher begonnen und wird hier fortgeführt.
--VÖRBY 19:48, 23. Aug. 2011 (CEST),aktuell: --VÖRBY 13:03, 27. Aug. 2011 (CEST)
- Es gab zu dem Thema mal ein Meinungsbild, wobei eindeutig rauskam, dass die KiB- und MiB-Schreibweise lieber nicht verwendet werden soll. Außerhalb der WP habe ich die auch noch nie gesehen, auch nicht, seitdem ich per WP in dieser Richtung sensibilisiert worden bin. --PeterFrankfurt 01:59, 24. Aug. 2011 (CEST)
- Danke für den Hinweis. So wie ich das jetzt sehe (mir war bisher zwar die Ungenauigkeit der KB-...Angaben bewusst, ich kannte aber die IEC-Regeln nicht), sind diese Angaben aber wohl meist nicht wirklich korrekt, sondern nur die 'Ungefährwerte'. Man versucht dabei, zwei Welten (Binär und Dezimal) irgendwie unter einen Hut zu bringen und tut dies durch Bezug auf Dezimalgrößen - die der Mensch wohl eher verstehen kann. Trotzdem bin ich der Ansicht, dass gerade in der Informatik Korrektheit angesagt sein sollte und finde, dass insofern die IEC-Notation korrekter ist - wenn wirklich solche Größen dargestellt werden sollen. Ich weiß z.B. nicht konkret, wie groß eine 300 MB-Festplatte wirklich ist.
- Abgesehen von der Präzision der IEC-Notierung denke ich aber, dass kaum jemand verstehen kann, was 230 ist. Insofern wäre es besser, man würde die Größen mit "1024x" bezeichnen, da entsprechen die einzelnen Potenzen jeweils in etwa einen (dezimalen) 1000er Multiplikator.
- Im Artikel wurde nun praktisch durchgehend diese IEC-Notation eingefügt. Denkst du auch, dass der Text in der Einleitung insofern ausreicht? Grüße von--VÖRBY 08:50, 24. Aug. 2011 (CEST)
- Danke für den Hinweis. So wie ich das jetzt sehe (mir war bisher zwar die Ungenauigkeit der KB-...Angaben bewusst, ich kannte aber die IEC-Regeln nicht), sind diese Angaben aber wohl meist nicht wirklich korrekt, sondern nur die 'Ungefährwerte'. Man versucht dabei, zwei Welten (Binär und Dezimal) irgendwie unter einen Hut zu bringen und tut dies durch Bezug auf Dezimalgrößen - die der Mensch wohl eher verstehen kann. Trotzdem bin ich der Ansicht, dass gerade in der Informatik Korrektheit angesagt sein sollte und finde, dass insofern die IEC-Notation korrekter ist - wenn wirklich solche Größen dargestellt werden sollen. Ich weiß z.B. nicht konkret, wie groß eine 300 MB-Festplatte wirklich ist.
Ich sehe erst jetzt, dass es dazu schon ellenlange Diskussionen und das o.g. Meinungsbild gab; siehe oben. Meine Meinung: Geschmack und Gewohnheit sind das Eine, Korrektheit ist das Andere. Wo man nicht sehr präzise sein muss, kann man mMn mit "dem Gewohnten" leben (MB ist rund 1 Mio Bytes). Wo Genauigkeit aber wichtig ist, sollte man schon präzise sein, d.h. entweder dann den IEC-Präfix MiB benutzen oder zusätzlich zu "MB" einen erläuternden Hinweis (binär o.ä.) geben. --VÖRBY 13:06, 24. Aug. 2011 (CEST)
- 100% Zustimmung. Leider wird auch heute noch in der dt. WP darauf beharrt, etwas anderes durchzusetzen und als Begründung auf dieses unsägliche (und schon damals reichlich kritisierte) Meinungsbild verwiesen. Ich kann dazu nur auf meine Beiträge auf der zugehörigen Diskussionsseite verweisen. Seit damals sind keine neuen Argumente hinzugekommen, nur immer wieder neu aufflammendes Durcheinander. Ich bin müde. :-( --RokerHRO 14:00, 24. Aug. 2011 (CEST)
- Ich denke, es ist hier wie so oft: Da gab es zwei ideologisch festgezurrte Parteien. Keine gibt nach und deshalb sind keine vernünftigen Lösungen/Kompromisse möglich. Meine obige Version könnte ein solcher sein. Dabei sind die Fakten klar:
- Es gibt zwei unterschiedliche Mengenbegriffe.
- Die IT (z.B. Hersteller) hat einfach die SI-Formate übernommen und jahrzehntelang nicht bemerkt (oder ignoriert), dass diese schlichtweg unpräzise sind, hat eigentlich Minderqualität produziert, wie u.a. auch bei löchrigen Betriebssystemen, unverständlichen GUI's und Nicht-Y2K-fähigen Anwendungen.
- Die IEC hat (zwar spät aber immerhin korrekte) begrifflich inakzeptable Bezeichnungen geprägt anstatt z.B. durch eine Ergänzung (wie KBb) den Binärbezug darzustellen. Auch gab es wohl kein angemessenes Kommunikations- und Veröffentlichungskonzept.
- Die Benutzer votierten nach altbekannter Art. Die einen: "Was ich nicht kenne, kann nicht richtig sein." Die anderen: "Was korrekt ist, muss richtig sein". Diesbezügliche Edit-Wars waren die Folge.
- Übrigens halte auch ich ein solches WP-Voting für nicht relevant. Abgesehen von der verschwindend kleinen Votermenge (kann nicht repräsentativ sein) kann alleine die Anzahl der Meinungen (ohne Gewichtung von Argumenten) eine solche Festlegung nicht entscheiden. Und WP alleine kann auch keine offizielle Normen einfach "absägen".
- Fazit: Es GIBT zwei Notationsformen; die eine ist bekannter und akzeptierter, die andere i.d.R. präziser; meist ist absolute Präzision aber nicht erforderlich. Wie oben erwähnt, sollten verantwortliche Autoren je nach Situation entsprechende Klarheit schaffen.--VÖRBY 18:06, 24. Aug. 2011 (CEST)
- Ich denke, es ist hier wie so oft: Da gab es zwei ideologisch festgezurrte Parteien. Keine gibt nach und deshalb sind keine vernünftigen Lösungen/Kompromisse möglich. Meine obige Version könnte ein solcher sein. Dabei sind die Fakten klar:
- Pardon, aber mit PeterFrankfurts Zusammenfassung des Meinungsbildes bin ich durchaus nicht einverstanden - es gab Argumente auf beiden Seiten, wobei mir diejenigen des "Vorschlag 1 (SI-Präfixe auch für binäre Datenmengen)" erheblich subjektiver und mehr von Aversionen geprägt erschienen ("bescheuert", "Men in Black", "kenne ich nicht", "ominöse Norm" - um nur ein paar Zitate zu nennen), als die mehrheitlich durchaus vernünftigen der Befürworter des Vorschlages 2. Meine Meinung ist klar, Korrektheit sollte den Vorrang haben, jedenfalls ist das mein Anspruch an eine Enzyklopädie, auch wenn Neuerungen häufig "wenig verbreitet" sind (das war das Meter anfänglich auch, aber niemand, der bei Verstande ist, rechnet noch mit Füßen und Ellen...) Ich bin aber völlig einverstanden, dass dieses Meinungsbild weder repräsentativ noch verbindlich sein kann.
- Ich möchte aber zu bedenken geben, dass mittlerweile auch über drei Jahre ins Land gegangen sind und sich in meinem Umfeld Binärpräfixe endlich - wenn auch langsam - herumsprechen. Auch in der Fachpresse wurden schon entsprechende Klarstellungen abgedruckt, die zugegebenermaßen ebenfalls in beide Richtungen gehen, z.T. mit abstrusen Begründungen, "aus Gründen der Lesbarkeit" die normwidrigen/missverständlichen/unklaren Angaben beizubehalten. Die Problematik darf aber inzwischen als einem breiten Publikum als bekannt vorausgesetzt werden, letzter Anlass war die 2 TiB-Problematik moderner Festplatten, für die sich der Begriff "2,2 TB-Grenze" zu etablieren scheint ;-| - immerhin wäre das korrekt...
- Die Umsetzung in der IT-Welt ist ebenfalls - mindestens teilweise - erfolgt. Mac OS X vermeidet das Problem mittlerweile durch konsequent dezimale Anwendung der SI-Präfixe. Auf den meisten UNIX-Systemen kann man wählen, ob man Dateigrößen dezimal oder binär angezeigt bekommen möchte. In allen Fällen sind die Angaben richtig, nur Windows führt die Verwirrung weiter, obwohl der Unterschied nicht erst seit GB/GiB erheblich ist.
- Aus meiner Sicht ist die Unterscheidung einfach, da der Verfasser weiß oder wissen sollte, ob er/sie von (streng) binär adressiertem Speicher spricht, wie bei Halbleiterspeicher(-bausteinen), Caches u.ä., oder von Speicher, bei dem die binäre Architektur in den Hintergrund tritt, wie Festplatten, Speicherkarten, Bändern etc. In ersterem Fall liegt zumeist eine "binäre" Größe vor und die Verwendung eines Binärpräfixes ist angezeigt, da korrekt und eindeutig. Im zweiten Fall ist beides möglich, dezimal aber i.d.R. wohl verständlicher. Eine korrekte Beschreibung eines Rechners könnte lauten: 4 GiB RAM, 750 GB HD, 3 GHz - einfach, oder?
- Es ist richtig, dass der IEC-Vorschlag nicht verbindlich ist. Er ist aber Klarheit schaffend und sinnvoll, zudem sind Maßeinheiten (mitsamt SI-Präfixen in ihrer festgelegten Bedeutung) in den allermeisten Ländern gesetzlich als verbindlich festgelegt. Man könnte also juristisch korrekt argumentieren, die Verwendung von SI-Präfixen in binärer Bedeutung sei illegal (warum hat die Abmahnindustrie das noch nicht entdeckt?)
- Sorry wenn das ein etwas längerer Abschnitt wurde - aber für alte Zöpfe hab ich nicht viel übrig. --Raumfahrtingenieur 22:50, 24. Aug. 2011 (CEST)
- Wenn ich das richtig verstehe, geht Apple aber nur dadurch auf das Problem ein, dass sie rein dezimale Formulierungen verwenden? Also auch keine KiB und MiB? Das würde ja dazu passen, was ich sage: Diese IEC-Schreibweise ist absolut ungebräuchlich und (noch?) nicht eingeführt. Und die WP hat nun mal den Grundsatz (wie der Duden), nicht von sich aus irgendwelche Schreibweisen durchzudrücken, und seien sie nun ach so viel vernünftiger, sondern so zu schreiben, wie es draußen in der Praxis üblich ist, und das ist nun mal zu allerletzt das KiB und MiB. Falls es sich wider Erwarten doch mal durchsetzen sollte, können wir gerne noch mal drüber reden. --PeterFrankfurt 01:40, 25. Aug. 2011 (CEST)
Hallo zusammen, ich finde die Diskussion hochinteressant. Mir fielen dazu noch folgende Aspekte ein:
- Die SI-Notation geht im Ursprung nicht auf die Computertechnik zurück, sondern legt nur fest, wie Mengen in dezimalen Potenzen (übrigens auch für die Mengen <1) zu nennen sind: kilo, mega etc. Die IT hat sich an diesen Größen orientiert, sie aber technikbedingt häufig binärbasiert (und damit unpräzise) interpretiert.
- Die IEC-Notation ist diesbezüglich präziser und nimmt für sich in Anspruch, die "2" als Basis zu verwenden, ornientiert sich aber ebenfalls - durch den begrifflichen Bezug auf MB etc. - an dezimal definierten Werten, um die Mengen für Menschen verstehbar zu machen. Mit zunehmender Größe werden also die Zahlen (im Verhältnis zum dezimalen Potenzwert) ungenauer - was jedoch durch eine abweichende Bezeichnung dokumentiert wird.
- Die beiden Formen konnten diese Abweichungen nur deshalb anwenden (tolerieren), weil die Binärstruktur zufällig in der 10. Zweierpotenz einen Wert "in der Nähe von 1000" ergibt.
- Hartes Argument: Mit der IEC-Notation können keine Teilmengen spezifiziert werden. Wie etwa sollten damit 1.350.000 Bytes benannt werden? Mit SI(1000) sind das exakt 1,35 MB - wobei durch mehr Dezimalstellen jede Größe darstellbar ist.
Insofern besteht das Dilemma, dass die SI-Kürzel in der Praxis häufig (bei binärbasierten Mengen) ungenau sind, wohingegen mit IEC-Kürzeln keine Teilmengen benannt werden können; beide Formen haben also Präzisionsmängel. Allerdings können mit der SI-Notation grundsätzlich alle Mengen, auch Teilmengen, präzise dargestellt werden könnten - allerdings nur wenn die 1000er Basis verwendet wird. Lediglich bestimmte (große, 'ganzzahlige') Binärmengen können mit der IEC-Form kürzer (und präzise) benannt werden - was jedoch mit einem entsprechenden Zusatz bei SI auch erreichbar wäre; dies entspricht aber praktisch (abgesehen von unakzeptierten Begriffen) der IEC-Notation. Ich denke, das sind die wesentlichen Gründe, warum IEC von div. Gremien abgelehnt wird und sich nicht durchgesetzt hat. Insofern tendiere ich jetzt zur Meinung von PeterFrankfurt, würde also in WP eher keine Mebi's etc. verwenden, aber in entsprechenden Artikeln auf die Problematik und die beiden 'Normen' hinweisen.
--VÖRBY 09:33, 25. Aug. 2011 (CEST)
- Klar kann man auch Brüche angeben: 1 GiB = 1024 MiB; 0,5 GiB = ½ GiB = 512 MiB; 0,1 GiB = 102,4 MiB usw. Wo also ist das Problem? Jetzt komme mir aber nur keiner mit der unsäglichen 1,44-MB-Floppy…! ;-) ) --RokerHRO 12:04, 25. Aug. 2011 (CEST)
- Klar kann man viele Mengen mit IEC beschreiben, vor allem wenn es um Maximalkapazitäten etc. geht. Aber ich meine, dass man in einer Notation grundsätzlich jeden Wert exakt beschreiben können sollte, also auch z.B. ein Programm in der Größe von 847.252 Bytes. Mich persönlich stören deine IEC-Termini aber nicht - zumal ein entsprechender Hinweis in der Einleitung zu finden ist. Grüße von --VÖRBY 13:44, 25. Aug. 2011 (CEST), minimal ergänzt --VÖRBY 17:54, 25. Aug. 2011 (CEST)
- Man kann JEDE Größe in JEDER Basis mit beliebiger Genauigkeit beschreiben - das ist ein Grundprinzip der Mathematik, die Basis 10 ist in keinerlei Hinsicht präferenziert. Die Babylonier hatten eine merkwürdige Vorliebe für die Basis 12 ;-)
- Konkret würde obiges Programm von 847.252 Bytes unter Mac OS X als 847 kB (korrekt SI), unter Unix entweder als 847 kB oder 827 KiB (je nach Beutzereinstellung - beides korrekt, mit Dezimalstellen wären es 827,395 KiB, was aber nicht mehr viel bringt) und unter Windows als 827 'KB' (nicht korrekt) dargestellt. 1.350.000 Bytes sind 1,29 MiB oder 1318 KiB, wer es genauer braucht, schaut direkt auf 1350000 Bytes. Richtig ist, dass IEC keine Vorsilben für Mengen <1 definiert, warum auch - was soll ein Millibit sein? 'IEC sich nicht durchgesetzt' kann ich nicht bestätigen, bzw. das müsste man dann auch vom bereits zitierten Meter sagen. Von 'durchdrücken' kann ebenso keine Rede sein, und die Verhältnisse 'draußen in der Praxis' (wo das Faustrecht an der Tagesordnung ist) sind m.E. kein Maßstab für den Anspruch an eine Enzyklopädie. Mein Anspruch ist Korrektheit - aber mit dem jeweils sinnvollen Standard und einem Hinweis auf beide kann ich gut leben.
- Danke, deine Notationsbeispiele (zu Teilmengen von Maßeinheiten) wären z.T. eben ungenau (847 / 827) und meist nicht ohne Rest konvertierbar (827,395), also keine absolut präzisen Angaben. Und: 827,395 KiB könnte ein Mensch niemals als 847.252 Bytes interpretieren. Da wir uns aber ansonsten einig sind, soll's das meinerseits gewesen sein. Danke und alles Gute! --VÖRBY 17:54, 25. Aug. 2011 (CEST)
- Was an "827,395" ist nicht absolut präzise? Das Entgegenkommen für den Leser ist natürlich etwas geringer, aber auch bei Zeitangaben muss man auf die 10er-Basis verzichten: Vielerorts liest man Angaben wie "7,5 h" oder "8,3 Stunden".
- Über Qualität sollte man aber nur am Rande argumentieren, die neue Rechtschreibung wird in der Wikipedia ja auch nicht aus qualitativen Gründen verwendet (gab es da eigentlich ein MB?). Deshalb finde ich die Frage wichtiger, ob wichtige Institutionen den Einsatz empfehlen. Das scheint laut dem Artikel Binärpräfix ja durchaus für die IEC-Notation zu sprechen. Vielleicht wäre eine Seite WP:Binärpräfix sinnvoll, auf die bei Verwendung von Binärpräfixen verlinkt werden könnte, zum Beispiel durch eine Vorlage, ähnlich wie {{IPA}}. Am besten wäre natürlich, wenn man mittels so einer Vorlage den Benutzer wählen lassen könnte, welches Einheitensystem er angezeigt haben möchte. --Zahnradzacken 23:30, 25. Aug. 2011 (CEST)
- Die "827,395" ergibt sich lediglich aus der Division der tatsächlichen Größe in Bytes durch 1024 - aufgerundet. Das ist dann m.E. nicht 'exakt' die Größe. Abgesehen davon, dass mit einer solchen Zahl (in diesem Anwendungsfall) vielleicht ein Rechner umgehen kann, nicht aber ein Mensch (der hier und heute einfach dezimal denkt). Allerdings: Dieses Argument (Möglichkeit, auch beliebige Teile von MB/MiB etc. exakt darstellen zu können) ist nur eines von mehreren in dieser Entweder-Oder-Diskussion. Im Übrigen halte auch ich diese (und das MB) für überflüssig, weil es eben beide Formen offiziell gibt. Im Artikel (und mehreren anderen auch) ist unter 'Siehe auch' bereits auf Binärpräfix verlinkt. Die Möglichkeit alternativer Darstellung halte ich nicht für zweckmäßig, weil vielleich noch mehr verwirrend; wichtiger wäre, dass Autoren so texten, dass immer klar ist, was gemeint ist (vor allem wenn es im Text auf Genauigkeit ankommt). --VÖRBY 08:44, 26. Aug. 2011 (CEST)
- Ich hatte es nicht nachgerechnet. Mach "827,39453125" draus, und du hast deine Genauigkeit. Der Verweis auf Binärpräfix unter "Siehe auch" ist viel leserunfreundlicher als die Wahlmöglichkeit zwischen den Darstellungen. Wer weiß denn schon mit "Binärpräfix" unter "Siehe auch" etwas anzufangen, der über die Problematik noch nicht bescheid weiß? Zu "Siehe auch" siehe auch WP:ASV. Ansonsten stimme ich zu, dass das Wichtigste ein verständlich geschriebener Text ist. --Zahnradzacken 13:23, 26. Aug. 2011 (CEST)
- Die "827,395" ergibt sich lediglich aus der Division der tatsächlichen Größe in Bytes durch 1024 - aufgerundet. Das ist dann m.E. nicht 'exakt' die Größe. Abgesehen davon, dass mit einer solchen Zahl (in diesem Anwendungsfall) vielleicht ein Rechner umgehen kann, nicht aber ein Mensch (der hier und heute einfach dezimal denkt). Allerdings: Dieses Argument (Möglichkeit, auch beliebige Teile von MB/MiB etc. exakt darstellen zu können) ist nur eines von mehreren in dieser Entweder-Oder-Diskussion. Im Übrigen halte auch ich diese (und das MB) für überflüssig, weil es eben beide Formen offiziell gibt. Im Artikel (und mehreren anderen auch) ist unter 'Siehe auch' bereits auf Binärpräfix verlinkt. Die Möglichkeit alternativer Darstellung halte ich nicht für zweckmäßig, weil vielleich noch mehr verwirrend; wichtiger wäre, dass Autoren so texten, dass immer klar ist, was gemeint ist (vor allem wenn es im Text auf Genauigkeit ankommt). --VÖRBY 08:44, 26. Aug. 2011 (CEST)
- Danke, deine Notationsbeispiele (zu Teilmengen von Maßeinheiten) wären z.T. eben ungenau (847 / 827) und meist nicht ohne Rest konvertierbar (827,395), also keine absolut präzisen Angaben. Und: 827,395 KiB könnte ein Mensch niemals als 847.252 Bytes interpretieren. Da wir uns aber ansonsten einig sind, soll's das meinerseits gewesen sein. Danke und alles Gute! --VÖRBY 17:54, 25. Aug. 2011 (CEST)
Leistung von Speichermodulen
- Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle \frac{1}{1333000 \, kHz} \cdot (2 \cdot 8) = 1,20 \cdot 10^{-8} s = 12 \, ns }
Sollte durch
- Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle \frac{1}{1333000 \, kHz} \cdot (2 \cdot 8) = 12,0 \cdot 10^{-9} s = 12 \, ns }
ersetzt werden. (nicht signierter Beitrag von 84.133.19.70 (Diskussion) 16:09, 20. Mär. 2012 (CET))
- Schließe mich an. Pistnor (Diskussion) 12:11, 19. Mai 2016 (CEST)
Englische Übersetzung und Abkürzung
Die Übersetzungen auf Englisch sind falsch. Man nennt Arbeitsspechern "Random Access Memory" oder "RAM" auf Englisch. Manchmal höre ich diese englische Abkürzung auch auf Deutsch, besonders bei PC-Gaming Enthusiasten. Könnte jemand die Introduktion mit dieser Info ändern? (nicht signierter Beitrag von 65.23.215.71 (Diskussion) 05:01, 7. Dez. 2012 (CET))
- RAM und Arbeitsspeicher haben zwei verschiedene Bedeutungen: RAM ist ein Speicher, auf den Wahlfrei zugegriffen werden kann, Arbeitsspeicher oder Hauptspeicher ist eine Möglichkeit, ihn einzusetzen (RAM wird aber auch für andere Dinge eingesetzt, z.B. als Festplattencache).
DDR4-RAM fehlt
Hallo, der Artikel benötigt ein Update für DDR 4 und die entsprechenden Frequenzen im Artikel. Entsprechende Quellen gibt es genügend.
LG (nicht signierter Beitrag von 212.204.41.210 (Diskussion) 16:45, 29. Aug. 2014 (CEST))
Belege fehlen
Auch mir ist nicht bekannt, daß Mainboards die Arbeit verweigern, wenn nicht die richtige Speichermarke verbaut wird, jedenfalls nicht bei freien Anbietern. Bei proprietären Boards (z.B. Dell, HP, FSC) mag es sowas geben oder gegeben haben. Daß Boards nicht mit jedem eigentlich den spezifizierten Standards entsprechenden Speicherriegel stabil laufen, ist allerdings trivial und tägliche Praxis. Nicht umsonst liefert jeder seriöse Hersteller Kompatibilitätslisten zu seinen Boards mit bzw. veröffentlicht die online und Speicheranbieter bauen ebensolche Listen. --Smial (Diskussion) 10:45, 1. Jan. 2015 (CET)
Dual Channel
Meines Erachtens ist für Dual-Channel-Betrieb keineswegs das Vorliegen zweier baugleicher Speicherriegel notwendig. Berichte über das Nicht-Funktionieren habe ich bisher keine gefunden. Der PC-Games-Artikel stellt lediglich das Weitertragen dieser Urban-Legend dar. --ICE21 (Diskussion) 21:37, 1. Jan. 2015 (CET)
- Entschärft. Passt das so? Oder soll man alle Berichte über mögliche Inkompatibilitäten einfach ignorieren?
- Apropos Kompatibilität: was mir im allgemeinen auf der deutschen Wikipedia noch fehlt, ist ein Artikel über JEDEC-Standards.
- ‣Andreas•⚖ 22:41, 1. Jan. 2015 (CET)
- Das mit dem JEDEC stimmt, das fehlt. Aber Berichte über "Inkompatibilitäten" sind nach wie vor nicht nachgewiesen. Gemeint sind nicht Artikel irgendwelcher PC-Zeitschriften, die gebetsmühlenartig die Hypothese wiederholen, sondern sie fundiert belegen. --ICE21 (Diskussion) 22:52, 1. Jan. 2015 (CET)
- Das Problem ist, dass man genau die gleichen CL-tRP-tRCD-tRAS-…-Werte haben sollte, da sonst die Firmware (BIOS, UEFI, Open Firmware, …) eventuell einen Fehler macht, und versehentlich das schnellere Modul als Referenz nimmt, was beim eigentlich langsameren dann zu Instabilitäten führt. Das System stürzt somit oft ab – der Anwender weiß aber nicht, warum. Zugegeben, oft funktioniert es auch einfach, weil die Firmware eben seine Arbeit gut macht. Das schnellere Modul wird dann dem langsameren angeglichen.
- Nun könnte man, wenn es die Firmware vorsieht, die Timings selbst einstellen, um den Fehler zu verhindern. Aber ich denke mal, dass da ein Otto-Normal-User schnell mal am Ende seiner Weisheit angelangt ist…
- Ein Beispiel dafür ist diese Diskussion bei Steam, im Speziellen dieser Beitrag.
- ‣Andreas•⚖ 13:25, 2. Jan. 2015 (CET)
- Das mit den Belegen für inkompatiblen Speicher ist ein Problem. Jeder, der mit der Materie zu tun hat, weiß aus der Praxis, daß es solche Probleme gibt. Aber wenn selbst Intel nicht herausfindet, weshalb es zu Schwierigkeiten kommt, obwohl alle Komponenten den Specs entsprechen und nur die Empfehlung geben kann, entsprechende Produkte zu meiden - woher dann unabhängige Belege herbeizaubern? -- Smial (Diskussion) 17:36, 2. Jan. 2015 (CET)
- Sagen wir es mal so: In der "Overclocking"-Szene ist einiges möglich. Aber seriös ist das ganze nicht. Stell dir das mal bei Autos vor: Das Wechseln eines einzelnen Reifens ist nicht möglich. Es müssen immer alle 4 Reifen gleichzeitig gewechselt werden, sonst fährt das Auto nicht. Und zu dem Intel-Problem: Da geht es um Low Profile-DIMMs. Also Quintessenz: Wer normale Hardware mit normaler Firmware betreibt sollte nie Probleme haben. --ICE21 (Diskussion) 23:02, 2. Jan. 2015 (CET)
- Bei meinem Beispiel ging es aber nicht um übertakteten RAM. Es ging einfach bloß darum, dass das BIOS (oder UEFI) die Speicherlatenz (CAS-Latency) vom flaschen DIMM übernommen hat. Ist ein CL8- und ein CL10-DIMM eingebaut, so sollte der gesamte Speicherkanal (Channel, also bei Dual-Channel) mit CL10 laufen. Macht das BIOS hier einen Fehler und lässt den Kanal mit CL8 laufen, so kann der eigentlich CL10-getestete Speicherriegel Probleme verursachen – ganz ohne Übertakten. (Das betrifft die anderen RAM-Werte wie RAS-to-CAS-Delay, RAS Precharge Time, Activate-to-Precharge Time, usw.; das entspricht den vier Zahlen, die man immer wieder findet: etwa 9-9-9-24 = CL9)
- Und ja, es gibt auch Probleme mit Speicherriegeln und Motherboards in manchen Konstellationen, obwohl beide der Norm entsprechen. Warum das so ist, weiß eigentlich niemand, aber es ist eben so. Was die Low-Profile-DIMMs betrifft: ob nun Low-Profile oder normal sollte doch keinen Unterschied machen, da beide innerhalb der normalen Spezifikation funktionieren (sollten). Intel ist zumindest so weit, die vorhandenen Informationen auch zu publizieren. Andere Hersteller testen mit bestimmten Speichermodulen und stellen eine Kompatibilitätsliste ins Netz, obwohl das Mainboard sowieso mit jedem kompatiblen Speicher funktionieren sollte. Dennoch tun sie sich diesen Aufwand an.
- Aus dem c’t-Artikel RAM-Tamtam (c’t 5/2007, Seite 106): Module mit unterschiedlicher Kapazität und Chip-Anzahl lassen sich gemeinsam auf einem Mainboard betreiben; grundsätzlich treten aber umso seltener Probleme auf, je weniger DIMMs man verwendet und je ähnlicher diese sich sind. Nach unserer Erfahrung gibt es am häufigsten Pannen, wenn man vier oder gar mehr Speichermodule zur Zusammenarbeit bringen will.
- Aus dem c’t-Artikel Turbo-Speicher (c’t 24/2010, Seite 116, Kasten „Fehlersuche“): Pannen beim Zugriff auf den Arbeitsspeicher können vielfältige Probleme bereiten und die unterschiedlichsten Ursachen haben. Die Palette reicht von defekten DRAM-Zellen über verdreckte Steckkontakte bis zu Timing-Problemen. […] Das Diagnose-Programm CPU-Z zeigt im Reiter „Memory“ an, mit welchen Einstellungen der Arbeitsspeicher derzeit läuft. Weichen diese stark von den üblichen […][Anm.: JEDEC-Spezifikationen] ab oder passen nicht zu den Einträgen im Reiter „SPD”, so sollte man versuchen, das BIOS zu Standard-Einstellungen zu überreden.
- Für mich ist damit klar, dass es in einigen (vermutlich seltenen bzw. speziellen) Fällen zu Problemen mit unterschiedlichen Speicherriegeln kommen kann.
- Aus dem c’t-Artikel Turbo-Speicher (c’t 24/2010, Seite 113): Wer Speichermodule im sogenannten „Kit“ kauft, bekommt auf jeden Fall identische Riegel, die optimal zusammenspielen.
- ‣Andreas•⚖ 00:31, 3. Jan. 2015 (CET)
- Danke für das Ausarbeiten der Quellen, die allesamt sagen, dass es grundsätzlich Probleme geben kann, die aber gerade nicht aussagen, dass dringend von Benutzen nicht baugleicher Module abgeraten wird. Ich selbst hatte oft nicht baugleiche Module und es lief immer. Daher ist die Aussage, dass es anderes nicht ginge oder sehr wahrscheinlich nicht ginge schlichtweg unhaltbar falsch. Außerdem ging es ja gerade um Dual Channel und nicht allgemein um mehrere Speichermodule im gleichen Board. Und die Probleme kommen wohl laut dem zitierten Artikel sogar eher bei verschiedenen Modulen im gleichen Kanal. --ICE21 (Diskussion) 01:56, 3. Jan. 2015 (CET)
- Low-Profile-DIMMs sind genauso spezifizierte Hardware wie "normale" DIMMs, und Intel schreibt ja nun ausdrücklich, daß sowohl die problematischen Boards als auch die problematischen Speicherriegel den Specs entsprechen. Und trotzdem Probleme auftreten, die dazu führen, daß sie vom Einsatz abraten. Es geht dabei nicht um Übertakter-Voodoo. Du kannst auch mal versuchen, dieses Board mit diesem Speicher in der Serie stabil zum Rennen zu bekommen. Wir haben das nur durch Wechsel des Fabrikats (jetzt Transcend) hinbekommen, die Korrespondenz mit Zulieferern, Kingston und iBase war ... lang. Der Transcend-Speicher hat übrigens exakt dieselbe Papierform wie der Kingston. -- Smial (Diskussion) 10:29, 3. Jan. 2015 (CET)
INTEL-lastig
Der Artikel ist sehr INTEL-lastig zum Großteil werden Intel-CPUs bzw. darauf basierende PCs beschrieben. Andere Unternehmen kommen fast nur unter historisch vor.
- mMn sollte man noch erwähnen, dass der Adressraum mit AMD64 von 32 bit auf 64 bit erhöht wurde. Ansonsten halte ich den Artikel für ausgewogen: es Intel wird zwar insgesamt 5x erwähnt + 1x ein Intel-Sockel, AMD nur 1x, aber die CPUs Intel 8080, 80286 und 80386 sind historisch bedeutend, weil der 8080 war eben der erste Mikroprozessor mit 8-bit-Architektur, der 80286 hat erstmals (in der heute dominierenden x86-Architektur) die Busbreite der Speicheranbindung auf 16 bit erhöht, der 80386 erstmals auf 32 bit. Dazu kommt der 80486 als Beispiel erwähnt. Des Weiteren werden noch Intel-CPUs mit FSB1333 (="1333 MHz Front Side Bus", in Wirklichkeit wars natürlich ein quadpumped 333-MHz-FSB) und eben der Sockel 775 als Beispiel erwähnt. AMD wird in einem Beispiel erwähnt. Also haben wir insgesamt 3 Beispiele mit Intel-Bezug und eines mit AMD-Bezug sowie 3 Erwähnungen von Intel-CPUs wegen deren historischer Bedeutung. Ich denke wenn noch AMD64 dazukommt ist es dann halbwegs ausgewogen, man muss auch bedenken, dass Intel im PC-Bereich historisch und aktuell eben doch die meiste Bedeutung hat. --MrBurns (Diskussion) 02:48, 20. Mai 2016 (CEST) kleine Korrekturen gemäß Artikelinhalt. --MrBurns (Diskussion) 02:56, 20. Mai 2016 (CEST)
- Nachtrag: ich seh gerade, der 8086 hatte auch schon einen 16-bit-Datenbus, der billigere 8088 hatte 8 bit. Ich korrigier das gleich. --MrBurns (Diskussion) 02:54, 20. Mai 2016 (CEST)
Hersteller
Als Mittler zwischen den großen Speicherchip- und Modulherstellern einerseits und dem Handel und den Verbrauchern andererseits haben sich in Deutschland Anbieter wie z. B. CompuStocx, CompuRAM und Kingston etabliert, ... Wieso CompuStocx und CompuRAM? Fairerweise sollte hier auch ein Anbieter wie MemoryXXL (seit 2000 auf dem Markt) erwähnt werden. -- Cwde (Diskussion) 09:08, 5. Sep. 2017 (CEST)
Arbeitsspeicher & Hauptspeicher
Beides ist das gleiche. Zum Lesen ganz gut: http://waste.informatik.hu-berlin.de/Lehre/ws0607/Einf_Fachdidaktik/Vortraege/Perlinski_Hauptspeicher.htm
Wenig Informationen über Geschwindigkeit (Datentransferrate)
Ich habe den Artikel gerade gelesen und hatte erwartet ein paar Beispiele für die Datentransferrate von Arbeitspeicher zu finden - leider war das nur am Rande bei DDR2 mal erwähnt. Aus meiner Sicht ist das immerhin ja ein wichtiger Technischer Aspekt, der neben dem zufälligen Zugriff die Geschwindigkeit den Arbeitsspeicher von anderen Speicherebenen unterscheidet (Cache, Massenspeicher...). Und für den informativen Leser wäre es sicher interessant, bei Ankündigungen wie SSDs mit 3500MiB/s mal ein Blick auf die Spezifikationen von altem RAM zu werfen. Sollte sowas mit aufgenommen werden oder ist das mit Absicht nicht im Artikel enthalten? Grüße, --Woookie (Diskussion) 08:11, 6. Mai 2020 (CEST)
Allgemeinverständlichkeit
Ein bisschen mehr Allgemein- und Laienverständlichkeit täte dem Artikel gut. 90% aller Computerlaien werden diesen Artikel öffnen, weil ihnen von irgendeinem Computerfritze gesagt worden ist, dass sie für ihr neues Gerät soundsoviel Arbeitsspeicher haben sollten, oder schlimmer noch, weil selbiger Computerfritze sie gefragt hat, wieviel Arbeitsspeicher sie denn brauchen.
Nun ist mir zwar bekannt, dass WP kein Ratgeber zum Computerkauf sein soll. Dennoch wäre es wünschenswert, wenn der Artikel auch für Laien verständlich erklären würde, was denn "8GB Arbeitsspeicher" oder wieviel auch immer denn nun bedeuten. Das muss ja nicht in Ratgeber-Manier geschehen. --87.150.14.40 10:42, 23. Feb. 2021 (CET)