Diskussion:DDR-SDRAM/Archiv

aus Wikipedia, der freien Enzyklopädie

Änderungen des RAMS

Diese Beiträge mit den RAM PC1 und PC2 sind Richtig und die im Artikel findeten Angabe nicht falsch. Fraglich sind nur die Kommentare bei den Spezifikationen daher spiele ich sie wieder ein.

Von den Herstellern zusammengebastelte "Spezifikationen" haben hier nichts zu suchen, diese weichen teils erheblich von den JEDEC-Spezifikationen ab und erreichen das oft nur mit exzessiven Überspannungen. --Denniss 16:15, 21. Feb. 2007 (CET)

W.E.R.B.U.N.G

Wir alle wissen, Kingston® ist beliebter und Game-fähiger Speicher. Trotzdem hätte man den Firmenaufdruck auf dem Bild weg-photoshoppen können-MÜSSEN, solange Kingston® Wiki nicht finanziell sponsort.

Öhm, Vllt würden RTL-2 zuschauer den extra wegen des Bildes kaufen, jedoch sicherlich nicht Leute die hier unterwegs sind.

..."Kingston&reg" sollte unbedingt geschwärzt werden, einfach der fairness habler. Jem der keine Ahnung hat und sich auf Wiki beliest wird sich davon beeinflussen lassen, weil er die Wiki-Wissens-Quelle als neutral und zuverlässig hält, und dass wäre es nicht! Desweiteren ist der vorherige Kommentar stark zu kritisieren, weil Wikipedia durchaus von RTL-2 Zuschauern aufgesucht wird!! Die breite Masse benutz Wikipedia um ihren Wissensstand aufzufrischen, also immer schön neutral bleiben!! (nicht signierter Beitrag von 89.204.137.206 (Diskussion) 09:42, 9. Jun. 2010 (CEST))

Das Bild mit dem Kingston-Schriftzug ist eh nicht mehr zu sehen im Artikel, dafür aber einige andere Firmenlogos. Aber ich denke nicht, dass es notwendig ist, die zu schwärzen, es sind ja nur ein paar zufällig ausgewählte Firmen und es wird keine wirklich bevorzugt (jede Firma ist nur mit einem Riegel vertreten). Und ich denke nicht, dass jemand Speicher von einer bestimmten Firma kauft, nur weil er irgendwo ein Logo dieser Firma sieht, nicht mal die RTL2-Zuschauer und außerdem glaub kaufen sich Leute, die derart wenig Ahnung von Hardware haben ohnehin Komplettsysteme (und zwar meist das, das ihnen der Media-Markt/Saturn-Verkäufer aufschwatzt), die meist einen noname-Billigspeicher verbaut haben. --MrBurns 18:35, 9. Jun. 2010 (CEST)

Satzbau

Was ist denn das für ein komischer Satz: "Bei DDR2-SDRAM taktet der I/O-Puffer mit der zweifachen Frequenz der Speicherchips." Ein IC kann mit einer Taktfrequenz betrieben werden. Ein Takt kann durch den Quatz oder einen anderen Oszillator generiert oder durch ein Taktsignal von außen vorgegeben werden. Vielleicht hat sich "ein IC taktet mit der Frequenz X" in Fachkreisen eingeschlichen, aber gutes Deutsch ist es nicht... --RT 11:01, 19. Dez. 2006 (CET)

Kompatibilität

Kann etwas zur Kompatibilität gesagt werden?

  • 1) Ist DDR-SDRAM mit klassischem SDRAM mischbar?
  • 2) Funktioniert DDR-SDRAM in alten SDRAM-Mainboards?
  • 3) Funktioniert SDRAM in neuen DDR-SDRAM-Mainboards?
  • 4) Kann man beispielsweise ein PC-1600-Speichermodul mit PC-3200 mischen?
  • 5) Sind generell höhere Zahlen bei PC-XXXX-Modulen abwärtskompatibel zu niedrigeren Mainboard-Spezifikationen? Also: ist ein PC-3200-Speichermodul in einem älteren Mainboard mit PC-1600 benutzbar?
  • 6) Lassen sich unterschiedliche PC-XXXX-Module miteinander mischen?
  • 7) Lassen sich unterschiedliche Speichergrößen miteinander mischen (512 MB mit 256 MB)?

Danke.

ad 1.) es gab zu den Anfangszeiten des DDR-RAMs für Athlon-CPUs (ich glaub Thunderbird und XP) einige Mainboards, die sowohl SDR als auch DDR RAM unterstützen. Allerdings war es soviel ich weiß nicht möglich, DDR- und normalen SDRAM gleichzeizig zu verwenden.
ad 2.) Nein. Passt schon von den Slots nicht (DDR hat 184 Pins, DDR2 240 pins und SDR 168 Pins).
ad 3.) Nein. s.o.
ad 4.) Ja, aber dann müssen beide Module mit der PC1600 geschwindigkeit rennen (außer die 1600er lassen sich bis auf 200MHz übertakten, was aber unwahrscheinlich ist).
ad 5.) ja, sie werden halt dementsprechend langsamer betrieben (mal abgesehen von Overclocking).
ad 6.) ist die gleiche Frage wie 4.)
ad 7.) Ja. Funktioniert sogar im Dual Channel Modus, wobei beim Dual Channel Modus die Performance am besten ist, wenn beide Module gleich viel Kapazität haben.
-MrBurns 02:16, 24. Dez 2005 (CET)
danach habe ich gesucht, thx MrBurns, nur schade, dass ichs nur in der Diskussion gefunden habe ;-) --87.123.69.7 22:22, 26. Jan 2006 (CET)
Ein wenig formatiert, zu 7: Beim nForce2 war es möglich z.B. ein 512 und zwei 256er im Dual-Channel zu betreiben, in der Regel ist das bei Pentium 4 und Athlon64 nicht mehr möglich. --Denniss 22:35, 26. Jan 2006 (CET)
Gerade ausprobiert, mein altes A7N266C, das DDR-SDRAM bis PC2100 unterstützt, gibt mir n Haufen Speicherfehler, wenn ich n PC2700-Modul reinsteck. Kann natürlich sein, dass das Modul i.A. ist... --Luketheduke (unangemeldet: 91.12.77.80 16:08, 20. Nov. 2007 (CET))
Das liegt entweder daran, dass das Modul nicht in Ordnung ist oder dass es sich nicht mit deinem Mainboard vertragt, aber sicher nicht daran dass es ein PC2700 Modul ist. Die Angabe, dass das Motherboard max. PC2100 unterstützt bezieht sich auf den Takt, mit dem der Speicher betrieben wird und nicht den Takt, für den der Speicher zugelassen ist. --MrBurns 16:31, 20. Nov. 2007 (CET)

kann man DDR in DDR2 plätze stecken? -- 86.56.153.146 21:08, 13. Apr. 2007 (CEST)

Nein, genausowenig wie man SDR-SDRAM in DDR(1)-SDRAM-Plätze stecken kann. Passt schon mechanisch nicht (außer man haut mit dem Hammer drauf). --Denniss 07:48, 14. Apr. 2007 (CEST)

Hallo MrBurns + Kollegen, kann man die obigen Informationen (insb. dass man hoeher-spezifizierte Module in ein Board stecken kann, also z.B. DDR-400 in ein DDR-333-Board) in den Artikel einbauen? Hatte die gleichen Fragen und war froh, hier auf der Diskussionsseite "Fachberatung" bekommen zu haben :) Steffen --62.104.87.180 09:43, 22. Nov. 2007 (CET)

Noch ein Kommentar zu 4) bzw. 6): nach meiner Erfahrung (zumindest bei DDR) funktionieren schnellere Module nur dann mit langsamerer Taktung (was ja für Mischbetrieb nötig ist), wenn der Unterschied nicht zu gross ist. Beispielsweise haben sich bei mir DDR-400 Module stets geweigert, als DDR-266 zu laufen (mit unterschiedlichen Modulen und unterschiedlichen Boards). Ich hatte damals vermutet, dass es an zu langsamen Refresh-Zyklen lag, dass der Speicher einfach (zumindest Teile der) Daten 'vergessen' hat, aber das ist reine Spekulation. Ein 'Schritt' Geschwindigkeitsunterschied hatte eigentlich immer funktioniert. Sebastian (Der vorstehende, nicht signierte Beitrag – siehe dazu Hilfe:Signatur – stammt von 91.13.240.121 (DiskussionBeiträge) 12:41, 17. Aug. 2008)

Das mag an Bios-Macken, anderer (nicht unterstützter) Speicherorganisation oder kaputten spd-Einträgen gelegen haben. An sich kann man alles mixen. -- Smial 13:11, 17. Aug. 2008 (CEST)

"Effektiver Takt"

Irgendwie stören mich die "MHz" in der Spalte "Effektiver Takt". Das sind doch eigentlich Marketing-MHz und keine wirkliche Taktfrequenz (dazu: Double Data Rate) --Xeper 12:42, 24. Feb 2006 (CET)

Siehe kleine 3 dahinter und passende Erklärung darunter. IMHO nur ein Möglichkeit zur Veranschaulichung der Geschwindigkeit. MHz ohne weitere Erklärung (wie gerne beim FSB benutzt) ist natürlich so falsch wie nur irgendwie möglich.--Denniss 13:28, 24. Feb 2006 (CET)
Die Bezeichnung "Effektiver Takt" ist IMHO auch etwas ungünstig gewählt, da es ja nicht effektiv so ist, sondern dies eine theoretische Zahlenspielerei von Marketingfuzzis ist, die sich ausschliesslich auf den Burst-Modus bezieht. --fubar 18:45, 27. Okt. 2006 (CEST)

Mythos der Langsamkeit von DDR2-SDRAM

Der Mythos der Langsamkeit von DDR2-DIMMs ist keineswegs ein "Wandermärchen" wie der Autor beschreibt. Die betrachtung der theoretischen Transferleistungen sowie der Latenzzeiten ist in diesem Zusammenhang nicht ausreichend. Es wirken weitaus mehr Faktoren ein. Die deutsche Fachprese (u.a. auch das c't Magazin) ist sich ziemlich einig. DDR2-DIMMs erzielen derzeit (Stand Juni 2006) keine Geschwindigkeitsvorteile. In Systemen arbeiten sie teilweise sogar langsamer als ältere DDR-DIMMs.

Stimmt zum Teil. Man muss natürlich beachten, dass es auch den Prozessoren dazu braucht, der die Bandbreite nutzen kann. Es bring somit natürlich nichts, wenn ich einen Prozessor habe, der mit 200 Mhz FSB (FSB800 bei Intel, bei AMD gibts nur noch den HT-Bus mit 800 oder 1000 Mhz) arbeitet und dazu einen DDR2-533er-Speicher mit zulangsamer Latenz verwende. Da ist der DDR2 natürlich langsamer als der alte DDR-400-Speicher, weil der Prozessor die Bandbreite nicht nutzen kann. Bringen tut es der DDR2 in naher Zukunft durch die schnelleren FSBs und durch die geringere Chip-Größe. Man muss jedoch bedenken, dass der Geschwindigkeitsunterschied der durch die Latenzzeit zustande kommt minimal (ca. 5 %) und somit für die meisten Anwender eher zu vernachlässigen ist. Heute rentiert es sich auf jeden Fall die Anschaffung eines DDR2-Speichers alleine schon deswegen, weil auf einem Riegel doppelt soviel Speicher passt als beim alten DDR-Speicher. --Highdelbeere 09:43, 9. Aug 2006 (CEST)

Ich würd 5% Unterschied ned unbedingt als minimal bezeichnen. Bei einem Spiel kann ein Unterschied von 5% in den FPS durchaus noch den Unterschied machen, ob ein Spiel flüssig rennt oder nicht. -MrBurns 11:57, 9. Aug 2006 (CEST)
Wenn ich das richtig verstanden habe, geht es bei den 5% um den Datendurchsatz des RAM. Es ist höchst unplausibel, dass dieser sich 1:1 auf die FPS "durchschlägt".
Spiele sind allerdings High-End-Anwendungen die das System sehr in Anspruch nehmen. Es muss jedoch gesagt werden, dass wenn man im Spielebereich wesentlich mehr Leistung bekommt, wenn man sich eine schnellere Grafikkarte als einen teureren und schnelleren RAM zulegt. Im Großen und Ganzen ists wie gesagt für die Meisten egal. --Highdelbeere 16:26, 10. Aug 2006 (CEST)
So wie dieser Abschnitt derzeit zu lesen ist, sollte man ihn lieber gleich ganz weglassen. Es wird ja nur mit irgendwelchen CAS-BlaBlas um sich geworfen, dass einem schwindelig wird...

Latenzproblem

Das ganze Thema Latzenz muss mal klar dargestellt werden, daß es plausibel wird. So, wie es im Text steht, kapiere selbst ich es nicht und ich baue FPGAs mit DDR-RAM. Habe jetzt mal den Wortkrüppel "kurzlatenzig" weggenommen. 87.166.193.162 22:46, 13. Aug. 2007 (CEST)

Geschichtliches

Wie wäre es, wenn ein wenig zur Geschichte geschrieben würde? Seit wann gibt es zum Beispiel DDR2 Ram? --JPGoelz 17:38, 2. Jan. 2007 (CET)

falsche Zahlen?

> DDR2-1066 PC2-8500 233 MHz 566 MHz 1066 MHz 8,5 GB/s 17,0 GB/s (In Planung seitens JEDEC)

irgendetwas stimmt da nicht

wenn die 1066 stimmt, müßten die Zahlen doch wie folgt aussehen

DDR2-1066 PC2-8500 266 MHz 533 MHz 1066 MHz 8,5 GB/s 17,0 GB/s (In Planung seitens JEDEC)

Danke für den Hinweis, war wohl irgendwie ein Zahlendreher. --Denniss 00:20, 3. Mai 2007 (CEST)

Wieviele Pins hat DDR3

moin leute....

wollte mal wissen ob mir einer sagen kann wie viele Pins DDR3 hat wäre echt wichtig!

mit freundlichen gruß

ein Hilfloser Praktikant.

240 pin, also gleich viel wie DDR2 [1]. Allerfdings ist das bei Desktop-Modulen, wies bei notebook-DIMMs ausschaut weiß ich nicht. --MrBurns 17:31, 30. Jun. 2007 (CEST)

Wiederherstellung "Mythos Langsamkeit von DDR2" und "SDRAM ein Ergebnis der Jedec Spezifikation"

Also ich bin mir ziemlich sicher das so etwas nicht in diesen Artikel gehoert. Blaest den Artikel unnoetig auf, zudem stand in der Anfangszeit der DDR2 RAM nahezu erbaermlich gegen schnellen DDR400 Speicher da. (Gehen wir mal von DDR400 mit 2-2-2 Timings aus) Das mit der Jedec Spezifikation ist auch nur ein "sinnloses Gefasel" mit unnoetigen Infos. Das kann man auf der JEDEC Seite unterbringen. Dieser Artikel hier steht in einem krassen Gegensatz zu den anderen Artikeln, die die Speicherbauformen behandeln. Waere schoen das zu aendern.

Würdest Du Dir bitte die Mühe machen, diese Behauptungen hier einfach mit ein paar Links zu untermauern, damit man das auch als neutraler Beobachter dieses Artikels besser beurteilen kann. Gibt es dazu Benchmarks? Oder Veröffentlichungen in Zeitschriften? Bezüglich des Absatzes über die Jedec muss ich Dir aber zustimmen. Das ist thematisch hier nicht richtig eingeordnet. Aber was heißt: „Waere schoen das zu aendern.“? Würdest Du es denn machen, sofern es hier Konsenz wäre? --Ruscsi 21:39, 8. Jun. 2007 (CEST)


Naja, das DDR2 400 gegen einen DDR400 Speicher von der Geschwindigkeit absolut keine Chance hat ist doch wohl logisch. Inzwischen ist DDR2 natuerlich schneller, aufgrund hoeherer Taktraten und niedrigerer Latenzen. Fakt ist nunmal das fuer die RAS und CAS Zugriffe im schnellsten Fall 3 in im Normalfall 5 Takte benoetigt werden. Und Fakt ist, das von den vier Paketen, die auf einen Schlag gesendet werden viele wieder verworfen werden. (Kommt auf die Anwendung an) Links kann ich leider keine mehr bieten. Aber darum ging es mir auch nicht. Ich finde einfach, das es in diesen Artikel nicht hinein gehoert. Ich habe bereits eine Aenderung durchgefuehrt, diese wurde aber innerhalb von einer Minute wieder rueckgaengig gemacht. Hier im Wikipedia scheinen mehr Bots rumzusuchen als User :)

So, ich habe den Kram jetzt mal ueberarbeitet. Ich hoffe es trifft den Kern der Sache, im Gegensatz zu dem sehr einseitigen Gefasel, welches den Artikel so ziemlich zerstoerhte.


DIESEN ABSCHNITT BITTE LÖSCHEN !!!

1. inhaltlich falsch: wie z.B. bei http://en.wikipedia.org/wiki/CPU_cache nach zu lesen ist, ist eine cache line das AMD K8 prozessors 64 Byte lang. Es wird also ein ein 64 byte großer block daten gelesen, selbst wenn nur ein byte benötigt wird (bei K8). also werden bei ddr2 zwei takt benötigt um die cache line zu füllen. zu midest aus dieser betrachtung folgt-> ES GIBT KEINEN LATENZ NACHTEIL. ob andere latenzen evtl. größer sind kann ich mangels wissen nicht beurteilen. die ausführung hier geschriebene ausführung ist aber falsch!

Großer Denkfehler: zwar wird der Cache unter Umstaenden gefuellt. Aber die Bandbreite ist trotzdem verschwendet. Meine Aussage trifft also vollkommen zu. Wenn die nachfolgenden Pakete nicht benoetigt werden ist es doch schon in die Hose gegangen, oder? Der Latenznachteil entseht durch die verminderte Taktfrequenz des Speichers. Es wurde nur die Datenrate erhoeht. Die Adressierung erfolgt maximal 1 mal pro Takt. Beim AGP Bus genau das Selbe. Ein AGP x2 Slot mit 66MHz Takt ist nicht genauso flink wie ein theoretischer AGPx1 Slot mit 133 MHz. (Ja, er benutzt auch das DDR-Verfahren) Da viele Nvidia Karten wie Geforce 4 oder aelter locker AGP mit 100MHz (Nforce2 unterstuetzt das) mitmachen koenntest du dir Spassenshalber ein Bild machen. Waerend der Sprung von AGP x2 auf AGPx8 praktisch nur 5% bringt bringt dir das Uebertakten von 66NMHz auf 100Mhz je nach Auslastung der Grafikkarte 25% mehr Performance. Warum? Ganz einfach: es stehen mehr Takte zum Adressieren und Absetzen von Kommandos zur Verfuegung. Die ver-x-fachung der Datenrate hat physikalisch keinen Einfluss auf die Latenz da Kommandos nur pro Takt abgegeben werden, nicht waehrend des Burst-Modus. Nur wenn die weiteren Daten gebraucht werden entsteht der !Effekt! der niedrigeren Latenz. Der Burst-Modus kann erst beim Speichern oder Auslesen eingesetzt werden, nachdem die Adressierung erfolgt ist. Ein DDR400, ein DDR2 800 und ein DDR3 1600 haben alle den selben Takt und somit koennen alle im schlechtesten Falle gleichschnell sein.

2. ist es uninteressant geworden, weil ddr2 standard ist (oder war?).

nein. Die Situation bleibt doch die Selbe. Bei DDR3 hat sich die Situation ja noch weiter verschlimmert. Gott sei Dank muss man bei DDR3 nicht alle 8 Pakete schlucken lassen (Soweit ich weiss ist der Prefetch Buffer flexibler als der von DDR2).

3. ist für mein empfinden zu subjektiv für eine enzyklopädie

Ist nicht subjektiv, sondern die Realitaet. Ich habe den Artikel ja bereits so geaendert, das er endlich der Realitaet entspricht. Schau dir mal das Gefasel davor an.

Gruß, FfFCMAD

Bei Speicherzugriffen ist nicht die Kommando-Latenz das wichtigste, sondern die (Burst)-Datenübertragungsrate und die Latenz bei der Datenübertragung, die sich aus den vom hersteller angegebenen atenzzahlen und dem Takt berechnen lassen. DDR2 hbatte am Anfanglangsamerere Latenzen als DDR1 und war daher am Anfang oft langsamer, da die Burst-Datenübertragungsrate nicht viel höher war als bei DDR. Mittlwerweile sind aber, wie man dem Artikel entnehmen kann die Latenzen schon niedriger als bei DDR. Bei DDR3 ist es tatsächlich so, dass es im Niedrigpreissegment ähnliche Probleme gibt wie am Anfang bei DDR2, aber Hochleistungsspeicher ist bei DDR3 eindeutig schneller als bei DDR2 (DDR2-1200 5-5-5-15 ~ 8,33ns-8,33ns-8,33ns-25,00ns, DDR3-2133-9-9-9-24 ~ 8,44ns-8,44ns-8,44ns-22,50ns, ich hab absichtlich die mit der höchsten Datenübertragungsarate genommen, weil das nach Benchmarkergebnissen wichtiger ist als die Latenzen). Trotzdem würde ich derzeit aus Preisgründen nur Käufern, die ein unbegrenztes Budget haben zu DDR3 raten, wenn sie die Wahl haben, da die Speicherperformance sich bei modernen CPUs dank der großen Caches kaum noch auswirkt (mal abgesehen von speziellen Speicherbenchmarks) und man mehr Leistung rausholen kann, wenn man den billigsten Markenspeicher kauft (noname ist Mist, wegen schlechter Kompaztibilität und Zuverlässigkeit sowie kurzen Garantiezeiten von oft nur 6 oder 12 Monaten statt 3 Jahren bis lebenslänglich) und das gesparte Geld wo anders investiert. --MrBurns 23:59, 20. Jan. 2009 (CET)
Hallo, DDR2 1200 entspricht 300MHz. DDR 2 1066 immerhin noch 266MHz. Mit einem DDR 600 (300MHz)/ 533(266MHz) Modul wird die selbe Latenz erreicht (Liegt aber nicht in der Spezifikation, wo ich eher den Nachteil sehe). Und auch bei DDR 3 2133 hast du nur 266MHz. Und die Anzahl der Takte IST ENTSCHEIDEND. Aufgrund des geringen Taktes proportional zur CPU ist es eine Leistungsbremse sondergleichen. Waeren echte 2133MHz moeglich waeren wir inzwischen schon weit mehr als doppelt/ vierfach/ achtfach (Abzueglich der natuerlich gegebenen Verluste) so schnell unterwegs wie bisher mit dem kuenstlich aufgebauschten RAM. Bei einem Core2 Duo mit 400MHz FSB fuehrt DDRs 1200 zur Leistungseinbussen, zumindest kann der Prozessor nur asynchron zum Speicher laufen. Auch DDR2 800/ DDR3 1600 sind aufgrund der 200MHz absolute Leistungsbremsen fuer solche CPUs. Auch wenn die theoretisch erreichbare Datenrate hoch genug ist hat die CPU physikalisch nicht die Moeglichkeit das auch umzusetzen, weil einfach die auftretenen Latenzen zu hoch sind. Mit DDR2 1066 5-5-515 im Dual-Channel erreiche ich maximal 65% der theroetisch erreichbaren Datenrate. Mit DDR Speicher (Dual-Channel)hatte ich immerhin noch 80%-85% Auslastung (A64, der Athlon XP kann mit einem Nforce2 fast 97% erreichen, das ist jedoch ein anderes Thema). Es geht einfach zu viel Zeit floeten bis zugegriffen werden kann. Un da sich bei SDRAM seid Jahren im Takt nichts aendert, sondern einfach nur die alten Taktraten wiederkehren und als High-End abgestempelt werden wird SDRAM aufgrund dessen bald an einer Sackgasse ankommen. Oder ist es bereits schon. DDR 4 auf Basis dieser Taktraten lohnt sich Praktisch garnicht mehr, da hier die effizient genutzte Bandbreite im Schnitt wohl unter 50% liegt, was DDR4 dann wohl gegenueber DDR3 obsolet machen durefte. Effektiv muesste dann fuer jedes Speichermodul ein eigener Speichercontroller verbaut werden um noch brauchbare Ergebnisse zu erziehlen.
Wie bereits erwähnt, die IO-Takt ist bei DDR3-2166 1066 MHz und bei DDR2-1200 600MHz und der ist deutlich wichtiger als der eigentliche Speichertakt. Die Latenzen werden immer bezüglich des IO-Taktes berechnet. Was diverse Speicherbanchmarks für Werrte liefern ist für real-life-Anwendungen reichlich irrelevant. z.B. schneidet beim Core i7 Triple Channel zwar in Speicherbenchmarks besser abs als Dual Channel, aber in echten Anwendungungsbenchmarks, ist Dual Channel meist noch schneller. Siehe z.B. [2] und [3]. --MrBurns 23:58, 21. Jan. 2009 (CET)
PS: bei den C2D Speicher-Benchmarks macht es wenig unterschied, ob man den RAM synchron zum FSB rennen lässt oder nicht. Beim Ci7 gibt es garkeinen FSB mehr, weil dieser vwerwendet einen internene Speichercontroller (siehe Intel-Nehalem-Mikroarchitektur) und ist daher direkt mit dem Speicher verbunden, ohne einen Bus, der den Speichercontroller anbindet, d.h. der Speicher ist mit seinem Takt direkt an der CPU angebunden. DDR4 gibst noch nicht und in dem, was ich gelesen hab stehzt noch nix üb er die Spezifikationen, außer von Frequenzen von 2,133GHz bzw. 2,667GHz, aber noch nichts darüber, ob damit der Speichertakt, der IO-Takt oder gar der effektive IO-Takt gemeint ist. Un selbst wenn DDR4 der renner wird, kommt ees frühestens 2012, also gibts noch genug Zeit für DDR3, um DDr2 zu verdrängen. --MrBurns 00:06, 22. Jan. 2009 (CET)
PPS: weleche technoligie sol deiner Meinung anch in Konkurrenz zu den SDRAM-Varianten treten. Rambus hat es ja shcon erfolglos probiert mit RDRAM und XDR ist eher Grafikkarten, Konsolen und eingebettete Systeme gedacht. --MrBurns 00:15, 22. Jan. 2009 (CET)
IO bestimmt einfach nur die maximal erreichbare Datenrate. Sie hat natuerlich extreme Vorteile, sobald die Datenpakete alle gebraucht weden. Problem ist einfach nur das die realen Takfrequenzen immer noch Stand 2003 sind und eben hohe Latenzen mit sich bringen, egal wie man es dreht und wendet. Eine hoehere Taktrate !in! Kombination mit QDR/ DDR/ Bla waere viel interessanter und wuerde den aktuellen CPUs eher gerecht werden. Mein Q9550 (3,4Ghz FSB 1600)hat im L2 Cache Datenraten von >30 Gigabyte die Sekunde. Dagegen ist der RAM die reinste Hungersnot. Was besseres laesst sich aber wohl aufgrund der Module einfach nicht realisieren. Zumindest noch nicht. Bisher wird eigentlich immer nur der SDRAM neu aufgelegt mit Taktfrequenzen die schon seid 5 Jahren keinen mehr hinterm Ofen hervorlocken wuerden. Zum Glueck gibts ja Marketing. Lohnen tuts sich aber immer erst wenn man Module bekommt die den selben oder hoeheren Takt haben. Was neu gemacht werden muesste sind ersteinmal die Module selber. Der urspruengliche Standard fuer DIMM-Module duerfte bald oder ist schon > 15 Jahre alt. Die Neuauflagen fuer DDR/DDR2 usw. und fuer PC100 zaehle ich da nicht mit hinein. Die naechste Generation Speichermodule muss mindestens 128Bit IO mitbringen um den Leuten die Dual-Channel Frickelscheibe zu ersparen. Wenn das so weiter geht sind wir wieder so unterwegs wie frueher mit 386igern/ 486igern und SIMM-Modulen. Am Besten gleich 256Bit. Schwierig durch die Signallaufzeiten, aber garantiert machbar. Vielleicht muss man auch ganz von Modulen herunterkommen und mal eine Art ZIF-Sockel fuer RAM ins Auge fassen. Dazu hoehere Taktfrequenzen und vielleicht sogar einen Cache im Chipsatz selber, der relativ Gross ausfallen sollte. Es muss dann auch kein SRAM sein. Was fuer eine Speichertechnik in Frage kommt kann ich auch nicht sagen. Ich bin kein Ingeneur.
Die Latenzen hab ich schon erklärt. Wichtig sind im Prinzip nur die ersten 3 Zahlen, TRAS macht kaum einen Unterschied. Außerdem mucht es keinen sinn, wenn man die nominellen Latenzen betrachtet, man muß sich die realen Latenzen in ns anschauen. Diese sind bei DDR2 deutlich schneller als bei DDR und DDR3 High-Performance-Module sind ca. gleich schnell wie DDR2 High Performance. Btw, der vond ir vorher erwähnte DDr600-Speicher ist nicht erhältlich, die schnellsten momentan erhältlichen DDR-DIMMs sind DDR533 und sdie sind schon sauteuer (~240€/GB, DDR400 gibts schon ab ~20€/GB). Und außerdem zeigen die meisten Benchmarks, dass ein höherer IO-Takt mehr bringt als niedrigere Latenzen. Siehe z.B. [4]. Das gilt auch für real-life-Anwendungen (bei denen, wo die Speicherperformance überhaupt einen Unterschied macht), siehe z.B. [5]. --MrBurns 17:58, 22. Jan. 2009 (CET)
PS: Was ist gegen Dual Channel einzuwenden? So lange man sich an die qualified Vendor List des Mainboardherstellers hält, funktioniert das eigentlich immer problemlos. Und ZIF-Sockel fürn RAM halte ich für unrealistisch, weil dafür einfach nicht genug Platz am Mainboard vorhanden ist. --MrBurns 18:27, 22. Jan. 2009 (CET)

unklare Passage

"Damit das Double Data Rate Verfahren zu einer Beschleunigung führt, muss die Anzahl zusammenhängend angeforderter Daten (= „Burst-Length“) immer gleich oder größer als die doppelte Busbreite sein." Verstehe ich nicht. Wahrscheinlich hängt das mit "zusammenhängend angeforderter Daten" zusammen: wann fordert man denn mal nur ein paar Dutzend Bits an?

"... ist DDR-SDRAM im Vergleich zu einfachem SDRAM bei gleichem Takt nicht exakt doppelt so schnell." WIE schnell denn, grob übern Daumen? + 5% ? + 95% ? Das ist ein verdammt weites Feld! - Yog-S, 213.102.97.154 10:07, 30. Jun. 2007 (CEST)

Wenn du den ersten von dir zitierten Satz verstehen würdest, dann würdest du wissen, dass die beschleunigung im Vergleich zu SDRAM theoretisch jeden Wert zwischen 0% und 100% einnehmen kann. Den Tatasächlichen Wert kann man wohl in Benchmarks zum Speicherdurchsatz herausfinden, wobei der je nach Anwendung stark unterschiedlich sein kann (z.B. wenn immer 1-8 Byte angefordert wird 0% (wegen 64 bit Busbreite), bei 12 Byte 50%, bei 16 Byte 100%,...). --MrBurns 17:24, 30. Jun. 2007 (CEST)

Passage zu DDR3 - Aktualisierung nötig

Die Passage zu DDR3 ist nicht mehr aktuell und müsste überarbeitet werden --85.127.236.35 01:24, 9. Jul. 2007 (CEST)

Hallo! Kannst Du vielleicht einen konkreten Hinweis geben, was veraltet ist, bzw. was an neuen Informationen fehlt? Viele Grüße --Tomakos 11:10, 2. Jul. 2008 (CEST)
Mir fällt direkt im zweiten Satz des Abschnitts eine Unstimmigkeit auf: "Die neuen Chips mit einer Kapazität von 512 Mibit sollen Daten mit 8.500 Mibps verarbeiten [...]". 8500 Mibps entsprechen ca. 1114 MB/s und machen imo in keinem Zusammenhang richtig Sinn. Ein PC3-8500-Speichermodul erreicht eine Datenrate von maximal rund 8500 MB/s. Exakt sind es 8528 MB/s. Wegen dem Achtfach-Prefetch verarbeitet ein Chip eines solchen Moduls dann 1066 MB/s, was rund 8133 Mibps und nicht 8500 Mibps entspricht. In SI-Einheiten hat die Zahl 8500 aber ihre Rechtfertigung, es sind 8500 Mbps. Ich habe mal eine Korrektur von Mibps nach Mbps vorgenommen.
Ich glaub auch nicht, dass die Chips generell 512 Mibits haben, das dürfte eher eine Untergrenze sein. Es gibt ja bereits 2GB-DDR3-DIMMs, da bräuchte man bei 512Mbit 32 Chips, so viele passen sicher nicht auf einen DIMM drauf. Und alut JEDEC-Spezifikation sind bis zu 8GB/DIMM vorgesehen. Also dürften die 512Mbit eher das Minimum sein, ich ändere das mal dementsprechend. Btw, es wurde ja irgendwo auf der deustchen Wikipedia beschlossen, keine IEC-Präfixe (also Ki, Mi, Gi,...) mehr zu verwenden- --MrBurns 11:34, 15. Nov. 2008 (CET)
Laut Spezifikation sind folgende Chips vorgesehen: 512Mbit, 1Gbit, 2 Gbit, 4Gbit, 8Gbit. Wie viele Chips man dann für einen DIMM braucht ist abhängig von der Speicherorganisation. Interssant wäre auch noch zu erwähnen, das die Chips nun Standardmäßig 8 Bänke besitzen (DRR2 normalerweise 4 Bänke, abgesehen von den 1Gbit und 2 Gbit Chips)--Bluelord 09:36, 2. Sep. 2009 (CEST)

Abwärtskompatibilität der einzelnen DDR-SDRAM-Module

Es wäre schön, wenn der Artikel auch noch etwas über die Abwärtskompatibilität der einzelnen Module verraten würde. Ob es zum Beispiel möglich ist, in einem für PC-1600 Speicher ausgelegten Mainboard / Rechner auch PC-3200 Speichermodule zu verwenden. Das ist nämlich keineswegs jedem klar, ob das geht oder nicht (mir auch nicht :) ).

Die PC-XXXX Bezeichnungen entsprechen nur der (laut spezifikationen) maximal erlaqubten Datenübertargungsrate. Natürlich kann amn den Speicher immer auch langsamer takten. Es ist nur wichtig, dass es sich um die selbe DDR-Version ahndelt, d.h. das ursprüngliche DDR, DDR2 und DDR3 sind alle untereinander inkompatibel. --MrBurns 03:46, 16. Jul. 2007 (CEST)

Kompatibilität von DDR2 und DDR3 -SDRAM

Hallo Ich finde die Kompatibilität der Module untereinander sollte auch nicht fehlen. Ich würde auch gerne wissen ob, da ja beide 240 pin haben, ein einsetzen von DDR3 Riegeln in einem DDR2 Slot möglich ist oder nicht? (Mal von der Taktung etc abgesehn, nur vom Funktionsprinzip)

Generell sind DDR-Moduel verschiedener Versionen (also DDR1/2/3) allein schon wegen den elektrischen Spezifikationen (insbesondere der Betriebsspunnung) untereinander inkompatibel. Außerdem sind die Einkerbungen an den Modulen an unterschiedlichen Positionen, um den versehentlichen Einbau des falschen Speichers, was mit großer Wahrscheinlichkeit zur Zerstörung von Speicher und/oder Mainboard führen würde, zu verhindern. --MrBurns 02:53, 14. Aug. 2007 (CEST)

Was ist ein SDDR-RAM?

Soweit ich es weiß ist es gleichbedeutend mit DDR-RAM oder gibt es dabei Unterschiede? --Nameless 15:07, 2. Sep. 2007 (CEST)

Wahrscheinlich ist SDR-SDRAM gemeint und bezeichnet den Vorgänger des DDR-SDRAMs, das normale SDRAM. --Bluelord 10:16, 2. Sep. 2009 (CEST)

Kürzen

Moin moin

Ich bin mir nicht sicher, ob die zwei 8er einen tieferen Sinn erfüllen, aber mathematisch gesehen kann man die kürzen:
(8× Speichertakt × Bitbreite)/8
Gefunden in:
PC3-XXXX: Das XXXX berechnet sich durch (8× Speichertakt × Bitbreite)/8 (Bitbreite = 64 bit) und entspricht der Speicherbandbreite in MB/s.

Der Tiefere Sinn ist folgender: Die erste 8 steht für das Verhältnis (effektiver Takt)/Speichertakt und die zweite 8 steht dafür, dass man die Zahl der bits durch 8 dividieren muss um auf die Zahl der bytes zu kommen. Deshalb würde ich es so lassen, wies jetzt ist, weils so besser fürs verständnis ist. --MrBurns 00:53, 22. Sep. 2007 (CEST)

Spannungen

Die Erwähnung der jeweiligen Standardspannung wäre sinnvoll (nicht so verstreut wie jetzt...)

"Die elektrische Leistungsaufnahme sinkt auf für den Mobilbereich akkufreundlichere 247 mW (statt bisher 527 mW)." Dies mag theoretisch richtig sein, leider verbrauchte der Intel mobile 915 Chipsatz z.B. weit mehr Strom als der Vorgänger beim Centrino erster Generation, was diesen Vorteil ins Absurde zieht. Dies dürfte auch an den weit höheren Taktungen von DDR2 liegen...--Surfacecleanerz 11:32, 15. Okt. 2007 (CEST)

Der Stromverbrauch des Chipsatzes ist was anderes als der Stromverbrauch des Speichers. --MrBurns 20:10, 16. Okt. 2007 (CEST)

Änderungsvorschläge

"bei dem statt mit einem Zweifach-Prefetch mit einem Vierfach-Prefetch gearbeitet wird.": Prefetch fällt hier so vom Himmel, Hinweis dazu möglich?

Bitte auch "Dual Channel" mit Aufnehmen. (Nein, ich saue jetzt besser nicht in eurem Artikel 'rum.) TP

Die Vergleichstabelle mit den Timings sortierbar machen!!?! Keine Ahnung wie das geht, sorry Gruss laza 16:39, 17. Feb. 2009 (CET)

Das "U" nach der Modulbezeichnung

Wenn ich nach Angeboten von Arbeitsspeicher suche, stelle ich fest, dass oftmals ein großes "U" nach der Modulbezeichung geschrieben wird - z. B. PC3-10667U

Ich meine, auch schon mal ein "S" gesehen zu haben. Was bedeuten diese Buchstaben? --Section6 23:38, 10. Mär. 2008 (CET)

Das U steht sehr wahrscheinlich für Unbuffered also der Standardversion für normale Rechner. Zum S konnte ich jetzt auf die Schnelle nichts finden, es könnte sich aber um SO-DIMM für Schlepptops handeln. --Denniss 13:00, 11. Mär. 2008 (CET)
Also ich hab bei Qimoda folgendes gefunden:
U 240 pin unbuffered DIMMs - Non-ECC
E 240 pin unbuffered DIMMs - ECC
S 204 pin Small Outline DIMMs - Non-ECC
R 240 pin Registered DIMMs - ECC
P 240 pin Registered DIMMs with Parity Bit - ECC
Diese Buchstaben kommen sowohl in der Kurzbezeichnung (z.B. PC3-8500U CL7) als auch in der Modellnummer (also der langen Nummer) vor. Ich habs bei DDR3 gesehen, dürfte aber auch für DDR1/2 zutreffen (mal abgesehen von der PIN-Zahl, die bei DDR1 geringer ist). Siehe Seite 46 des DDR3-Datenblatts: [6]. Anmerkung: Small Outline DIMMs = SODIMMs (also Laptop-Format) --MrBurns 05:01, 6. Nov. 2008 (CET)

Kühlblech am DDR-SDRAM

Bis auf die abbildung finde ich das auffällige kühlblech nirgends erwähnt. Es würde mich interessieren, in welchen fällen es eingesetzt und in welchen darauf verzichtet wird. Angeblich werde das blech zuweilen auch regelrecht heiss, was mich ein bisschen erstaunt; bisher habe nämlich ich noch nie einen RAM-riegel im betrieb gesehen, der mehr als fingerwarm wäre. -- 89.217.53.98 15:37, 31. Mai 2008 (CEST)

Du hast anscheinend noch nicht viele RAM-Riegel gesehen, es gibt durchaus welche, die reichlich warm werden, unter anderem waren Kühlbleche bei RAMBUS-Speicher eigentlich Standard. In normalen, gut belüfteteten Gehäusen dürften die aber überflüssig sein, zumindest nachträglich montierte. Manche Übertakter schwören auf solche Extra-Kühlungen, man kann möglicherweise ein paar Promille Mehrleistung erreichen. -- Smial 23:26, 31. Mai 2008 (CEST)

Herstellerangaben

Ich habe die Seite in der Hoffnung aufgeschlagen sinn aus den Angaben zum Laptop D400 zu machen, damit ich nicht den falschen speicher kaufe. Der Hersteller schreibt "2,5 V 266 MHz DDR SDRAM" - ich kann nicht einordnen was damit gemeint ist. Die Seite hat mir in dieser Hinsicht nicht geholfen.

Von der Spannung her klingt das wie DDR-SDRAM, dem Vorgänger von DDR2-SDRAM. Die 266 "MHz" dürften die üblichen Marketing-MHz sein und es ist PC-2100 Speicher mit realen 133 MHz gemeint. Allerdings dürfte PC-2100 SODIMM eher teuer sein aber das höhere Spezifikationen wie PC-2700 oder PC-3200 abwärtskompatibel sind kannst Du zu einer höherwertigen Speicher greifen, der läuft in Deinem Laptop dann mit den für PC-2100 gedachten Frequenzen. --Denniss 11:35, 25. Jun. 2008 (CEST)

Speicherkonfiguration

Hi, mir fehlen ein paar Worte über die verschiedenen Modulzusammensetzungen, die es nun mal so gibt, was sie bewirken, auf was man aufpassen sollte. Hab mich da grade selbst erst schlau machen müssen (englische Wikipedia http://en.wikipedia.org/wiki/DDR_SDRAM#Chip_characteristics als Einstiegsseite), es dauert aber eine Ewigkeit um alle Details nachzulesen, um beispielsweise die richtige Kaufentscheidung zu treffen (nein, es soll kein Wikibooks-Artikel werden...) Hinein müsste, was Bezeichnungen wie 64Mx8 (128Mx4, 128Mx8, ...) bedeuten, wie diese Einzelchips zu Gesamtmodulen (256Mx64 beispielsweise, also ein 2GB-Modul) zusammengenommen werden, welche Rolle die Datenbusbreite (->Ranks) spielt, etc. Wenn das nun alles so einfach und leicht wäre, würd ichs ja auch selbst machen :)

Überhaupt wäre zu klären, ob sowas in den DDR-Artikel gepackt werden sollte (wie in der englischen), oder ob das einen eigenen Artikel bekommt - Speicherkonfig betrifft ja auch DDR2/3, Rambus/XDR und rückwirkend SD und SIMM. Vorschläge? Mathias 18:11, 19. Aug. 2008 (CEST)

Zur Notation 64Mx8, 128Mx4,..: die erste Zahl gibt die Kapazität pro Chip in Bit an, (also z.B. 64M=64Mbit=8MB), die zweite die Zahl der Chips. Diese Beispiele wären da also beides mal 64MB-DIMMs (gibts sowas bei DDR überhaupt?).
Die Datenbusbreite ist bei DDR (egal welche Version) immer 64bit/Takt: je 32bit bei der aufsteigenden und absteigenden Flanke. Wenn 128bit angegeben werden, ist damit der Dual Channel-Modus gemeint, wo dann die Bandbreite der beiden Kanäle addiert wird. Die Bandbreite pro Modulö bleibt aber bei 64bit, da man für Dual Channel min. 2 DIMMs braucht. Triple Channel wäre demnach 192bit.
Von Ranks hab ich noch nie was gehört, nur von Banks: jeder Slot hat 2 Banks, es gibt single-bank-DIMMs, die nur eine dieser banks nutzen und dual-bank-DIMMs, die beide nutzen. Bei einigen mainboards ist die Gesamtzahl der Banks niedriger als sich theoretishc aus den Slots ergeben würde, z.B. hatte der nForce2 Chipsatz 4 Banks und i.d.R. die Mainboards mit diesem Chipsatz 3 Slots, wodurch sich einige Zeit lang nur max. 2GB installieren liessen statt 3GB, weil die 1GB-DIMMs alle dual-bank waren und auch bei den 512MB mußte man aufpassen, weil manche von denen auch dual-bank waren (u.A. so ziemlich alle billig-DIMMs). i.d.R. sind Dual Bank DIMMs zweiseitig bestückt und single bank einseitig, aber es gibt auch Ausnahmen von dieser Regel. --MrBurns 04:11, 6. Nov. 2008 (CET)
Nachtrag: ich hab mir aml die englische WP durchgelesen: die verwenden anscheinend eine etwas ansdere Notation als bei uns. Ranks dürfte einfach nur ein anderes Wort für Banks sein, aber die Notation alla 128Mx4 wird teilweise auch eher verwendet, um die Zahl der bits mal die Zahl der Chips auszudrücken, also so wie ich vorher gemeint habe, das auf der englichen WP ist aber eine andere Verwendung dieser Notation. Außerdem verwenden die die Zahl mit dem M als Bytes, üblich ist aber, dass damit die Zahl der bits gemeint ist, weil in der Speicherindustrie ist es üblich, die Kapazität einzelner Chips in bits anzugeben, die Kapazität ganzer Module hingegen in Bytes. Die merkwürdigen Chipzahlen auf der englischen WP (ganzzahliges vielfaches von 9 anstatt von 8) kommen dadurch zustande, dass DIMMs mit ECC in den beispielen verwendet werden, der Großteil der verkauftenh DIMMs hat aber kein ECC. --MrBurns 04:25, 6. Nov. 2008 (CET)
Mein doppelseitig bestückter 512 MiB PC-3200 von MDT wird von Everest angegeben als dual-rank mit vier banks. Astra32 gibt dual-row mit vier Banks an. Mein einseitig bestückter (und auch so beschalteter) 512 MiB PC-3200 von MDT ist single-rank/row mit vier banks. --Denniss 20:09, 6. Nov. 2008 (CET)
Auf Software sollte man sich bei sowas nicht verlassen. Ich nehme mal an, dass du Bank Interleaving im BIOS aktiviert hast. Normalerweise ist die Zahl der Ranks gleich hoch wie die Zahl der Banks und die DDR1-Mainboards, die ich kenne, haben alle nur 2 Banks pro DIMM, also ist es garnicht möglich, DIMMs nit mehr als einer Bank zu verwenden. --MrBurns 00:30, 7. Nov. 2008 (CET)

Die Zahlen geben keine Auskunft über die Anzahl der Chips, sondern über die interne Konfiguration des Chips selbst. Die erste Zahl gibt die Anzahl der adressierbaren Adressen an, die zweite Zahl gibt die breite des Datenbusses an. So kann ein 256-Mbit Chip z.B. aus 64Megx4 aufgebaut sein oder auch 16Megx16. Da der Datenbus eines Moduls immer 64-Bit breit ist würde man so 4 16Megx16 Chips benötigen (=128 MB) oder 16 64Megx4 (=512 MB). Im Sprachgebrauch üblich ist das Wort Rank und nicht Bank, da dieses bewusst eingeführt worden ist, um keine Verwechselungen mit den einzelnen internen DRAM Array zu ermöglichen (die immer als Banks bezeichnet werden). --Bluelord 09:27, 2. Sep. 2009 (CEST)

Der Sprachgeebrauch ist alles andere als Einheitlich. Und z.B. in Mainboard-Anleitungen findet man meistens das Wort Bank für die externe organisation der DIMMs, da die interne Organoiisation da ohnehin wurscht ist. Die interne Organisation ist eigtentlich lediglich für den Hersteller von DIMMs interessant (und vielleicht für versierte Übertakter, die halt wissen, welche Chips sich besonders gut übertakten lassen). Zu der Zeit, zu der DDR1 aktuell war war das Wort Rank jedenfalls kaum verbreitet, da wurde meist von Banks gesprochen. --MrBurns 01:50, 3. Sep. 2009 (CEST)
Wenn man ein DIMM kauft steht da sehr wohl im Datenblatt oder in der Bezeichnung auch Rank (vlg. Webseiten der DIMM Anbieter, z.B. Kingston oder auch Corsair). Früher war dies auch nicht unerheblich, da nicht alle Speichercontroller dual Rank-DIMMs unterstützt haben. Auch findet manden Begriff Rank in den Spezifikationen (z.B. JEDEC Standard No. 21C), sowie sämtlicher Fachliteratur.
Die interne Speicherorganisation ist ebenfalls nicht ganz Wurst, da nicht jedes Mainboard jede Speicherkonfiguration unterstützt. Auf Mainboardebene gibt es übrigens natürlich Speicherbänke, die aber nicht direkt mit den Ranks zu vergleichbar sind. --Bluelord 11:15, 4. Sep. 2009 (CEST)
Im prinzip sind die Banks beim Mainboard dasselbe wie die Ranks beim DIMM. Dual-Rank-DIMMs (die meist zweiseitig sind) brauchen dabei z.B. 2 Banks, single-Rank-DIMMs nur 1 Bank. Bei DDR2 und DDR3 gibt es auch DIMMS mit mehr als 2 Ranks. Die Zahl der am Mainboard verfügbaren Banks hängt normalerweise ausschließlich vom Chipsatz ab. --MrBurns 20:55, 4. Sep. 2009 (CEST)
Ich denke es macht auf jeden Fall Sinn die Speicherorganisation mit aufzunehmen, da es im Artikel ja um DDR-SDRAM geht und nicht nur um die DDR-SDRAM DIMMs. Technisch gesehen sind Bänke beim Mainboard und Ranks praktisch das gleiche, jedoch sollte man es wegen der Speicherhierarchie unterscheiden (z.B. wegen oben erwähntem Controllerproblem und der logischen Aufteilung in Channel, Mainboard-Bänke->"DIMM Sockel pro Channel", Ranks, Banks, Rows, Columns ). Selbstverständlich ist dies nur vom Chipsatz abhängig (bzw. vom Prozessor), da dieser den Speichercontroller enthält (und somit, z.B. nur eine feste Anzahl von Chip Select Signalen für die Ranks zur Verfügung stellt.).
Die internen Bänke des Chips sollten auch nicht vernachlässigt werden, da sich ihre Anzahl bei einer Open-Page-Zugriffsstrategie direkt auf die Anzahl der Page-Hits auswirkt. --Bluelord 09:21, 7. Sep. 2009 (CEST)

Anzahl der Kontakte

Hallo, im Artikel sind die Anzahl der Kontakte genannt, allerdings werden SO-DIMMs nicht erwähnt (die haben weniger). Es sollte a) die Anzahl der Kontakte bei SO-DIMMs genannt werden und b) kurz erläutert werden, warum die mit weniger Kontakten auskommen. – 91.4.5.112 23:57, 20. Jan. 2009 (CET)

Erst Anfang 2002 konnten sie sich jedoch auf dem europäischen Endverbrauchermarkt durchsetzen

Ich denke, das gilt weltweit, weil der Pentium 3 bis 2002 einfach der unangefochtene Marktführer war und es DDR nur für den Athlon und später den P4 gab (am Anfang gabs P4-Boards ausschließlich mit RDRAM, bis Intel gemerkt hat, dass die Preise für RDRAM hoch bleiben und das viele potentielle Käufer abschreckt). --MrBurns 00:08, 21. Jan. 2009 (CET)

So, ich muß mich korrigieren, laut en:Pentium 4, hat dieser Ende 2001 die Marktfhrerschaft übernommen. Aber das ändert nicht viel an den bis 2002 schlchten Voraussetzungen für DDR, da die ersten P4-Boards, die DDR unterstützen erst 2002 erschienen sind. [7]

AMD Edition DDR2

hi, vlt. sollte man auch erwähnen, das diese Tatsächlich entweder gar nicht oder nur zur Hälfte im Intel Board erkannt werden. Dieses Problem hatte ich Heute. Hätte nie gedacht das die RAMs derart Inkompatibel sein können. Mir ist bisher beim Riegel kauf nie aufgefallen bzw. hatte ich es vorher nie gelesen, ob wohl die Dinger glaub seit 2007 auf dem Markt sind...

meine Quelle: http://www.computerbase.de/forum/showthread.php?t=395950

--HelixSniper 14:49, 6. Mai 2009 (CEST)

Prinzipiell besteht immer die Gefahr, dass Riegel nicht erkannt werden, wenn sie nicht auf der QVL (Qualified Vendor List) des Mainboardherstellers stehen. Ich denke, man braucht dehalb nicht eine "AMD Edition", die wohl besonders auf den Speichercontroller von bestimmten AMD-CPUs optimiert ist erwähnen. Im Prinzip folgen alle DDR2-Riegel dem JEDEC-Standard (mal abgesehen von Kleinigkeiten, wie dass zusätzlich noch abweichende Timings und Frequenzen unterstützt werden). Nur sind diese Standards so ungenau, dass es trotzdem zu Inkompatibilitäten kommen kann. --MrBurns 00:34, 7. Mai 2009 (CEST)
Die Standards sind eigentlich ziemlich genau (Oder welche Angaben fehlen dir dort?). Es gibt/gab aber z.B. DIMMs die ein Branding haben, das vom BIOS abgefragt wird (gab es z.B. mal bei Fujitsu-Siemens Rechnern). --Bluelord 13:32, 11. Sep. 2009 (CEST)
AMD-CPUs fragen sicher keine Brandings ab. Das machen nur so Hersteller von Markensystemen wie z.B. Compaq, Fujitsu-Siemens,... um an Lizenzgebühren für die DIMMs zu verdienen. Und ich bin zwar keine Elektrotechniker, aber die Standards sind offensichtlich nicht genau genug, sonst würde es keine Probleme geben, dass bestimmte Mainboars/Chipsätze nur mit bestimmten DIMMs funktionieren und es wäre niocht notwendigg, QVLs (Qualified Vendor Lists) zu veröffentlichen. Und so viel verstehe ich schon von Elektrotechnik, dass sehr kleine Bauteile, die mit sehr hoher Frequenz betrieben werden, anfälliger sind gegenüber kleinen Abweichungen, also z.B. große Trannsistoren, wie sie bei TTL verwendet werden. --MrBurns 14:48, 11. Sep. 2009 (CEST)
Das BIOS ist ungleich die CPU, das Branding war eine zusätzliche Anmerkung. Da AMD die Speichercontroller schon lange in den CPUs verbaut, liegt eher hier die Garantie, das solcher "AMD" Speicher dann dort auch funktioniert. Das Problem ist, das nicht alle Hersteller die Standards komplett erfüllen oder es nicht ganz so genau nehmen (Schließlich gibt es ja keinen Standard die Speichercontroller, also kann da jeder machen was er will). Transistoren sind immer Toleranz behaftet, deshalb gibt es ja auch Toleranzbereiche in den Standards. Beim Testen werden die Chips deshalb in die ensprechenden Speed Bins einsortiert in denen sie Spezifikationsgerecht funktionieren. (nicht signierter Beitrag von Bluelord (Diskussion | Beiträge) 11:24, 14. Sep. 2009 (CEST))

"DDR-RAM"

Bitte beim editieren des Artikels beachten: es gibt kein "DDR-RAM". Dieser Begriff ist falsch und irreführend. Das "DDR" bezieht sich nämlich auf die Eingabe-/Ausgabe-Schnittstelle des Speichers. Deshalb würde zu einem imaginären "DDR-RAM" beispielsweise auch RDRAM, QDR-SRAM und viele weitere Speichertypen zählen. Die Technik der Ausnutzung der beiden Taktflanken für die Datenübertragung wird nämlich bei weitem nicht nur bei SDRAM verwendet.

Auch wenn es selbst von Fachleuten oft falsch gemacht wird: es heisst "DDR-SDRAM". Mit "s" und mit "d", nicht ohne. (nicht signierter Beitrag von Endorphine (Diskussion | Beiträge) 14:35, 15. Feb. 2005 (CET))

Clockrates

Ich fände einen Artikel zur Erklärung der clockrates brauchbar. Dieses Wissen wird hier vorausgesetzt. Leider kenne ich mich selber damit nicht (mehr) aus. (nicht signierter Beitrag von 81.10.231.169 (Diskussion | Beiträge) 21:42, 6. Jul. 2005 (CEST))

Beispielrechnungen

Denniss: Lies bitte nach Gibibyte, was ein GiB ist, nämlich 1.073.741.824 Bytes. 3200000000B/s sind also 2,98 GiB/s. Ein MiB sind 1.048.576 Bytes. Umrechnung von GiB in MiB ist eben im Zehnersystem nicht mehr durch verschieben des Kommas möglich, sondern der Umrechnungsfaktor ist 1024. Ich habe die korrekten Zahlen wieder hergestellt. (nicht signierter Beitrag von Sulimma (Diskussion | Beiträge) 10:15, 17. Sep. 2008 (CET))

DDR2-1066 inzwischen von JEDEC offiziell als Standard anerkannt

DDR2-400 bis DDR2-800 sowie die damit aufgebauten PC2-3200- bis PC2-6400-Speichermodule sind von der JEDEC standardisiert. Alle davon abweichenden Module orientieren sich zwar von den Bezeichnungen her an den Standards, aber jeder Hersteller setzt bei den elektrischen Eigenschaften – der oft als „Übertakter-Speicher“ angebotenen Module – seine eigenen Spezifikationen und arbeitet oft mit exzessiver Überspannung. Wie bei DDR-SDRAM gibt es auch bei DDR2-SDRAM Registered-Module mit oder ohne ECC.

Der DDR2-1066 ist inzwischen von der JEDEC standardisiert worden, das entsprechende .pdf findet sich auch schon in den Quellen zu diesem Artikel (http://www.jedec.org/download/search/JESD208.pdf). Daher werde ich den genannten Absatz wie folgt ändern:

DDR2-400 bis DDR2-1066 sowie die damit aufgebauten PC2-3200- bis PC2-8500-Speichermodule sind von der JEDEC standardisiert. Alle davon abweichenden Module orientieren sich zwar von den Bezeichnungen her an den Standards, aber jeder Hersteller setzt bei den elektrischen Eigenschaften – der oft als „Übertakter-Speicher“ angebotenen Module – seine eigenen Spezifikationen und arbeitet oft mit exzessiver Überspannung. Wie bei DDR-SDRAM gibt es auch bei DDR2-SDRAM Registered-Module mit oder ohne ECC.

Grüße (nicht signierter Beitrag von Dktr Faust (Diskussion | Beiträge) 15:55, 22. Jan. 2009 (CET))

DDR4

IDF: DDR4 als Hauptspeicher ab 2012 21. August 2008, 9:08 Uhr Logo: Arbeitsspeicher

Dass mit DDR3-Speicher noch nicht das Ende der Fahnenstange erreicht ist, zeigen spätestens seit einigen Monaten bereits die Grafikkarten, auf denen seit kurzer Zeit bereits sogar GDDR5 zum Einsatz kommt. Als Hauptspeicher schreitet die Entwicklung nicht ganz so schnell voran, dennoch ist ein erster Fahrplan für DDR4 aufgetaucht.

Ab dem Jahr 2012 könnte der neue Hauptspeicher langsam eingeführt werden. Qimonda gab als einer der Partner von Intel auf dem derzeit stattfindenden IDF zudem einige Details zu der Entwicklung der Eingangsspannung des Hauptspeichers in den kommenden Jahren bekannt. Bereits heute stellen erste Speicherhersteller Low-Voltage-Module für den neuen DDR3-Standard vor, die mit weniger als 1,5 Volt arbeiten können. Die zukünftige Entwicklung geht genau in diesem Bereich weiter. 1,35 Volt sollten in den kommenden Jahren bei ständig steigenden Bandbreiten zum Standard avancieren. DDR4 soll dabei bei satten 2.133 MHz starten und auf etwa 1,2 Volt setzen, je nach Entwicklungsstand könnten aber auch bereits Module mit gerade einmal 1,0 Volt betrieben werden können. Dieses ehrgeizige Ziel soll ab 2013 den Fahrplan bestimmen.

Quelle: http://www.computerbase.de/news/hardware/arbeitsspeicher/2008/august/idf_ddr4_hauptspeicher_2012/ (nicht signierter Beitrag von 62.143.57.254 (Diskussion | Beiträge) 12:21, 22. Feb. 2009 (CET))

Das Problem bei DDR4 ist halt, dass es bisher bezüglich der geplanten Spezifikationen nur Spannungs- und Taktangaben gibt, wobei bei letzeren Angaben wohl nur der effektive Takt bekannt ist. Über Latenzen weiß man noch garnix. mMn ist das alles noch zu wenig, um DDR4 in die Wikipedia aufzunehmen. --MrBurns 01:28, 23. Feb. 2009 (CET)

Ein aktueller Artikel zu DDR4: http://www.golem.de/1101/80452.html mfg andreas --84.165.147.110 18:11, 4. Jan. 2011 (CET)

Bitbreite

Bitbreite = 64 Bit. Ein Bit ist also 64 Bit breit? – 91.4.34.1 23:32, 17. Jun. 2009 (CEST)

Die deutsche Sprache ist halt (genauso wie jede andere Sprache) nicht immer korrekt. --MrBurns 00:42, 20. Jun. 2009 (CEST)
Könnte man nicht Wort- oder Busbreite schreiben? (Ich weiß nicht, ob das korrekt wäre. Bitbreite finde ich aber eher unverständlich.) – 91.4.3.108 10:16, 20. Jun. 2009 (CEST)
busbreite ist sicher korrekt und mmn ein besseres wort. ich werd mal überall bitbreite durch busbreite ersetzen. --MrBurns 13:16, 20. Jun. 2009 (CEST)
Tja, die deutsche Sprache scheint sehr schwer zu sein, könntest du dich wenigstens in den Artikeln an die Rechtschreibregeln halten? Substantive ("Hauptworte") schreibt man immer noch groß, wäre schön wenn dir dies in den Artikeln gelänge. Man muss ja hinter dir regelrecht nachputzen. --WikiMax - 21:41, 21. Jun. 2009 (CEST)

Kennfarben der Steckverbinder

Kennfarben der Steckverbinder zu ergänzen wäre nützlich.
(nicht signierter Beitrag von 194.25.90.66 (Diskussion) 16:24, 27. Okt. 2010 (CEST))

Ist DDR3 2000 der Nachfolger von 1600?

Auf meinem Mainboard steht DDR3 2000, ist das der Nachfolger von 1600?
(nicht signierter Beitrag von 77.183.69.89 (Diskussion) 11:25, 13. Apr. 2011 (CEST))

Was ist mit Quad-Channel-Betrieb?

Was ist mit Quad-Channel-Betrieb, den Intel mit dem X79-Chipsatz Ende 2011 einführt?--87.172.221.146 22:21, 12. Jun. 2011 (CEST)

PC3-XXXX

Wenn sich das XXXX aus (8 mal x mal y)/8 zusammensetzt, dann wäre das doch gleich x mal y, oder? Außerdem sind Klammern bei reinen Punktrechnungen überflüssig, was meinen Verdacht bestärkt, dass etwas an der Formel nicht stimmt. Oder ist diese Formel aus einer Art "Schablone" mit einem Parameter entstanden, der hier zufällig gekürzt werden könnte? --82.58.58.234 00:07, 19. Jun. 2011 (CEST)

Natürlich kann man die beiden 8er im Prinzip wegkürzen, aber wenn mans nicht tut, ists anschaulicher: der erste 8er steht (bei DDR3) für das Verhältnis effektiver I/O-Takt zu Speichertakt, der zweite 8er dafür, dass jedes Byte 8 Bits hat. Die Formel ist jedenfalls korrekt, wenn eben x der Takt in MHz ist und y die Busbreite in bits. --MrBurns (Diskussion) 09:40, 3. Jul. 2012 (CEST)

Maßeinheitenkaos

Kann es sein, daß hier im Artikel die Maßeinheiten Bit und Byte (spich Bitt und Bait) teilweise nicht richtig genutzt werden? Im Abschnitt zum kommenden DDR4-Speicher wird beispielsweise (mit glaubhaftem Beleg) die noie Obergrenze mit 34 Gigabit pro Sekunde angegeben. Nur einen Abschnitt darüber, also zum forgehenden (älteren) DDR3-Standard, wird aber „34,0 GB/s“ – also eigentlich 34 Gigabyte pro Sekunde – in der Tabelle genannt. Und fon den mutmaßlich auch noch lustig gemischten Maßeinheitenforsätzen (wie hier wahrscheinlich Giga und Gibi) will ich lieber garnicht erst anfangen. ;-) (Siehe auch der kleine aber feine Unterschied zwischen Binär- und Dezimalpräfixen.) --92.226.63.105 09:16, 3. Jul. 2012 (MESZ)

Die 34 Gbit/s stimmen sicher nicht, auch wenns in der Quelle so steht, da ist qohl die Quelle fehlerhaft. Weil sonst wäre ja DDR4 langsamer als DDR2 (34 Gb/s = 4,25 GB/s, schon DDR2-667 hat 5,3 GB/s pro DIMM und die Zahl stimmt sicher). --MrBurns (Diskussion) 09:29, 3. Jul. 2012 (CEST)
Die 34 G(iga)bit/s beziehen sich aber wohl auf die einfache Datenrate pro Modul (siehe auch [8], Zitat: „Im Vergleich zu DDR3 bietet der neue Standard höhere Taktfrequenzen und damit einhergehende Datenraten von bis 34 Gbit pro Sekunde je RAM-Modul.“). Und meiner Ansicht nach sind hier im Artikel wohl eher einfach nur die Abkürzungen der Maßeinheiten fertauscht. So sollte es in der Tabelle zum DDR3-Speicher wohl an Stelle fon „34,0 GB/s“ (was ja wie oben genannt eigentlich für 34 Gigabyte pro Sekunde steht) eher „34,0 Gibit/s“ heißen, was sich dann auch wieder mit den in der genannten Kwelle geschriebenen 17 Gbit/s dekken würde (siehe auch dort, Zitat: „Das 2007 eingeführte DDR3 erreicht dagegen nur eine maximale Datenrate von 17 Gbit pro Sekunde.“). --92.231.185.174 10:33, 3. Jul. 2012 (MESZ)
Habe die offenbar fehlerhaften Maßeinheiten nun erstmal im DDR3-Abschnitt korrigiert. Wenn es dazu keine Widerspüche gibt, sollte das genauso auch noch für die anderen Abschnitte gemacht werden. --92.231.185.174 10:41, 3. Jul. 2012 (MESZ)
Die Einheiten im DDR3-Abschnitt waren vor deinem Edit richtig: z.B. bei DDR3-2133 ergibt sich: Datenrate = I/O-Takt*2*64 bit = Speichertakt*4*2*64 bit = 266MHz*4*2*64 bit = 136,192 Gbit/s = 17,024 GByte/s (in dem Fall ist das G, wie bei Datenraten meist üblich, als Binärpräfix zu verstehen). Und so eine gravierende Änderung trotz Widerspruch zu machen, bevor das ausdiskutiert war, ist keine übliche Vorgehensweise. --MrBurns (Diskussion) 11:10, 3. Jul. 2012 (CEST)
Dann sollte aber zumindest dieses Präfix-Durcheinander oder genauer die leider (deiner Angabe nach) übliche Falschschreibung der Binärpräfixe im Artikel beseitigt werden. Also wenn da Gibibytes gemeint sind, dann sollten diese bitte auch als „Gibibyte“ (oder kurz „GiB“) und nicht weiter falsch als GB bezeichnet werden. Und nur weil das bei einigen unbelehrbaren Personen hoite immernoch so üblich ist, ist das kein Grund so einen Unsinn auch noch in einem Lexikonartikel weiter zu ferbreiten, in dem dieser geschichtlich gewachsene Fehler einfach nicht hineingehört. --92.231.187.30 11:17, 4. Jul. 2012 (MESZ)
In diesem Fall ist das Dezimalpräfix richtig, wie man leicht nachrechnet. Binär ergeben sich 15,85 GiB/s. Der Unterschied ist erheblich und keinesfalls darf man unterstellen, bei Datenraten sei die falsche Verwendung "üblich". Ich plädiere ebenfalls für die saubere und präzise Unterscheidung, ob dezimale oder binäre Vielfache gemeint sind, das weiß der Schreiber i.d.R. am besten. --Raumfahrtingenieur (Diskussion) 14:54, 4. Jul. 2012 (CEST)
Ja, in der Regel sollte der Schreiber das schon wissen. :-) Aber wie bei jeder Regel, .. naja. ;-) Nein, Spaß beiseite, kann sein daß hier noch Einiges mißferständlich ist, was bei diesem Maßeinheitenkaos u.a. mit den genannten mißbrauchten SI-Präfixen (für binäre Fielfache) wohl auch kein Wunder ist (siehe auch der nun im Artikel dazu – leider noch unbeschriftet – genannte Beleg zum DDR-SDRAM (DDR1 / DDR2 / DDR3) – aus dem Elektronik-Kompendium). Am besten wäre es aber wohl, hier im Artikel dazu auch nochmal klar zu stellen, ob das da echte GByte (also zur Basis 10) oder falsche GByte (zur Basis 2) sind. Witzig dabei ist übrigens, daß im genannten Elektronik-Kompendium-Beleg die wohl eher unmißferständliche Maßeinheit zur Taktfrekwenz in der ersten Tabellen unnötig redundant in jeder Zeile mit einer Schnellhilfe (in Form fon MHz) erklärt wird (siehe dazu auch unter Taktsignal#Arbeitsgeschwindigkeit von Prozessoren, Zitat: „Sie wird in Hertz (Hz) angegeben.“), aber die – leider durch das in der Fergangenheit angerichtete Kaos – mißferständliche Maßeinheit zur „Speicher-Bandbreite“ dort wohl für selbstferständlich betrachtet wird. --92.225.55.191 19:10, 4. Jul. 2012 (MESZ)
Und ja, das Dezimalpräfix scheint dort mit MrBurns seinem Berechnungsweg tatsächlich richtig zu sein, habe die fehlerhafte Schnellhilfe dazu deswegen eben nochmal (nun hoffentlich wirklich richtig) korrigiert. (Der Rechenweg hin zum Binärformatwas ja eigentlich eine Mischung aus Binär- und Dezimalformat ist – ist mir nämlich gerade nicht so leicht nachfollziehbar wie dir anscheinlich – nur die Umrechnung fon diesem psoidobinär nach dezimal und zurück ist, dank Umrechnern wie [9], [10] oder [11]die aber leider auch alle noch die nebenbei bemerkt eigentlich älteren SI-Einheitenforsätze – wie bei diesen Fachloiten üblich – mißbrauchen, noch nachfollziehbar, aber das wäre ja nicht der Rechenweg der direkt zu diesem Binärfomat führt.) 92.231.185.105 10:50, 5. Jul. 2012 (MESZ)
Übrigens wäre es in den hier im Artikel dargestellten Tabellen auch besser, die unnötig redundanten Maßeinheitien aus jeder Zeile einmal in den Tabellenkopf zu schieben, wie das mit den gestrigen Änderungen (siehe auch [12]) schon einmal fersucht dann aber unnötigerweise fon dir auch einfach nur ohne Begründung und Sichtung zurückgesetzt wurde, als sei das nur ein Akt der Zerstörung gewesen (siehe auch for der Zusammenfassung, danach und deine unbegründete Zurücksetzung). Und wenn die genutzten Maßeinheiten nur einmal je Tabelle genannt werden, ließen sich diese auch einfacher (also einmal) erklären, ohne dabei wie jetzt extra nochmal jede Zeil anfassen zu müssen. --92.225.55.191 19:29, 4. Jul. 2012 (MESZ)

@Raumfahrtingenieur: du hats Recht, bei Datenraten sind Dezimalpräfixe richtig, ich hab mich vorher verschrieben. @IP: ich habe zurückgesetzt, weil das Ersetzen von GB/s durch Gbit/s falsch war, ich hatte keine Zeit, nur diesen teil derÄnderung rückgängig zu machen und den eventuellen legitimen Teil zu belassen. Und außerdem ists mir wurscht, ob die Einheiten in jeder Zeile extra stehen oder nur 1x und dafür in der Spaltenbeschreibung und ich weiß auch nicht, wie die Wikipedia-Richtlinien diesbezüglich ausschauen. Unter Hilfe:Tabellen und Hilfe:Tabellen für Fortgeschrittene steht darüber jedenfalls nichts. Und zu den Präfixen: es ist eben üblich, bei Arbeitsspeichergrößen GB als Binärpräfix zu verwenden und dass da die Dezimalpräfixe nicht gemeint sind, ist klar, und ich halte es für sinnlos, nur wegen einer neuen Norm ungebräuchliche Notationen zu verwenden, Normen sind nur Empfehlungen und nicht verpflichtend. Siehe Normung#Rechtscharakter. --MrBurns (Diskussion) 01:09, 5. Jul. 2012 (CEST)

Daß es zum Präfixkaos noch kein eigenes Wikipedia-Meinungsbild gibt dürfte dem interessierten (und geschlechtsnoitralem) Leser, der hier forrangig die Zielgruppe sein dürfte und der nicht unbedingt schon allwissend in die Artikel – eines allgemeinen und nicht nur eines IT-Spezial-Fach-Lexikons – schaut, in der Regel wohl auch sehr egal sein. Neben dem Ziel, den Leser möglichst richtig zu informieren – also ohne mißferständliche (Spezial-)Maßeinheiten (wie diese binären Fielfachen der Bitts und Baits als lästiges Überbleibsel aus der IT-Steinzeit, daß hoite besser in Geschichtsbüchern und Museen aufgehoben wäre) – sollten aber besser auch keine unnötigen Wiederholungen (Redundanzen) in die Artikel und diese zudem möglichst übersichtlich gestaltet sein. Die beste Lösung gegen das Einheitendurcheinander wäre also eigentlich, hier möglichst konsekwent die internationalen oder kurz SI-Einheiten oder wenigstens dessen Präfixe zu nutzen (wenn es noch keine SI-Maßeinheiten für Datenmengen gibt), wo immer das möglich ist, und dies dann auch zentral ein Mal (für jede Maßeinheit) festzulegen. Und was diese Das-ist-so-üblich-Leier immer wieder angeht, so war es auch mal üblich, daß beispielsweise Ketzer und Hexen auf einem Scheiterhaufen ferbrannt wurden. Wenn also immer nur damit argumentiert wird, ohne auf noie Argumente einzugehen, dann wären wir wohl immer noch dort wo die heilige Inkwisition IHRE Wahrheit mit allen Mitteln durchgesetzt hat und allgemeines freies Wissen – wie das der Wikipedia – hoite kaum denkbar. --92.224.249.40 08:48, 5. Jul. 2012 (MESZ)
Kannst du bitte das mit der anscheinend absichtlich falschen Rechtschreibung lassen? Dein letztes Kommentar war fast unleserlich. Ansonsten der Vergleich mit der Inquisition etc. ist natürlich Blödsinn, es wird keiner verbrannt, weil er GiB schreibt und es ist nicht die Aufgabe von Wikipedia, neue Theorien, Notationen, etc. zu verbreiten, sondern Wikipedia ist eine Enzyklopädie, soll also den Status quo des Wissens wiedergeben. --MrBurns (Diskussion) 15:15, 5. Jul. 2012 (CEST)
Das hat zwar mit dem Artikel hier nichts mehr zu tun, aber der F(V)ergleich mit der Inkw(qu)isition war natürlich etwas überzogen dargestellt und sollte auch nicht ganz so bitter ernst genommen werden, wie du das anscheinlich gemacht hast. Und was die angeblich absichtlich falsche Rechtschreibung angeht, so bemühe ich mich lediglich, in heimischer Lautschrift zu schreiben, weil das was gemeinhin als Rechtschreibung diktiert wird, in einigen Fällen leider eher einer gesellschaftlich betriebener Gehirnwäsche nahe kommt, als dem was tatsächlichem einmal unter richtig Schreiben gemeint war. --92.225.63.97 17:10, 5. Jul. 2012 (MESZ)
Mag sein, aber deine Lautschrift ist sehr schwer leserlich... --MrBurns (Diskussion) 17:15, 5. Jul. 2012 (CEST)
Ja, das ist leider wahr. Allerdings mußte die hoite übliche geschichtlich gewachsene Rechtschreibung auch erst geübt oder (unter Androhung fon Strafen, beispielsweise in Form fon Schulnoten, auch „Zensuren“ genannt) eindoktriniert werden, oder? :-) Und solange es Orte gibt, wo freies Schreiben fon freien Menschen nicht durch Zensur unterdrückt wird, werde ich mich mit jedem Wort und jeder Silbe gegen solche diktierten Recht.. oder – passender – Schlecht- – und etwas noitraler – Fremdschreibungen wehren. --92.225.63.97 17:37, 5. Jul. 2012 (MESZ) (MOSZ!)
Hier mal noch was zum achso tollen bestehenden Zustand (Status kwo), siehe [13]. Aber solange ein ganzer Wirtschaftszweig fon deratigen ABMs leben (oder wohl eher seine Kunden damit ferscheißern) kann, muß sowas natürlich auch so beibehalten werden. Ohman(n), mit was für einem sinnlosem Müll man als Informatiker seine Zeit ferplembert. Übrigens gab es dazu auch kürzlich erst in der Informatik-Redaktion, unter Die Sache mit KB und KiB, eine Diskussion. --92.225.56.183 22:58, 5. Jul. 2012 (MESZ)
Es war ja so, dass sich in den 1980ern eigentlich die 1024er-Notation schon ziemlich durchgesetzt hatte, aber dann kamen einige Festplattenhersteller auf die Idee, Dezimalpräfixe zu verwenden, wohl aus Marketinggründen (vergleich z.B. bei den Floppy Disks, die schon vorher verbreitet waren, ist 1kB = 1024 Bytes, die merkwürdige Notation mit 1,44MB = 1,44*1000*1024 Bytes kam erst später). Aber für mich ist jetzt bei diesem Thema EOD, weil wie schon gesagt, Wikipedia hat nicht die Aufgabe, irgendwas zu etablieren. --MrBurns (Diskussion) 23:17, 5. Jul. 2012 (CEST)
Übrigens Danke, daß du den wohl doch eher zweifelhaften (ganz oben genannten) Beleg (aus der Mäkk-Welt, siehe auch [14]) aus dem Artikel genommen hast. Naja, die Stärken der Mäkkloite liegen ja in der Regel auch eher beim Disain. ;-) --92.231.185.105 11:05, 5. Jul. 2012 (MESZ)

DDR4 Multichannel?

Im Abschnitt DDR4 Steht: "Bei Verwendung eines mehrkanaligen Speichersubsystems mit Dual-Channel-Technik verdoppelt sich die Transferrate entsprechend."
In der englischen Wiki steht aber: "It discards dual and triple channel approaches (used since the original first generation DDR) --178.198.132.206 13:18, 3. Jul. 2012 (CEST)

Man hat schon noch mehrere Channels, aber es ist jeder DIMM direkt and den Speichercontroller (also an die CPU) angebunden (Punkt-zu-Punkt-Verbindung), daher es ist technisch anders als bei DDR1/2/3, aber im Endeffekt ist es so, dass man bei 2 DIMMs generell die Dual-Channel hat, bei 3 DIMMs Triple-channel, usw. Also eine objektive Verbesserung im Vergleich zur Situation mit DDR1/2/3, wo man max. so veile Channels haben kann, wie der Chipsatz unterstützt, auch wenn mehr Slots vorhanden sind. --MrBurns (Diskussion) 14:02, 3. Jul. 2012 (CEST)

Versorgungsspannung

Im Abschnitt zu DDR2 steht "Zur Erhöhung der Taktraten und zur Senkung der elektrischen Leistungsaufnahme wurde die Signal- und Versorgungsspannung von DDR2-SDRAM auf 1,8 Volt verringert". Das ist falsch und missverständlich ("Warum nimmt man dann nicht gleich eine niedrigere Spannung?"). Eine Verringerung der Spannung führt grundsätzlich zu einer Verlangsamung von Ladevorgängen und damit zu einer Verringerung der maximalen Taktfrequenz (wenn man bei der Bestimmung der max. Frequenz die Erwärmung außer Acht lässt). Eine Verringerung der Spannung bei gleicher Taktfrequenz führt natürlich zu einer geringeren Leistungsaufnahme, was wiederum bei gegebener Wärmeabfuhr unter bestimmten Voraussetzungen (technologische Fortschritte bei den Speicherchips) zur Erhöhung der Frequenz genutzt werden kann. --217.237.185.168 10:58, 14. Aug. 2012 (CEST)

Ich habs umformuliert, so dass es technisch korrekt ist. --MrBurns (Diskussion) 13:51, 15. Okt. 2012 (CEST)

„Neuheit DDR3“

Anschnitt Abweichungen von der Spezifikation: „Aufgrund der Neuheit von DDR3 ...“ – das ist doch überholt, wenn bereits DDR4 in den Startlöchern steht? --Lowenthusio (Diskussion) 23:19, 21. Dez. 2012 (CET)

Stimmt, hab ich mal nachgeführt. --Raumfahrtingenieur (Diskussion) 11:06, 22. Dez. 2012 (CET)

"korrekt abgelegt"

Im Artikel steht über Module, die nicht standardkonforme Spezifikationen haben:

Solche Module arbeiten nur dann zufriedenstellend, wenn ihre Parameter korrekt abgelegt sind und vom System entsprechend eingestellt werden können.

Was ist mit "korrekt abgelegt" gemeint? Das die richtigen Werte im SPD stehen? Wenn dem so ist würde ich vorschlagen die Worte korrekt abgelegt sind und zu löschen, weil bei dem (im vergleich zu Stnadardspeicher) teuren Übertakerspeicher ist wohl zu erwarten, dass im SPD die korrekten Werte stehen (und selbst wenn nicht, kann man sie noch immer manuell im BIOS oder UEFI einstellen). --MrBurns (Diskussion) 19:44, 22. Dez. 2012 (CET)

Ja, ich habe das SPD gemeint - zumindest in der Vergangenheit gab es damit häufiger Probleme, auch bei "teurem Übertakterspeicher", und das manuelle Einstellen ist doch recht mühsam. Wir können das aber präzisieren, wenn Du magst, und ev. auch auf die Mischbestückung eingehen. Frohe Festtage! --Raumfahrtingenieur (Diskussion) 19:59, 22. Dez. 2012 (CET)
Zum Thema Mischbestückung: da wählt das BIOS üblicherweise die langsamsten SPD-Werte aus. Das einzige was mir bisher aufgefallen ist bezüglich SPD-Werte: ich hatte mal einen DDR2-Speicher mit den Latenzen 4-5-4-15, die wurden vom BIODS meines damaligen Mainboards Asus P5N32-E SLI als 4-5-5-15 erkannt. Aber das könnte auch daran liegen, dass das BIOS so programmiert ist, dass es für tRCD und TRP immer die selben Werte einstellt. Und bei DDR1 stellen viele Boards die Comamnd Rate immer wenn man die Auto-Einstellungen benutzt auf 2T, auch wenn der Speicher 1T unterstützt und das auch so im SPD gespeichert ist, aber das liegt daran, dass viele DDR1-Chipsätze wie z.B. der Nvidia nForce2 öfters Probleme mit 1T haben. --MrBurns (Diskussion) 20:28, 22. Dez. 2012 (CET)
PS: Wenn man Speicher verwendet, der zusätzliche Profile gespeichert hat (z.B. sog. "SLI ready memory"), muss das auch von Chipsatz und Mainboard unterstützt werden, sonst werden nur die Standardprofile ausgelesen. --MrBurns (Diskussion) 20:49, 22. Dez. 2012 (CET)

Rechnung korrekt?

"PC3-XXXX: Das XXXX berechnet sich durch (8 × Speichertakt [in MHz] × Busbreite eines Moduls)/8 und entspricht der Datenrate in MB/s. Die Busbreite eines Modules ist immer 64 Bit (= 8 Byte)"
Die Rechnung wäre demnach doch:
(8 * Speichertakt * Busbreite)/8 = Speichertakt * Busbreite (nicht signierter Beitrag von 79.233.84.51 (Diskussion) 15:28, 8. Feb. 2013 (CET))

Nein, in dem Fall muss man für die Busbreite die Bitzahl (64) einsetzen, also ist das Ergebnis 64 * Speichertakt * Busbreite/8 = 8 * Speichertakt * Busbreite. Allerdings ist das noch immer falsch, richtig wäre: 8 * I/O-Takt * Busbreite. Bei DDR3 gilt I/O-Takt = 4 * Speichertakt, also hätte man in dem Fall: 8 * 4 * Speichertakt * Busbreite = 32 * Speichertakt * Busbreite. Allerdings wird teilweise der I/O-Takt oder gar die Transfers pro Sekunde (=2x I/O-Takt, wegen DDR) fälschlicherweise (wohl aus Marketinggründen) als Speichertakt bezeichnet. z.B. "1600 MHz Speichertakt" kling halt viel besser als "200 MHz Speichertakt". PS: Im Artikel stehts aber schon richtig. --MrBurns (Diskussion) 13:52, 18. Feb. 2013 (CET)

Kompatibilität für alle?

Gilt der Abschnitt "Kompatibilität" (unterhalb von "DDR2") sinngemäß auch für "DDR3" usw.? Wenn ja, ist er an diese rStelle falsch eingeordnet; wenn nein, wäre ein klörender Hinweis bei DDR3 u. Co. angebracht ... --Hagman (Diskussion) 21:07, 13. Jun. 2013 (CEST)

Latenzzeiten im Vergleich

Ist das sicher das diese Formel richtig ist?

Die scheint sich nur auf das doppelte der einfachen Speicherlatenz zu beziehen. Die Nachfolgenden Zyklen tRCD und tRP sind bei manchen Modulen aber auch mal langsamer.

Es gibt z.B. DDR3-1866 Speicher mit den Timming CL9-9-9-24, es gibt aber welche mit CL9-10-9-28 und CL9-11-9-27 http://geizhals.at/eu/?cat=ramddr3&xf=254_1866~2216_DDR3~255_9

Die haben doch nicht mehr die gleiche absolute Latenz? --IrrtNie (Diskussion) 12:11, 14. Okt. 2013 (CEST)

Du verstehst da etwas falsch: Statt
Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle \text{Latenz} = \frac{2 \cdot \text{Timing}}{\text{effektive Taktfrequenz}} }
könnte man auch
Fehler beim Parsen (MathML mit SVG- oder PNG-Rückgriff (empfohlen für moderne Browser und Barrierefreiheitswerkzeuge): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „https://wikimedia.org/api/rest_v1/“:): {\displaystyle \text{Latenz} = \frac{\text{Timing}}{\text{Taktfrequenz}} }
schreiben. Dieser Wert gilt dann pro Timing, also nur für tCL, tRCD, tRP, tRAS oder welches Timing auch gemeint ist (es gibt mehr Timings als nur diese 4, die sind halt nur die wichtigsten). Die gesamte Zugriffszeit ist mindestens tRCD + tCL, oder anders ausgedrückt:
Also bei deinen Beispielen 36 Zyklen/1866 Mhz = 18 Zylken/933 Mhz ~ 19,3 ns bzw. 38 Zyklen/1866 Mhz = 19 Zyklen/933 Mhz ~ 20,4 ns bzw. 40 Zyklen/1866 Mhz = 20 Zyklen/933 Mhz ~ 21,4 ns. --MrBurns (Diskussion)
Ok danke, dann erlaube ich mir mal die letzte Formel so auch in den Artikel zu übernehmen, das war vorher nicht so klar. --IrrtNie (Diskussion)
Der aktuelle Text ist aber verwirrend, da die Werte unterhalb der Formel zwar nur für die einzelnen Timings (also z.B. nur für tCL) gelten, jedoch steht oberhalb der Formel: "Die Latenz lässt sich [...] wie folgt berechnen". --MrBurns (Diskussion) 17:38, 18. Okt. 2013 (CEST)
Wenn 2*CL+TRCD/Takt die absolute Latenz bzw. Zugriffszeit angibt, was soll dann überhaupt 2*CL/Takt sein? Durch die selten auch abweichenden TRCD Werte, bekommt man damit nur ein falsches Ergebnis, für die nebenstehende Tabelle. Ich hab den Satz mit den drei Bespielen erstmal entfernt.
Die Einleitung spricht ja auch nur, von der Leistung der Speichermodule gemessen in der „absoluten Latenz“ --IrrtNie (Diskussion) 18:22, 19. Okt. 2013 (CEST)
Die Formeln oben stimmen schon. man muss Takfrequenz und effektive Taktfrequenz unterscheiden. DDR-400 hat z.B. 400 MHz effektive Taktfrequenz, die Taktfrequenz ist jedoch nur 200 MHz. Wenn man jetzt z.B. für tCL den Wert 2 und für tRCD den Wert 3 hat, bekommt man für tCL 10 ns (2/200Mhz = 2*2/400MHz) und für tRCD 15 ns (3/200Mhz = 2*3/400MHz) und gesamt 25ns ((2+3)/200MHz bzw. 2*(2+3)/400MHz). Der Text im Artikel stimmt jetzt jedenfalls, die Beispiele waren mMn auch sinnvoll, nur müsste man sie dann eben anders formulieren. --MrBurns (Diskussion) 19:54, 19. Okt. 2013 (CEST)

DDR 4 Prefetch

Hi,

der x8 Prefetch bei DDR4 ist zwar korrekt, aber er ist es auch nicht:

The DDR4 architecture is an 8n prefetch with two or four selectable bank groups. This design will permit the DDR4 memory devices to have separate activation, read, write or refresh operations underway in each unique bank group. This concept will also improve overall memory efficiency and bandwidth, especially when small memory granularities are used.

Dort steht das es mehere gibt und diese flexibel verwendbar sind. Man kann also auch x16 nehmen, wenn man zwei zusammen schaltet. Gleichzeitig lesen und schreiben ist so moeglich, wenn beide Prefetchbuffer einzelnd genutzt werden. Optional kann der Prefetch halt halbiert werden. Das ist so im Artikel nicht beschrieben. Bei DDR4 ist es der Vorteil der Flexibilitaet, der spaeter das Performanceplus ergibt. Leider ist dieses Merkmal nicht im Artikel vorhanden.

Zu dem "Mythos der Langsamkeit von DDR2" moechte ich auch noch etwas hinzufuegen. Leider kannte ich damals, als ich den Text verfasste, noch eine Problematik nicht. Durch die Straps in der Northbridge einiger Chipsetze, deren FSB nicht mit dem Speichercontroller gekoppelt ist, kann es auf Grund zusaetzlicher Timings dazu kommen, das eigentlich schnellerer Speicher keinen Perfromanceanstieg mehr bringt, weil der Speichercontroller zusaetzliche Wartezyklen einlegt. x38 und der x48 von Intel litten darunter. Man konnte je nach Fertigungsqualitaet des Chipset (der x48 war wesentlich besser) den Speicher erst ausreizen, wenn man das TRD-Timing entsprechend anpasste. (nicht signierter Beitrag von 79.242.227.87 (Diskussion) 07:36, 28. Mai 2014 (CEST))

Ein DDR3-Modul.(?)

Bevor ich das erste Bild bei DDR3-SDRAM entferne möchte ich wenigstens noch sichergehen, dass ich keinen Knick in der Linse habe. Der Unterschrift „Die Kerbe befindet sich gegenüber DDR-2-Modulen deutlich näher am Rand“ widerspricht das Bild an sich, denn die untere Kerbe ist sehr mittig und die Seitenkerben sehen eher rund als eckig aus. Ist vielleicht nur der Heatspreader vom einem DDR3-Riegel, nicht aber der Speicher selbst? --Hadibe (Diskussion) 22:18, 27. Jun. 2014 (CEST)

Habs mal weggepustet, DDR2 Riegel mit fake DDR3 label. --Denniss (Diskussion) 00:33, 28. Jun. 2014 (CEST)
Danke, das jetzige Bild passt gleich viel besser. --Hadibe (Diskussion) 11:45, 28. Jun. 2014 (CEST)
Dieser Abschnitt kann archiviert werden. Hadibe (Diskussion) 11:45, 28. Jun. 2014 (CEST)

Spannung(Zeit)

Kann man jemand aufzeichnen, wie die die Spannung auf der Taktleitung von der Zeit abhängt. Darunter bitte zeichnen, wie sich die Spannung auf der Datenleitung von der Zeit abhängt. Das ganze zunächst für den Fall, dass im Speicher abwechselnd 0 und 1 drin steht. Damit man erkennt, dass bei gegebener Flankensteilheit DDR die natürliche Datenrate ist. --Arnero (Diskussion) 23:45, 7. Aug. 2014 (CEST)

Integrierte DDR4-Fehlerkorrektur

Offenbar spielen daher noch andere Faktoren eine Rolle, wie die in DDR4-Speichern neu integrierte Fehlerkorrektur, die sich nur an den technischen Daten nicht ablesen lassen und Benchmarks nicht entbehrlich machen.

Soweit ich weiß ist das falsch: bei DDR4 gibt es wie bei DDR1-3 ECC- und non-ECC-DIMMs. --MrBurns (Diskussion) 05:50, 31. Dez. 2014 (CET)

Latenz in Quadrat-Sekunden

Habe ich eine Leseschwäche ?

Die Tabellen der Latenzangaben enthalten Angaben in Sekunden. Die Formel für die Latenz = (tCL+tRCD)/Taktfrequenz liefert ein Ergebnis in Quadrat-Sekunden.

Was mache ich falsch? (nicht signierter Beitrag von 37.209.123.249 (Diskussion) 07:52, 1. Feb. 2015 (CET))

tCL und tRCD sind dimensionslos, weil damit nicht die absoluten Zeiten gemeint ist, sondern die Anzahl der Taktzyklen. --MrBurns (Diskussion) 15:38, 17. Feb. 2015 (CET)

Unnötige Umrechnung in Formel für Geschwindigkeit

"(8 × Speichertakt [in MHz] × Busbreite eines Moduls)/8" haben die beiden Achten einen speziellen sinn? --37.24.153.33 17:26, 26. Feb. 2015 (CET)

Die beiden achten haben verschiedene Ursachen und wurden daher der Klarheit wegen nicht rausgekürzt. Die erste 8 könnte man auch als 4 × 2 schreiben: I/O-Takt = 4 × Speichertakt, die 2 kommt von DDR. Die zweite 8 ergibt6 sich dadurch, dass ein Byte 8 Bits hat. --MrBurns (Diskussion) 22:42, 27. Feb. 2015 (CET)

Lesbarkeit

Da an anderer Stelle schon die Rede war von "Leuten, die keine Ahnung haben und die sich hier belesen wollen", erwähne ich das hier nicht noch einmal explizit: Die Lektüre des Textes wird unnötig durch Formulierungen wie "Damit das Double-Data-Rate-Verfahren zu einer Beschleunigung führt, muss die Anzahl zusammenhängend angeforderter Daten (= „Burst-Length“) immer gleich oder größer als die doppelte Busbreite sein." erschwert. Das ist eine Behauptung, deren Evidenz sich an keiner Stelle des Artikels zeigt. WARUM also "muss die Anzahl zusammenhängend angeforderter Daten (= „Burst-Length“) immer gleich oder größer als die doppelte Busbreite sein"? DIESE (und solche) Fragen sollten im Text immer beantwortet sein, denn sonst ist die Lektüre dieses Artikels ausschließlich ermüdend und frustrierend und in jedem Falle NICHT erhellend oder gar erkenntnisspendend, gerade für Leute, die - oh Überraschung - sich hier belesen wollen, um etwas zu verstehen. --2A02:2028:803:CA01:E5C5:A31B:9C10:B23C 15:13, 20. Jun. 2015 (CEST)

Die Burst-Length muss prinzipiell ein vielfaches der Busbreite sein. Wenn es sich aber nur um die einfache Busbreite (bei DDR-SDRAM 64 bit) handelt, bringts nichts, weil die Daten auch ohne Double Data Rate in einem Taktzyklus übertragen werden. Bei DDR kann jedoch auch die doppelte Busbreite (128 bit) noch in einem Taktzyklus übertragen werden. Die Antwortzeit ist natürlich länger als ein Taktzyklus, da bevor die Datenübertragung anfangen kann die Latenz anfällt. --MrBurns (Diskussion) 22:03, 20. Jun. 2015 (CEST)

Prefetch

Das mit dem Prefetch habe ich nicht verstanden. Wieso erhöht sich die Übertragungsgeschwindigkeit bei grösserem Prefetch? (nicht signierter Beitrag von 46.59.205.20 (Diskussion) 11:47, 14. Okt. 2016 (CEST))

Siehe Dynamic_Random_Access_Memory#Prefetch. Zu beachten ist dabei, dass schon bei 1x-Prefetch pro Taktzyklus 8 byte (= 64 bit) ausgegeben werden. Bei 8x-prefetch sind es dann 64 bytes pro Taktzyklus. Den Taktzyklus bezieht ich mich in dem Fall auf den Speichertakt, bezogen auf den I/O-Takt werden immer 16 byte pro Taktzyklus ausgegeben, dafür ist bei jeder DDR-SDRAM-Variante der I/O-Takt um den halben Prefetch-Faktor höher als der Speichertakt (um den halben da man die Verdoppelung schon durch DDR erreicht), also bei DDR1 gleich hoch, bei DDR2 doppelt so hoch und bei DDR3/4 4x so hoch. --MrBurns (Diskussion) 00:28, 15. Okt. 2016 (CEST)
PS: für den 2x-Prefetch reicht wie gesagt DDR, für den 4x/8x-Prefetch braucht man einen I/O-Puffer, der ausreichend groß für die jeweilige maximale Burstlänge ist. --MrBurns (Diskussion) 00:31, 15. Okt. 2016 (CEST)

FBGA?

Auf dieser Seite steht "FBGA (Fine-Pitch Ball Grid Array)", auf der unter FBGA verlinkten jedoch "FBGA – Fine Line BGA". Wie heißt es ausgeschrieben? Gibt es Quellen dafür?--(nicht signierter Beitrag von 217.89.105.52 (Diskussion) 15:52, 13. Aug. 2017 (CEST))

Grundsätzlich erst mal weder "Fine Pitch BGA" noch "Fine LIne BGA" sondern schlicht "Fine BGA". Allerdings hat der US-Amerikanische JEDEC-Standard inzwischen den Begriff "Fine Pitch Ball Grid Array" normiert (Design Requirements - Fine Pitch Ball Grid Array Package (FBGA) DR-4.27D, betrifft ca 300 Mitglieder des JEDEC) und "Fine Line BGA" ist so eine Art "Hausmarke" beim Hersteller, der Intel-Tochter Altera. Habe das bei FBGA-Artikel mal entsprechend korrigiert--Ciao • Bestoernesto 06:11, 16. Aug. 2017 (CEST)