Diskussion:Supercomputer

aus Wikipedia, der freien Enzyklopädie

Parallelrechner

"Da sich nicht beliebig schnelle Prozessoren bauen lassen, sind alle Hochleistungsrechner Parallelrechner." - stimmt so nicht, trifft zB nicht auf die Cray 1 und andere ältere Supercomputer zu. Ist aber bei neueren Systemen korrekt.

FLOPS

Im Artikel "FLOPS" steht bzgl. der FLOPS eines Heimcomputers "Ein normaler PC mit einem Pentium-4-Prozessor bei einer Taktfrequenz von 3 Gigahertz kann nach Angaben von IBM etwa 6 GigaFLOPS ausführen." Wollte nur darauf hinweisen. edit: im Linpack Artikel werden für einen p4 3ghz sogar nur 0,3 bzw 3,0 GigaFLOPS angegeben --212.202.6.33 19:46, 5. Dez 2004 (CET)goedle

Neuer Supercomputer

Ein neuer Supercomputer am amerikanischen Lawrence Livermore National Laboratory (LLNL) auf Basis von IBMs Blue-Gene-Reihe soll mehr als die doppelte Leistung des aktuell Führenden der Supercomputer-TOP-500-Liste zur Verfügung stellen. Insgesamt 65.536 PowerPC-440-Prozessoren sollen eine Rechenleistung von 280,6 Teraflops erbringen -- der bisher schnellste, ebenfalls am LLNL stehende Supercomputer, bringt es "nur" auf 136,8 Teraflops beim Linpack-Benchmark; der bisherige zweitplazierte auf 91,3 Teraflops. Bei beiden handelt es sich ebenfalls um Blue-Gene-Systeme von IBM. SGI ist bisher mit einem 51,8 Teraflops schnellen Altix-System mit Itanium-Prozessoren dritter. Anzeige

Die amerikanischen National Nuclear Security Administration (NNSA) will das neue System zusammen mit einem weiteren, ASC Purple genannten Supercomputer für Atomwaffensimulationen einsetzen. Beide Systeme kosten zusammen zirka 290 Millionen US-Dollar. Der ACP Purple besteht aus konventionellen IBM-Servern und leistet mit über 12.000 Power5-Prozessoren zirka hundert Teraflops. quelle : http://www.heise.de/newsticker/meldung/65551

Performance des JUBL

Seit der Jülicher BlueGene/L gestartet ist, wurden hier mehrfach eine Performance von 46 TFLOPS vermerkt. Wahrscheinlich hauptsächlich durch die damalige Pressemeldung.

Die 46 TFLOPS sind allerdings der Spitzenwert (Rpeak), kein realer Linpackwert (Rmax). Zwar kann man sich über synthetischen Werte des Linpack streiten, aber dennoch bietet er eine gemeinsame Basis, die bisher auch für alle anderen gelisteten Maschinen gilt (und auch für das Ranking der TOP500 herangezogen wird).

Ich habe deshalb schon mehrfach wieder die momentanen 36,49 TFLOPS eingetragen. Quelle ist hier die Webpage des FZJ selbst. Weiterhin skalieren die BlueGene gut erlaubt den Schluß von der Performance anderer BlueGene-Installationen mit anderer Prozessorzahl auf die JUBL-Performance. So ergeben sich ausgehend vom BlueGene/L 280,6 / 131.072 * 16.384 = 35,075 TFLOPS. 46 TFLOPS sind hier einfach zuviel, auch wenn dieser Wert dem heutigen Änderungskommentar nach in der Microsoft Encarta Enzyklopädie 2006 als Linpack-Wert angegeben sind.

Das nur als Anmerkung, die vielleicht zukünftigen Änderungen vorbeugt. --jailbird 20:57, 11. Apr 2006 (CEST)

Geschichte der Erstplazierten - Bester Computer seiner Zeit

Mich würde eine Aufstellung der Erstplazierten im laufe der Zeit interessieren, also von Zuse, über Deep Blue bis heute. Weis da jemand was? Also eine Liste der besten Computer ihrer Zeit. --Chrisqwq 17:37, 13. Jul 2006 (CEST)

Aktualisierung der Liste im Juni 2006

Laut den Versionskommentaren wurde die Liste aktualisiert, einzelne Werte wurden auch geändert, aber es fehlt die Hälfte und die Platzierungen passen nicht: http://www.top500.org/lists/2006/06 wär nett, wenn sich ein Freiwillger findet der das nachträgt ;-) --fubar 01:54, 20. Jul 2006 (CEST)

Ich kann Dir leider nicht ganz folgen. Welche Hälfte fehlt und welche Platzierungen passen nicht? Ich bin die Auflistung im Artikel gerade nochmal durchgegangen und habe sie mit der TOP500 verglichen. Wenn Du meinst, es fehlen Rechner aus den Top 10, dann liegt das wahrscheinlich daran, daß die Liste im Artikel Ausgewählte Supercomputer enthält, was die Überschrift schon sagt. Das ist zwar eher willkürlich und meines erachtens schon zu viel, aber das ist eine andere Geschichte.
Ja, das "Ausgewählte" habe ich jetzt in der Überschrift des Übergeordneten Abschnitts gefunden, dies Liste hat halt nun mal den Eindruck gemacht, dass es die Liste der schnellsten Rechner wäre. Vielleicht sollte man die aktuellen Platzierungen dazu schreiben, damit klar wird, dass eben die Plätze eins bis vier aufgeführt sind, Platz fünf, sechs und sieben nicht, acht aber schon, neun wieder nicht, dafür aber Platz zehn usw.--fubar 16:25, 20. Jul 2006 (CEST)
Nebenbei wäre ein Hinweis nett, was Dir an den 37,33 TFlops des JUBL in den jeweiligen Artikeln (Forschungszentrum Jülich bzw. JUBL) nicht gefällt, dankbar. --jailbird 14:10, 20. Jul 2006 (CEST)
Da hab ich leider einen Typo von http://www.heise.de/newsticker/meldung/74792 abgemalt, sorry. --fubar 16:25, 20. Jul 2006 (CEST)
Ich bin dafür, lieber ein paar System rauszunehmen (wie Blue Gene Watson, ASCI Purple, Columbia und ASCI Q) und ein paar ältere, markante Systeme reinzunehmen um die Entwicklung zu demonstrieren. Es sollte uns hier (und auch - wie ich in der dortigen Diskussion schon anmerkte - in TOP500) nicht darum gehen, die TOP500-Liste zu kopieren. Sondern darum, den Begriff Supercomputer zu illustrieren. Dazu zählen für mich Systeme wie das weltweit schnellste, das schnellste Europas/Deutschlands und so bekannte wie den World Simulator, aber eben auch ältere, früher führende mit illustren Namen wie Cray. --jailbird 16:45, 21. Jul 2006 (CEST)
OK, dann sollte aber auch das fette (Stand 2006) aus dem Titel raus. Dann könnte man ja noch etwas auf die ASCI-Familie eingehen, ASCI White, ASCI Red, die gibts zwar noch nicht, sind aber zur Not schnell aus den englischen en:ASCI White, en:ASCI Red zusammengeschrieben und waren IMHO auch eindrucksvolle Systeme. --fubar 20:31, 21. Jul 2006 (CEST)

Definition /ab wann

Im Text steht was von 1970er Jahre. Die Tabelle und Grafik sprechen gründsätzlich (ab 1906) von Supercomputern, in der en.WP steht, das Verb gibt es erst seit 1929. Was denn jetzt? Übrigens war der OPS-Link falsch. Problematisch sind auch die Kategorien der einzelnen Modelle. --Kungfuman 17:31, 18. Sep 2006 (CEST)

Rechenleistung des Darmstädter Systems

In der aktuellen TOP500 finde ich den Darmstädter Rechner mit einem RMAX von 2052.96, bei einem Peak von 3648. Das ist der einzige LINPACK wert den ich finden konnte - auch auf der Page http://www.tu-darmstadt.de/hrz/hhlr/ finde ich nix weiteres. Zudem ist das System mitlerweile heterogen. Also wird da wohl kaum ein LINPACK auf der ganzen Kiste laufen. Bitte korrigieren!

G5- bzw. Playstation-2-Cluster

Ich möchte mich nicht übermäßig in den Artikel einmischen, aber hätten Playstation-2- und G5-Cluster in diesem Artikel ein gewisses Bleiberecht? Immerhin sind Cluster dieser Art recht preisgünstig und haben doch schon einiges an Rechenleistung. Das hier ist nicht mein sonderliches Spezialgebiet, also frage ich ganz artig. Verwüstung 23:58, 26. Dez. 2006 (CET)

Wieso werden hier Konrad Zuse's Rechner nicht aufgeführt? Gab's zu der Zeit andere "Supercomputer" die man hier aufführen könnte?

Ich kann gar nicht verstehen, wieso jemand der so eine Liste recherchiert und sogar IBM als Computerpionier der ersten Tage, nennt(die spielten, nach meiner Kenntnis, bisher erst immer in späteren Jahren ein Rolle!!!) vergißt, Konrad Zuse's Rechner zu erwähnen?? Man kann ja hin- und her diskutieren, wieso man Zuse außen vor läßt und in dieses Jahrzehnt lieber IBM hinschreibt (bin nicht davon überzeugt, dass die dort hingehören!), aber wieso ist man dann wiederrum so tolerant und setzt als ältesten "Computer" ein englisches Theoretikum an die älteste Plazierung und berechnet sogar noch Flops für einen Rechner der niemals gebaut wurde. Das geht mir eindeutig zu weit! Rechner die es nie gab, sollte man als solche auch eindeutig kennzeichnen, wenn man schon Vergleiche anstellt. Mir scheint das hier wie Meinungsmache, die nichts mit den Tatsachen zu tun hat.

Sehr schön findet man das übrigens in dem norwegischen Wikipediaartikel: "Superdatamaskin" (wobei dort auch dieses englische Theoretikum, ungekennzeichnet! zu finden ist).

H.Radke, Pleidelsheim

Zuse war definitiv ein Pionier und hat den ersten "richtigen" Computer gebaut, aber mit Supercomputern hatte das nichts zu tun, zu der Zeit gab es eigentlich gar keine Klassifizierung der Computer, man war eher froh überhaupt einen zu haben. Sinn macht so eine Klassifizierung je erst, wenn man Systeme hat, die sich signifikant voneinander unterscheiden, im Falle der Supercomputer halt in der Leistung. --TheBug 16:25, 19. Nov. 2007 (CET)

Liste ist nicht mehr aktuell

Hallo,

die Listen sind nicht mehr aktuell. Der Rechner in der nähe von Barcelona hat ca. 63 T. Flopps. Bitte akuallisieren.

13,1 TFlops und damit nr. 3 (?) in dtl : http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/zih/dienste/rechner_und_arbeitsplatzsysteme/hochleistungsrechner

Botnetz

Zur Zeit soll ein Botnetz der größte Supercomputer der Welt sein: http://seclists.org/fulldisclosure/2007/Aug/0520.html
Da ich aber die Definition nicht so gut kenne, link ich das erstmal hier. --Versusray | Diskutiere mich | Bewerte Mich 21:43, 8. Sep. 2007 (CEST)

Speicherzugriff bei Supercomputern

Mir ist zum Thema Speicher / Peripherie folgender Satz aufgefallen: „Im Vergleich zu einem Supercomputer besitzen die Knoten in einem Cluster eigene Peripherie und ausschließlich einen eigenen, lokalen Hauptspeicher.“ Ganz so sollte man es nicht formulieren. Die Unterschiede gibt es doch vielmehr beim Speicherzugriff: Bei einem Verktorrechner können alle Prozessoren gleich schnell auf den gesamten Speicher zugreifen. Vorschlag: Bei einem Cluster können ebenfalls alle Prozessoren auf den gesamten Speicher zugreifen. Der Zugriff auf den lokalen Speicher erfolgt lediglich schneller. Das wirkt sich auf die Geschwindigkeit aus, mit der Aufgaben gelöst werden.

(ruth2407 - 12.11.2007)

Definition "Supercomputer" von IBM

In der aktuellen Ausgabe 23 der Fachzeitschrift "Elektronik", wir im Artikel über Supercomputer auf Seite 44ff, darauf hingewiesen, das IBM mit der Definition eines Supercomputers in der Wiki, "die nur die Schnelligkeit herausstellt" nicht zufrieden ist. IBM definiert für Supercomputer durch das "beste Verhältnis zwischen Rechenleistung und Energieverbrauch bei einem vorgegebenen Anwendungsfeld". Gruß --JoBa2282 14:47, 19. Nov. 2007 (CET)

IBM sieht ja auch die Geschichte des Supercomputers erst in den 1980ern beginnen. Jedem seinen POV, hier sollte das Marketinggesülze vielleicht zitiert, aber nicht als korrekt dargestellt werden. TheBug 16:22, 19. Nov. 2007 (CET)

Das war meine Absicht. Sonst wäre ein Eintrag im Artikel und nicht in der Diskussion erfolgt. ;) Grüße --JoBa2282 16:30, 19. Nov. 2007 (CET)

Eine Definition in Bezug auf das Anwendungsfeld ist aber schon sinnvoll: Beispielsweise lässt sich die spezifische Anwendungswperformance im Verhältnis zur absoluten Spitzenperformance betrachten. Ein niedriger Energieverbrauch gewinnt natürlich mit steigenden Energiekosten an Bedeutung.

21. Nov. 2007 (ruth2407)

Petaflop(s)

Sind Petaflops nicht mittlerweile erwähnenswert? Siehe z.B. [1] oder [2]. --85.176.169.114 16:00, 8. Dez. 2007 (CET)

EditWar Top 10

Kinder, jetzt einigt euch mal und macht hier nicht laufend einen Revert! Fakt ist, dass laut WP:WWNI Punkt 8 die Wiki nicht für aktuelle Berichterstattung gedacht ist, andererseits soll die Wiki aktuell gehalten werden (vgl. Wikipedia:Wikipedistik/Vergleiche/Stern_2007). Ich bin dafür, dass die Top 10 bestehen bleibt! Egal ob behalten, oder nicht: Hört mit den permanenten EditWar auf! Gruß --JoBa2282 10:32, 10. Dez. 2007 (CET)

Die Top 10 ist eine Information mit von beginn an begrenzter Haltbarkeit. In einer Enzyklopädie sollten nur Informationen stehen, bei denen das nicht der Fall ist. Aktuell halten: Ja. Aber nicht in dem Sinn, dass man Informationen einträgt, von denen man zu diesem Zeitpunkt schon weiß, dass sie bald nicht mehr aktuell sind. Ich bin dafür, den Artikel noch viel radikaler zu kürzen und überhaupt alle Tabellen rauszunehmen. Das ist unbrauchbarer Faktenfetischismus, der nichts tut als die inhaltliche Ärmlichkeit des Artikels zu übertünchen. Etwas nachhaltiges, wie z.B. eine Geschichte der Supercomputer, fehlt völlig. --rtc 11:57, 10. Dez. 2007 (CET)
Der Hauptsinn der "Keine Nachrichten"-Regel ist meiner Meinung nach, dass a) die Relevanz aktueller Geschehnisse noch nicht eingeordnet werden kann, und b) niemand aktuelle Entwicklungen voraussagen kann, also weiß, ob sich die Situation morgen schon wieder komplett gedreht hat. Die Top500-Liste erscheint dagegen genau zwei Mal im Jahr, da ändert sich am Tag später nix mehr, und es ist einfach eine Art Rangliste, so wie Meisterschaften im Sport z.B. ja ebenso erwähnt werden - die Relevanz ist von vorneherein klar.
Ich bin also für die Liste, allerdings sollte darüber nachdenken, sie von hier gleich in den TOP500-Artikel auszulagern. Und dort meinetwegen mit Gedächtnis, also auch ältere Top500-Listen, dann fällt das Haltbarkeitsargument weg (meiner Ansicht nach). --YMS 12:02, 10. Dez. 2007 (CET)
Dadurch daß die beiden oberen Listen ja Auswahlen darstellen, veralten sie nicht oder nur selten (wenn einer auf einem unteren Rang aufgerüstet wird). Wenn die Bearbeiter sie also richtig verstehen, hat das nichts von Berichterstattung. Ich bin trotzdem dafür, die rauszunehmen, die "Die schnellsten Supercomputer ihrer Zeit" sollten aber bleiben, wenn auch vielleicht etwas ausgedünnt werden.
Die Top 10 der TOP500 im dortigen Artikel zu duplizieren halte ich allerdings auch für überflüssig. Die aktuelle Liste auf top500.org ist ja über einen Link schnell abrufbar. --jailbird 12:30, 10. Dez. 2007 (CET)
Verschiebung in die TOP500 würde ich als Kompromiss gut finden. Vielleicht schreibt rtc sogar was zur Geschichte der SupiPuter. Dragan 13:28, 10. Dez. 2007 (CET)

Aktualisierung

Hab grad durch Zufall gesehen das es neue Zahlen des Platz 1 gibt (seit nov 07). Auf 478.2 TFlop/s geändert.
"The new No. 1 system is a significantly enlarged version of the previous No. 1 - the DOE's IBM BlueGene/L system, installed at DOE's Lawrence Livermore National Laboratory (LLNL) with a Linpack performance of now 478.2 TFlop/s compared to 280.6 TFlop/s six months ago before its upgrade."
Quelle: http://www.top500.org/lists/2007/11/highlights/top10

Ich seh grad da da noch viel mehr geändert werden muss... laut dieser Seite gibt es tatsächlich noch mehr Neuerungen, z.b. Platz 3 Vielleicht sollte jemand mal wieder die ganze Liste korregieren...

Scusy

Bei den meisten Systemen ändert sich ja nichts, der BG/L am LLNL ist da eine der Ausnahmen. Da habe ich gerade nochmal nachaktualisiert. Anonsten ist das im Artikel ja keine Rangliste – dafür gibt es ja die TOP500 – sondern eine Auswahl, oder was meinst Du mit „Platz 3“? Der Artikel der nachgeführt werden muß und auch wird, ist TOP500, allerdings nur jeweils bei Veröffentlichung einer neuen Ausgabe, auch wenn sich dazwischen was tut. --jailbird 18:58, 29. Feb. 2008 (CET)

sieht mir nach werbung aus

Nvidia gibt die Leistung seines "Tesla S870 GPU Servers" mit mehr als 4x500 GFLOPS an. Der Server kostet ca. 8500€ (Stand 02/2008) und nimmt 1 Höheneinheit im Rack ein. Jede der 4 GPUs hat 102 Parallelprozessoren. Die GPUS wurden bisher vor allem in High End Grafikkarten für Videospiele verwendet. Eine einzelne, ähnliche GPU in Form einer Grafikkarte kostet unter 200€

Ist Werbung --> und weg damit --Angie 23:52, 30. Sep. 2008 (CEST)

BOINC

Sollte man nicht erwähnen, dass Berkeley Open Infrastructure for Network Computing (BOINC) mittlerweile auf über 2,5 Petaflops kommt (und damit das zweieinhalb-fache des IBM Roadrunners)? --Bender235 12:50, 20. Jul. 2009 (CEST)

Ich wüsste nicht, was dagegen spräche, vorausgesetzt die Angabe kann belegt werden.--Wilske 16:35, 20. Jul. 2009 (CEST)
boinc.berkeley.edu ist die Quelle für die Angabe. Allerdings schwankt der FLOPS-Wert täglich. --Bender235 15:10, 22. Jul. 2009 (CEST)

Arbeitsspeicher ?

Bei den meisten hier aufgeführten Supercomputern findet man nur die Rechenleistung (in Flops), die Größe des RAM wird allerdings meistens weggelassen.
In der historischen Liste im unteren Teil des Artikels fehlen die Angabe über den Hauptspeicher sogar völlig. Dabei ist es doch gerade besonders interessant, wieviel Speicher man damals zur Verfügung hatte. Kann nicht mal jemand die Informationen über den Speicher einpflegen? -- 217.93.88.53 02:59, 25. Jul. 2009 (CEST)

Historische Supercomputer

Also der ersterwähnte Supercomputer wurde nach Wikipedia (sein eigener Artikel) gar nicht gebaut, sondern war lediglich ein Konzept. Einige der danachfolgenden IBMs erfüllen die Kriterien eines Computers nicht mehr als meine ererbte Rechenmaschine (Operationen pro Sekunde je nachdem, wie schnell man kurbelt) 78.52.228.0 01:59, 11. Dez. 2009 (CET)

Liste ist nicht aktuell und z.T. falsch(Cray XT5 (Jaguar)) -- 15:59, 6. Juni 2010 (ohne Benutzername signierter Beitrag von 80.187.106.11 (Diskussion) )

Meine Vorredner haben recht. Die Liste der Supercomputer im Artikel ist so nicht korrekt. Ich würde sie im ersten Schritt gern bzgl. der Eigenschaft "Computer", so wie sie im Artikel Computer beschrieben ist, bereinigen: Also nur tatsächlich gebaute Maschinen, die "universell" programmierbar sind. Der erste Computer Z3 wäre demnach auch der erste Supercomputer.
Mit der Bitte um weitere Meinungen ... freundliche Grüße --DutiesAtHand (Diskussion) 10:24, 1. Mai 2012 (CEST)

1 Peta-FLOPS (10^15 FLOPS)

selbst als Ingenieur muss ich bei den großen Zahlenvorsätzen wie Tera, Peta, Exa nachdenken, wie viel das eigenlich ist, deshalb sollte hier noch die entsprechende Zehnerpotenz angeführt werden. z.B. ...entspricht 1 PFLOPS, 1 Peta-FLOPS (10^15 FLOPS) -- 92.116.26.107 15:59, 16. Feb. 2011 (CET)

Neuer Superrechner

IBM plant derzeit den Bau des Supercomputer Sequoia mit einer Rechenleistung von 20 Petaflops für das US- Energieminsterium. Einsatzstart des Rechnemonsters ist das Jahr 2012 vorgesehen. Quelle: http://www.ibm.com/news/de/de/2009/02/03/y307620j16669s50.html -- Fiver, der Hellseher 23:27, 20. Jun. 2011 (CEST)

Soll man den Energieverbrauch auch in der Tabelle erwähnen. Wenn ja kein Problem. -- Fiver, der Hellseher 22:19, 5. Jan. 2012 (CET)

Energieverbrauch

Soll man auch Angaben zum Energieverbrauch der Supercomputer mit in die Tabelle aufnehmen? Wenn ja kurze Info reicht aus. Danke. --Fiver, der Hellseher (Diskussion) 14:28, 31. Okt. 2012 (CET)
Bin dafür! - Gruß --DrLee (Diskussion) 17:36, 31. Okt. 2012 (CET)
PS: Wenn Du schon beim editieren bist, füge vielleicht noch den hier ein: http://www.heise.de/newsticker/meldung/Supercomputer-Titan-startet-1738107.html -- Grüße --DrLee (Diskussion) 17:45, 31. Okt. 2012 (CET)
Angaben zum Energieverbrauch wurden bei einigen Modellen wo Angaben verfügbar sind ergänzt. --Fiver, der Hellseher (Diskussion) 18:23, 18. Jun. 2013 (CEST)

Tianhe-2

Wer Informationen braucht, um den Tianhe-2 Artikel zu schreiben:

Trip Report to China and Tianhe-2 Supercomputer, June 3, 2013

--DrLee (Diskussion) 14:49, 17. Jun. 2013 (CEST)

Tianhe-2 RAM?

In der Liste steht, dass der Tianhe-2 12,4 PB RAM hat, im Artikel über den Tianhe-2 steht, dass er 12,4 PB Speicherplatz und 1.375 TiB RAM hat. Was stimmt denn nun?

--84.113.89.254 (23:32, 2. Jul 2013 (CEST), Datum/Uhrzeit nachträglich eingefügt, siehe Hilfe:Signatur)

1,4PB, gefixed. --DrLee (Diskussion) 16:14, 3. Jul. 2013 (CEST)

HLRN

Kann jemand die Daten des HLRN II an den HLRN III anpassen siehe Regionales Rechenzentrum für Niedersachsen und Norddeutscher Verbund für Hoch- und Höchstleistungsrechnen? --AxelHH (Diskussion) 01:20, 18. Jan. 2014 (CET)

Anregung zu Vergleiche

Interessant erschiene mir noch einen Supercomputer oder die Summe der Top100 oder so mit der summierten Rechenleistung von Computern 1. in Betrieben, 2. bei Privaten und 3. in Mobiltelefonen (oder allen Touchscreen-Geräten), sowie 4. In Geräten in Privathand (Automobil, Waschmaschine, Haustechnik, Kameras) zu vergleichen.

Ebenso die durchschnittliche Auslastung. Schätze: Supercomputer bei 30...70 % der Rechenleistung (?), Netzwerkrechner in Firmen zeitlich 50 % / Rechenleistung 5 %, Kamera eines Wenig-Nutzers zeitlich < 1 % ... --Helium4 (Diskussion) 10:55, 24. Jun. 2015 (CEST)

Vectorrechner

Supercomputer sind (wie auch heutzutage jeder Billig-PC) Vektorrechner.

Das ist doch kompletter Unsinn, DEC hat mit seinem Alpha begonnen, Vectorengines in seine Prozessoren einzubauen und im Laufe der Jahrzehnte haben auch AMD und Intel damit angefangen, aber prinzipiell sind CPUs arithmetische Recheneinheiten, die binär addieren und die Fliesskommaoperatoren und Vectoreinheiten unterstützen sie dabei, komplexere mathematische Tüfteleien in kürzerer Zeit zu einem Ergebnis zu bringen.

Moderne Prozessoren sind eigentlich eine Kombination aus verschiedenen Lösungsansätzen. Ein Intel bleibt auf jeden Fall eine CISC und daraus wird auch durch die Unterstüztung nicht plötzlich ein reiner Vectorprocessor.

Lese gerne auch https://de.wikipedia.org/wiki/Vektorprozessor dann siehst Du. x86 sind serial- oder stack-processoren, die in beliebigen Szenarien eingesezt werden wollen.

Ich habe geglaubt, ich werde nicht mehr, als ich gelesen habe Satz: Supercomputer sind (wie auch heutzutage jeder Billig-PC) Vektorrechner. Bitte schnellstens korrigieren, ist lachhaft.

Ausserdem sind doch nicht alle Supercomputer Vectorrechner, das ist doch vollkommen lächerlich, der Satz gehört ersatzlos geschtichen, zeugt doch von null Kompetenz. Fürchterliche Aussage.

Auch ist es unsinnig, auszusagen, dass Vectorrechner einen oder wenige Prozessoren haben und CISC/RISC basierende Rechner viele Prozessoren verwenden. Auch Vectorrchner können ihre Abläufe auf zahllose Prozessoren verteilen und es obliegt dem Programmierer, ihnen dies zu ermöglichen.

Bitte den ganzen Artikel neu schreiben, in der aktuellen Formulierung viel zu viele missverständliche Darlegungen und unsinnige Auslegungen.

Und bevor Leistungen der Cray1 ins Lächerliche gezogen werden, bitte erst erklären, welche Leistungen damals üblich waren, womit die Cray1 überzeugen konnte und wo sie überall eingesetzt wurde. Vergleiche mit einem Grafikchip, der rein vectorbasierend ist, hier bitte gänzlich zu unterlassen, wenn er bei der Anzahl der Additionen selbst 40 Jahre später kaum mithalten kann.

Auch die Vormulierung im Bereich Einsatzzweck lässt sehr zu wünschen übrig. So suggeriert der Artikel, dass Supercomputer Optionen für die Gegenmaßnahmen gegen Atombomben errechnen, was absolut lachhaft ist, gegen Atombomben gibt es keine Gegenmaßnahmen.

Also in Summe bitte etwas weniger Euphorie für tolle nvidia oder Intel Chips und etwas realistischere Darstellung der Position der Supercomputer allgemein. nvidia hat nämlich in der Supercomputerbranche praktisch überhaupt keine Bedeutung und Intel ist eine Kompromisslösung, die zwar Energieverbrauchstechnisch sehr ungünstig ist aber im Preis und verfügbare Anzahl Vorteile bringt. Es werden also in heutigen Supercomputern Schrottprozessoren eingesetzt, ganz einfach weil sie billig sind. Und Intel sind heute Schrottprozessoren. Der Energieverbrauch ist gigantisch und nur noch mit eigenen Kraftwerken abzudecken. Man wäge hier zwischen Anschaffungspreis und laufenden Kosten ab. Bei den laufenden Kosten verliert der Stromfresser Intel in jedem Fall.

Hat sich schon mal jemand über den vollkommen schwachsinnigen Satz: "Damit laufen 92,4 % der Systeme vollständig und 94,6 % zumindest teilweise unter Linux." bei Bewusstsein durchgelesen? Nur mal der Versuch 92,4 und 94,6 zu addieren bringt einem sofort auf mehr als 100. Sonderschüler, die Prozentrechnung wohl erst in der Oberstufe zu hören bekommen, wissen, dass das nicht möglich ist. Bitte dringend einen einwöchigen Buchhaltungskurs besuchen und danach die Prozente neu verteilen. Ein System läuft entweder vollständig oder teilweise unter Linux, wobei ich mir nur sehr schwer vorstellen kann, was ein System tuen muss, um teilweise auf Linux zu laufen, ev. einem Emulator?

Bitte zu versuchen, 90% des Schwachsinnes aus der Seite zu entfernen und versuchen 10% mehr Tatsachen reinzuschreiben. Würde mich erfreuen.

Ist überhaupt schon mal irgendeine der hier gemachten Aussagen überprüft worden? zB.: soll der IBM Roadrunner mit nur 6000 AMD Prozessoren 1,1 Peta rechnen, wärend der Dawning Nebulae für 1,2 Peta zwar mit 55ooo Intel und 65ooo Tesla Processoren 100x so viele Processoren aber nur die hälfte der Energie verbrauchen? Nicht einmal ein Nasenbohrer würde das glauben. Schon mal die Idee, dass Intel 10x soviele Prozessoren braucht, um die gleiche Rechenleistung wie AMD zu schaffen, ist absurd, und dass Intel mit der 10fachen Prozessoranzahl nur die hälfte der Energie verbrauchen sollte, ist absolut lachhaft. Die Realität sollte wohl in beiden Fällen das genaue Gegenteil sein. Bei der gleichen Zuverlässigkeit gewinnt wohl AMD, bei der gelichen Rechenleistung wohl Intel und beim Energieverbrauch wieder AMD. (nicht signierter Beitrag von 62.212.161.198 (Diskussion) 02:12, 30. Jul 2015 (CEST))

Zitat: "Vergleiche mit einem Grafikchip, der rein vectorbasierend ist, hier bitte gänzlich zu unterlassen, wenn er bei der Anzahl der Additionen selbst 40 Jahre später kaum mithalten kann." Dann erkläre mal bitte, warum genau das Hacker machen, Grafikkarten (notfalls parallel) rechnen zu lassen, wenn dies als Rechenleistung so nicht allzuviel taugt? Sind die Berechnungen, die "komplette Rechner" vornehmen können, für GraKa´s nicht geeignet? --31.17.254.227 13:42, 18. Apr. 2020 (CEST)

Korrelatoren

Könnte jemand den Zusammenhang zwischen Supercomputern und Korrelatoren erläutern? Im Artikel kommt das recht unvermittelt. --Zulu55 (Diskussion) Unwissen 16:39, 27. Jun. 2016 (CEST)

Weitere Aspekte, die genannt werden sollten

Ich hab den Artikel heute überarbeitet, auch mit einem schielenden Blick auf en:Supercomputer. Dabei fallen mir folgende Aspekte auf, die noch keine Erwähnung im Artikel finden:

  • Wärmemanagament, Green500, Energie pro Watt
  • Aktuelle Forschungsfragen zu Supercomputern selber, Verweis auf Green500, Supercomputing-Konferenzen (HiPC, IPC, ...)
  • Grid-Computing
  • Performance-Messung: Capability vs. Capacity, LINPACK-Benchmarks, Performance-Metriken -- erst darüber machen die FLOPS ja erst Sinn.

Auch die große Tabelle, die den Artikel dominiert, finde ich unglücklich. Der englischsprachige Artikel spart die völlig ein. --Benji (Diskussion) 18:30, 28. Nov. 2016 (CET)

Definition "Superrechner"

Kann es sein, dass man einmal die Listen der "Superrechner" aktualisieren oder diesen recht unbestimmten Begriff einmal genauer definieren sollte? So in der Art, die besten 50 Rechner der Welt oder alle Rechner über 10 PetaFlops Leistung sind Superrechner. Ich bin "nur" Wirtschaftswissenschaftler und kein Mathematiker, aber Rechenleistungen von 500 Mrd. Berechnungen je Sekunde schaffen heute schon 200 EUR teure Grafikkarten. Eine etwas bessere GraKa für 1.200,- EUR wie die GeForce RTX 2080 ti wird bei Heise.de mit 14,2 Terra Flops angegeben. Hiervon 10 Stück parallel geschaltet und man hätte Leistungen von deutlich über 100 TerraFlops für unter EUR 15.000,- Kosten, WENN ich das Prinzip der parallelen Rechner richtig interpretiere. --- Von daher können doch Rechner wie der in der TU Chemnitz mit hier angegebenen 8,21 TerraFlops nicht wirklich mehr als Superrechner gelten. --- Sollte meine Betrachtung stimmen, müssten doch alle Rechner unterhalb einer Leistung von 1 PetaFlops aus dieser Wertung fliegen oder in eine Art "Oldtimer- / Ehemaligen-Tabelle" wandern. Mit 1 PetaFlops kommt man Stand heute ja nicht einmal mehr in die TOP10 in Deutschland, geschweige denn in die TOP25 der Welt. --- Grüße der Hammaburger --31.17.254.227 13:29, 18. Apr. 2020 (CEST)

Korrektur zum Graphen zur Rechengeschwindigkeit

Sollte die oberste Zahl im "Graph zur Rechengeschwindigkeit von Supercomputern, logarithmisch" nicht 10 hoch 21 sein statt 10 hoch 20 ? --Turdus (Diskussion) 14:39, 19. Jun. 2021 (CEST)