Diskussion:Parallelrechner

aus Wikipedia, der freien Enzyklopädie

Welche Ausführungen?

Es werden grob zwei Ausführungen von Parallelrechnern unterschieden

es wird nicht ganz klar welche das sind, Multithreading geht auch auf einem Einprozessorrechner...

Ich vermisse eine Darstellung von möglichen Topologien wie z.B.:

- Meshes mit Torus / Toroid - Shuffle-Exchange - Hypercube - Cube Connected Cycles - Pyramide - Butterfly

Der Satz mit dem überproportionalem Kommunikationsaufwand sollte zumindest relativiert werden; Einige der oben genannten Architekturen skalieren ziemlich gut.

Sind das eigene Artikel, oder gehören die hier mit rein?

Toter Weblink

Bei mehreren automatisierten Botläufen wurde der folgende Weblink als nicht verfügbar erkannt. Bitte überprüfe, ob der Link tatsächlich unerreichbar ist, und korrigiere oder entferne ihn in diesem Fall!

--KuhloBot 17:55, 25. Jun. 2007 (CEST)

Konnte Seite auch nach einer Suche nicht im Web finden und habe daraufhin den Link entfernt. --Marc-André Aßbrock 15:37, 23. Jul. 2011 (CEST)

Einleitung

Ist der erste Satz nicht zu eng gefasst? Ein datenparalleles Konzept zum Beispiel ist nicht abegedeckt. Ich frage mich ob es immer verschiedene CPUs sein müssen die parallel arbeiten, oder ob nicht auch die Kerne einer CPU oder GPU ausreichen würden. --Das Ed 00:21, 9. Dez. 2009 (CET)

Das kommt glaube ich darauf an, was der Begriff Parallelrechner meint. Wen er sich z.B. nur auf SMP(Simultanus Multi Processing)-Systeme bezieht ist die Aussage sicher nicht verkehrt. Aber da der Artikel auf den Englischen "Parallel Processing" Artikel verweist, würde ich sagen nein. Super-Scalare Computer verfügen über "Instruction-level Parallelism", d.h. ein Prozessor ist in der Lage mehrere Operationen "zeitgleich" (zeitgleich stimmt nicht wirklich, da die ALU immer nur eine Operation auf einmal ausführen kann. Aber moderne CPUs haben oft mehr als eine ALU für die Pipeline und mitunter sogar mehrere Hardware-Tasks.) in der Pipline zu verarbeiten.

Ich denke auch das die folgende Aussage so nicht richtig ist.

Massiv-parallele Computer besitzen einige zehn bis einige tausend CPUs, die alle gleichzeitig die gleichen Operationen durchführen.

Sicher werden in einem Massiv parallelen System viele tausend bis hunderttausend Prozesse zeitgleich ausgeführt, welche alle an einem gemeinsamen Problem arbeiten, aber diese sind mit nichten synchron, führen also nicht die gleiche Operation aus.

Des Weiteren möchte ich auch die Richtigkeit dieser Aussage anfechten:

Je größer die Anzahl der CPUs ist, desto schneller steigt der Kommunikationsaufwand in einer Parallelrechnerumgebung (egal welchen Typs) überproportional an. Der Zusammenhang ist nicht linear.

Es ist zwar richtig, das für die meisten Probleme der Kommunikationsaufwand nicht linear ansteigt. Das hat aber nichts mit der anzahl der CPUs zu tun sondern vielmehr mit dem Problem das bearbeitet wird. Oder besser, mit dem Grad in dem die zu verarbeitenden Daten voneinander abhängen (siehe embarrassingly parallel problem). --FEE7DEAD 20:12, 15. Nov. 2010 (CET)