Diskussion:Gauß-Seidel-Verfahren
Konvergenz
Warum hängt die Konvergenzgeschwindigkeit von der Nummerierung der Unbekannten ab? Das ist wohl unnötig. Die allgemeine Aussage zur strikten Diagonaldominanz stimmt, allerdings ist die erklärende Aussage dazu schwammig und gehört zum Jacobi-Verfahren. ist hinreichend, aber nicht notwendig. bzw. wäre richtig. --(nicht signierter Beitrag von 85.216.19.6 (Diskussion) )
- 1.) Die Nummerierung hat schon einen Einfluss, da durch Umnummerieren die Spalten der Matrix und damit die Diagonale geändert werden. Man könnte also durch Zeilen- und Spaltenvertauchungen eine möglichst große Diagonale anstreben. Funktioniert natürlich nicht bei symmetrischen Matrizen, die dies auch bleiben sollen.
- 2.) Es gibt sogar einen beiden Verfahren übergeordneten Artikel, wo man sowas ansprechen könnte
- Ist im Artikel nun eingebaut.--LutzL 11:48, 10. Apr. 2007 (CEST)
Algorithmenskizze die zweite
- Was ist der Sinn der Zeile ?
- Schlage vor einfach
- bis
zu schreiben. --Khong 19:52, 13. Apr. 2008 (CEST)
- Hi, ursprünglich wurde der Algorithmus ohne die Schritt-Indizierung aufgeschrieben, dann meinte jemand mal, irgendwo das m anbringen zu müssen, und das wurde dann immer weiter verschlimmbessert. Korrekt als Algorithmus wäre
- m=0, wiederhole
- für bis
- nächstes
- bis
- mit der Bemerkung, dass „neu“ und „alt“ sich auf den Wert der Variablen beziehen, die Variablen im Computerspeicher aber identisch sind.
- Der Sinn dieses Algorithmus ist es, die Berechnung ohne zusätzlichen Speicherplatz durchzuführen, deshalb wäre es kontraproduktiv, eine Kopie des alten Vektors zu erzeugen.--LutzL 12:00, 14. Apr. 2008 (CEST)
Wie soll denn bei jemals der Fehler kleiner als der Startfehler werden? (nicht signierter Beitrag von 72.85.134.162 (Diskussion) 02:54, 18. Jun. 2010 (CEST))
- Weil die Variablen sich ändern und die Matrix als diagonaldominant vorausgesetzt ist, was Konvergenz garantiert? fehler enthält den max-Abstand zwischen den x-Vektoren zwischen zwei Durchläufen. Konvergiert das Verfahren, so wird x stationär und die Schrittweite in fehler geht gegen Null. Man könnte natürlich auch den Fehler in den linearen Gleichungen messen, was aber zusätzliche Schritte im Algorithmus erfordert.--LutzL 13:13, 18. Jun. 2010 (CEST)
- Haha, wie lange schon hat keiner mehr den Artikel angeschaut? Die Variable wächst monoton mit jeder Iteration, also terminiert der hier dargestellte Algorithmus entweder schon nach der ersten Iteration oder nie. Jedenfalls, wenn wir die Funktion als diejenige Funktion verstehen, welche von 2 reellen Zahlen die größere liefert. 178.26.239.211 21:14, 17. Dez. 2012 (CET)
Voraussetzungen
Sollte nicht vor dem Algorithmus kurz darauf hingewiesen werden, das A symmetrisch positiv definit bzw. das Zeilen oder Spaltensummenkriterium erfüllen muss damit der Algorithmus für beliebige Startwerte konvergiert? -- 92.228.205.184 12:44, 14. Feb. 2010 (CET)
- Nein, da beides nur hinreichende Konvergenzkriterien, es gibt ja auch andere Matrizten für die das Verfahren konvergiert. Ganz davon ab ist die Konvergenz unter Gauß-Seidel-Verfahren#Diagonaldominanz_und_Konvergenz beschrieben. --P. Birken 16:54, 14. Feb. 2010 (CET)
Beispiele
Wie wäre es, wenn jemand der diesen Artikel pflegt die Beispiele aus dem englischsprachigen Artikel übernimmt? Gerade das in Gleichungssystemform erleichtert das Verständnis des ganzen doch erheblich wie ich finde. (nicht signierter Beitrag von 129.13.72.198 (Diskussion) 10:46, 13. Apr. 2011 (CEST))
Gaußsches Eliminationsverfahren ist für Rundungsfehler sehr anfällig?
Die Behauptung im ersten Absatz ist einfach falsch: Entwickelt wurde das Verfahren, da das Gaußsche Eliminationsverfahren, ein exakter Löser, für Rundungsfehler sehr anfällig ist. Eine iterative Vorgehensweise hat diesen Nachteil nicht. Die worst case Fehlerschranken sind zwar wirklich katastrophal und werden für bestimmte Matrizen auch erreicht. Im Normalfall ist die Gausselimination jedoch extrem gutartig und überhaupt nicht anfällig für Rundungsfehler. Es wird im HPC-Bereich auch für wirklich riesige Matrizen eingesetzt.
Gauss hat die Iteration bevorzugt, weil sie wesentlich weniger Arbeit macht - nicht weil sie fehleranfälliger ist.
Was die Iteration vor allem bei Handrechnung auszeichnet ist die Eigenschaft, dass ein Rechenfehler (nicht Rundungsfehler) in nachfolgenden Iterationen automatisch korrigiert wird.
So gehört das in den Artikel! ==Brf 10:39, 24. Jul. 2013 (CEST)
- Ja, es waren natuerlich Rechenfehler, nicht Rundungsfehler an der Stelle gemeint. Ich habs korrigiert, danke fuer den Hinweis! --P. Birken (Diskussion) 16:57, 24. Jul. 2013 (CEST)
Fehlerteufel?
"Das Verfahren konvergiert linear, wenn der Spektralradius der Iterationsmatrix T= −((D+L)^−1)*U kleiner 1 ist." - steht in der aktuellen Version, bzw. auch im "Iterationsschritt" darüber. Aber diese Matrix ist offensichtlich immer Null. Ich weiß nicht, wie die Formel richtig lauten sollte, da es verschiedene Algorithmen hierfür gibt. (nicht signierter Beitrag von 2A02:810A:BC0:C00:B85D:A707:F0E2:DE7E (Diskussion) 22:59, 30. Jul. 2021 (CEST))