Quadratische Optimierung

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 2. Februar 2021 um 18:13 Uhr durch imported>Aka(568) (→‎Literatur: https).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Die quadratische Optimierung oder quadratische Programmierung und der damit eng verbundene Begriff des quadratischen Programms mit quadratischen Restriktionen ist ein spezielles Problem in der mathematischen Optimierung, das sich durch die Einfachheit der auftretenden Funktionen auszeichnet. Quadratische Programme treten zum Beispiel bei der Minimierung von Abstandsfunktionen auf oder als Unterprobleme von komplexeren Optimierungsproblemen.

Definition

Es seien reelle -Matrizen, eine symmetrische Matrix, sowie reelle Vektoren und schließlich eine reelle Zahl.

Ein Optimierungsproblem der Form

heißt ein quadratisches Optimierungsproblem oder ein quadratisches Programm (englisch quadratic program, kurz QP).

Ist das Problem von der Form

für symmetrische Matrizen und Serien von Vektoren , so heißt es ein quadratisches Programm mit quadratischen Nebenbedingungen (englisch quadratically constrained quadratic program, kurz QCQP).

Spezialfälle

  • Jedes lineare Optimierungsproblem ist ein quadratisches Optimierungsproblem. Setze dazu .
  • Jedes quadratische Optimierungsproblem ist ein quadratisches Programm mit quadratischen Nebenbedingungen. Dazu setzt man und ordnet die Vektoren zeilenweise zur Matrix an.
  • Sind alle auftretenden Matrizen positiv semidefinit, so sind quadratische Programme und quadratische Programme mit quadratischen Nebenbedingungen konvexe Optimierungsprobleme.
  • Unter gewissen Umständen kann ein SOCP auch als quadratisches Programm mit quadratischen Nebenbedingungen formuliert werden.

Beispiel

Betrachte als Beispiel das Problem

Ein Umschreiben der quadratischen Terme liefert die in der Definition gegebene Darstellung mit Matrix-Vektor-Produkten:

.

Es handelt sich also um ein quadratisches Programm mit quadratischen Nebenbedingungen. Insbesondere ist es ein konvexes Optimierungsproblem, da alle auftretenden Matrizen positiv definit sind.

Optimalitätskriterien

Allgemeiner Fall

Für beliebige Eingabeparameter gibt es das notwendige Optimalitätskriterium, dass wenn ein lokales Minimum eines QPs oder QCQPs ist, dann existieren , so dass ein Fritz-John-Punkt ist und ungleich dem Nullvektor ist. Sind noch zusätzliche gewisse Regularitätsvoraussetzungen wie zum Beispiel die LICQ, die MFCQ oder die Abadie CQ in erfüllt, so gibt es , so dass ein Karush-Kuhn-Tucker-Punkt ist.

Für konvexe Probleme

Sind die Matrizen alle positiv semidefinit, so handelt es sich um ein konvexes Problem. Als Regularitätsbedingung für die Karush-Kuhn-Tucker-Bedingungen steht somit auch die Slater-Bedingung zur Verfügung, welche die Regularität aller zulässigen Punkte liefert. Des Weiteren ist jedes lokale Minimum ein globales Minimum. Außerdem ist jeder Karush-Kuhn-Tucker-Punkt ohne weitere Regularitätsvoraussetzungen ein globales Minimum und somit ein hinreichendes Optimalitätskriterium.

Quadratische Programme mit Gleichungsrestriktionen

Betrachtet man das Quadratische Programm, das nur Gleichungsrestriktionen enthält

so ist jeder KKT-Punkt des obigen Problems eine Lösung des linearen Gleichungssystems

.

Ist positiv semidefinit, so ist die Lösung des Gleichungssystems aufgrund der Konvexität des Problems eine globale Optimallösung des Optimierungsproblems. Lineare Gleichungssysteme der obigen Form werden auch Sattelpunktprobleme genannt, da man sie als Bestimmung des Sattelpunktes der Lagrange-Funktion auffassen kann.

Anwendungen

Typische Anwendungsfälle sind:

  • Methode der kleinsten Quadrate mit oder ohne Nebenbedingungen an die zu bestimmenden Parameter.
  • Bestimmen des minimalen Abstandes zweier Mengen, die Polyeder sind (und damit lineare Ungleichungsrestriktionen erzeugen) oder Schnitte von Ellipsoiden sind (und damit quadratische Ungleichungsrestriktionen erzeugen).
  • Als Teilproblem zur Lösung eines größeren Optimierungsproblems zum Beispiel mittels des SQP-Verfahrens (Sequential Quadratic Programming)

Lösungsmethoden

Als Lösungsmethoden werden verwendet:

Literatur

  • C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, 2002, ISBN 3-540-42790-2 (eingeschränkte Vorschau in der Google-Buchsuche).
  • Stephen Boyd, Lieven Vandenberghe: Convex Optimization. Cambridge University Press, 2004, ISBN 978-0-521-83378-3 (online).