Subdifferential

aus Wikipedia, der freien Enzyklopädie

Das Subdifferential ist eine Verallgemeinerung des Gradienten auf nicht differenzierbare konvexe Funktionen. Das Subdifferential spielt eine wichtige Rolle in der konvexen Analysis sowie der konvexen Optimierung.

Definition

Sei eine konvexe Funktion. Ein Vektor heißt Subgradient von an der Stelle , wenn für alle gilt[1]

,

wobei das Standardskalarprodukt bezeichnet.

Das Subdifferential ist die Menge aller Subgradienten von im Punkt .[2]

Anschauung

Subgradienten einer konvexen Funktion

Intuitiv bedeutet diese Definition für , dass der Graph der Funktion überall über der Geraden liegt, die durch den Punkt geht und die Steigung besitzt:

Da die Normalengleichung von gerade

ist, ist die Normale an also

Im allgemeinen Fall liegt über der Hyperebenen, die durch den Fußpunkt und die Normale gegeben ist.

Wegen des Trennungssatzes ist das Subdifferential einer stetigen konvexen Funktion überall nicht leer.

Beispiel

Das Subdifferential der Funktion , ist gegeben durch:

Beschränktheit

Sei stetig und sei beschränkt. Dann ist die Menge beschränkt.

Beweis

Sei stetig und sei beschränkt. Setze wobei . Angenommen ist nicht beschränkt, dann gibt es für ein und ein mit . Sei . Somit sind . Wir erhalten die Abschätzung

.

ist also kein Subgradient. Das ist ein Widerspruch.

Differenzierbarkeit

Ist die Funktion differenzierbar in , so gilt:

Siehe [3] für einen Beweis.

Zudem gilt: Ist das Subdifferential einelementig, so ist an der Stelle differenzierbar[4]

Literatur

  1. R. T. Rockafellar Convex analysis 1970., p.214
  2. R. T. Rockafellar Convex analysis 1970., p.215
  3. Prof. Yaron Singer: Advanced Optimzation. Abgerufen am 27. Januar 2022: „Proposition 4“
  4. R.T. Rockafellar: Convex Analysis. Band 28, 1970: „Theorem 25.1“