This page in EN

Veranstaltung

Konvexe Analysis [SS212550120]

Typ
Vorlesung (V)
Online
Semester
SS 2021
SWS
2
Sprache
Deutsch
Termine
12
Links
ILIAS

Dozent/en

Einrichtung

  • Karlsruhe Service Research Institute

Bestandteil von

Literatur

  • J. Borwein, A. Lewis, Convex Analysis and Nonlinear Optimization: Theory and Examples (2 ed.), Springer, 2006
  • S. Boyd, L. Vandenberghe, Convex Optimization, Cambridge University Press, 2004
  • O. Güler, Foundations of Optimization, Springer, 2010
  • J.-B. Hiriart-Urruty, C. Lemarechal, Fundamentals of Convex Analysis, Springer, 2001
  • B. Mordukhovich, N.M. Nam, An Easy Path to Convex Analysis and Applications, Morgan & Clay-
    pool Publishers, 2014
  • R.T. Rockafellar, Convex Analysis, Princeton University Press, 1970
  • R.T. Rockafellar, R.J.B. Wets, Variational Analysis, Springer, Berlin, 1998

Veranstaltungstermine

  • 15.04.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 22.04.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 29.04.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 06.05.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 20.05.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 10.06.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 17.06.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 24.06.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 01.07.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 08.07.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 15.07.2021 10:00 - 11:30 - Room: 05.20 1C-04
  • 22.07.2021 10:00 - 11:30 - Room: 05.20 1C-04

Anmerkung

Die konvexe Analysis beschäftigt sich mit Eigenschaften konvexer Funktionen und konvexer Mengen, unter anderem im Hinblick auf die Minimierung konvexer Funktionen über konvexen Mengen. Dass die beteiligten Funktionen dabei nicht notwendigerweise differenzierbar zu sein brauchen, eröffnet eine Reihe von Anwendungen, die durch Verfahren der differenzierbaren Optimierung nicht behandelt werden können, etwa Approximationsprobleme bezüglich der Manhattan- oder der Maximumsnorm, Klassifikationsprobleme oder die Theorie statistischer Schätzer. Die Vorlesung wird entlang eines weiteren, geometrisch leicht verständlichen Beispiels entwickelt, in dem ein nichtglatt beschriebenes Hindernis derart durch eine differenzierbare konvexe Funktion beschrieben werden soll, dass Mindest- und Höchstabstände zum Hindernis berechenbar sind. Die Vorlesung ist wie folgt aufgebaut:

  • Einführung in entropische Glättung und Konvexität
  • Globale Fehlerschranken
  • Glattheitseigenschaften konvexer Funktionen
  • Das konvexe Subdifferential
  • Globale Lipschitz-Stetigkeit
  • Abstiegsrichtungen und Stationaritätsbedingungen

Anmerkung:

Zum Erwerb fundierten Basiswissens wird vor Besuch dieser Spezialvorlesung die Belegung einer der Veranstaltungen "Globale Optimierung I und II" und "Nichtlineare Optimierung I und II" dringend empfohlen.

Lernziele:

Der/die Studierende

  • kennt und versteht die Grundlagen der konvexen Analysis,
  • ist in der Lage, moderne Techniken der konvexen Analysis in der Praxis auszuwählen, zu gestalten und einzusetzen.