Dieses Buch führt in die Theorie und Methoden der stetigen Optimierung ein und zeigt darüber
hinaus einige Anwendungen aus der diskreten Optimierung: Als gängige Verfahren für lineare
Programme werden die Simplex- und Innere-Punkte-Methode vorgestellt. Im Bereich der
nichtrestringierten Optimierung werden neben deterministischen Abstiegsverfahren und
Trust-Region-Verfahren auch stochastische Abstiegsverfahren analysiert die etwa beim
maschinellen Lernen zum Einsatz kommen. Nach einer detaillierten Betrachtung der
Optimalitätsbedingungen für nichtlineare Optimierungsprobleme mit Nebenbedingungen folgt eine
Analyse von Verfahren der erweiterten Lagrangefunktion und ADMM sowie von SQP-Verfahren. Der
Hauptteil schließt mit einer Betrachtung von semidefiniten Programmen und deren Anwendungen.
Für die zweite Auflage wurden zahlreiche Passagen überarbeitet und mehrere neue Abschnitte zu
aktuellen Verfahren und Anwendungen ergänzt. Das Buch basiert auf einer zweisemestrigen
Lehrveranstaltung der Autoren und enthält zahlreiche Übungsaufgaben. Es richtet sich an Leser
die Grundkenntnisse in Analysis linearer Algebra und numerischer Mathematik mitbringen.