Mathematische Optimierung

Van Wikipedia, de gratis encyclopedie

Die mathematische Optimierung ist ein Teilgebiet der angewandten Mathematik, welches sich mit dem Lösen von Optimierungsproblemen beschäftigt. Sie hat zahlreiche Anwendungen, beispielsweise in den Bereichen Automatisierungstechnik, Automobilindustrie, Energiewirtschaft, Ernährungswissenschaft, Finanzen, Gesundheitswesen, Luft- und Raumfahrttechnik, Marketing, Produktionsplanung, Machine Learning, Robotik und Supply-Chain-Management.[1][2][3] Generell ist sie in allen Disziplinen von Interesse, in denen mit unbekannten Variablen gearbeitet wird, die optimal bestimmt werden sollen wie beispielsweise in der Chemie, der Informatik, der Physik oder den Wirtschaftswissenschaften. Häufig ist eine analytische Lösung von Optimierungsproblemen nicht möglich und es müssen numerische Verfahren eingesetzt werden.

Optimierungsprobleme

[Bearbeiten | Quelltext bearbeiten]
Minimierung der Funktion

Das wohl bekannteste Optimierungsproblem ist das Auffinden eines Minimums oder Maximums einer differenzierbaren eindimensionalen Funktion , was in der Regel durch Berechnung der Nullstellen der ersten Ableitung gelingt. Ein einfaches Beispiel ist in nebenstehendem Bild aufgezeigt.

Jedes Optimierungsproblem besteht aus einer zu optimierenden Zielfunktion und Entscheidungsvariablen, welchen manchmal Nebenbedingungen (auch Restriktionen genannt) auferlegt werden, die die zulässige Menge definieren.

Mathematisch formuliert lässt sich das Optimierungsproblem schreiben als

wobei die Zielfunktion jedem Vektor von Entscheidungsvariablen aus einem beliebigen Vektorraum (z. B. ) eine reelle Zahl zuordnet, die es zu minimieren gilt. Analog zu einem solchen Minimierungsproblem können natürlich auch Maximierungsprobleme betrachtet werden. Bei der Suche nach einem Optimalpunkt , welcher minimiert, kommen nur Punkte der zulässigen Menge infrage, wobei „“ bedeutet „unter der Nebenbedingung“. Ist ein Optimalpunkt gefunden, so erhält man den zugehörigen Optimalwert durch Einsetzen des Optimalpunkts in die Zielfunktion, welcher im Gegensatz zum Optimalpunkt immer eindeutig bestimmt ist. Die zulässige Menge lässt sich in der Regel in der Form

darstellen, d. h. sie ist durch Gleichungen und Ungleichungen funktional beschrieben, die als Gleichungsrestriktionen und Ungleichungsrestriktionen bezeichnet werden. Eine solche Darstellung ist in der Regel nicht eindeutig. Generell gibt es für die meisten Anwendungen verschiedene Möglichkeiten, diese als Optimierungsproblem zu formulieren, die sich teilweise jeweils auch nicht klar dominieren. Sobald der Schwerpunkt auf einer möglichst vorteilhaften mathematischen Beschreibung des zu optimierenden Sachverhalts liegt, befindet man sich im Bereich der mathematischen Modellierung und spricht entsprechend auch von Optimierungsmodellen.[1][4][5]

Ausgewählte Anwendungen

[Bearbeiten | Quelltext bearbeiten]

Maschinelles Lernen, Statistik

[Bearbeiten | Quelltext bearbeiten]

Das Training von Modellen in den Bereichen Maschinelles Lernen und Statistik findet durch die Minimierung einer Verlustfunktion (engl. loss function) statt, was ein Optimierungsproblem ist. Je nach Modellklasse und gewählter Verlustfunktion ergeben sich unterschiedliche Optimierungsprobleme und zugehörige Optimierungsmethoden, die zur Lösung der Optimierungsmodelle eingesetzt werden. Im Falle der linearen Regression mit der Methode der kleinsten Quadrate ergibt sich etwa ein unrestringiertes quadratisches Optimierungsproblem, welches äquivalent zu einem linearen Gleichungssystem ist. Support Vector Machines werden durch das Lösen eines restringierten konvexen Optimierungsproblems gelöst und das Training eines tiefen neuronalen Netzes ergibt je nach Wahl der loss function ein unrestringiertes nichtkonvexes (manchmal auch nichtdifferenzierbares) Optimierungsproblem, welches durch moderne Varianten des stochastischen Gradientenverfahrens wie etwa Adam gelöst wird.[6][7] Weitere Anwendungen der mathematischen Optimierung finden sich in der Bayesian Optimization, in welcher teuer zu evaluierende Black-Box-Funktionen durch Surrogatmodelle (z. B. Gauß-Prozesse) approximiert und anschließend optimiert werden, um etwa optimalen Hyperparameter zu bestimmen.

Naturwissenschaften

[Bearbeiten | Quelltext bearbeiten]

Die Parameterschätzung naturwissenschaftlicher Modelle ist ein Optimierungsproblem. Darüber hinaus folgen physikalische Systeme dem Hamiltonschen Prinzip, welches auch das Prinzip der kleinsten Wirkung genannt wird und beispielsweise in Optimierungsproblemen der Variationsrechnung mündet. Weitere Anwendungen der mathematischen Optimierung finden sich etwa im Fermatschen Prinzip der Optik und der Proteinfaltung.

Die optimale Bahnplanung eines Industrieroboters ist ein Problem der optimalen Steuerung, also ein unendlichdimensionales Optimierungsproblem, in welchem eine optimale Funktion gesucht wird, deren Nebenbedingungen durch Differentialgleichungen definiert sind. Darüber hinaus gibt es noch zahlreiche weitere Optimierungsfragestellungen in der Robotik, wie beispielsweise die optimale Routenplanung mobiler Roboter oder das Scheduling der Aufgaben von Labor-Robotern.

Energiewirtschaft

[Bearbeiten | Quelltext bearbeiten]

Die Kraftwerkseinsatzoptimierung (engl. Unit Commitment Problem) ist ein Modell der mathematischen Optimierung, welches von Energieversorgern eingesetzt, um Kraftwerke wirtschaftlich optimal einzusetzen. Mathematisch wird dies meistens als gemischt-ganzzahliges lineares Optimierungsproblem modelliert.[8]

Supply Chain Management

[Bearbeiten | Quelltext bearbeiten]

Viele Probleme des Transports, der optimalen Lagerbestände[9], der Produktionsplanung und des Marketings können mit Methoden der mathematischen Optimierung modelliert und gelöst werden. Historisch bedingt spricht man in diesen Bereichen statt von mathematischer Optimierung eher von Operations Research. Hierbei entstehen in der Regel kontinuierliche lineare Optimierungsprobleme oder gemischt-ganzzahlige lineare Optimierungsprobleme.[10]

Unter Scheduling versteht man die Erstellung eines Ablaufplanes, der Prozesse auf Ressourcen optimal verteilt. Dies kann die Personaleinsatzplanung innerhalb eines Unternehmens, die Maschinenbelegungsplanung in der Produktion oder die Erstellung des Spielplans der NFL sein. Optimierungsprobleme, die aus Scheduling-Anwendungen entstehen, besitzen in der Regel viele ganzzahlige Variablen und eine komplizierte Struktur der Nebenbedingungen, da viele Abhängigkeiten existieren und sich somit oft selbst das Finden einer zulässigen Lösung als aufwändig gestaltet.[11][12]

Lösungskonzepte, lokale und globale Optimierung

[Bearbeiten | Quelltext bearbeiten]
Lokale und globale Minima und Maxima der Funktion im Bereich

Neben der Unterscheidung in Optimalpunkt- und wert wird in Literatur und Praxis oft einfach nur von der Lösung, dem Optimum oder dem Minimum/Maximum eines Optimierungsproblems gesprochen. Da für den Optimalpunkt einer Minimierungsaufgabe gilt

er also alle anderen zulässigen Punkte global dominiert, wird er auch als globaler Optimalpunkt (auch globales Optimum oder globales Minimum) bezeichnet. Entsprechend spricht man bei einer Maximierung von einem globalen Maximum. Falls ein Punkt die anderen zulässigen Punkte nur in einer Umgebung dominiert, wenn also gilt

so ist ein lokaler Optimalpunkt (auch lokales Optimum oder lokales Minimum) bzw. im Maximierungsfall ein lokales Maximum. Ist man interessiert an der Berechnung lokaler Optima, so spricht man von lokaler Optimierung und analog bei für globale Minima oder Maxima von globaler Optimierung. Für konvexe Optimierungsprobleme sind alle lokale Optimalpunkte immer auch global optimal.[13] Für nichtkonvexe Probleme werden in der lokalen Optimierung Lösungsmethoden der nichtlinearen Optimierung zur effizienten Berechnung lokaler Optima eingesetzt.[14] Die deterministische globale Optimierung nichtkonvexer Optimierungsprobleme erfolgt mit Branch-and-Bound bzw. Branch-and-Cut Methoden, deren Erfolgsaussichten stark von der Struktur des Optimierungsproblems abhängen und die beispielsweise erfolgreich zur Lösung (nichtlinearer) gemischt-ganzzahlige Optimierungsprobleme eingesetzt werden.[15][4]

Klassifikation von Optimierungsproblemen

[Bearbeiten | Quelltext bearbeiten]

Als bekannte Unterklassen der mathematischen Optimierung seien hier die (kontinuierliche) lineare Optimierung (LP), die ganzzahlige lineare Optimierung (ILP), die (kontinuierliche) nichtlineare Optimierung, die quadratische Optimierung, die konvexe Optimierung und die Variationsrechnung erwähnt. Falls nicht nur eine, sondern mehrere sich ggf. widersprechende Zielfunktionen vorliegen, so benötigt man Methoden der Mehrzieloptimierung. Für eine ausführlichere Klassifikation von Optimierungsproblemen hinsichtlich ihrer mathematischen Struktur siehe Optimierungsproblem (Klassifikation von Optimierungsproblemen).

Optimierungsmethoden

[Bearbeiten | Quelltext bearbeiten]

Optimierungsmethoden sind Algorithmen, die zur Berechnung der Lösung von Optimierungsproblemen eingesetzt werden.

Methoden der kontinuierlichen linearen Optimierung

[Bearbeiten | Quelltext bearbeiten]

Bei einem kontinuierlichen linearen Optimierungsproblem (LP) ist die Zielfunktion linear, und die Nebenbedingungen sind durch ein System linearer Gleichungen und Ungleichungen beschrieben. Da ein LP ein konvexes Optimierungsproblem ist, ist jedes lokale Optimum auch automatisch ein globales Optimum. Pivotverfahren wie das duale sowie das primale Simplex-Verfahren lösen LPs exakt nach einer endlichen Anzahl an Iterationen. Trotz ihrer schlechten theoretischen Worst-Case-Komplexität existieren professionelle Implementierungen der Simplex-Methode, welche sehr große praxisrelevante LPs effizient lösen. Im Gegensatz dazu sind Innere-Punkte-Verfahren, deren theoretische Komplexität besser ist, erst seit den 1990er Jahren konkurrenzfähig zum Simplex-Verfahren.[16] In modernen Optimierungspaketen wie CPLEX, Gurobi und FICO XPress findet in der Regel auf verschiedenen Kernen ein Wettlauf zwischen dem primalen und dualen Simplex-Verfahren sowie einem Innere-Punkte-Verfahren statt.[17]

Methoden der gemischt-ganzzahligen Optimierung

[Bearbeiten | Quelltext bearbeiten]

Bei der Lösung von Optimierungsproblemen, in denen sowohl kontinuierliche als auch ganzzahlige Entscheidungsvariablen auftreten, kommen Branch-and-Bound sowie Branch-and-Cut Methoden zum Einsatz. Für diese Algorithmen existieren seit den 1980er Jahren professionelle Implementierungen, die durch den effizienten Einsatz von zusätzlichen Schnittebenen (eng. cutting planes), Presolve-Techniken[18] und Heuristiken in den letzten Jahrzehnten enorme Geschwindigkeitszuwächse verzeichnen konnten.[16][19] Bei nichtlinearen gemischt-ganzzahligen Problemen ist es in der Regel hilfreich, wenn die kontinuierliche Relaxierung des Problems, d. h. die Formulierung unter Ignorierung der Ganzzahligkeitsbedingungen, konvex ist, da dadurch einfacher Schranken an den Optimalwert des Optimierungsproblems berechnet werden können.

Methoden der kontinuierlichen lokalen nichtlinearen Optimierung

[Bearbeiten | Quelltext bearbeiten]

Für die Berechnung lokaler Minima kontinuierlicher linearer Optimierungsprobleme werden im unrestringierten Fall Optimierungsverfahren eingesetzt, die Grundideen des Gradientenverfahrens und des Newtonverfahrens aufgreifen und erweitern. Die populärsten Methoden sind vermutlich das Konjugierte-Gradienten-Verfahren sowie Quasi-Newton-Verfahren, Trust-Region-Methoden und der Levenberg-Marquardt-Algorithmus. Für restringierte nichtlineare Probleme kommen häufig SQP-Verfahren (Sequential-Quadratic-Programming-Verfahren), Innere-Punkte-Methoden und Augmented-Lagrange-Verfahren zum Einsatz.[20]

Metaheuristiken

[Bearbeiten | Quelltext bearbeiten]

Im Gegensatz zu anwendungsspezifischen Heuristiken wie der Nearest-Neighbor-Heuristik versuchen Metaheuristiken ohne Kenntnis der genauen Anwendung gute zulässige Punkte zu finden. Aussagen über die globale Optimalität dieser Punkte werden in der Regel nicht getroffen. Zu den bekanntesten Metaheuristiken zählen evolutionäre Algorithmen, naturanaloge Optimierungsverfahren (zum Beispiel Sintflutalgorithmus, Simulierte Abkühlung, Metropolisalgorithmus, Schwellenakzeptanz, Ameisenalgorithmus, Partikelschwarmoptimierung …) und sonstige Verfahren wie der Bergsteigeralgorithmus und Stochastisches Tunneln.

Theoretische Konzepte

[Bearbeiten | Quelltext bearbeiten]

Notwendige Optimalitätsbedingungen

[Bearbeiten | Quelltext bearbeiten]

Notwendige Optimalitätsbedingungen sind Bedingungen, die in einem Optimalpunkt notwendigerweise erfüllt sein müssen.

In der unrestringierten nichtlinearen Optimierung einer differenzierbaren Funktion ist beispielsweise bekannt, dass jeder Optimalpunkt notwendigerweise auch ein kritischer Punkt von ist, das heißt, dass gilt , die (höherdimensionale) Ableitung von in also verschwindet. Optimierungsmethoden wie das Newtonverfahren nutzen dies aus und berechnen gezielt kritische Punkte von , in der Hoffnung, dass diese auch optimal sind.[21] In der unrestringierten Optimierung nichtdifferenzierbarer Funktionen lässt sich die Idee auf Subgradientenverfahren verallgemeinern, welche statt mit Gradienten mit dem Subdifferential arbeiten, welches für konvexe Funktionen eindeutig definiert ist[22] und für nichtkonvexe Funktionen in verschiedenen Variationen existiert.[23][24]

In der restringierten nichtlinearen glatten Optimierung wird das Prinzip der kritischen Punkte auf sogenannte KKT-Punkte erweitert, welches Punkte sind, die die Karush-Kuhn-Tucker-Bedingungen erfüllen. Falls Regularitätsbedingungen (engl. constraint qualifications) wie etwa die Lineare-Unabhängigkeits-Bedingung erfüllt sind, muss jeder Optimalpunkt eines nichtlinearen restringierten Optimierungsproblems notwendigerweise auch ein KKT-Punkt sein, was algorithmisch ausgenutzt werden kann.[25]

In der mathematischen Optimierung existiert eine reiche Dualitätstheorie, welche Aussagen über den Zusammenhang zwischen Optimierungsproblemen und ihren dualen Gegenstücken macht. Zu jedem (primalen) Optimierungsproblem existiert ein duales Optimierungsproblem , das eine enge Beziehung zu besitzt, die theoretisch und algorithmisch ausgenutzt werden kann. So stimmen etwa die Optimalwerte von und laut der Dualitätstheorie für lineare Optimierungsprobleme immer überein, was algorithmisch im primalen und dualen Simplex-Verfahren sowie primal-dualen Innere-Punkte-Verfahren ausgenutzt wird. Diese Aussagen lassen sich auf konvexe kontinuierliche Optimierungsprobleme erweitern, falls eine Regularitätsbedingung wie die Slater-Bedingung erfüllt ist.[25] Für nichtkonvexe kontinuierliche Probleme gibt es ebenfalls verschiedene Ansätze Dualitätstheorien zu entwickeln, die allerdings noch Gegenstand aktueller Forschung sind.[26]

Auszüge aus der Geschichte der mathematischen Optimierung

[Bearbeiten | Quelltext bearbeiten]

Vor dem 20. Jahrhundert

[Bearbeiten | Quelltext bearbeiten]
Experimenteller Aufbau zur Brachistochrone im Technoseum in Mannheim

Schon die alten Griechen studierten Optimierungsprobleme mit geometrischem Bezug wie etwa das Problem der Dido. Im Jahr 1696 formulierte Johann Bernoulli das Problem der Brachistochrone, was die Entwicklung der Variationsrechnung anstieß, die von Leonhard Euler und Joseph-Louis Lagrange im 18. Jahrhundert fortgeführt wurde. Im Jahr 1805 veröffentlichte Adrien-Marie Legendre einen Artikel zur Methode der kleinsten Quadrate, welche aber wohl schon früher vom jungen Carl Friedrich Gauß entwickelt (aber nicht veröffentlicht) wurde. Eine weitere berühmte Optimierungsmethode, das Gradientenverfahren, wurde 1847 von Augustin-Louis Cauchy publiziert.

Im 20. Jahrhundert

[Bearbeiten | Quelltext bearbeiten]
Bedienungskonsole der IBM 701

George Dantzig gilt mit seiner Arbeit im Jahr 1947, in welcher unter anderem der Simplex-Algorithmus eingeführt wurde, als Vater der modernen linearen Optimierung. Allerdings gab es schon davor Wissenschaftler wie etwa Leonid Kantorowitsch, die theoretische Aussagen zur Theorie linearer Optimierungsprobleme erarbeiteten. Die erste Anwendung des Simplex-Algorithmus war eine Berechnung eines optimalen Ernährungsplans mit 21 Restriktionen und 77 Entscheidungsvariablen. Die händische Berechnung nahm 120 Personentage in Anspruch[27].

In den 50er Jahren wechselte George Dantzig von der US Air Force zur RAND Corporation mit dem Ziel, erste Computerimplementierungen des Simplex-Algorithmus umzusetzen. In den Jahren 1954–1955 wurde eine überarbeitete Version der Methode auf einem IBM 701 implementiert, wo sich immerhin LPs mit 101 Restriktionen modellieren ließen.[16] Im Jahr 1951 veröffentlichten Harold W. Kuhn und Albert W. Tucker ihre Arbeit zu Optimalitätsbedingungen, die jedoch unbekannterweise bereits zuvor im 1939 von William Karush in einer Masterarbeit entwickelt worden waren und heute als Karush-Kuhn-Tucker-Bedingungen bekannt sind. 1961 entwickelten Alisa Land und Alison Doig die Branch-and-Bound-Methode an der London School of Economics im Rahmen einer Zusammenarbeit mit British Petroleum. Im Jahr 1979 zeigte Leonid Chatschijan, dass LPs in polynomialer Zeit gelöst werden können, was ein unerwartetes und bedeutsames theoretisches Resultat war, das jedoch erst im Jahre 1984 mit Narendra Karmarkars Entwicklung der ersten primal-dualen Inneren-Punkte-Methode praktisch umgesetzt werden konnte. Seit Ende der 80er Jahre existieren professionelle Implementierungen von Branch-and-Cut- bzw. Branch-and-Bound-Methoden, die anwendungsunabhängig als Black-Box-Solver für gemischt-ganzzahlige lineare Probleme eingesetzt werden können.

Im 21. Jahrhundert

[Bearbeiten | Quelltext bearbeiten]

Im Jahr 2007 wurde ergab eine computergestützte Studie von Robert Bixby, eine Verbesserung kommerzieller Implementierungen von Branch-and-Cut bzw. Branch-and-Bound-Methoden seit ihrer Einführung Ende der 80er Jahre allein aufgrund algorithmischer Verbesserungen um den Faktor 29000.[16] Zeitgleich wurden neue Rekorde in der Berechnung nachweislich optimaler Routen für das Traveling Salesman Problem, welches NP-schwer ist und damit als praktisch unlösbar galt. So wurde von Forschenden rund um William J. Cook im Jahr 2006 eine TSP-Instanz mit 85900 Stationen global optimal gelöst.[28] Der große Erfolg von Methoden des Maschinellen Lernens erforderte in den 2010er Jahren die Entwicklung moderner Optimierungsmethoden für das Training großer neuronaler Netze. Dies führte zur Wiederentdeckung und Weiterentwicklungen des stochastischen Gradientenverfahrens, wie etwa dem Adam-Algorithmus im Jahr 2014.[7]

Weiterführende Informationen

[Bearbeiten | Quelltext bearbeiten]

Die gut dokumentierte Geschichte der mathematischen Optimierung wird zum Beispiel im Online-Artikel A Brief History of Optimization and Mathematical Programming zusammengefasst, in welchem die Autoren B. Singh und M. Eisner auch 180 weitere Referenzen angeben.[29]

Literatur (Auswahl)

[Bearbeiten | Quelltext bearbeiten]
  • Walter Alt: Nichtlineare Optimierung – Eine Einführung in Theorie, Verfahren und Anwendungen. Vieweg, 2002, ISBN 3-528-03193-X.
  • S. Boyd, L. Vandenberghe: Convex Optimization. Cambridge University Press, 2004. (online)
  • W. Domschke, A. Drexl: Einführung in Operations Research. 7. Auflage. Springer, Berlin 2007, ISBN 978-3-540-70948-0.
  • C. Grossmann, J. Terno: Numerik der Optimierung. Teubner Studienbücher, 1997, ISBN 3-519-12090-9. eingeschränkte Vorschau in der Google-Buchsuche
  • R. Horst, P. M. Pardalos (Hrsg.): Handbook of Global Optimization. Kluwer, Dordrecht 1995, ISBN 0-7923-3120-6.
  • F. Jarre, J. Stoer: Optimierung. Springer, 2004, ISBN 3-540-43575-1. eingeschränkte Vorschau in der Google-Buchsuche
  • J. Nocedal, S. J. Wright: Numerical Optimization. Springer, Berlin 1999, ISBN 0-387-98793-2.
  • O.Stein: Grundzüge der Nichtlinearen Optimierung. 2. Auflage. Springer Spektrum, Berlin, Heidelberg, 2021, ISBN 978-3-662-62531-6.
  • O.Stein: Grundzüge der Globalen Optimierung. 2. Auflage. Springer Spektrum, Berlin, Heidelberg, 2021, ISBN 978-3-662-62533-0.
  • N. Sudermann-Merx: Einführung in Optimierungsmodelle. Springer Spektrum, Berlin, Heidelberg, 2023, ISBN 978-3-662-67380-5.
  • L. A. Wolsey: Integer Programming. 2. Auflage John Wiley & Sons, Hoboken, New Jersey 2020, ISBN 978-1-119-60653-6.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b H. P. Williams: Model Building in Linear and Integer Programming. 5. Auflage. Wiley, New Jersey 2013, ISBN 978-1-118-44333-0.
  2. Gurobi: Industries that use Mathematical Optimization. Abgerufen am 8. Dezember 2023 (amerikanisches Englisch).
  3. Leena Suhl, Taïb Mellouli: Optimierungssysteme: Modelle, Verfahren, Software, Anwendungen. 3., korrigierte und aktualisierte Auflage. Springer Gabler, Berlin / Heidelberg 2013, ISBN 978-3-642-38936-8.
  4. a b Nathan Sudermann-Merx: Einführung in Optimierungsmodelle. Springer Berlin Heidelberg, Berlin / Heidelberg 2023, ISBN 978-3-662-67380-5, doi:10.1007/978-3-662-67381-2.
  5. Josef Kallrath: Gemischt-ganzzahlige Optimierung: Modellierung in der Praxis. 2002, doi:10.1007/978-3-322-80219-4.
  6. Trevor Hastie, Robert Tibshirani, Jerome Friedman: The Elements of Statistical Learning. Springer New York, New York 2009, ISBN 978-0-387-84857-0.
  7. a b Diederik P. Kingma, Jimmy Ba: Adam: A Method for Stochastic Optimization. revidiert Auflage. 2017, arxiv:1412.6980.
  8. Kenneth Van den Bergh, Kenneth Bruninx, Erik Delarue, William D‘haeseleer: LUSYM: a unit commitment model formulated as a mixed-integer linear program. KU Leuven, TME Branch Working Paper 7, 2014 (kuleuven.be [PDF]).
  9. Edward A. Silver, David F. Pyke, Douglas J. Thomas: Inventory and production management in supply chains. 4. Auflage. CRC Press, Taylor & Francis Group, Boca Raton / FL London New York / NY 2021, ISBN 978-1-03-217932-2.
  10. Leena Suhl, Taïb Mellouli: Optimierungssysteme: Modelle, Verfahren, Software, Anwendungen (= Springer-Lehrbuch). 3., korrigierte und aktualisierte Auflage. Springer Gabler, Berlin / Heidelberg 2013, ISBN 978-3-642-38936-8, doi:10.1007/978-3-642-38937-5.
  11. National Football League Scheduling. In: Gurobi Optimization. Abgerufen am 9. Dezember 2023 (amerikanisches Englisch).
  12. Michael Pinedo: Scheduling: theory, algorithms, and systems. 5. Auflage. Springer, Cham / Heidelberg / New York / Dordrecht / London 2018, ISBN 978-3-319-79973-5.
  13. Stephen Boyd, Lieven Vandenberghe: Convex Optimization. Cambridge University Press, 2004, ISBN 0-521-83378-7 (stanford.edu [PDF; abgerufen am 8. Dezember 2023]).
  14. Carl Geiger, Christian Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben. 2002, doi:10.1007/978-3-642-56004-0.
  15. Oliver Stein: Grundzüge der Globalen Optimierung. 2021, doi:10.1007/978-3-662-62534-7.
  16. a b c d Robert E. Bixby: A brief history of linear and mixed-integer programming computation. In: Optimization Stories. EMS Press, 2012, ISBN 978-3-936609-58-5, S. 107–121 (uni-bielefeld.de [PDF; abgerufen am 9. Dezember 2023]).
  17. Method. In: Gurobi Optimization. Abgerufen am 9. Dezember 2023 (englisch).
  18. Tobias Achterberg, Robert E. Bixby, Zonghao Gu, Edward Rothberg, Dieter Weninger: Presolve Reductions in Mixed Integer Programming. In: INFORMS Journal on Computing. Band 32, Nr. 2, April 2020, ISSN 1091-9856, S. 473–506 (kobv.de [PDF; abgerufen am 9. Dezember 2023]).
  19. William Cook: "Information, Computation, Optimization..." Abgerufen am 9. Dezember 2023 (deutsch).
  20. Jorge Nocedal, Stephen J. Wright: Numerical optimization (= Springer series in operation research and financial engineering). 2. Auflage. Springer, New York 2006, ISBN 0-387-30303-0.
  21. Oliver Stein: Grundzüge der Nichtlinearen Optimierung. 2. Auflage. Springer Spektrum, Berlin 2021, ISBN 978-3-662-62531-6.
  22. Ralph Tyrrell Rockafellar: Convex analysis (= Princeton Landmarks in mathematics and physics). 10. Auflage. Princeton Univ. Press, Princeton, NJ 1997, ISBN 0-691-08069-0.
  23. Ralph Tyrrell Rockafellar, Roger J.-B. Wets, Maria Wets: Variational analysis (= Die Grundlehren der mathematischen Wissenschaften in Einzeldarstellungen). 3. Auflage. Springer, Berlin / Heidelberg 2009, ISBN 978-3-540-62772-2.
  24. Nonsmooth analysis and control theory (= Graduate texts in mathematics). Springer, New York / Heidelberg 1998, ISBN 0-387-98336-8.
  25. a b Carl Geiger, Christian Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben: mit 140 Übungsaufgaben. Springer, Berlin / Heidelberg 2002, ISBN 3-540-42790-2.
  26. R. Tyrrell Rockafellar: Augmented Lagrange Multiplier Functions and Duality in Nonconvex Programming. In: SIAM Journal on Control. Band 12, Nr. 2, Mai 1974, ISSN 0036-1402, S. 268–285, doi:10.1137/0312021.
  27. George Dantzig: Linear Programming and Extensions. 1963.
  28. David L. Applegate, Robert E. Bixby, Vasek Chvátal, William J. Cook: The traveling salesman problem: a computational study (= Princeton series in applied mathematics). Princeton university press, Princeton (N.J.) 2006, ISBN 978-0-691-12993-8.
  29. INFORMS: Optimization/Mathematical Programming. Abgerufen am 11. Dezember 2023 (amerikanisches Englisch).
Commons: Optimization – Sammlung von Bildern, Videos und Audiodateien