Toward global robust optimization

  • Zur globalen robusten Optimierung

Beckers, Markus; Naumann, Uwe (Thesis advisor)

Aachen : Publikationsserver der RWTH Aachen University (2014)
Doktorarbeit

Aachen, Techn. Hochsch., Diss., 2014

Kurzfassung

Optimierungsprobleme in den Ingenieurwissenschaften haben oft nichtkonvexe Zielfunktionen und Nebenbedingungen und benötigen globale Optimierungsalgorithmen. Zusätzlich sollte ein gefundenes Optimimum nicht alzu sensitiv gegenüber kleinen Störungen in den Parametern sein. Das heißt das Optimum muß in gewissem Maße robust sein. Wir gehen dieses Problem mit einer Mischung aus drei wissenschaftlichen Bereichen an. Dies sind die nichtglatte Analyse von McCormick Relaxationen und Unsicherheitsanalyse unter Benutzung des Algorithmischen Differenzierens (AD). McCormick Relaxationen sind spezielle konvexe und konkave Unter- bzw. Überschätzer der Zielfunktion und Nebenbedingungen. Da konvexe Funktionen möglicherweise nichtdifferenzierbar sind, benutzen wir Subgradienten statt "gewöhnlicher" Ableitungen. Subgradienten sind deren natürliche Erweiterung die gewisse Ableitungseigenschaften für nichtdifferenzierbare Funktionen erlauben. Zu Ihrer Berechnung können Methoden des algorithmischen Differenzierens eingesetzt werden. Eine erste solche Version, unter Benutzung des tangenten-linearen Modus wurde von Kollegen am MIT Process Systems Engineering Laboratory and Department entwickelt. In dieser Arbeit wird dieser Ansatz unter Benutzung des adjungierten Modus erweitert. Die berechneten Subgradienten werden für einen branch-and-bound Algoritghmus der globalen Optimierung benötigt. Zusätzlich wird die Äquivalenz von AD und der standard Subgradientenberechnung bewiesen. Unsicherheitsanalyse hat die Aufgabe, die Unsicherheit von Ausgaben, die durch Unsicherheiten in den Eingaben eines Programms hervorgerufen werden zu quantifizieren. Für eine bekannte Wahrscheinlichkeitsverteilung der Eingaben, werden wahrscheinlichkeitstheoretische benutzt um Informationen über die Verteilung der Ausgabe zu erhalten. Unser Ansatz basiert auf Taylor-Erweiterungen der implementierten Funktion, die Approximationen des Erwartungswerts und der Varianz der Ausgabe zu erhalten. AD erlaubt deren effiziente Berechnung unter der Benutzung von höheren Ordnungsmethoden. Die Anwendung dieser Methode erlaubt es, das Ausgangsoptimierungsproblem in eine robuste Version zu transformieren, die auch Unsicherheiten berücksichtigt. Dieses neue robuste Optimierungproblem wird dann mit obigem branch-and-bound Algorithmus zur globalen Optimierung gelöst.

Identifikationsnummern