Branch-and-Bound

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Branch-and-Bound (engl. für Verzweigung und Schranke oder Verzweigen und begrenzen) ist eine im Bereich Operations Research häufig verwendete mathematische Methode, deren Ziel darin besteht, für ein gegebenes ganzzahliges Optimierungsproblem eine beste Lösung zu finden. Branch-and-Bound führt auf einen Entscheidungsbaum, ist selbst aber kein spezielles Verfahren, sondern eine Behandlungsmethode, ein Meta-Verfahren. Für konkrete kombinatorische Optimierungsprobleme ergeben sich dementsprechend angepasste Branch-and-Bound-Algorithmen.

Im Optimierungsproblem bei sei der zulässige Bereich eine diskrete Menge, eventuell sogar endlich. Alle zugelassenen Belegungen durchzuprobieren, scheitert meist an inakzeptabel langen Rechenzeiten. Deshalb wird nach und nach in mehrere Teilmengen aufgespalten (Branch). Mittels geeigneter Schranken (Bound) sollen viele suboptimale Belegungen frühzeitig erkannt und ausgesondert werden, so dass der zu durchsuchende Lösungsraum klein gehalten wird. Im ungünstigsten Fall werden alle Belegungen aufgezählt (vollständige Enumeration).

Branch, die Verzweigung

[Bearbeiten | Quelltext bearbeiten]

Der Aufteilungsschritt (Branch-Schritt) dient dazu, das vorliegende Problem in zwei oder mehr Teilprobleme aufzuteilen, die eine Vereinfachung des ursprünglichen Problems darstellen. Durch rekursives Ausführen des Aufteilungsschritts für die erhaltenen Teilprobleme entsteht eine Baumstruktur. Es gibt verschiedene Auswahlverfahren für die Wahl des nächsten zu bearbeitenden Knotens im Aufteilungsbaum, die unterschiedliche Zielsetzungen haben. Im Folgenden werden zwei häufig verwendete Verfahren beschrieben:

  • Tiefensuche: Von den noch nicht bearbeiteten Teilproblemen wird das gewählt, welches als letztes eingefügt wurde (Last In – First Out). Mit dieser Auswahlregel arbeitet sich das Verfahren im Baum möglichst schnell in die Tiefe, so dass im Allgemeinen sehr schnell eine zulässige Lösung erlangt wird, über deren Qualität jedoch nichts ausgesagt werden kann.
  • Breitensuche: Von den noch nicht bearbeiteten Teilproblemen wird das gewählt, welches als erstes in den Baum eingefügt wurde (First In – First Out). Bei Verwendung dieser Auswahlregel werden die Knoten im Baum pro Ebene abgearbeitet, bevor tiefer gelegene Knoten betrachtet werden. Eine zulässige Lösung wird in der Regel erst relativ spät erhalten, hat aber tendenziell einen guten Lösungswert. Diese Strategie führt auch tendenziell früh zu brauchbaren unteren Schranken.

Die Verfahren sind kombinierbar. Eine erste Lösung lässt sich zum Beispiel mit einer Tiefensuche bestimmen, um dann bei einer anschließenden Breitensuche bereits eine globale obere bzw. untere Schranke zu haben.

Bound, die Schranke

[Bearbeiten | Quelltext bearbeiten]

Der Bound-Schritt hat die Aufgabe, bestimmte Zweige des Baumes „abzuschneiden“, d. h. in der weiteren Berechnung nicht mehr zu betrachten, um so den Rechenaufwand zu begrenzen. Dies erreicht der Algorithmus durch Berechnung und Vergleich der oberen und unteren Schranke:

  • Obere Schranken (upper bound) ergeben sich aus jeder zulässigen Lösung. Dafür kann gegebenenfalls zuvor eine Heuristik benutzt werden.
  • Um gute untere Schranken (lower bound) zu finden, wird oft eine Relaxation zugrunde gelegt. Das ist eine auf einer Menge definierte, leicht zu berechnende Funktion mit für alle . Das relaxierte Problem bei sei leicht lösbar und besitze eine Optimallösung . Dann gilt für alle . Bei ist auch Optimallösung des nicht relaxierten Problems.

Diese Überlegungen sind auch auf Teilprobleme anwendbar, wo also die Menge bereits aufgespalten wurde. Kennt man bereits eine zulässige Lösung und ist die untere Schranke für ein Teilproblem größer als , dann braucht man jenes Teilproblem nicht weiter zu untersuchen, weil es keine Optimallösung ergibt.

Von Dominanz spricht man, wenn für jede Belegung aus einer Teilmenge eine nicht schlechtere zulässige Lösung konstruiert werden kann. Werden nicht alle Optimallösungen gesucht, sondern nur eine, dann erübrigt sich die Suche in , selbst wenn die Schranken alleine nicht ausreichen, von der weiteren Durchmusterung auszuschließen. Dies steigert mitunter die Effizienz des Verfahrens erheblich, beispielsweise im mehrdimensionalen Zuschnittsproblem, obwohl Dominanztests nicht zur ursprünglichen Methode Branch-and-Bound gehören.

Beispiel: bei sei zu lösen. Eine untere Schranke ergibt sich sofort, indem alle Summanden nach unten abgeschätzt werden, also . Branch-and-Bound ohne Dominanzüberlegungen anzuwenden, erweist sich hier als unnötig aufwändig. Wegen ist so klein wie möglich zu wählen, einerlei wie groß ist, das heißt . Für wird ; bei ist und damit nicht optimal. Die einzige Optimallösung lautet .

Anwendung auf Probleme der ganzzahligen linearen Optimierung

[Bearbeiten | Quelltext bearbeiten]

Das allgemeine ganzzahlige lineare Optimierungsproblem hat die Gestalt

  • Maximiere
  • unter der Nebenbedingung und
  • mit
    • A: m×n-Matrix
    • x: n-dimensionaler Vektor
    • a: n-dimensionaler Vektor
    • b: m-dimensionaler Vektor
    • a · x: skalares Produkt, lineare Funktion mit n Variablen, reeller Wert
    • Ax: m-dimensionaler Vektor, der als Matrix-Vektor-Produkt der Matrix A mit dem n-dimensionalen Vektor x entsteht.

Durch Vernachlässigung der Ganzzahligkeitsbedingungen erhält man die stetige Relaxation, die mit dem Simplex-Verfahren gelöst werden kann. Wegen der geforderten Ganzzahligkeit gehört das Ausgangsproblem aber nicht zu den linearen Optimierungsproblemen.

Das Problem kann man mit Hilfe des Branch-and-Bound-Verfahrens lösen. Zuerst wird als bisher bester Zielfunktionswert gesetzt und die Ganzzahligkeitsbedingung weggelassen:

  • Maximiere
  • unter den Nebenbedingungen und .

Das so entstandene Problem nennen wir P0. Dieses nun lineare Optimierungsproblem löst man mit dem Simplex-Verfahren. Im Allgemeinen wird die erhaltene Lösung nicht ganzzahlig sein, d. h. sind nicht durchgängig ganzzahlig. Ohne Beschränkung der Allgemeinheit würde dies auch betreffen.

Nun versucht man, Lösungen mit ganzzahligem zu finden. Sei die größte ganze Zahl kleiner als . Dann formuliert man zwei neue lineare Optimierungsprobleme und derart, dass die vorher gefundene Lösung jeweils ausgeschlossen wird:

  • – Maximiere
  • unter den Nebenbedingungen
  • – Maximiere
  • unter den Nebenbedingungen

Eine solche Aufteilung in Unterprobleme nennt man branch (engl. Verzweigung).

Beide Teilprobleme werden mit dem dualen Simplexverfahren gelöst. Folgende Fälle können auftreten:

  1. Der zulässige Bereich wird leer.
  2. Man findet eine ganzzahlige Optimallösung für das Teilproblem.
  3. wird ganzzahlig, dafür aber ein anderes nicht, wobei es keine Rolle spielt, ob jenes vorher ganzzahlig war oder nicht.

Im Fall (1) erledigt sich das Teilproblem. In den anderen Fällen gilt das auch, wenn ist und nur eine Optimallösung gesucht wird oder ist und alle Optimallösungen gesucht werden. Ansonsten speichert man im Fall (2) die gefundene Lösung als bisher beste und ersetzt durch , während im Fall (3) das Teilproblem weiter aufzuspalten ist.

Auf diese Weise wird der gesamte Lösungsraum durchsucht und eine Optimallösung gefunden, wenn es eine gibt und das Verfahren nicht vorzeitig abgebrochen wurde. Es ist durchaus möglich, dass man trotz erschöpfender Suche keine Lösung findet. Dann besitzt das Ausgangsproblem keine zulässigen Lösungen.

Anhand einer konkreten Aufgabenstellung wird das Verfahren demonstriert.

Das Ausgangsproblem lautet:

  • Maximiere
  • mit den Nebenbedingungen
    ganzzahlig

Wir lassen die Ganzzahligkeitsbedingung weg und finden mit dem Simplex-Verfahren die optimale Lösung

Wir fahren fort mit dem Ziel, eine Lösung mit ganzzahligem zu finden. Dazu bilden wir 2 weitere Optimierungsaufgaben, eine mit der zusätzlichen Nebenbedingung , die andere mit .

  • – Maximiere
  • mit den Nebenbedingungen
  • – Maximiere
  • mit den Nebenbedingungen

Das Problem hat die Lösung

Da und ganzzahlig sind, ist dies eine zulässige Lösung des Ausgangsproblems. Wir wissen aber noch nicht, ob es eine bessere Lösung gibt.

Dazu lösen wir Problem und erhalten:

Auch dies ist wegen der Ganzzahligkeit eine zulässige Lösung. Da sowohl für als auch für die Zielfunktion den Wert annimmt, hat das Problem zwei optimale Lösungen.

Bewertung des Verfahrens

[Bearbeiten | Quelltext bearbeiten]

Beim Branch-and-Bound-Verfahren müssen mehrere – in ungünstigen Fällen sehr viele – Optimierungsprobleme gespeichert, verwaltet und mit Hilfe des Simplex-Verfahrens gelöst werden. Insbesondere bei großen Problemen, die mehrere hunderttausend Variablen und Nebenbedingungen haben können, führt dies zu hohem Rechen- und Speicheraufwand. Dafür vermeidet man den Nachteil des Schnittebenenverfahrens von Gomory, bei dem numerische Probleme durch mangelnde Genauigkeit der Zahlendarstellung im Computer die Lösungssuche erschweren. In der Praxis werden bei der Lösung ganzzahliger Optimierungsprobleme oft beide Verfahren zu Branch-and-Cut kombiniert. Dabei werden im Wurzelknoten und manchmal auch in weiteren Knoten des Branch-and-Bound-Baumes Schnittebenen separiert, um die lineare Relaxierung zu verschärfen.

Die Idee von Branch-and-Bound wurde erstmals 1960 von den Operations-Research-Wissenschaftlerinnen Ailsa Land und Alison Doig (später Alison Harcourt) im Bereich des Operations Research formuliert.[1] R. J. Dakin gab 1965 einen einfach zu implementierenden Algorithmus an.

  • R. J. Dakin: A tree-search algorithm for mixed integer programming problems. In: The Computer Journal, Volume 8, 1965, S. 250–255 comjnl.oxfordjournals.org

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. A. H. Land and A. G. Doig. An automatic method of solving discrete programming problems. In: Econometrica, Jg. 28 (1960), Nr. 3, 497–520, doi:10.2307/1910129.