Empirische Evaluation der optimierten Parameterwahl für die Partikelschwarmoptimierung


Masterarbeit, 2011

86 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Variablenverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1. Einleitung

2. Themenfelder und Grundlagen
2.1 Elektrochemische Bearbeitung: Prinzip und Modell
2.2 Die Partikelschwarmoptimierung
2.2.1 Geschichte und Funktionsweise
2.2.2 Ergebnisbeeinflussende Faktoren
2.2.3 Vereinfachungen und Abwandlungen
2.3 Betrachtung der PSO-Parameterwahl zur Lösung des ECM-Problems nach Rao et al
2.4 Grundlagen der Empirischen Analyse
2.4.1 Überblick
2.4.2 Methoden

3. Untersuchung zur optimierten Parameterwahl bei der Partikelschwarmoptimierung
3.1 Planung und Erhebung
3.2 Datenanalyse
3.2.1 Deskriptive Datenanalyse
3.2.2 Vergleich mit den Ergebnissen bei hoher Vektorbegrenzung
3.2.3 Analyse der Regionen guter Parameterqualität
3.2.4 Stellungnahme zur Parameterwahl von Rao et al. und der Lösung des ECM
3.3 Stichprobenbasierter Algorithmus zur automatischen Parameterwahl
3.3.1 Prinzip und Programmierung
3.3.2 Funktionalität und Laufzeit

4. Fazit

Literaturverzeichnis

Anhang

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Variablenverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Prinzip und Aufbau des ECM

Abbildung 2: Partikelbewegungen in einer Dimension nach Position im Zeitablauf bei C=0,01

Abbildung 3: Partikelbewegungen in einer Dimension nach Position im Zeitablauf bei C=0,1

Abbildung 4: Partikelbewegungen bei d=1, C=1,0 und r Є [0;1] nach Position im Zeitablauf

Abbildung 5: Bewegung eines einzelnen Partikels bei d=1, ohne Vmax

Abbildung 6: Bewegung eines einzelnen Partikels bei d=1, mit Vmax

Abbildung 7: Varianten der Verteilung. Von links nach rechts: Linkssteil, symmetrisch, rechtssteil. ..

Abbildung 8: Kontingenztabelle absoluter Häufigkeiten

Abbildung 9: Kontingenztabelle relativer Häufigkeiten

Abbildung 10: bester Zielfunktionswert (y-Achse) jeder Iterationen (x-Achse) pro Wiederholung (1- 10) für Z1, Z2, Z3 und Z

Abbildung 11: Absolute Häufigkeiten der Mittelwerte in den angelegten Intervallen

Abbildung 12: Matrix für w=0,5 bei Z1, gelb >20, 17,4285<dunkelgrün<20, hellgrün <17,4285

Abbildung 13: Häufigkeitsverteilung der 100 besten Kombinationen in Bezug auf w bei Z1

Abbildung 14: Häufigkeitsverteilung der besten Kombinationen in Bezug auf w

Abbildung 15: Häufigkeiten der Mittelwerte in den angegebenen Intervallen

Abbildung 16: Häufigkeiten der Mittelwerte in den angegebenen kleineren Intervallen

Abbildung 17: Häufigkeitsverteilung der besten Kombinationen in Bezug auf w bei Z2

Abbildung 188: Matrix für w=0,4 bei Z2. 1,2<gelb <1,3, 1,055<dunkelgrün <1,1, hellgrün<1,055

Abbildung 19: Graphische Darstellung der berechneten Mittelwerte als Kombination der c-Werte für w=0,4

Abbildung 20: : Matrix für w=0,5 bei Z2. 1,2<gelb <1,3, 1,055<dunkelgrün<1,1, hellgrün<1,055

Abbildung 21: Häufigkeitsverteilung der 100 besten Kombinationen in Bezug auf w bei Z2

Abbildung 22: Absolute Häufigkeiten der Mittelwerte in den angegebenen Intervallen

Abbildung 23: Absolute Häufigkeiten der Mittelwerte in den angegebenen Intervallen

Abbildung 24: Häufigkeitsverteilung der 100 besten Kombinationen in Bezug auf w bei Z3

Abbildung 25: Matrix für w=0,4 bei Z3. 25<gelb <26,5, 26,5<dunkelgrün <26,6, hellgrün>26,6

Abbildung 26: Matrix für w=0,5bei Z3. 25<gelb<26,5, 26,5 <dunkelgrün<26,6, hellgrün>26,6

Abbildung 27: Häufigkeitsverteilung der besten Kombinationen in Bezug auf w bei Z3

Abbildung 28: Häufigkeiten der Gewichtung w in den besten 50 Kombinationen

Abbildung 29: Standardabweichungen der Parameterkombinationen bei n=100. Sortierung

(qualitativ) aufsteigend nach Mittelwerten. Oben links: Z1, Unten links: Z2, Oben recht: Z3, Unten rechts: Z. Werte der y-Achse in %

Abbildung 30: Standardabweichung der RgP des 75%-Quantils von Z1. Werte der y-Achse in %

Abbildung 31: Treppenfunktion der Aufsteigend sortierten Standardabweichungen von RgP von Z3 Werte der y-Achse in %

Abbildung 32: Stichprobenverteilung in einer beispielhaften cp-cg-Matrix

Tabellenverzeichnis

Tabelle 1: Ergebnisse der ECM-Optimierung nach Rao et al

Tabelle 2: ECM-Parameterwahl nach Rao et al. (2008)

Tabelle 3: Die 15 besten Parameterkombinationen zur Ermittlung der minimalen Ungenauigkeit

Tabelle 4: Die besten 20 Parameterkombinationen zur Berechnung der maximalen Abtragrate

Tabelle 5: Ausschnitt aus der Datenerhebung zu Z

Tabelle 6: Werte der Funktion Z im Vergleich mit den besten monokriteriellen Werten

Tabelle 7: Die 10 besten Mittelwerte der multikriteriellen Optimierung

Tabelle 8: Die 10 besten Mittelwerte der ECM-Zielfunktionen für Vmax=50% bzw. 10%

Tabelle 9: 5-Punkte-Zusammenfassung für die Verteilung der arithmetischen Mittel über alle n= Wiederholungen für die Regionen guter Parameterqualität

Tabelle 10: Prozentuale Abweichung der einzelnen Größen vom Minimalwert

Tabelle 11: Vergleich der besten ermittelten Ergebnisse

Tabelle 12: Ermittelte ECM-Dimensionswerte für die verschiedenen Funktionen

Tabelle 13: Monokriterielle Ergebnisse bei der besten multikriteriellen Lösung

Tabelle 14: Parameterkombinationen mit den besten ermittelten Zielfunktionswerten

Tabelle 15: 5-Punkte-Zusammenfassung der 100 PSO-Durchläufe mit vorgelagerte Parameterwahl durch den Merels-Algorithmus

Tabelle 16: Arithmetische Mittel und Standardabweichungen bei vorgelagertem Merels Algorithmus in 100 PSO-Durchläufen

1. Einleitung

Mehrdimensionale Problemstellungen finden sich in allen wissenschaftlichen Bereichen, in denen Ziele und Entscheidungen das Ergebnis mehrerer Entscheidungsvariablen (als Ausprägungen der Dimensionen) sind. Hängt eine Entscheidung von mehreren, oft konfliktionären, Zielen ab, so wird sie als multikriteriell bezeichnet.1 Begründet sein kann diese Eigenschaft, wie später noch zu sehen sein wird, durch gleichzeitig verwendete Entscheidungsvariablen mit unterschiedlichen Einflüssen innerhalb der Zielfunktionen.2 Komplexität und Anwendbarkeit haben nicht zuletzt durch den Einsatz der Informationstechnologie stark zugenommen und an Bedeutung für die Wissenschaft gewonnen. Vor allem das Abbilden realer Situationen, wie sie zum Beispiel in den Ingenieursbereichen vorkommen, ist oft nur mit komplexen Funktionen möglich, welche nur unter enormem Zeitaufwand oder starker Approximation lösbar sind. Die zeiteffiziente Lösung solcher Probleme ist somit ein wissenschaftliches Anliegen und führt zu immer neuen Optimierungsverfahren. Gegenstand dieser Ausarbeitung soll das von Kennedy und Eberhart Mitte der 1990er-Jahre publizierte Verfahren der Partikelschwarmoptimierung (PSO) sein. Dieser evolutionäre Algorithmus, dessen Ergebnisse stark von externen Parametern abhängen, soll hier an einer beispielhaften Problemstellung auf die Möglichkeit der optimalen Parameterwahl hin empirisch untersucht werden. Diese Ausarbeitung wird beweisen, dass für das betrachtete Problem nach Rao et. al. (2008) sogenannte Regionen guter Parameterqualitäten (RgP) existieren, in denen jene Parameter der Partikelschwarmoptimierung liegen, welche zu optimalen Ergebnissen führen. Basierend auf dieser Beobachtung wird gezeigt werden, dass die Kenntnis von der Position einer solchen Region genügt, um eine gezielte Stichprobe im entsprechenden Parameterbereich zu nehmen, um zu annähernd global optimalen Ergebnissen zu gelangen. Auf diese Weise wird es ebenfalls möglich sein, die von Rao et al. vorgenommene Parameterwahl auf ihre Qualität hin zu beurteilen. Abschließend wird ein vom Autor entwickelter Algorithmus vorgestellt, welcher beide Eigenschaften umsetzt und so die Laufzeit der Partikelschwarmoptimierung bei gleichbleibend guten Ergebnissen auf bis zu 0,5% der zuvor durchgeführten Erhebung reduziert.

2. Themenfelder und Grundlagen

Der Titel dieser Arbeit lässt bereits drei Bereiche erkennen die sich in dieser Arbeit wiederfinden werden: Die empirische Analyse, die Partikelschwarmoptimierung und das Problemfeld der optimalen Parameterwahl. Letzteres soll in Kapitel 3 anhand einer Problemstellung aus dem Ingenieurbereich geschehen, welche im nächsten Unterpunkt zunächst einführend dargestellt wird. Im Anschluss wird ein Überblick über die Partikelschwarmoptimierung selbst gegeben, so dass danach die Zusammenführung durch Rao et al. kurz widergegeben werden kann. Ein Einblick in das Themenfeld der empirischen Analyse wird die notwendigen Grundlagen für eine eigene entsprechende Untersuchung in Kapitel 3 legen und das Kapitel abschließen.

2.1 Elektrochemische Bearbeitung: Prinzip und Modell

In Fällen, in denen die mechanische Bearbeitung von metallenen Oberflächen nicht möglich (zu hart, zu flexibel, zu empfindlich) oder nicht ökonomisch ist, werden seit den 1940er Jahren unkonventionelle Methoden eingesetzt. Rao et al. (2008) nennen hier beispielhaft die chemische, elektrochemische, thermale, und die elektrothermale Bearbeitung.3 Bei dem hier betrachteten ECM wird, auf Grundlage des Phänomens der Elektrolyse nach Faraday von 1833, die Oberfläche eines Objektes nur durch eine chemische Reaktion und ohne physikalischen Kontakt bearbeitet. Das Werkstück fungiert hierbei, wie in Abbildung 1 zu sehen, als Anode, das bearbeitende Werkzeug als Kathode der elektrolytischen Zelle. Die beim Anlegen von elektrischer Spannung entstehende Potentialdifferenz (2-30V) zwischen beiden Elektroden erzeugt eine Wanderung der negativ geladenen Elektronen von der Anode (Werkstück) hin zur positiven Kathode, dem Werkzeug.

Abbildung 1: Prinzip und Aufbau des ECM4

Dadurch wird über die chemische Reaktion die Oberfläche des Werkstückes ohne physikalische Berührung abgetragen. In dem Wasser, welches beide Elektroden als Elektrolyt umgibt, bildet sich Wasserstoff, welcher später im Modell noch relevant sein wird.5 Rao et al. (2008) sehen die größten Vorteile des Verfahrens vor allem in der großen Bandbreite an bearbeitbaren Materialien, welche nur durch deren chemische Eigenschaften und nicht durch Härte oder andere physikalische Eigenschaften limitiert wird. Wilson (1982) ergänzt diesen Punkt um den der hohen Qualität und der vergleichsweise niedrigen Kosten.6 Genau hier sehen erstere jedoch einen großen Nachteil: Während Wilson sich auf die Anschaffungskosten konzentriert und lediglich längere Anlernzeiten für Mitarbeiter und noch nicht ausgereifte Verfahren zur Werkzeugproduktion anführt (Anm. d. Verf.: Dieser Nachteil war in der ersten Fassung fast 40 Jahre vor Rao et al.), sehen Rao et al. den Hauptnachteil in den variablen Kosten, speziell dem hohen Energieverbrauch.7 Wilson bestätigt den hohen Verbrauch bei seiner Berechnung der operativen Kosten und gibt für den Betrieb eine 12V- Anlage mit einer Stromstärke von 10.000 Ampere an.8 Genau hierin sehen die Autoren ihren Artikel begründet: Durch die hohen Kosten die das Verfahren verursacht (Anfangsinvestitionen mindestens auf dem Niveau regulärer Maschinen, Stromverbrauch höher) trägt ein optimierter Einsatz durch die daraus resultierenden geringeren variablen Kosten stark zur ökonomischen Umsetzbarkeit des Verfahrens bei. Sie führen dazu drei Zielfunktionen an, welche sie der Arbeit von Acharya et al. (1986) entnommen haben: Die Abtragrate, die dimensionale Genauigkeit und die Werkzeugstandzeit.

1. Genauigkeit

Wie in Abbildung 1 zu sehen besteht eine Differenz in den Distanzen zwischen den beiden Elektroden im Bereich des Zuflusses (Y0) und des Abflusses (Y1). Diese Differenz bestimmt die Genauigkeit des Verfahrens. Erreicht wird die Maximierung der Genauigkeit über die Minimierung der Ungenauigkeit, definiert durch (Y0- Y1).

2. Abtragrate

Als Produkt der bearbeiteten Fläche und der Abtragmenge des Werkzeuges (im engl.: tool feed rate = f) wird die Abtragrate (im engl.: material removal rate = MRR) bei der konstanten bearbeitbaren Fläche vor allem durch die Abtragmenge des Werkzeugs bestimmt, so dass für die Maximierung MRRmax=fmax gilt.

3. Werkzeugstandzeit

Vor allem beeinflusst durch die Menge der Funken pro cm, wird die Haltbarkeit des verwendeten Werkzeugs über die Minimierung des Funkenfluges maximiert.

Alle drei Zielfunktionen können mit den Dimensionen Abtragmenge (f), Fließgeschwindigkeit des

Elektrolyt (U) und Angelegte elektrische Spannung (V) beschrieben werden. Mit Bezug auf Acharya et al. (1986) führen Rao et al. (2008) die folgenden, einzeln optimierbaren Zielfunktionen an:

Abbildung in dieser Leseprobe nicht enthalten

An den Funktionen ist bereits ersichtlich, dass die Ziele konfliktionär sind. Sowohl Z1 als auch Z2 stehen in positiver Abhängigkeit zu f, was aufgrund des Minimierungsziels bedeutet, dass f möglichst klein gewählt werden muss. Diese Eigenschaft ist konträr zu dem Maximierungsziel in (2.3) und kommt in der gemeinsamen Betrachtung aller Ziele in der multikriteriellen Zielfunktion Z mit

Abbildung in dieser Leseprobe nicht enthalten

zum Tragen. Z1min, Z2min und Z3max sind die zuvor bereits in der monokriteriellen Optimierung ermittelten Werte, welche hier als fixe Divisoren fungieren.9 Z1-Z3 werden durch das Optimierungsverfahren ermittelt und bewertet. Ziel ist es, jene Ausprägungen für Z1 - Z3 zu finden, welche zu einem minimalen Z führen. Jene Kombination an Ausprägungen in den Dimensionen f, U und V, die zu diesem minimalen Wert führt, stellt die optimale Einstellung der ECM-Parameter dar. Die Variablen w1-w3 geben die Möglichkeit einer Gewichtung einzelner Elemente, die Autoren lassen die Elemente jedoch gleichgewichtet, so dass

Abbildung in dieser Leseprobe nicht enthalten

gilt. In der Realität unterliegt die Bearbeitung verschiedenen Nebenbedingungen (NB), die in das Modell übernommen werden müssen.

- Temperatur-NB:

Die entstehende Temperatur muss unter der Siedetemperatur des Elektrolyts bleiben. Nach Umformungen gelangten die Autoren für den vorliegenden Fall zu der Funktion

Abbildung in dieser Leseprobe nicht enthalten

Passivitäts-NB:

Zur Vermeidung von Passivität (passive Elemente gehen nicht in Lösung) muss die Schicht aus gasförmigem Sauerstoff dicker sein als die sich im Laufe des Verfahrens bildende passive Schicht. Dafür gilt

Abbildung in dieser Leseprobe nicht enthalten

Eine sich bildende Wasserstoffschicht (aus dem oben angesprochenen, sich bei der chem. Reaktion bildenden Wasserstoff) an der Kathode kann den Elektrolytfluss behindern (daher „choking“= engl.: Drosseln, Verstopfen). Zur Vermeidung eines Verstopfens sollte die Schicht dünner sein als die Elektrodenlücke, weshalb

Abbildung in dieser Leseprobe nicht enthalten

Zusätzlich gelten für die Parameter des ECM, also die Dimensionen des Modells, folgende quantitativen Grenzen:

Abbildung in dieser Leseprobe nicht enthalten

Die von Rao et al. mit der Partikelschwarmoptimierung ermittelten Ergebnisse sollen im Unterpunkt 2.3 nach einer Einführung in das Verfahren in 2.2 dargestellt werden.

2.2 Die Partikelschwarmoptimierung

Das Kernelement dieser Arbeit ist das Verfahren der Partikelschwarmoptimierung und der Nachweis der Ergebnisbeeinflussung durch extern vorgegebene Parameter, so dass deduktiv aus den Erkenntnissen auf eine globale Möglichkeit der Parameterwahl geschlossen werden kann. Zur umfassenden Darstellung dieses Kernelements soll in diesem Unterpunkt zunächst auf die Geschichte und die Funktionsweise des Verfahrens eingegangen werden, zwei Bereiche die, wie im Folgenden zu sehen sein wird, am besten simultan erläutert werden. Im Anschluss wird auf Varianten und Probleme eingegangen werden, bevor die ergebnisbeeinflussenden Faktoren herausgearbeitet werden.

2.2.1 Geschichte und Funktionsweise

Die Partikelschwarmoptimierung ist ein Verfahren zur Optimierung stetiger Funktionen, das Mitte der 1990er Jahre von Kennedy und Eberhart publiziert wurde.10 Es basiert auf der künstlichen Imitierung von tierischem Schwarmverhalten und ist eher zufällig bei Arbeiten in eben letzterem Themenbereich entstanden. Um die Funktionsweise zu erläutern, soll der Entstehungsprozess des Verfahrens wiedergegeben werden.11 Ziel des von Heppner und Grenader (1990) ursprünglich geschriebenen Programmes war das Simulieren der synchronen Bewegungen eines Schwarms ohne das Vorgeben der individuellen Bewegungen.12 Dabei sollte gezeigt werden, aufgrund welcher Parameter sich die Angehörigen des Schwarms einheitlich verhalten ohne dabei zu kollidieren. Sie wurden dazu durch zufällig initialisierte Punkte in einem zweidimensionalen Koordinatensystem repräsentiert (im Folgenden bereits Partikel genannt), von denen jeder einen eigenen (zufälligen) Vektor, als Repräsentant von Bewegungsrichtung und -geschwindigkeit, zugewiesen bekam.13 In jedem Durchlauf (=Iteration) bestimmt das Programm für jedem Partikel einen Nachbarn, dessen Vektor von dem fokussierten Partikel übernommen wird. Durch diese einfache Zuweisung wurde, eine einheitliche Bewegung erreicht. Um das schnelle Einschlagen einer gemeinsamen und von da an konstanten Richtung zu vermeiden, wurden zufällig ausgewählte Vektoren willkürlich verändert (laut Heppner und Grenader (1990) auch, um Einflüsse wie Wind oder andere Störfaktoren zu simulieren), wodurch ein „lebensechtes“ Schwarmverhalten simuliert werden konnte.14

Laut Heppner und Grenander zeigten die Partikel, welche sie in Anlehnung an die beabsichtigte Ähnlichkeit auch „Vögel“ nannten, ein bestimmtes, von den Parametern abhängiges Verhalten, wie zum Beispiel das Fliegen im Kreis um eine bestimmte Stelle herum und ein anschließendes Bewegen durch den Raum, wobei Partikel, welche sich nicht in der Menge befanden, „eingesammelt“ und in den Schwarm aufgenommen wurden.15

Aus dieser Beobachtung resultierte die erste Abwandlung der Ursprungsimulation: Ein Punkt, repräsentiert durch seine X- und Y-Koordinate, sollte als simulierte Futterstelle von den Partikeln gemeinsam gefunden werden. Dazu glich jeder von ihnen seine gegenwertige Position mit der Funktion Eval (presentx 100)² (presenty 100)² (3.10) ab, bei welcher geringere Werte als besser bewertet werden.16 Es ist leicht zu erkennen, dass in dieser ersten, noch ohne Nebenbedingungen zu minimierenden Zielfunktion die Position (100; 100) angestrebt werden soll. Die Suche nach Vektoren, die letztendlich in der gesuchten Position enden sollen, lässt sich für jede Iteration in zwei Bereiche unterteilen. Zum einen speichert jeder Partikel für sich im Verlauf der Iterationen seine persönlich beste Position, also jene, deren X- und Y-Werte eingesetzt in die Funktion (x=presentx, y=presenty) den geringsten Funktionswert ergeben hat. Sie erhielt den Namen pbest mit den Koordinaten pbestx[] und pbesty[]. Durch das Einsetzen des Partikelindex in die Klammer wird der entsprechende Wert ausgegeben. Zum anderen ist allen Partikeln jene Position bekannt, die von allen bisher gefundenen Positionen aller Teilnehmer des Schwarms das global beste Ergebnis hervorgebracht hat. Bekannt bedeutet in diesem Kontext, dass dadurch, dass der Index des Partikels mit dem temporär global-minimalen pbest -Wert der Variable gbest zugewiesen wird, die global beste Position jederzeit über pbest[gbest] für alle abrufbar ist. Gleiches gilt für deren Koordinaten mit pbestx[gbest] und pbesty[gbest]. Beide Positionen beeinflussen den zukünftigen Vektor auf die gleiche Weise: Liegt die gegenwärtige Position (i.S.v. Ausprägung der Koordinate) über der bekannten besseren, so wird der entsprechende Vektorwert um eine gewichtete Zufallszahl reduziert. Liegt sie darunter, wird der Wert addiert.17 Für die Simulation ergeben sich also in jeder Iteration die folgenden Anpassungen für den Vektor v in den Dimensionen X (= vx) und Y (= vy):

Abbildung in dieser Leseprobe nicht enthalten

Das Ergebnis war nach Kennedy und Eberhart (1995), dass der Schwarm bei hohen Werten für p_increment und g_increment auf den entsprechenden Punkt „stürzen“, während sie bei niedrigen Werten in synchronen Kleingruppen um den Punkt kreisen und letztendlich „auf im landen“.19 Durch diese Erweiterung wurde nicht nur die Weitergabe von Wissen simuliert, sondern auch eine erste Zielfunktion gelöst, auch wenn in diesem Fall das Optimum im Vorfeld bekannt war.

Im Anschluss wurden inzwischen überflüssige Variablen identifiziert und entfernt, wie zum Beispiel die zufällige Veränderung von gefundenen Vektoren. Im Originaltext war bis zu diesem Zeitpunkt von flock die Rede, also ein Schwarm in Bezug auf Vögel, resultierend aus dem ursprünglichen Ziel des Programmes. Durch die Abschaffung der craziness genannten zufälligen Veränderung des Vektors wurde der (Anm. des Verf.: im deutschen einfach nur) Schwarm durch sein optisches Verhalten zu einem swarm, also eine Form des Schwarms, dem etwas mehr der ausschwärmende und sich verteilende Charakter anhaftet als dem vorher verwendeten Begriff. Mit Bezug auf die fünf Kriterien der swarm intelligence von Millonas (1994) begründen die Autoren den Begriff swarm als passenden Ausdruck für die Menge der initialisierten Partikel, so dass sich, zusammen mit der zuvor erläuterten Begründung für den Namen „p article “, für das Verfahren der Name particle swarm optimization, im Deutschen Partikelschwarmoptimierung, ergibt.20 Die Variablen pbest und gbest blieben als essentielle Bestandteile bestehen und werden bis heute in der Literatur verwendet, oft auch bezeichnet als kognitive- (also wahrnehmungs-) bzw. soziale Variable.21 Nach dieser Verschlankung und dem vorher erbrachten Beweis für die Funktionalität bei zweidimensionalen Problemen wurde das Verfahren von Kennedy und Eberhart für mehrdimensionale Problemstellungen durch das Erweitern der eindimensionalen Arrays zu D×N-Matrizen verallgemeinert und an gängigen Problemstellungen erfolgreich getestet.22 In einem letzten Schritt erfolgte, zur besseren Nachvollziehbarkeit der Partikelbewegungen und zur Performancesteigerung, eine Anpassung der Einflussnahme des persönlich besten und des global besten Ergebnisses auf den individuellen Vektor. Im Gegensatz zum oben beschriebenen Verfahren sollte nun nicht nur die Ungleichheit der dimensionalen Ausprägungen ausschlaggebend sein, sondern es sollte auch die Distanz in die Berechnung eingehen. Der Vektor für t+1 wird damit für alle Dimensionen durch die Funktion

Abbildung in dieser Leseprobe nicht enthalten

berechnet, wobei x allgemein für die Dimension steht.23 Es ist zu sehen, dass die gewichtete Zufallszahl, welche in der Vorgängerversion den Vektor abändern sollte, nun die Distanz gewichtet bzw. abändert, so dass das Produkt in den Vektor einfließt. Durch die Möglichkeit von positiven oder negativen Distanzen (im Koordinatensystem) genügt diese eine Funktion für alle Positionen und reduziert somit die Anpassung aus (2.11) von vier auf eine Zeile pro Dimension. Die in diesem Paper nicht explizit erwähnte aber später als die Grundformel der Partikelschwarm-Vektorsuche akzeptierte Version bringt den Einfluss des global besten Wert mit ein:

Abbildung in dieser Leseprobe nicht enthalten25

ist hier eine Mischform aus p_- bzw. g_increment und rand(), so dass die Variable eine zufällig initialisierte Konstante repräsentiert. Auf diese Weise umgehen die Autoren das Problem der optimalen Parametereinstellung mit der Argumentation, dass über den Zufall mal bessere und mal schlechtere Kombinationen probiert werden. ist dabei Normalverteilt im Bereich [0,2]. Rao et al., deren Paper als Anlass dieser Arbeit später noch dargelegt werden soll, nutzen jedoch die parametrisierte Variante, in der Zufall und Gewichtung voneinander getrennt existieren. Es gilt

Abbildung in dieser Leseprobe nicht enthalten

wobei auch hier in dieser Arbeit die Werte durch 1=p und 2=g verallgemeinert werden sollen.26 Des Weiteren findet sich hier eine als inertia weight bezeichnete Variable, die auf ein Paper von Shi und Eberhart (1998) zurück geht und den Vektor der vergangenen Iteration gewichtet. Mit

Abbildung in dieser Leseprobe nicht enthalten

als neue und hier zugrunde gelegte Vektorfunktion.27 Die Veränderbaren Anteile der Funktion werden im Folgenden als Parameter bezeichnet, wobei ein weiterer Verweis auf die PSO unterbleibt. Zur besseren Unterscheidung werden die ECM-Parameter f, U und V als (ECM-)Dimensionen bezeichnet.

2.2.2 Ergebnisbeeinflussende Faktoren

Wie im letzten Abschnitt dargestellt, werden die Kernelemente der Vektorsuche in der Funktion (2.15) mit den Werten w, c, und r multipliziert. Mathematisch wird hier ersichtlich, dass die Ausprägungen dieser Werte einen signifikanten Unterschied in Bezug auf das Ergebnis herbeiführen können, da zum Beispiel die Ausprägung Null ganze Bereiche eliminieren kann. Nicht ersichtlich ist jedoch, welchen Einfluss die Ausprägungen der einzelnen Werte genau haben können und welchen Einfluss das Wechselspiel der Variablen haben kann, da nicht der einzelne Vektor sondern die Summe aller Vektoren das Absuchen des Lösungsraumes beschreibt, so dass die Auswirkungen der Faktoren erst sukzessive im Laufe der Iterationen ersichtlich werden. Zur besseren Darstellung soll deshalb mit der isolierten Betrachtung der Gewichtung, oder auch „des Beschleunigungsfaktors“, c begonnen werden. Dazu gilt bis auf weiteres w=r=1. Angenommen xid(t-1) ist die gegenwärtige Koordinate des Partikels i in der Dimension d zu dem Zeitpunkt, in dem die Koordinate für den Zeitpunkt t berechnet werden soll, und vid ein Vektor für Partikel i in der Dimension d, so gilt für t

Abbildung in dieser Leseprobe nicht enthalten

Es ist offensichtlich, dass sich der Partikel bei einer Ausprägung von cp=cg=0 linear bewegt, da bei vid(t)=vid(t-1)+0 und der oben genannten Funktion für x in t der aktuellen Koordinate der Vektor aus t-

1 hinzugefügt wird, was bei diesem Sonderfall immer vi(t)=vi(0) wäre. Zur störungsfreien Analyse des Verhaltens bei Gewichtungen von c>0 haben Kennedy und Eberhart (2001) ein vereinfachtes System mit nur einem Partikel und einer Dimension untersucht. Die genannte Annahme von w=r=1 wird durch die Eliminierung der Variablen realisiert. Für dieses System gilt somit

Abbildung in dieser Leseprobe nicht enthalten

wobei die Gewichtung des besten Nachbarschaftsergebnisses mangels Nachbarn entfällt. In diesem vereinfachten System gilt gemäß der Quelle und zur besseren Unterscheidung von dem vollständigen System die Variablenbezeichnung =c.

Innerhalb dieses Modells konnten die Autoren, auf Basis eines Papers von Ozcan und Chilukuri (1999), erkennen, dass sich der Partikel bei einem sehr klein gewählten in weiten aber regelmäßigen Bahnen um das bekannte Optimum (in diesem Fall 0) bewegt (vgl. Abbildung 2). Wird der Wert erhöht, so werden die Zyklen kürzer und kleiner, wie in Abbildung 3 zu sehen ist. Anhang

1 und 2 zeigen die graphischen Ergebnisse von Kennedy und Eberhart für ]0; 4] . Auffällig ist hier, dass die Vektorgrößen schon ab einem = 0,1 in fast jedem Schritt von der später noch genauer

zu beschreibenden maximalen Vektorgröße (V), in diesem Fall 2, limitiert werden. Zu beobachten max

ist hier vor allem die Regelmäßigkeit in Bezug auf die Richtungsänderungen und Schrittlängen der Partikel. Aufgrund dieser Beobachtung von Ozcan und Chilukuri (1999) beziehen sich Kennedy und Eberhart auch auf deren Terminus, „(that) the particles does not ‚fly‘ through the search space, but rather ‚surfs‘ it on sine waves“.28 Erstgenannte Autoren geben auch bereits 1999 einen Ausblick auf die Möglichkeit einer just-in-time-Anpassung der Suchkriterien durch die Partikel selbst um die

Ergebnisse zu verbessern. Eine Technik, die erst später, wie im nächsten Unterpunkt zu lesen ist, umgesetzt wird.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Partikelbewegungen in einer Dimension nach Position im Zeitablauf bei C=0,0129

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Partikelbewegungen in einer Dimension nach Position im Zeitablauf bei C=0,130

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Partikelbewegungen bei d=1, C=1,0 und r Є [0;1] nach Position im Zeitablauf31

Wird zur weiteren Untersuchung der Zufall in Form der Variable r hinzugefügt, so werden die

Bewegungen der Partikel unregelmäßig, wie in Abbildung 4 für ein von daher auch in dieser Einführung relevanten Problem der Parameterwahl kommen: Die sogenannte Explosion. Verhält sich ein Partikel wie oben beschrieben bei bestimmten Parametern zyklisch, so kann eine Zufallsgewichtung des durch die „energieaddierende“ Wirkung auf die Partikelbewegungen durch r zu explosionsartig ansteigenden Vektorenwerten führen, welche theoretisch unbegrenzt ansteigen können.33 Abbildung 5 zeigt einen Fall von Kennedy und Eberhart (2001), in dem die Partikelbewegung bei Iteration 150 Schrittlängen von ±109 annimmt, bei einer Suche nach einem fixierten Optimum im Nullpunkt.34 In einem solchen Fall können die Partikel schnell den zulässigen Lösungsraum verlassen und damit in jeder weiteren Iteration durch die Nebenbedingungen des Optimierungsproblems abgelehnt werden oder das Optimum ständig mit Distanzen überfliegen, die keine guten Ergebnisse aus der Peripherie des Optimums mehr erreichen. Sie werden somit für das Verfahren nutzlos oder blockieren, je nach Programmierung, das komplette Optimierungsprogramm.35 Traditionell wurde diesem Problem durch die Limitierung der zulässigen

Abbildung in dieser Leseprobe nicht enthalten

Durch den zusätzlichen stochastischen Einfluss werden wie in Abbildung 6 zu sehen, mehr oder weniger gleichmäßige Partikelbewegungen in einem bestimmten Wertespektrum erzeugt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Bewegung eines einzelnen Partikels bei d=1, ohne Vmax37

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Bewegung eines einzelnen Partikels bei d=1, mit Vmax 38

Kennedy und Eberhart (2001) sowie Clerc und Kennedy (2002) beschreiben Methoden der Parameterwahl, welche einen starken Anstieg der Vektoren verhindern und, bei gleichen exogenen Bedingungen, sogar eine Konvergenz herbeiführen sollen. Da das später verwendete Programm die V -Restriktion verwendet, soll hier lediglich auf diese Untersuchungen verwiesen werden.

Das letzte schon angesprochene Element der vollständigen Funktion ist die, im deutschen, Massenträgheitsvariable w, welche bestimmt, wie stark die bereits eingeschlagene Bewegungsrichtung ( v id t 1)( ) im nächsten Schritt berücksichtigt, also gewichtet werden soll. Allgemein lässt sich sagen, dass ein w>0 zu einem divergierenden Verhalten der Partikel führt, da die Geschwindigkeiten immer größer werden und ein Umkehren zu schon gefundenen guten Parameterregionen zunehmend erschweren. Ein w<0 hingegen lässt die Geschwindigkeit, in Abhängigkeit von den Beschleunigungskoeffizienten, stetig sinken, was eine Tendenz hin zu schon erforschten Regionen verstärkt und die Gefahr einer mangelnden Absuche des Lösungsraumes birgt.39 Shi und Eberhart (1998) testeten verschiedene Kombinationen von Vmax und w auf ihre Fähigkeit, das optimale Ergebnis in minimaler Zeit zu finden. Die Begründung ist, dass zu geringe Vmax -Werte ebenfalls die Explorationsfähigkeit des Verfahrens beschränken, ähnlich dem w<0. Das Benchmark wurde an Schaffers f6-Funktion durchgeführt mit dem Ergebnis, dass sich für geringe Vmax

-Werte ein w=1 und für höhere Vmax-Werte ein w=0,8 bewährt hat. Die Autoren verweisen vor allem auf die Möglichkeit, w im Laufe der Iterationen sinken zu lassen, um so einen Explorationscharakter zu Beginn und einen Exploitationscharakter gegen Ende zu erzielen. Von einer solchen Anwendung versprechen sich Shi und Eberhart bessere Ergebnisse.40 Bergh und Engelbrecht (2006) sahen den Zusammenhang der Massenträgheitsvariable eher mit den Beschleunigungskoeffizienten c und führen eine Parameterkombination von

Abbildung in dieser Leseprobe nicht enthalten

an.41 Damit liegen sie relativ nah an der Parameterwahl von Rao et al. (w=0,65; cp=1,65; cg=1,75), was ein Indiz für eine Region guter Parameterqualität sein könnte.

Alles in allem lässt sich mit Blick auf die Parameterwahl sagen, dass sie in verschiedenen Fällen unterschiedlich vorgenommen wird und damit problemabhängig zu sein scheint. Dadurch muss sie zur Generierung guter Lösungen für jede Problemstellung neu ermittelt werden. Wie das letzte Beispiel zeigt ist es jedoch nicht auszuschließen, dass es Bereiche gibt, in denen häufiger gute Lösungen gefunden werden können.

2.2.3 Vereinfachungen und Abwandlungen

An dieser Stelle einen vollständigen Einblick in die Gesamtheit der Abwandlungen und Vereinfachungen des Verfahrens zu geben ist aufgrund des Umfanges und der Zielsetzung dieser Arbeit nicht möglich. Allein die bis 2004 gepflegte Website zum Thema swarm intelligence listet in einer Bibliographie beginnend mit dem Werk von Kennedy und Eberhart (1995) 316 Paper und Bücher auf.42 Deshalb sollen in diesem Unterpunkt lediglich gängige Vereinfachungen und Themengebiete für Abwandlungen angesprochen werden, welche die Einordnung eigener Erkenntnisse in Kapitel 3 in den Gesamtkontext der wissenschaftlichen Ansätze im Bereich PSO erleichtert.

Schon Kennedy und Eberhart führen in ihrem ersten Paper Vereinfachungen ihres Verfahrens an. Um die im letzten Unterpunkt angesprochene Problematik der korrekten Parameterwahl zu umgehen, ersetzen sie in einer Version die Gewichtung von pbest und gbest durch den Faktor 2 und verweisen auf zukünftige Forschungen zum Thema Parameterwahl. Folge dieser verdeckten Parameterwahl von

Abbildung in dieser Leseprobe nicht enthalten

ist, dass die Partikel den Lösungsraum mit der doppelten Geschwindigkeit einer Vektorformel ohne Faktor absuchen und dass keine weitere Parameterwahl mehr vorgenommen werden muss. Es gilt dauerhaft =4.43

Clerc und Kennedy (2002) gehen noch einen Schritt weiter und fixieren ausgehend von der Funktion in (2.15) den Masseträgheitsmoment auf einen konstanten Wert der, und das ist der Unterschied zu der letzten Vereinfachung, nicht zwingend bei w=1 liegen muss.44 Auf diese Weise kann, bei weiterhin fixiertem C, der Einfluss dieser Variable auf das Ergebnis untersucht werden.

Eine Abwandlung des Standard-PSO-Verfahrens beschreibt Clerc (2008). In einem Paper untersucht er die Auswirkungen der Initialisierungsmethode auf das Ergebnis bei gleicher Parameterwahl und konnte zeigen, dass eine verteilungsbasierte Initialisierung der Partikel zu Beginn des Verfahrens ebenso zu einer Verbesserung des Ergebnisses führen kann, wie eine andere Form der Vektorsuche.

Auswirkung auf das Ergebnis hat auch das „soziale Verhalten“ der Partikel, definiert durch die Menge an anderen Partikeln, von denen ein Teilnehmer des Schwarms Informationen über ein temporäres globales Optimum erhält. Verschiedene Ansätze wurden z.B. von Kennedy (1999), Sugantan (1999) oder Kennedy und Mendes (2002) angeführt. Eine vollständige Nachbarschaft, wie oben als Teil des Verfahrens beschrieben und als gbest-Nachbarschaft bekannt, sorgt für eine zeitgleiche Verbreitung des Wissens über ein neu gefundenes, globales Optimum in der gesamten Population. Bei kleineren Distanzen kann das dazu führen, dass alle Partikel, wie bei der oben beschriebenen ursprünglichen Schwarmsimulation bei hohen Gewichtungen, schnell das temporäre Optimum ansteuern. Das Problem hierbei ist, dass dadurch der Suchraum nicht vollständig erforscht wird und bessere Lösungen unter Umständen nicht entdeckt werden. Kleinere Nachbarschaften zu nur einer Teilmenge der Population verlangsamen den Informationsfluss durch die Gesamtmenge umgekehrt proportional zur Größe der Teilmenge. Dies führt zwar zu einer besseren Abdeckung des Lösungsraumes mit Suchpfaden, verringert jedoch auch die Menge der suchenden Partikel im Raum des tatsächlichen, globalen Optimum sobald es entdeckt ist, vor allem bei niedrigeren Iterationen.45 Zur optimalen Suche ist hier die Kombination mit einer passenden Parameterwahl unverzichtbar. So könnten zum Beispiel explorierende Partikel aus kleinen Nachbarschaften hohe Parameter bekommen, die es ihnen erlauben schnell einen großen Teil des Lösungsraumes abzusuchen, während die „ausbeutenden“ Partikel aus großen Nachbarschaften mit geringeren Parametern die Umgebung der gefundenen Lösung absuchen. Dieser dynamische Ansatz findet sich vor allem bei parameterlosen Varianten wieder, welche die wahrscheinlich stärkste Veränderung des Algorithmus darstellen.

Clerc (2003) beschreibt z.B. seinen TRIBE- Ansatz, dem die Idee zu Grunde liegt, dass ein Programm die Parameterwahl selbst vornimmt, mit dem Ziel, über die Selbstbestimmung von Gewichtung und Zeitpunkten der Partikelinitiierung durch das Programm hinreichend gute Lösungen zu generieren.46

Clerc versteht den Ausdruck hinreichend gute Lösung in diesem Zusammenhang als ein Ergebnis, dass vielleicht nicht zwingend optimal, aber auch niemals wirklich schlecht ist.47 Insgesamt überträgt er in seinem Ansatz die Entscheidungsgewalt über alle ergebnisbeeinflussenden Faktoren dem Programm: Das variable Initiieren und Löschen von Partikeln, die Definition der jeweiligen Nachbarschaften und die Festlegung der Gewichtungen während dem Verfahren selbst. Der Vorteil eines solchen Verfahrens ist, dass die, im letzten Unterpunkt beschriebene, große Abhängigkeit der Lösung von der angelegten Parameterwahl aufgelöst wird, da sich das Programm der vorliegenden Problemstellung selbstständig anpasst. Der Anwender benötigt dadurch nicht länger verfahrensspezifisches Wissen zur Anwendung des Programmes und muss auch keine zeitaufwendige Evaluation der korrekten Parameterwahl für dieses spezifische Problem durchführen. Dafür muss sich der Anwender jedoch mit der angesprochenen „hinreichend guten Lösung“ anstelle der unter Umständen optimalen zufrieden geben. Clerc zeigt anhand einiger Bespiele, dass die Ergebnisse eines TRIBE-Algorithmus mindestens genauso gut, meistens sogar besser sind als jene, die mit der klassischen Partikelschwarmoptimierung (CPSO) erzielt wurden. Er verpasst es jedoch, in seinem Paper auf die angelegten Parameter der CPSO einzugehen, so dass nicht abschließend gesagt werden kann, ob die TRIBES dem Vorgänger überlegen sind oder ob eine falsche Parameterwahl bei der CPSO zu schlechten Referenzergebnissen geführt hat. Was jedoch ersichtlich ist, ist die Tatsache, dass bei diesem Verfahren zumindest ähnlich gute Werte erzielt werden können und das anwenderfreundlich ohne jegliches Wissen über die Ausbalancierung der Parameter.

2.3 Betrachtung der PSO-Parameterwahl zur Lösung des ECM-Problems nach Rao et al.

Die Autoren verwendeten die Partikelschwarmoptimierung zur Lösung des mehrdimensionalen und multikriteriellen ECM-Problems und präsentieren die ermittelten Ergebnisse mit dem Ziel, die Überlegenheit der PSO gegenüber anderen, für diese Problemstellung bereits verwendete Verfahren, zu beweisen. Wie in der Einleitung beschrieben soll ein Ziel dieser Arbeit sein, die dabei angelegten PSO-Parameter auf ihre Optimalität hin zu überprüfen, da die Autoren nicht genauer auf deren Ermittlung eingegangen sind. Bei der Betrachtung der vorgeschlagenen Zielfunktionswerte für das ECM-Modell aus Kapitel 2.1 in Tabelle 1 fällt vor allem die starke Veränderung der multikriteriell ermittelten Werte zu den monokriteriell ausgerichteten Ergebnissen auf. In Tabelle 2 sind die resultierenden ECM-Parameter für die monokriterielle Minimierung der Ungenauigkeit und für die multikriterielle Minimierung von Z angegeben. Die Werte von f und U sind konstant, was bedeutet, dass nur die höhere Spannung diese Wertveränderungen herbeigeführt haben kann. Höhere Spannung führt neben der größeren Ungenauigkeit auch zu weniger Funkenflug dessen (im wertenden Sinne) positiver Einfluss auf die kombinierte Zielfunktion in diesem Fall größer ist.48 Beim probeweisen Einsetzen der von den Autoren ermittelten Werte ergibt sich jedoch

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Ergebnisse der ECM-Optimierung nach Rao et al.49

was bedeutet, dass der sich ergebende Wert ziemlich genau drei Mal höher ist als im Paper angegeben. Der einzige mögliche Grund ist, dass, wie im Verfahren vorgesehen, die monokriterielle Optimierung in jeder Wiederholung erneut vorgenommen wird und die aktuellen Werte für Z1min, Z2min und Z3max übernommen werden. So waren die monokriteriellen Ergebnisse vermutlich schlechter, wodurch die Gesamtfunktion besser wird (da diese Ergebnisse den Divisor darstellen). Im Paper wird dies jedoch so nicht erwähnt und lässt damit die Fragen offen, ob es nicht doch noch bessere Ergebnisse gibt und ob die kombinierte Zielfunktion überhaupt aussagekräftig ist, da sie zu immer besseren Ergebnissen führt, je schlechter die vorangegangene Optimierung verlaufen ist bzw. im gleichen Fall schlechtere Ausprägungen von Z1-Z3 als gleich gut bewertet.

Tabelle 2: ECM-Parameterwahl nach Rao et al. (2008)

Abbildung in dieser Leseprobe nicht enthalten

[...]


1 „konfliktionär“ i.S.v. „nicht gleichzeitig erreichbar“

2 vgl. Formel (2.1) - (2.3)

3 Rao et al. (2008), S. 949

4 Rao et al. (2008), S. 950

5 Wilson (1982), S.12f.

6 Rao et al. (2008), S. 950. Wilson (1982), S. 4f.

7 Rao et al. (2008), S. 290. Wilson (1982), S. 7.

8 Wilson (1982), S. 43f.

9 Fix bedeutet in diesem Zusammenhang, dass sie in jeder Wiederholung monokriteriell neu berechnet werden, während der multikriteriellen Optimierung in der aktuellen Wiederholung jedoch konstant sind.

10 Kennedy, Eberhart (1995); Für die Definition von „stetig“ vgl. S. 21

11 Dieses Vorgehen ist dem Paper von Kennedy und Eberhart (1995) entnommen.

12 Heppner, Grenender (1990), S. 233, Ausschluss der externen Einflüsse auf S. 234, Modelleigenschaft (viii).

13 Der Name „Partikel“ wird erst am Ende des Papers von den Autoren eingeführt und gründet auf der Idee, dass Begriffe wie „Geschwindigkeit“ und „Beschleunigung“ eher zu Partikeln passen als zu Punkten, auch wenn hierzu akzeptiert werden muss, dass der, in der Vorstellung, mit Masse und Größe belegte Begriff „Partikel“ nicht perfekt zu den masse- und größelosen Teilnehmern des virtuellen Schwarms passt. Die Namensgebung wird von den Autoren selbst als „Kompromiss“ bezeichnet. Vgl. Kennedy, Eberhart (1995), S. 1947.

14 Frei Übersetzt nach der Formulierung von Kennedy, Eberhart (1995), S. 1944; Heppner, Grenander (1990), S. 234.

15 Heppner, Grenander (1990), S. 235.

16 Kennedy, Eberhart (1995), S. 1944.

17 Bei der X-Koordinate sprechen Kennedy und Eberhart (1995) anschaulicher von rechts und links, bzw. bei der Y-Koordinate bei darüber und darunter.

18 Frei nach Kennedy, Eberhart (1995), S. 1944. Die Darstellungsform orientiert sich an gängigen Programmiersprachen und wird hier als bekannt vorausgesetzt. Literaturbeispiel zum Nachlesen: Eller (2010), S. 151ff. g_increment = Gewichtung des global besten Ergebnisses; p_increment = Gewichtung des persönlich besten Ergebnisses.

19 Vgl. Kennedy, Eberhart (1995), S. 1944.

20 Kriterien der swarm intelligence nachzulesen in Millonas (1994), S2f. Frei interpretiert begründen die Autoren mit diesem Vergleich eine Ähnlichkeit zwischen ihrer künstlichen Intelligenz und dem Schwarm, welche mit der Ähnlichkeit von tatsächlich bionischen Lösungen und ihren biologischen Vorbildern vergleichbar ist.

21 Vgl. z.B. Rao et al. (2008), S. 953. Bergh, Engelbrecht (2005), S.939

22 D steht hier für die Dimensionen und N für die Anzahl an Partikeln. Für die Problemstellungen vgl. Kennedy, Eberhart (1995), S. 1945.

23 Kennedy, Eberhart (1995), S. 1945.

24 Vgl. z.B Bergh, Engelbrecht (2005), S. 939. Shi, Eberhart (1998), S. 69.

25 Kennedy, Eberhart (2001), S. 296. Der Index der Zufallszahl ist vom Verfasser dieser Arbeit verallgemeinert worden.

26 Mit C=cp+cg

27 Rao et al. (2008), S. 953; Shi, Eberhart (1998), Funktion (1a). Die bei Shi und Eberhart abgebildete Funktion ist variablentechnisch eine Mischform der hier dargestellten Funktionen. Sie gibt jedoch genau den Inhalt von Funktion (1.6) wieder.

28 Ozcan, Mohan (1999), S. 1943.

29 Kennedy Eberhart (2001), S. 332.

30 Kennedy Eberhart (2001), S. 332.

31 Kennedy Eberhart (2001), S. 333. von 1,0 zu sehen ist.

32 Neben dieser, gewollten, Unstetigkeit, kann es jedoch auch zu einem in der Literatur oft diskutierten und

32 Anhang 1 zeigt mit der Abbildung für =1,0, dass diese Veränderung keine Folge der höheren Gewichtung sondern des stochastischen Einflusses sind. C

33 Kennedy, Eberhart (2001), S. 337. Clerc, Kennedy (2002), S. 58. Der Effekt kann laut den Autoren auch für Werte von C>4 entstehen. Vgl. hierzu S.334.

34 Kennedy Eberhart (2001), S. 330.

35 Vgl. Kapitel 3.

36 Kennedy, Eberhart (2001), S. 329.

37 Kennedy, Eberhart (2001), S. 330.

38 Kennedy Eberhart (2001), S. 330.

39 Bergh, Engelbrecht (2006), S.941.

40 Exploitation = engl.: Ausbeutung; Gegenstück zur „ Exploration “ = engl.: Erkundung.

41 Bergh, Engelbrecht (2006), S.941.

42 Vgl. http://swarmintelligence.org/bibliography.php; Autor ist Dr. Xiaohui Hu der selbst einige Paper mit Eberhart veröffentlicht hat. Vgl. hierzu http://swarmintelligence.org/xhu.php

43 Mit p g.

44 Clerc, Kennedy (2002), S. 59.

45 Vgl. Kennedy, Mendes (2002).

46 Vgl. Clerc (2003).

47 Clerc (2003), S. 2; Anm. d. Verf.: Das vorliegende Originaldokument besitzt keine Seitenzahlen. Diese ergeben sich erst, wenn man sie selbstständig einfügt.

48 Werden die monokriteriell ermittelten ECM-Parameter angelegt, so ergibt sich ein Z2=7,1557 und damit bei Z1=15,452 und Z3=8 einen Gesamtfunktionswert von Z=7,4627

49 Rao et al. (2008), S. 958.

Ende der Leseprobe aus 86 Seiten

Details

Titel
Empirische Evaluation der optimierten Parameterwahl für die Partikelschwarmoptimierung
Hochschule
Helmut-Schmidt-Universität - Universität der Bundeswehr Hamburg
Note
1,3
Autor
Jahr
2011
Seiten
86
Katalognummer
V184842
ISBN (eBook)
9783656097907
ISBN (Buch)
9783656097709
Dateigröße
4412 KB
Sprache
Deutsch
Schlagworte
empirische, evaluation, parameterwahl, partikelschwarmoptimierung
Arbeit zitieren
Marvin Müller (Autor:in), 2011, Empirische Evaluation der optimierten Parameterwahl für die Partikelschwarmoptimierung, München, GRIN Verlag, https://www.grin.com/document/184842

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Empirische Evaluation der optimierten Parameterwahl für die Partikelschwarmoptimierung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden