Die technische Wertpapieranalyse unter wissenschaftstheoretischen Gesichtspunkten


Magisterarbeit, 2005

102 Seiten, Note: 2,3


Leseprobe


Inhaltsverzeichnis

I. Einleitung

II. Die Rationalität der Technischen Analyse
1. Prämissen der Technischen Analyse (klassisch)
1.1 Elliott-Waves und Fibonacci-Relationen
2. Die Technische Analyse und Behavioral Finance
2.1 Von der Behavioral Finance zur Technischen Analyse
2.2 Schwachpunkte
2.3 Trendverhalten
2.4 Schweigespirale als Erklärungsversuch des Phänomens „Trend“?
2.5 Marktteilnehmer haben ein Gedächtnis
2.6 Zeitlich invariante Muster im Finanzmarktgeschehen
2.7 Elliott-Waves und Fibonacci-Marken
2.8 Eine Perspektive
2.9 Vorläufiges Ergebnis
3. Pragmatik versus Rationalität
3.1. Der Chart, ein Modell der Wirklichkeit?
3.2 Gesetzmäßigkeiten oder Korrelationen?
4. Zusammenfassung der bisherigen Ergebnisse

III. Die Wissenschaftlichkeit der Technischen Analyse
1. Das Induktionsproblem ÿ eine kurze Darstellung
2. Poppers „Lösung“ ÿ der Falsifikationismus
2.1 Falsifizierbarkeit als Abgrenzungskriterium
2.2. Immunisierungsstrategien und Adhoc-Modifikationen
2.3 Wahrscheinlichkeiten und deren Falsifizierung
3. Die Falsifizierbarkeit der Technischen Analyse
3.1 Die Prognosen der Technischen Analyse
3.2 Immunisierungstendenzen
3.3 Zusammenfassung
4. Kritik an Popper ÿ Lakatos und seine Forschungsprogramme
4.1 Die Technische Analyse, ein degeneratives Forschungsprogramm?
5. Zusammenfassung der bisherigen Ergebnisse

IV. Die soziale Dimension der Technischen Analyse
1. Irrationale Elemente im Fortschritt der Wissenschaft
2. Was ist sozialer Konstruktivismus?
3. Selbstreflexivität
3.1 Selbsterfüllende Prophezeiungen
3.2 Selbstzerstörende Prophezeiungen
3.3 Selbstreflexivität in der Technischen Analyse
4. Auf der Suche nach einer Ordnung
4.1. Widerstand gegen die Zufälligkeit des Finanzmarktsgeschehens
5. Die Rolle der Peer-Group
5.1. Medien und ihr Einfluss
5.2 Survivor Bias
5.3 Technische Analyse in den Medien
6. „Die Technische Analyse funktioniert!“ - Eine soziale Konstruktion?
7. Zusammenfassung der bisherigen Ergebnisse

V. Fazit
1. Ergebnisse der Arbeit
2. Konkurrierende Theorien
2.1 Die Fundamentalanalyse
2.2 Die Random-Walk-Hypothese
3. Auswertung
4. Perspektiven

VI. Anhang
1. Trendlinien, Unterstützungen und Widerstände
1.2 Unterstützungen und Widerstände
2. Formationen
2.1 Die Schulter-Kopf-Schulter-Formationen
2.2 Dreiecke
2.3 Bull- und Bear-Flaggen
3. Indikatoren und Oszillatoren
3.1 Gleitende Durchschnitte
3.2. Beispiel für einen Indikator - der MACD
3.3 Beispiel für einen Oszillator - der Slow Stochastic
4. Fibonacci-Analyse
5. Elliott-Waves
6. Candlesticks
7. Glossar

VI. Literaturverzeichnis

„Ich kann zwar die Bahn der Gestirne auf Zentimeter und Sekunden genau berechnen, aber nicht, wohin eine verrückte Menge einen Börsenkurs treiben kann.. “ Isaac Newton (1643 - 1727), nachdem er an der Londoner Börse ein Vermögen aufs Spiel gesetzt und verloren hatte.[1]

I. Einleitung

Der Wunsch nach einer Prognose von Börsenkursen beschäftigt Menschen, seit es freie Märkte gibt. Das vordergründige Motiv ist dabei weniger der Drang nach Wissen, als der materielle Nutzen. Wer die Kurse an den Märkten auch nur annähernd voraussagen kann, hält in unserem Wirtschaftssystem den Schlüssel zu Reichtum in seinen Händen.

Gerade weil sich aber die Märkte immer wieder einer brauchbaren Prognosemethode entziehen, treibt dieser Wunsch mitunter seltsame Blüten. Von Astrologie bis zur eingehenden Analyse volkswirtschaftlicher Daten, von reiner Tntuition bis hin zu ausgefeilten Computermodellen und neuronalen Netzen - die Methoden sind fast so zahlreich wie es Marktteilnehmer gibt.

Eine Technik, die sich insbesondere in den letzten zehn Jahren zunehmender Beliebtheit erfreut, nennt sich die „Technische Analyse“ (oft findet sich auch der Ausdruck „Chartanalyse*“). Grob gesagt, wird mit dieser Methode versucht, anhand wiederkehrender graphischer Muster des Kursverlaufs, Aussagen über die zukünftige Entwicklung zu erzielen. Mehrere Faktoren haben zu der Popularität dieser Methode beigetragen. Die Technische Analyse ist zwar komplex, aber doch relativ einfach für jedermann zu erlernen. Computer- und Softwareprogramme machen dieses Werkzeug heute leicht zugänglich. Ein weiteres Motiv für die rasche Verbreitung waren die Manie an den Märkten Ende der Neunziger des vergangenen Jahrhunderts, in der sich mehr und mehr Privatanleger für die Börsen zu interessieren begannen.

Die Technische Analyse hat sich mittlerweile als bevorzugtes Werkzeug aktiver Marktteilnehmer etabliert. Zu ihren Anwendern gehören sowohl Eigenhändler großer Banken, Manager von Hedgefonds* als auch zahlreiche Hobbyspekulanten. Die Technische Analyse bezieht ihre Daseinsberechtigung aus dem praktischen Nutzen, ihr theoretisches Fundament ist dünn. Kritische Ansätze fehlen, dadurch wird die Weiterentwicklung diese Methode behindert. An diesem Punkt soll die vorliegende Arbeit ansetzen. Ziel ist es, die Technische Analyse anhand mehrerer wissenschaftstheoretische Ansätze auf ihre Wissenschaftlichkeit hin zu prüfen. Die Arbeit soll möglichst für Leser beider Bereiche, also sowohl für Philosophen und Wissenschaftstheoretiker als auch für Finanzmarktteilnehmer verständlich sein. Für philosophische Leser, die mit der Funktionsweise der Technischen Analyse nicht vertraut sind, liegt ein Anhang vor, der die grundlegenden Konzepte erklärt.

Die Arbeit wird sich aus drei Bereichen, sowie einem Anhang, zusammensetzen.

Der erste Teil wird der Frage nachgehen, welche Rationalität der Technischen Analyse überhaupt zu Grunde liegt und welchen Anspruch sie deshalb erhebt oder ob es sich hierbei um ein rein pragmatisches Modell handelt. In diesem Zusammenhang soll geprüft werden, in wie weit sich die Theorie auf die Aussagen der Behavioral Finance zurückführen lässt oder ob sie letztlich nur auf einer Korrelation statistischer Daten basiert.

Der zweite Teil wird sich insbesondere mit dem Induktionsproblem und dem von Karl Popper entwickelten Falsifikationismus auseinandersetzen und folgenden Frage nachgehen: Was sagen statistische Daten und wie aussagekräftig können diese sein? In wie weit lassen sich die Aussagen der Technischen Analyse falsifizieren? Welchen Stellenwert haben Adhoc-Modifikationen und Immunisierungsstrategien? Wie sinnvoll ist der Anspruch auf Falsifizierbarkeit in diesem Sinne überhaupt? Lässt sich in diesem Sinne von einem Kuhnschen Paradigma sprechen? Ist die Technische Analyse ein degeneratives Forschungsprogramm?

Im dritten Teil soll geklärt werden, in wie weit soziale Faktoren bei der Verbreitung der Technischen Analyse eine Rolle spielen. Gibt es kritische Diskussionen über die grundsätzliche Funktionsweise der Methodik oder fungiert die Technische Analyse als unreflektiertes Dogma? Welche Faktoren tragen dazu bei? Im Fokus dieses Teils steht insbesondere der soziale Konstruktivismus.

Ein Fazit fasst die Ergebnisse abschließend zusammen, vergleicht sie mit alternativen Finanzmarkttheorien und soll außerdem Perspektiven aufzeigen, in wie weit bestimmte Problemkreise einer näheren Betrachtung zu unterziehen wären. Schließlich soll ein Anhang die Technische Analyse auch dem auf diesem Gebiet nicht bewanderten Leser verständlich machen. Da die Technische Analyse oft als nicht genau definierter Oberbegriff auftritt, werden alle Varianten kurz erklärt und mit graphischen Beispielen versehen werden. Dazu zählen: die klassische Formationsanalyse, die Arbeit mit mathematisch ermittelten Indikatoren und Oszillatoren, die Elliott-Wave-Theorie, sowie die Arbeit mit Fibonacci­Verhältnissen.

Fachbegriffe aus der Technischen Analyse sind mit einem ,, * “ gekennzeichnet und im Glossar erklärt.

II. Die Rationalität der Technischen Analyse

Um die Methodik der Technischen Analyse zu untersuchen und sie auf wissenschaftliche Kriterien hin zu prüfen, ist es zunächst notwendig, den Prämissen dieser Analysetechnik auf den Grund zu gehen. Darauf folgend soll dann geprüft werden, in wie weit sich diese Prämissen durch Erkenntnisse der Behavioral Finance rechtfertigen lassen.

,,The trend is your friend! “[2]

1. Prämissen der Technischen Analyse (klassisch)

Die Technische Analyse beansprucht für sich, Hinweise auf zukünftige Kursbewegungen aus ähnlichem Kursverhalten der Vergangenheit zu erzielen. Um diese Schlüsse ziehen zu können, genügt einzig und allein die Betrachtung des „Charts“, weshalb die Technik auch oft „Chartanalyse“ genannt wird. Der Chart ist eine graphische Darstellung der Kursdaten der Vergangenheit.[3] Damit grenzt sich die Technische Analyse klar von der Fundamentalanalyse* ab, welche aus Unternehmensdaten oder volkswirtschaftlichen Kennzahlen wie zum Beispiel Zinssätzen, Prognosen ermittelt.

Zum anderen unterstellt sie damit den Märkten „Ineffizienz“. Nicht alle relevanten, kursbeeinflussenden Informationen sind bereits im Preis enthalten. Aus diesem Grund haben einzelne Marktteilnehmer zumindest prinzipiell die Chance, über mehr Wissen Hinweise auf zukünftige Kursbewegungen zu bekommen. Dem widerspricht die Random-Walk-Hypothese[4], wonach sich bereits alle Informationen im Kurs widerspiegeln und Marktteilnehmer deswegen prinzipiell keine Vorteile gegenüber anderen Akteuren haben können. Einen solchen Markt bezeichnet man als „effizient“[5]. Es kann nicht Aufgabe dieser Arbeit sein, die Richtigkeit der Random- Walk-Hypothese zu überprüfen, geschweige denn die Technische Analyse der Fundamentalanalyse* gegenüberzustellen. Festzuhalten aber ist zunächst einmal, dass die Technische Analyse von der Ineffizienz der Märkte und damit einer prinzipiellen Vorhersagbarkeit ausgeht und dabei auf sämtliche Faktoren, die nichts mit der graphischen Kursdarstellung zu tun haben, verzichtet. Was zählt, ist einzig und allein der Kurs.

„Der Techniker versucht dagegen durch die Beobachtung der Preiskurve ein vollständigeres und somit objektiveres Bild der momentanen Marktverhältnisse zu erhalten, denn der Preis ist weit mehr als nur das Resultat aller fundamentalen Einflüsse und ihrer jeweiligen Gewichtung durch die Marktteilnehmer. In den Preisen spiegeln sich nicht nur die äußeren Einflüsse auf den Markt wider, sondern auch die innere Verfassung der Marktteilnehmer ÿ die Menschen legen ihre Zukunftserwartung in den Preis.“[6]

Welche Annahmen liegen nun der Technischen Analyse zu Grunde? Einige Unterscheidungen innerhalb der Methodik müssen getroffen werden, wie noch gezeigt werden wird. Die folgenden Darstellungen sind nachzulesen in verschiedenen Standardwerken zur Technischen Analyse.[7]

Ein Großteil der verschiedenen Methodiken versucht Trends zu identifizieren. Händler, die mit Trendlinien arbeiten, bauen beispielsweise in einem Aufwärtstrend am unteren Ende einer Trendlinie Positionen auf. Um eine Trendlinie in einem Aufwärtstrend einzeichnen zu können, sind zwei Tiefpunkte nötig. Erst dann kann der Marktakteur die Methode anwenden. Stößt der Kurs nun zum dritten Mal auf die Gerade, beginnt er mit dem Positionsaufbau.

Bei Bernd Niquet findet sich eine triviale Formulierung dieser Methodik:

„Grundaussage der Chartanalyse (...) muss lauten: Es lassen sich in Vermögensmärkten grundlegende Trends beobachten, für die gilt: Solange der Trendkanal nicht verlassen bzw. die Trendlinie nicht über­oder unterschritten ist, wird sich diese Trendbewegung fortsetzen.“7[8]

Die Basishypothese für den Gebrauch von Trendlinien muss also lauten: Die Wahrscheinlichkeit, dass ein Trend anhält, ist höher, als dass er gebrochen wird. Ähnlich funktioniert die Anwendung von Indikatoren und Oszillatoren. Großer Bedeutung im langfristigen Bereich wird zum Beispiel der 200-Tageslinie (GD 200) zugemessen. Kurse oberhalb des Durchschnitts der letzten 200 Handelstage markieren einen Aufwärtsmarkt (Hausse*), Kurs unterhalb der Linie einen Abwärtsmarkt (Baisse*). Auch hier besteht die Grundannahme, dass auf steigende Kurse mit höherer Wahrscheinlichkeit auch steigende Kurse folgen.

Auch Oszillatoren arbeiten mit diesem Prinzip, mit dem Unterschied aber, dass sie bestimmte Zonen markieren, in denen sich Trends „überhitzt“ zu haben scheinen. Nach einem zu rasanten Kursanstieg wird also zunächst von einer zumindest vorübergehenden Erholung ausgegangen.

Ein weiteres grundlegendes Konzept sind „Unterstützungen“ und „Widerstände“. Eine Unterstützung entsteht, wenn der Kurs einer Aktie mindestens zweimal auf ein bestimmtes Kurslevel gefallen ist und von dort aus wieder zu steigen beginnt. Analoges gilt für Widerstände. Oft finden Unterstützungen und Widerstände besonders dann viel Beachtung, wenn es sich um einprägsame Zahlen wie 10, 50 oder 100 handelt. Bestimmten Kursmarken wird also eine höhere Anziehungskraft zugeschrieben. Außerdem wird den Marktteilnehmern ein Gedächtnis unterstellt. Die Masse der Marktteilnehmer soll sich an das Kursverhalten um bestimmte Marken erinnern und sich wieder ähnlich verhalten.

Eine speziellere Variante stellt die Arbeit mit Formationen dar. Kursmustern wird ein bestimmtes Trendumkehr- bzw. Trendfortsetzungs-Potenzial zugeschrieben. So genannte Schulter-Kopf-Schulter-Formationen gehören zu den bekanntesten Formationen und haben eine sehr negative Implikation (= fallende Kurse). Sie kennzeichnen Übertreibungen und stellen Muster solcher Spekulationsblasen graphisch dar. Genauere Beschreibungen befinden sich im Anhang unter Punkt 2.1. Tatsächlich lassen sich diese Muster bis zu weit zurückliegenden Manien wie der Tulpenblase im Holland des 17. Jahrhunderts zurückverfolgen.[9] Menschen scheinen bei rasanten Börsenhypes und den darauf folgenden Crashs ähnliche Verhaltensmuster aufzuweisen, die sich im Chart widerspiegeln. Letztendlich beruhen Formationen aber auf einer historischen Korrelation zwischen einem bestimmten Kursverhalten und einem zuvor ausgebildeten Muster.

Festhalten lassen sich im Bereich der klassischen Technischen Analyse also drei Basis-Hypothesen:

- These 1: Was die Arbeit mit Trendlinien und Indikatoren betrifft, so wird davon ausgegangen, dass die Wahrscheinlichkeit, dass ein bestehender Trend anhält, höher ist, als dass es zu einer Trendumkehr kommt.
- These 2: Die Marktteilnehmer haben ein Gedächtnis. Sie erinnern sich an bestimmte Kursniveaus und tendieren dazu, sich an diesen immer wieder ähnlich zu verhalten. Das gilt insbesondere für die Arbeit mit Unterstützungen und Widerständen.
- These 3: Aus bestimmten Kursmustern in der Vergangenheit lassen sich Schlüsse auf die zukünftige Kursentwicklung ziehen, da diese zeitlich invariant sind und sich in ähnlicher Form stets wiederholen.

1.1 Elliott-Waves und Fibonacci-Relationen

Etwas anders verhält es sich mit der „Elliott-Wave-Theorie“ und mit der Analyse auf Basis der „Fibonacci-Sequenz“ (genauer Erläuterungen finden sich im Anhang).

Die Elliott-Wave-Theorie geht auf Ralph Nelson Elliott zurück, der in der Dreißiger Jahren des 20. Jahrhunderts für sich die Entdeckung beanspruchte, dass sich Finanzmärkte stets in einem acht-welligen Muster bewegen. Fünf so genannte Impulswellen treiben den Markt in die übergeordnete Richtung, während auf jede Impulswelle stets eine Korrekturwelle folgt, die die eingeschlagene Richtung korrigiert.

„Die Grundidee der Elliottwellenanalyse basiert auf der Annahme, dass Kursbewegungen in Zyklen verlaufen. Ein kompletter Zyklus besteht aus zwei Basisbewegungen. Die Impulswelle, die auch Antriebswelle oder numerische Phase genannt wird, besteht im Kleineren aus fünf Wellen, welche durch Ziffern gekennzeichnet werden. Betrachtet man diese in einem Aufwärtstrend, sind drei Unterwellen aufwärtsgerichtet und stellen wiederum Impulswellen dar. Die anderen zwei Wellenbewegungen sind dagegen abwärtsgerichtet und haben den Charakter von Korrekturwellen.

Ein abgeschlossener Impuls mündet in eine Korrekturwelle, eine durch "Buchstaben gekennzeichnete Phase", welche eine dreigliedrige Verlaufsstruktur besitzt und gegen den Haupttrend verläuft. Ein kompletter Zyklus besteht somit aus acht untergeordneten Wellen.“[10]

Über Länge und Dauer einer solchen Welle sagt die Hypothese nichts, außer dass die dritte Welle stets die längste sein muss. Aufgabe des Marktteilnehmers ist es, diese Wellen korrekt zu identifizieren und dementsprechend Positionen aufzubauen.

Bei der Fibonacci-Analyse wird davon ausgegangen, dass bestimmte Zonen zwischen einem Hoch- und Tiefpunkt eine besondere Anziehungskraft besitzen. Nach einem starken Kursanstieg soll der Kurs auffallend oft auf bestimmte Zahlenverhältnisse zurückfallen, an denen der Kurs wieder in seine ursprüngliche Richtung zurückzulaufen beginnt. Nähere Erläuterungen zu dieser Technik befinden sich im Anhang unter „Fibonacci-Analyse“.

Fazit:

- These 4: Laut Ralph Nelson Elliott lässt sich bei Bewegungen der Finanzmärkte stets ein acht-welliges Muster ausmachen. Dieses Muster weist eine fraktale Struktur auf und findet sich somit in allen möglichen Zeitrahmen.
- These 5: Anleger orientieren sich zunächst unbewusst an bestimmten Kursmarken, die sich über die Fibonacci-Sequenz ermitteln lassen.

Im Folgenden soll geklärt werden, in wie weit sich diese Behauptungen auf die Erkenntnisse der Behavioral Finance zurückführen lassen.

2. Die Technische Analyse und Behavioral Finance

Die noch relativ junge Disziplin der Behavioral Finance beobachtet, wie Marktteilnehmer Informationen auswählen und verarbeiten, und fragt konsequenterweise auch nach den daraus resultierenden Entscheidungen. Sie untersucht die Anomalien, das nur begrenzt Rationale im menschlichen Verhalten. Orientierungspunkte liefern dabei psychologische und massenpsychologische Modelle.

„Behavioral Finance befaßt sich also zum einen mit der Aufnahme, Auswahl und Verarbeitung von Information und konsequenterweise mit den daraus resultierenden Entscheidungen. Auf der anderen Seite untersucht sie die Anomalien der menschlichen Verhaltensweisen.ý[11]

Oft wird die Behavioral Finance als theoretische Untermauerung der Technischen Analyse benutzt.

„Die verhaltensorientierte Kapitalmarktanalyse (Behavioral Finance, BF) untersucht diese allgemeingültigen Verhaltenskonzepte und zeigt, dass es im Entscheidungsverhalten der Investoren zu systematischen Urteilsverzerrungen kommt. Diese Irrationalitäten zeigen sich dann folgerichtig in den Kursverläufen der Aktien und sind damit der

Methodik der Technischen Analyse (TA) zugänglich. Die Behavioral Finance kann damit als das theoretisch-psychologische Fundament der TA betrachtet werden, welches die empirisch gewonnenen Erkenntnisse der Charttechnik untermauert. Charts zeigen also emotionale Muster als Ausdruck der systematischen Urteilsverzerrung der Anleger. Daher ist die Technische Analyse das ideale Instrument um die Erkenntnisse der Behavioral Finance in Handelsentscheidungen um zu setzen, d.h. Emotionen werden handelbar.“[12]

Andere Autoren äußern sich, was diese theoretische Untermauerung betrifft, vorsichtiger:

„Die Ergebnisse der Behavioral Finance müssen zwangsläufig auch die Arbeit der Technischen Analyse beeinflussen. (...) Die Technische Analyse hat im Grunde nur dann eine Chance, langfristig zu überleben, wenn sie psychologisch, das heißt anhand der Erkenntnisse der Behavioral Finance begründet werden kann.“[13]

Festzuhalten ist an dieser Stelle, dass die Theorie der Behavioral Finance wesentlich jünger ist als die Technische Analyse. Erste Werke zum Thema Behavioral Finance erschienen Anfang Mitte der Neunziger Jahre[14], während die Ursprünge der Technischen Analyse bis zum Anfang des letzten Jahrhunderts zurückreichen. Erste Veröffentlichungen finden sich in den zwanziger Jahren des 20. Jahrhunderts. Populär wurde die Technische Analyse jedoch nicht vor 1948, dem Jahr, in dem Edwards und Maigee das Werk „Technical Analysis of Stock Trends“ veröffentlichten.[15] Allein diese Tatsache weist darauf hin, dass es sich bei der Technischen Analyse zunächst um ein rein pragmatisches Konzept handelte. (Unterarten wie die Elliott-Wave-Theorie* seien zunächst einmal ausgeklammert. Doch steht auch hier die praktische Anwendung klar im Vordergrund.) Scheinbar wird die Theorie der Behavioral Finance erst später als „Rechtfertigung“ für die Technische Analyse herangezogen.

2.1 Von der Behavioral Finance zur Technischen Analyse

Grundgedanke der Behavioral Finance ist, dass der gewöhnliche Marktteilnehmer eben gerade kein „homo oeconomicus“ ist, wie er in vielen volkswirtschaftlichen Modellen dargestellt wird, sondern von Emotionen getrieben ist und unter anderem „Verfügbarkeitsheuristiken“ unterliegt, um Informationen effizienter zu verarbeiten. Hinzu kommt, dass Informationen je nach persönlicher Lage verschieden wahrgenommen werden, um „sich wohler zu fühlen“. Bestätigt wird dies von der Theorie der kognitiven Dissonanz, wonach Menschen tendenziell versuchen, Diskrepanzen zwischen Wunsch und Realität über Interpretation der Sachverhalte zu eliminieren.[16]

Wer zum Beispiel gerade Long-Positionen* im Rohöl hält, wird demzufolge Nachrichten, die über eine Verknappung des Rohstoffes berichten mehr Aufmerksamkeit schenken als solchen, die von einer weitgehenden und sich ausweitenden Verfügbarkeit ausgehen. Schließlich deuten erstere auf einen steigenden Rohölpreis hin und bestätigen den Investor in seiner ursprünglichen Auffassung. Der Investor fühlt sich nun mit seinem Investment wohler. Informationen, die Börsenkurse betreffen, sind gewöhnlich stark von Einschätzungen anderer Marktteilnehmer bestimmt oder haben bereits so viele Stellen durchlaufen, dass ihr Gehalt längst gegen null gelaufen ist. „Kurse machen Nachrichten“ lautet deshalb eine Devise vieler technisch orientierter Händler. Das Phänomen lässt sich tatsächlich oft beobachten. Fallen die Märkte an einem Tag stark ab, so wird dies von Marktkommentatoren mit einem stark steigenden Ölpreis erklärt. Am nächsten Tag steigen die Kurse und der Ölpreis. Die Kurssteigerung wird nun plötzlich damit gerechtfertigt, die Börsianer seien heute so optimistisch, dass ihnen selbst der hohe Ölpreis egal sei. Am nächsten Tag ist der starke Euro, der die Märkte belastet. Am darauf folgenden Tag fallen Aktienmärkte und Euro. Seitens der Behavioral Finance wird dem Marktteilnehmer deswegen gleichermaßen empfohlen wie unterstellt, sich gegen diese Informationsflut abzugrenzen und Informationen möglichst neutral zu filtern. Als Information in Reinform ohne jegliche Einfärbung wird deswegen der Kurschart angeführt. Eine Beschränkung auf die Betrachtung des reinen Kursverlaufes soll den Marktteilnehmer so am sichersten vor falschen und eingefärbten Informationen schützen.

„Mit der technischen Analyse verfügt der professionelle Marktteilnehmer bereits über ein Werkzeug, das ihn dazu befähigen soll, Wahrnehmungs­und Interpretationsfehler zu vermeiden, da sie nur den Preis als Resultat von Angebot und Nachfrage untersucht. Sie analysiert, was Marktteilnehmer tatsächlich tun, und verschwendet keine Zeit, die ökonomischen Gründe für ihre Entscheidungen zu erforschen.ý16[17]

Goldberg schreibt weiter:

„Psychologische Verhaltensweisen sind andererseits häufig nicht scharf quantifizierbar, hinterlassen aber beispielsweise auf einem Chart ihre Muster. Obgleich die jüngsten Bestrebungen vieler technischen Analysten darauf hinauslaufen, besonders genau (scharf) - und somit wissenschaftlich vielleicht weniger angreifbar - zu arbeiten, kommt man um die Psychologie der Märkte, die beim einzelnen beginnt, nicht herum.

Die menschliche Psyche hat sich seit Jahrhunderten kaum verändert. Das eröffnet einer auf der Behavioral Finance basierenden technischen Analyse die Chance, das Verhalten von Marktteilnehmern nicht nur rückwirkend zu erklären, sondern auch deren künftige Entscheidungen zu prognostizieren und damit profitabel zu nutzen.“[18]

Die Technische Analyse quantifiziert demnach massenpsychologische Phänomene. Aufgrund der unveränderten Psyche der Marktteilnehmer wiederholen sich bestimmte Kursmuster wieder und werden so prognostizierbar.

2.2 Schwachpunkte

Diese These birgt einige Schwachstellen. Goldberg unterstellt der Technischen Analyse basierend auf der Behavioral Finance zwar eine gewisse Prognosekraft, diese ist aber stets ungenau und vage. Zwar wiederholen sich an den Märkten bestimmte Muster, aber eben immer nur ungefähr und nie exakt gleich. Über die Grenze zwischen Ähnlichkeit der Muster und Einzigartigkeit eines Musters, also der Bedeutungslosigkeit in Hinblick auf die Prognosekraft, wird nichts ausgesagt. Zudem befindet sich die Wahrheit immer im Auge des Betrachters. Was die Wiederholung einander ähnlicher Muster betrifft, so würden sich verschiedene Marktteilnehmer auch unterschiedlich äußern. Gerade Formationen wie Dreiecke oder SKS-Muster lassen sich bis heute nur sehr schwer programmieren, da genaue Definitionen den Formationen nicht gerecht werden und diese von Computerprogrammen nicht mehr erkannt werden.18[19] Diese Abhängigkeit von Subjektivität macht die These, wonach die Technische Analyse auf der Behavioral Finance begründet werden kann, ungemein schwer verifizierbar, geschweige denn falsifizierbar.

Zudem wird zwischen den verschiedenen Arten der Technischen Analyse nicht unterschieden. Wenn sich bestimmte Methoden wie die Arbeit mit Widerständen und Unterstützungen unter Umständen damit erklären lassen, so muss das bei der Wellentheorie von Elliott nicht so sein. Auch weshalb sich Anleger instinktiv an Fibonacci-Kursmarken orientieren sollen, kann mit Repräsentativheuristiken und Konservativismus noch lange nicht geklärt werden.

2.3 Trendverhalten

Perspektiven eröffnen sich allerdings bei der ersten These der Technischen Analyse, wonach die Wahrscheinlichkeit für das Anhalten eines Trends höher ist als dessen Umkehr.

„Nach der These der Repräsentativitätsheuristik neigen Finanzmarktakteure in anderen Phasen dazu, künftige Wahrscheinlichkeiten aufgrund bisheriger Entwicklungen anzunehmen, die oft falschen Ursachen zugeordnet wurden. Unterreaktion auf den Nachrichtenfluss wird auf das Phänomen des Konservatismus zurückgeführt.“[20]

Da Marktteilnehmer stets dazu tendieren, Nachrichten, die ihre bestehenden Positionen rechtfertigen, überzubewerten, folgt daraus auch, dass die Akteure einerseits verhältnismäßig lange an ihren Positionen festhalten und andererseits auch Kursrücksetzer dazu nutzen, um ihre Positionen aufzustocken. Diese These würde sich auch mit der Theorie der kognitiven Dissonanz decken.

„Die Aufhebung von Fehlbewertungen als dessen Folge geschieht im Vergleich zu den sich verändernden fundamentalen Daten zu langsam, da neue Erkenntnisse sich nur zögerlich durchsetzen. Preisrückkoppelungen wirken auf das Verständnis des ökonomischen Geschehens und führen zur Bildung von Repräsentativitätsheuristiken, des zweiten Phänomens.

Diese verursachen das Gegenteil des Konservatismus, nämlich ein Davoneilen der Kurse weit über (in Hausse-Phasen*) bzw. unter (in Baisse-Phasen*) jenen fundamentalen Werten, die als "normal" erscheinend[21]

Über- bzw. Untertreibungen auf den Finanzmärkten ließen sich damit zumindest begrenzt auf von der Behavioral Finance postulierte Phänomene wie Konservativismus und Repräsentativheuristiken zurückführen.

2.4 Schweigespirale als Erklärungsversuch des Phänomens „Trend“?

Ein weiterer Anhaltspunkt ergibt sich aus einem massenpsychologischen Phänomen, das man zunächst nicht mit dem Thema Börse assoziieren würde: der Schweigespirale von Noelle-Neumann.

„Die kumulierte, konsonante und nach Noelle-Neumann verzerrte Berichterstattung der öffentlich-rechtlichen Fernsehsender kann im Lauf der Zeit die selektiven Wahrnehmungs- und Beeinflussungsprozesse außer Kraft und damit die so genannte Schweigespirale in Gang setzen.

Diese besagt, dass die faktische Minoritätsmeinung durch das Fernsehen konsonant und kumulativ als Mehrheitsmeinung dargestellt wird. Aus Angst isoliert zu werden, unterlassen es Anhänger der eigentlichen Mehrheitsmeinung, ihre Meinung öffentlich zu äußern. (...) Für den Prozess der Schweigespirale bedeutet das, dass die vermeintliche Minderheitsmeinung mit der Zeit zur tatsächlichen Minderheitsmeinung werden (...) “[22]

Die Theorie der Schweigespirale war insbesondere auf Prozesse der Meinungsbildung in Wahlkämpfen gemünzt. Doch lassen sich mit Einschränkungen einige der Aussagen auf das Trendverhalten übertragen.

Der Begriff „Berichterstattung der öffentlich-rechtlichen Fernsehsender“ ließe sich ersetzen durch die Tendenz der Berichterstattung in allen Börsenmedien. Ob es nun mit Angst vor sozialer Isolation oder mit dem Wunsch nach Reichtum zu tun hätte, faktisch würden nach einer Kampagne, die Tag für Tag von der glänzenden Stimmung auf den Märkten mehr und mehr nicht-investierte Anleger aufmerksam werden. Aus Angst den nächsten Boom zu verpassen, würden diese investieren und den Trend so tatsächlich bestätigen. Auch oder gerade Investoren, die sich bei ihrer Analyse auf die Betrachtung des reinen Kursgeschehens beschränken, würden eher dazu tendieren, auf den fahrenden Zug aufzuspringen.

Allerdings spricht Noelle-Neumann, was das Phänomen der Schweigespirale angeht von Themen, die mit Meinung und moralischen Urteil zu tun haben, was dem Erklärungsversuch vom Trendverhalten an den Märkten grundsätzlich widerspricht.

„Zweitens muß es sich um Bereiche handeln, " die eindeutig moralisch belegt sind "[10], sprich auch wirklich dafür geeignet sind, daß man bei Nichtübereinstimmung mit der Mehrheit als Außenseiter dasteht.“[23]

Trotzdem ergeben sich meiner Meinung nach aus diesem Phänomen interessante Anhaltspunkte, die man unter Umständen weiter verfolgen könnte.

Doch auch hier bleiben mehrere Fragen offen: Zunächst einmal stellt sich die Frage nach der Definition eines Trends. Im Nachhinein lässt sich dieser leicht ausmachen. Man betrachte nur den Boom der New Economy der späten Neunziger. Auch professionelle Marktteilnehmer, die auf dem Gebiet der Behavioral Finance und der Technischen Analyse bewandert waren, erlitten zu dieser Zeit immense Verluste, weil sie zu spät ihre Positionen verkauften. Um die Erkenntnis praktisch nutzbar machen zu können, wäre eine genaue Definition eines Trends notwendig. Daraus ergibt sich ein weiteres Problem: was passiert, wenn die überwiegende Mehrheit der Akteure über dieses Wissen verfügt? Das Phänomen würde sich letztendlich selbst ad absurdum führen. Sobald ein Trend erkennbar wäre, würden die wissenden Marktteilnehmer bereits wieder ihre Positionen verkaufen. Als Ergebnis fielen Trends auf den Finanzmärkten immer kürzer aus, die Schwankungen nähmen zu.

2.5 Marktteilnehmer haben ein Gedächtnis

Die zweite These der Technischen Analyse, wonach Marktteilnehmer (oft wird auch vom Markt als Ganzen gesprochen) ein Gedächtnis haben, lässt sich begrenzt belegen. Freilich spielt für jeden einzelnen Investor sein Einstandspreis (= Einstiegskurs) also der Kaufpreis des Investments eine übergeordnete Rolle. Schließlich entscheidet sich an dieser die Stelle die Frage nach Rentabilität eines Investments.[24]

Auch gehen insbesondere professionelle Akteure gewöhnlich mit klar definierten Kurszielen und Limits in den Markt, an denen sie ihre Positionen wieder verkaufen. So ergeben sich natürlich für einzelne Marktteilnehmer besondere Schlüsselkurse, an denen sie aktiv werden. Marktteilnehmern ihr Gedächtnis abzusprechen, mag in

Einzelfallen richtig sein. Für die überwiegende Mehrheit der Investoren aber spielen bestimmte Kursmarken natürlich eine wichtigere Rolle als andere.

Doch aus dieser trivialen Tatsache lässt sich keine praktisch nutzbare Aussage ableiten. Schließlich liegen die Schlüsselmarken bei jedem Marktteilnehmer an einer anderen Stelle. Um eine nützliche Prognosemethode zu entwickeln, bräuchte man genaue Daten darüber wer, wann, mit welcher Stückzahl und zu welchem Kurs gekauft hat und welche Ziele er damit anvisiert. Das ist aber angesichts der komplexen Struktur und der schieren Anzahl der Akteure eher ein utopisches Unterfangen. Somit lässt sich die zweite These, wonach bestimmte Kursniveaus eine Schlüsselrolle spielen, wenn überhaupt, nur sehr begrenzt auf massenpsychologische Phänomene zurückführen. Praktisch nutzbar mag sie in Einzelfällen sein (man denke an extrem illiquide Nebenwerte, bei denen sich der Kreis der Investoren auf eine kleine, relativ homogene Gruppe beschränkt).

2.6 Zeitlich invariante Muster im Finanzmarktgeschehen

Prinzipiell liegt der Schluss nahe, dass sich Marktteilnehmer in ähnlichen Situationen immer wieder ähnlich verhalten. Katastrophale Ereignisse wie zum Beispiel der 11. September 2001 führen zu heftigen Kurseinbrüchen. Und Menschen tendieren dazu, sich in Extremsituationen wieder ähnlich zu verhalten. Insofern ließe sich durchaus von sich wiederholenden Mustern im Chart sprechen. Fraglich bleibt aber, wie stark diese Ähnlichkeiten sind und ob diese nicht durch den Einfluss von Drittvariablen verändert werden. Um diese Frage zu klären, sind einerseits scharfe Definitionen notwendig und empirische Tests, die eine statistische Signifikanz solcher Muster belegen.

2.7 Elliott-Waves und Fibonacci-Marken

Während sich bei den ersten drei Thesen zumindest Teilweise Bezüge zu den Erkenntnissen der Behavioral Finance herstellen lassen, gestaltet sich dieses Unterfangen, was Elliott-Waves und die Fibonacci-Analyse betrifft, erheblich schwieriger.

Die Fibonacci-Zahlenreihe ist zunächst einmal eine simple mathematische Zahlenfolge (siehe Anhang). Bezüge zur Behavioral Finance lassen sich weder gedanklich noch in der Literatur finden. Auch eine Suchanfrage bei www.google.de liefert keine Ergebnisse. Letztlich basiert die These ja auf der Prämisse, dass sich massenpsychologische Phänomene eben doch scharf quantifizieren lassen. Dies widerspricht sogar den Aussagen der Behavioral Finance.

Was die Elliott-Wellen betrifft, so gibt es tatsächlich Versuche das Prinzip über massenpsychologische Phänomene zu erklären. Diese wirken allerdings eher im Nachhinein konstruiert als wirklich fundiert.

„Behavioral Finance is really just the basis for the wave-principle with a lot of fancy academic names. Iťs important, but it hasďt risen above the level of recognising the reality, which is really where technical analysis comes in.“[25]

Eine eingehende Erklärung aber findet sich nicht, weder in dem eben zitierten Interview mit Steven Hochberg, noch in anderer Literatur. Hinzu kommt, dass sich auch in Bereichen der Psychologie oder der Soziologie keinerlei Entsprechungen finden, die ein Acht-Wellen-Prinzip aufweisen. Das Phänomen ist also ausschließlich auf den Finanzmarkt beschränkt. Weshalb sich Abwärts- bzw. Aufwärtsbewegungen immer in einem Acht-Wellen-Rhythmus vollziehen, bleibt unklar.

An anderer Stelle wird die Fibonacci-Zahlenreihe als Fundierung des Wellen­Prinzips genannt:

„Die Tatsache, dass Wellen die Fibonacci-Zahlenreihe hervorbringen, enthüllt, dass die kollektiv ausgedrückten Emotionen der Menschen in diese mathematischen Naturgesetze eingebunden sind.“[26]

Diese Aussage erscheint mehr als fraglich. Einerseits lässt sich menschliches Verhalten zumindest bis heute nicht in harten Naturgesetzen ausdrücken. Das erinnert an denn Laplaceschen Dämon. Andrerseits fehlen plausible Gründe, weshalb dies ausgerechnet über eine simple Zahlenreihe möglich sei. Da empirische Tests nicht vorhanden sind, erinnert das Zitat eher an Zahlenmystik und Esoterik.

Daraus folgt, dass das Elliott-Wellen-Prinzip, wenn überhaupt, dann auf einer Korrelation statistischer Daten basiert. Dafür spricht auch die Tatsache, dass Ralph Nelson Elliott selbst, die Idee zu dieser Theorie kam, nachdem er über mehrere Jahre das Verhalten der Aktienmärkte studiert hatte.

„So war er (= Ralph N. Elliott) bestens gewappnet, die Charts des Dow Jones Industrial Average und seiner Vorgänger mit einer derartigen Präzision und Gründlichkeit zu untersuchen, dass er ein Regelwerk aus Prinzipien zusammenstellen konnte, mit dem sich alle ihm bekannten Marktbewegungen bis in die 1940er-Jahre hinein darstellen ließen.“26[27]

Ob dies zutrifft, wird im weiteren Verlauf der Arbeit aber noch zu klären sein. An dieser Stelle sei vielleicht noch auf die so genannten Kondratjew-Zyklen[28] verwiesen, die sich ebenfalls im Nachhinein leicht ausmachen lassen. Als Prognosetechnik sind sie allerdings so gut wie unbrauchbar.

2.8 Eine Perspektive

Prinzipiell eröffnet Goldbergs These doch zumindest einen interessanten Ansatzpunkt, den man weiterverfolgen könnte. Nötig dazu wäre allerdings eine detaillierte, enzyklopädische Auflistung sämtlicher von der Technischen Analyse postulierten Phänomene, Muster und Verhaltensweise und deren Rückführung auf psychologische Erkenntnisse. Auch Goldberg empfiehlt ein gründliches Überdenken der Methoden:

„Zusammen mit Behavioral Finance hat die technische Analyse - sofern sie einer gründlichen Revision unterzogen wird - nicht nur die Chance, eine wissenschaftlich begründete Basis zu erhalten, sondern kann zu einem disziplinierteren Verhalten der Marktteilnehmer beitragen.“[29]

Letztendlich aber bleibt das Problem der Selbstreflexivität dieses Ansatzes. Je mehr Marktteilnehmer sich der von der Behavioral Finance postulierten Phänomene bewusst wären, desto weniger Gültigkeit besäßen diese. Dasselbe gilt freilich für die Technische Analyse.

2.9 Vorläufiges Ergebnis

Festzuhalten ist, dass die Methodik der Technischen Analyse größtenteils nicht auf den Erkenntnissen der Behavioral Finance fußt. Das trifft insbesondere auf die Theorie der Elliott-Waves und der Analyse basierend auf der Fibonacci-Zahlenreihe zu. Beide Instrumentarien weisen keine erkennbaren Prinzipien auf, die sich mit den Erkenntnissen der Behavioral Finance in Einklang bringen lassen.

Ansätze aber ergeben sich aus den Instrumentarien der klassischen Technischen Analyse, insbesondere was die Arbeit mit Trends betrifft. Die Aussage, wonach die Wahrscheinlichkeit, dass ein vorherrschender Trend bestehen bleibt, höher ist, als dass er sich umkehrt, lässt sich mit Erkenntnissen über die Anlegerpsychologie der Behavioral Finance in Verbindung bringen. Als Stichwörter seien hier „Konservativismus“ und „kognitive Dissonanz“ genannt.

Die These, dass Marktteilnehmer ein Gedächtnis haben und sich somit an bestimmten Schlüsselmarken Wendepunkte ergeben, trifft zu und lässt sich auch über Behavioral Finance rechtfertigen. Allerdings driftet diese Basis-Hypothese ins Triviale ab und verliert somit ihren praktischen Wert.

Die Aussage, wonach sich bestimmte Muster im Chart wiederholen, lässt sich bedingt bejahen. Zwar liegt der Schluss nahe, dass sich Anleger unter ähnlichen

Umständen auch wieder ähnlich verhalten. Hier fehlen aber genauere Definitionen, was Muster, Anlegerverhalten, Zeitrahmen und Ausprägung betrifft.

„Die Kurse, somit der Chart, sagt die Wahrheit über die Märkte.“[30]

3. Pragmatik versus Rationalität

Ziel dieses Abschnittes wird sein, die Rationalität der Technischen Analyse genauer zu ergründen und dabei auf gängige Formen der Theorienklassifizierung zurückzugreifen.

3.1. Der Chart, ein Modell der Wirklichkeit?

„Ein Modell ist hiernach eine im Sinne der Semiotik pragmatische Entität, nämlich eines (mindestens) fünfstelligen Prädikats: X ist Modell des Originals Y für den Verwender k in der Zeitspanne t bezüglich der Intention Z.“[31]

Diese Definition macht deutlich, dass man von einem Chart nicht einfach in diesem Sinne von Modell sprechen kann. Knackpunkt ist der erste Teil: X ist Modell des Originals Y. Technische Analysten ignorieren Interpretationen von Kursereignissen und beschränken sich bei ihrer Betrachtung einzig und allein auf den graphisch dargestellten Kursverlauf. Und gerade durch diese Beschränkung dringen sie „tiefer“ zur Wirklichkeit vor, da sie nun nur doch die ihrer Meinung nach wirklich relevanten Fakten vor sich haben. Interpretationen und Erklärungsversuche werden als unnötiger Ballast gesehen, die den Blick auf die Realität trüben. Die Intention Z stellt in diesem Zusammenhang die Kursprognose dar und durch die Beschränkung auf quantitative Faktoren soll dieses Ziel erreicht werden.

Auf der anderen Seite allerdings liegt der Schluss nahe, dass bei der Beschränkung auf quantitative Daten auch eine Dimension verloren geht. Vergleichbar wäre eine solche Vorgehensweise vielleicht mit der graphischen Betrachtung von Wahlumfragen. Auch hier sind natürlich letztlich die Stimmen für die einzelnen Parteien maßgeblich entscheidend und drücken so am ehesten die Wirklichkeit (im Sinne von Relevanz) aus. Anderseits fehlt eine semantische Dimension, die die Ergebnisse der Meinungsumfragen in einen größeren - in diesem Fall politischen - Kontext stellt und sie Interpretationen zugänglich macht.

Die Frage nach dem Modellcharakter der Technischen Analyse lässt sich nicht vollends klären. Dafür spricht, dass quantitative Daten eben immer nur einen Teil des Originals repräsentieren und vor allem einen pragmatischen Nutzen haben. Dagegen spricht - und das würden Anhänger der Technischen Analyse wohl vor allem ins Feld führen - dass der Chart eben gerade durch diese Ausklammerung semantischer und interpretativer Faktoren näher zur Wirklichkeit gelangt. Der Marktteilnehmer kann durch die reine Konzentration auf das Kursgeschehen näher zu dem kommen, „was wirklich passiert“, sein Blick ungetrübt durch Interpretationen und Einschätzungen sein.

3.2 Gesetzmäßigkeiten oder Korrelationen?

„(...) In diesen und ähnlichen Fällen heißt also rational sein einen bestimmten Inhalt akzeptieren. Schon zu Beginn der abendländischen Philosophie brachte man die bevorzugten Inhalte mit einem dem Menschen innewohnenden Vermögen in Verbindung, nämlich der Vernunft: rational ist, was die Vernunft entdeckt, wenn sie die Welt ungestört durch andere Vermögen untersucht.“[32]

Leider ist die Vernunft oft ganz und gar nicht ungestört, wenn es um Geld geht...

Eine rationale Theorie kann die von ihr vorausgesagten Phänomene plausibel erklären und Gründe angeben, die der Vernunft eingängig sind. Es macht an dieser Stelle wenig Sinn, ausgiebig auf die Problematik der rationalen Letztbegründung von Theorien einzugehen. Deshalb beschränke ich mich auf die Angabe von Gründen hinsichtlich Rationalität.

Wie bereit in Punkt 2 gesehen, ist es bis auf wenige Ausnahmen gewöhnlich nicht möglich, tatsächlich Gründe im Sinne einer Erklärung eines bestimmten Kursverhaltens anzugeben. Nur in sehr begrenztem Ausmaße lassen sich Phänomene wie Trendverhalten mit massenpsychologischen Explanantia erklären. Doch normalerweise ist dies auch gar nicht erwünscht. Was zählt ist das Funktionieren:

„Die Sichtweise (3 = die Chart-Theorie funktioniert, ohne, dass wir Gründe dafür angeben können) bei einem gewissen Grad des Funktionierens einer Theorie auch ohne Rekurs auf die „Warum-Frage“ zu akzeptieren, ist unter Chart-Theoretikern weit verbreitet.“[33]

Diesen Satz findet man in „Crash der Theorien“ von Bernd Niquet, eines der wenigen kritischen Büchern zum Thema Technische Analyse. Niquet spricht sich in diesem Zusammenhang klar für ein instrumentalistisches Theoriekonzept aus:

„Im wissenschaftstheoretischen Kontext nennt man das instrumentalistische Theorieauffassung. Das heißt, daß die Theorie hier als reines Instrument oder Werkzeug zu verstehen ist, bei welchem es für den Anwender wie auch für den Erfinder völlig egal ist, warum es funktioniert.“[34]

Pragmatismus steht klar im Vordergrund und das gilt für alle Formen der Technischen Analyse. Auch in der angegebenen Literatur finden sich so gut wie keine Angaben von Gründen, weshalb die Technische Analyse funktioniert. In erster

Linie scheint die Technische Analyse also auf einer Korrelation statistischer Daten zu fußen. Die Existenz von gewissen Gesetzmäßigkeiten wird trotzdem behauptet:

„Die Gesetzmäßigkeiten der Chart-Analyse (=Technische Analyse) erweisen sich mithin als nicht so streng determiniert wie die naturwissenschaftlichen Gesetze, sondern sind von einem wesentlich höherem Freiheitsgrad gekennzeichnet. Oder von einer gewissen „Unschärfe“, welche sich konkret darin ausdrückt, daß mit ihr in den meisten Fällen keine quantitativ genau bestimmbaren Kursprognosen gemacht, sondern vielmehr nur die zukünftige Kursrichtung angegeben werden kann. Was jedoch der Tatsache keinen Abbruch tut, daß damit die Existenz von Gesetzmäßigkeiten behauptet wird.“[35]

„Der Markt hat immer Recht!“[36]

4. Zusammenfassung der bisherigen Ergebnisse

Bei der Technischen Analyse handelt es sich also um ein instrumentalistisches Theorienkonzept, dass ausschließlich am praktischen Nutzen für den Anwender orientiert ist. Der Anspruch, ein bestimmtes Kursverhalten in einem Markt mit rationalen Gründen zu erklären, wird größtenteils nicht erhoben. Gleichzeitig aber sind ihre Anwender primär an einer Kursprognose interessiert. Das erscheint zunächst einmal paradox. Prognosen werden ermöglicht durch Antecedensbedingungen und Gesetze[37]. Gesetze, im Sinne von

Kausalzusammenhängen, sind aber so gut wie nicht auffindbar, auch wenn sich in Hinblick auf weitere Forschungen im Bereich der Behavioral Finance hier Perspektiven eröffnen könnten. Selbst von eingefleischten Verfechtern und Anwendern der Technischen Analyse wird dies nicht postuliert. Alle Varianten der Technischen Analyse scheinen somit auf einer Korrelation statistischer Daten zu fußen. Doch auch diese Zusammenhänge sind eher „weicher Natur“ und lassen sich nie hundertprozentig in der Praxis bestätigen.

„Blind commitment to a theory is not an intellectual virtue: it is an intellectual crime. “ Imre Lakatos[38]

III. Die Wissenschaftlichkeit der Technischen Analyse

Dieser Teil untersucht die Wissenschaftlichkeit der Technischen Analyse. Dabei geht es zunächst darum die Kriterien für Wissenschaftlichkeit darzustellen. Die Frage, welche Kriterien eine wissenschaftliche Theorie von unwissenschaftlichen, und vor allem von pseudo-wissenschaftlichen, unterscheiden, ist nicht eindeutig geklärt:

,,It is highly unlikely that any simple-minded, one- or two-sentence definition of science will yield a plausible demarcation criterion that we can use to label and condemn as pseudo-scientific those theories (and their advocates) that fail to meet the standards of good science.“[39]

Insofern kann keine ultimative Klärung der Frage, in wie weit die Technische Analyse wissenschaftlich ist, erwartet werden. Allerdings wird der Blick auf Probleme und Schwachstellen gelenkt sowie auf Widersprüche aufmerksam gemacht werden.

Trotz zahlreicher Kritik, Weiterentwicklungen und Modifikationen der Auffassungen von Karl Popper stellt Falsifizierbarkeit noch immer eines der wichtigsten Kriterien für die Wissenschaftlichkeit einer Theorie dar. Im folgenden Abschnitt soll die Technische Analyse auf ihre Falsifizierbarkeit geprüft werden. Nach einer theoretischen Darstellung des Induktionsproblems und Poppers Falsifizierbarkeitskriterien folgt eine Anwendung der Thesen auf die Technische Analyse. Die weiteren Punkte gehen auf die von Kuhn und Lakatos geäußerte Kritik an Poppers Falsifikationismus ein und beschäftigen sich mit dem Thema, in wie weit die Technische Analyse als degeneratives Forschungsprogramm zu bezeichnen ist.

1. Das Induktionsproblem - eine kurze Darstellung

Die Gründe, weshalb wissenschaftliche Theorien falsifizierbar sein müssen, sind hinlänglich bekannt. Aus diesem Grund beschränke ich mich bei der Darstellung auf die wesentlichen Grundzüge.

Vor Popper war in erster Linie die Verifizierbarkeit von Theorien als wissenschaftliches Kriterium maßgebend. Das bedeutete im Prinzip: eine Theorie wird induktiv aus empirischen Beobachtungen abgeleitet.

„Wenn viele Elemente einer Menge M unter sehr verschiedenen Umständen observiert worden sind und wenn für alle diese Elemente (ohne Ausnahme) die Eigenschaft E zutraf, dann besitzen alle Elemente der Menge M die Eigenschaft E.“[40]

In der Praxis lassen sich aber so gut wie nie wirklich alle Elemente einer Menge observieren. Also wird nach einer observierten Teilmenge auf die Gesamtheit der Menge geschlossen. Logisch ist dieser Schluss allerdings nicht zulässig. Auch aus noch so vielen Einzelaussagen lässt sich keine Allaussage bzw. kein Gesetz ableiten. Schließlich würde eine einzige widersprüchliche Behauptung die Theorie widerlegen. Dieser Widerspruch ist gemeinhin unter dem Begriff „Induktionsproblem“ bekannt, das David Hume im 17. Jahrhundert formulierte.

Aber auch schon vor Hume wurden Zweifel an der induktiven Methode von Sextus Empiricus geäußert:

„Doch der Skeptiker Sextus Empiricus (ca. 200-250) kritisierte die Vorstellung eines zuverlässigen Weges vom Einzelnen zum Allgemeinen. Sein Argument bedurfte seither keiner wesentlichen Verbesserung mehr: Wenn man das Allgemeine aus dem Besonderen erschließen will, so muß man entweder alles Besondere durchgehen oder nur einiges. Geht man nur einiges durch, so ist die Induktion ungewiß, weil es immer ein Besonderes geben kann, das dem Allgemeinen entgegensteht; alles durchzugehen aber ist unmöglich, da das Besondere unendlich und unbegrenzt ist.“40[41].

Bei Hume findet sich eine Unterteilung des Induktionsproblems in ein logisches und ein psychologisches Problem. Ersteres lautet:

„Ist es gerechtfertigt von (wiederholten) Einzelfallen, die wir erfahren haben, auf andere Fälle (...), die wir nicht erfahren haben zu schließen?“[42]

Nach Sextus Empiricus, Hume und Popper lautet die Antwort nein:

„Now it is far obvious, from a logical point of view, that we are justified in inferring universal statements from singular ones, no matter how numerous; for any conclusion drawn in this way may always turn out to be false: no matter how many instances of white swans we may have observed, this does not justify the conclusion that all swans are white. “[43]

Das psychologische Problem entsteht aus der Frage, warum wir dies trotzdem tun:

„Warum erwarten und glauben trotzdem alle vernünftigen Menschen, daß noch nicht vorliegende Erfahrungen den vorliegenden entsprechen werden?“[44]

Das psychologische Problem führt in tiefere Bereiche der Wissenschaftstheorie und Epistemologie, die uns in dieser Arbeit nicht weiter zu interessieren brauchen. Weiterführend im Sinne der Arbeit ist das logische Problem: anhand wahrer Beobachtungssätze kann nicht die Wahrheit eines allgemeinen Gesetzes geprüft werden.

Verifizierbarkeit scheidet aus diesem Grund auch als Abgrenzungskriterium zwischen wissenschaftlichen und pseudowissenschaftlichen Aussagen aus.

2. Poppers „Lösung“ - der Falsifikationismus

Karl Popper nahm für sich in Anspruch das Induktionsproblem gelöst zu haben[45]. Humes Induktionsproblem führte zu einem wissenschaftlichen Skeptizismus, der dem großen Erfolg der Wissenschaft widersprach. Popper gibt Hume Recht, indem auch er festhält, dass sich die Behauptung, eine erklärende allgemeine Theorie sei wahr, nicht mit empirischen Beobachtungen rechtfertigen lässt.[46] Daraus folgt, dass alle Theorien einen hypothetischen Charakter besitzen. Ob sie wirklich wahr sind, können wir nie herausfinden, da wir nie sicher gehen können, ob nicht eine Beobachtung in der Zukunft die Theorie widerlegen wird. Uns bleibt nur die Möglichkeit, uns über immer bessere Theorien der Wahrheit anzunähern. Er nennt diese Position den „Kritischen Rationalismus“.

Allerdings lässt sich mit empirischen Beobachtungen sehr wohl feststellen, ob eine Theorie falsch ist, nämlich genau dann, wenn ein beobachtetes Phänomen der Voraussage der Theorie widerspricht. Insofern besteht eine Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit.

„Allgemeine Sätze sind zwar nicht verifizierbar, denn, um die Wahrheit etwa des Satzes <Alle Schwäne sind weiß> zu sichern, genügt keine Zahl von Beobachtungen weißer Schwäne, die nicht die gesamte Population der Schwäne erfaßt, und man kann nie wissen, daß man sie ganz erfasst hat, wenn man sie nicht von vornherein als raum-zeitlich begrenzt definiert. Allgemeine Sätze sind aber falsifizierbar, wenn man die Wahrheit mindestens eines sie falsifizierenden Beobachtungssatzes, eines Basissatzes, voraussetzen kann.“[47]

In der Literatur wird zudem zwischen einer logischen und einer praktischen Falsifizierbarkeit unterschieden. Erstere zielt auf die prinzipielle logische Falsizierbarkeit mindestens eines Basissatzes der Theorie oder These.

„Sie hat es nur mit der logischen Struktur von Sätzen und von Klassen von Sätzen zu tun.“[48]

Um zu sinnvollen Aussagen zu gelangen, werden Schlüsse oder Vorhersagen aus der Theorie logisch deduziert. Allerdings genügt nun auch eine falsifizierende Beobachtung um die Theorie, aus der der Schluss stammt, zu falsifizieren:

„(...) Next we seek a decision as regard these (and other) derived statements by comparing them with the results of practical applications and experiments. If this decision is positive, that is, if the singular conclusions turn out to be acceptable, or verified, then the theory has, for the time being, passed its test: we have no reason to discard it. But if the decision is negative, or in other words, if the conclusions have been falsified, then their falsification also falsifies the theory from which they were logically deduced.“[49]

In der Praxis sollte es nach Popper also so aussehen, dass Wissenschaftler zunächst „kühne Ideen“ haben. Aus diesen werden Theorien formuliert. Daraufhin folgt der Praxistest. Die Vorhersagen der Theorie werden anhand der Wirklichkeit bzw. im Experiment auf ihren Wahrheitsgehalt überprüft. Allerdings können verifizierende Ergebnisse die Theorie nie endgültig bestätigen. Widerspricht aber eine Beobachtung der Vorhersage der Theorie, so gilt die gesamte Theorie als falsifiziert.

2.1 Falsifizierbarkeit als Abgrenzungskriterium

Theorien lassen sich also nie endgültig verifizieren. Sie besitzen einen hypothetischen Charakter. Allerdings lassen sich über das Falsifizierungskriterium wissenschaftliche Theorien von pseudo-wissenschaftlichen und nicht­ wissenschaftlichen abgrenzen.[50]

„Obwohl es (nach Tarski und Popper) kein Wahrheitskriterium geben kann, so gibt es, nach Poppers Vorschlag, ein Abgrenzungskriterium: das Kriterium der Falsifizierbarkeit. Poppers Vorschlag ist: Ein Satz (oder eine Theorie) ist dann und nur dann empirisch-wissenschaftlich, wenn er falsifizierbar ist.“[51]

Gütekriterium wissenschaftlicher Kriterium nach Popper ist also deren prinzipielle Falsifizierbarkeit. Ist eine Theorie prinzipiell durch Beobachtungen nicht falsifizierbar, hat sie einen metaphysischen bzw. pseudowissenschaftlichen und keinen wissenschaftlichen Charakter. Das setzt natürlich auch die Prüfbarkeit einer Theorie voraus. Damit aber ein die Theorie falsifizierender Basissatz nicht als logisch unmöglich betrachtet wird[52], sollte eine Theorie gleich selbst angeben, unter welchen Bedingungen sie falsch ist:

„(...) Um solche Dinge zu vermeiden, können wir nach Poppers Vorschlag verlangen, daß jemand, der den empirisch-wissenschaftlichen Charakter einer Theorie vertritt, angibt, unter welchen Bedingungen er bereit wäre, diese Theorie als falsifiziert anzusehen; das heißt, er soll wenigstens eine, womöglich aber einige Falsifikationsmöglichkeiten beschreiben.“[53]

Ist die Theorie einmal durch eine Beobachtung als falsch erwiesen, sollte man sie nach Popper auf den (imaginären) Müllhaufen werfen.

2.2. Immunisierungsstrategien und Adhoc-Modifikationen

Freilich macht es in der Praxis nicht immer Sinn, eine Theorie sofort nach einer falsifizierten Einzelaussage als widerlegt zu betrachten.

„Popper hat immer wieder betont (...), daß in diesem Sinn (gemeint ist die praktische Falsifizierbarkeit) auch die besten empirisch­wissenschaftlichen Theorien nicht als falsch erweisbar sind.“[54]

Zur Erklärung schreibt Popper:

„Jedes theoretische System kann nämlich vor einer empirischen Falsifikation geschützt werden, und das sogar auf verschiedenen Wegen.“[55]

Dass ein Vertreter einer Theorie die Bedingungen, unter denen diese falsch ist, am besten selbst mit angeben soll, liegt nicht zuletzt an der Tatsache, dass sich manche Vertreter hartnäckig weigern, ihre Theorie auf dem Theorienfriedhof zu begraben. Mittels so genannter Adhoc-Modifikationen oder Immunisierungsstrategien wird die Theorie verteidigt.

Eine Adhoc-Modifikation verändert die Theorie kurzerhand so, dass das beobachtete, zunächst falsifizierende Phänomen nachträglich in die Theorie integriert wird.

Als klassisches Beispiel für eine Adhoc-Modifikation wird oft der wissenschaftliche Marxismus herangezogen. Laut der Theorie vor der russischen Revolution 1917/1918 würde die proletarische Revolution erst in den am höchsten industrialisierten Ländern ausbrechen. Zu dieser Zeit war dies Großbritannien. Dort fand die Revolution aber nicht statt, sondern im landwirtschaftlich geprägten Russland. Von den Marxisten wie Lenin oder Stalin wurde dann einfach behauptet, dass man die Industrialisierung in der Sowjetunion aggressiv vorantreiben müsse. Laut Popper büßte der Marxismus seine Wissenschaftlichkeit ein:

„The Marxist theory of history, in spite of the serious effort of some of its founders and followers, ultimately adopted this soothsaying practice. In some of its earlier formulations (for example in Marais analysis of the character of the úcoming social revolutionù) their predictions were testable and in fact falsified. Yet instead of accepting the refutations the followers of Marx re-interpreted both the theory and the evidence in order to make them agree. In this way they rescued the theory from refutation; but they did so at the price of adopting a device which made it irrefutable. They thus gave a úconventional twisť to the theory; and by this stratagem they destroyed its much advertised claim to scientific status.“[56]

Oft muss sogar etwas an der Theorie gefeilt werden, bis sie tatsächlich „steht“. Auch Hilfshypothesen - also Zusatzaussagen - haben ihre Berechtigung. Von Adhoc- Modifikation unterscheidet sie jedoch die unabhängige Überprüfbarkeit. Tatsächlich aber lassen sich in der Praxis „gute“ Hilfshypothesen von „schlechten“ Adhoc- Modifikationen nur schwer unterscheiden. Besonders aus diesem Grund ist notwendig, dass Vertreter bestimmter Theorien selbst angeben, bis zu welchem Grad Hilfshypothesen zulässig sind. Dies gewährleistet schließlich auch den offenen und kritischen Dialog. Nicht zu letzt ist es eine Frage des Common Sense, wann eine falsifizierte und durch zahlreiche Hilfshypothesen ergänzte Theorie zu verwerfen ist. Man mag vielleicht an ein altes, verfallendes Haus denken, dass mit zahlreichen klapprigen Beschlägen und Hilfskonstruktionen mehr schlecht als recht in einem bewohnbaren Zustand gehalten wird. Irgendwann aber ist der Zeitpunkt erreicht, an dem man das Fundament erneuern muss.

„Es gibt Lügen, gemeine Lügen und die Statistik."[57] (Benjamin Disraeli, 1804 - 1881; engl. Premierminister)

2.3. Wahrscheinlichkeiten und deren Falsifizierung

Von Existenzaussagen (z.B. „Es gibt eine Zeremonie, deren genaue Ausführung den Teufel zu erscheinen zwingt.“[58] ) einmal abgesehen, haben wir also mit der Falsifizierbarkeit ein wertvolles Kriterium zur Hand, um wissenschaftliche Aussagen von pseudowissenschaftlichen zu trennen. Wie aber verhält es sich nun mit statistischen Aussagen? Eine Aussage wie „Medikament XY führt in 95 Prozent aller Fälle zur Heilung“ lebt ja geradezu durch die Fälle ihrer eigenen Falsifizierungen, wenn auch nicht im wörtlichen so doch im intendierten Sinn. Fünf Prozent widerlegen die Behauptung, dass Medikament XY zur Heilung führe.

Zudem kommt die Tatsache, dass eine solche Behauptung ja erst durch eine Anzahl mehrerer Beobachtungen gewonnen wird. Was passiert, wenn weitere Beobachtungen zu dem Schluss führen, dass das Medikament nur in 85 Prozent der Fälle anschlägt? Wie viele Beobachtungen müssen gemacht werden, bis die Aussage sinnvoll benutzt werden kann (benutzen im Sinne von „das Medikament auf den Markt bringen“.) Das Induktionsproblem hängt also scheinbar wie ein Damoklesschwert über statistischen Aussagen. Trotzdem aber arbeiten wir Tag für Tag mit Wahrscheinlichkeitsaussagen und verlassen uns auf sie. Auf der anderen Seite scheint es unklar, wie sich solche Aussagen falsifizieren lassen. Schließlich könnte ein Befürworter der Hypothese stets erwidern, man müsse den Beobachtungszeitraum nur ein wenig ausweiten und schon käme die Verteilung wieder ins Lot.

„Wie generelle Hypothesen sind Wahrscheinlichkeitshypothesen nicht verifizierbar. Doch anders als generelle Hypothesen sind sie auch nicht falsifizierbar, denn eine Wahrscheinlichkeitshypothese verbietet nichts Beobachtbares, (...) kann mit keinem Basissatz, also auch mit keiner Konjunktion von endlich vielen Basissätzen (mit keiner endlichen Beobachtungsfolge) in logischen Widerspruch stehen. Deshalb scheint die <zweifellose empirisch-wissenschaftliche Verwendbarkeit (von Wahrscheinlichkeitshypothesen) (Poppers) erkenntnistheoretische Auffassung (Abgrenzungskriterium) schwer zu erschüttem>.“[59]

In der Praxis ist dieser Ansatz natürlich so nicht brauchbar. Statistische Aussagen sind praktisch nutzbar. Eine rein logische Betrachtung führt deshalb nicht weiter. Das Problem scheint nur schwer lösbar. Popper bevorzugt, eine Art dogmatischen Abbruch. Der Aussage wird ein Verwerfungsbereich zugeteilt. Der Vorgang ist aus Statistiklehrbüchern nur zu gut bekannt.

„Wie in der Statistik üblich, wird ein Annahme- und ein entsprechender Verwerfungsbereich definiert. Vorgänge, die angesichts der Hypothese sehr unwahrscheinlich sind, fallen in den Verwerfungsbereich. Ergibt die Prüfung eine solche Stichprobe, so wird die Hypothese vorläufig verworfen, sonst wird sie vorläufig angenommen. Die Definition eines Annahme- und Verwerfungsbereichs füngiert als methodologische Regel,

<die Wahrscheinlichkeitshypothesen falsifizierbar macht>. (...) Um in Einklang mit der empirischen Wissenschaft zu bleiben, schwächt er sein Falsifizierbarkeitskriterium zu einem Prüfbarkeitskriterium ab.“[60]

Die Verwerfung oder Annahme einer Theorie über Signifikanztests liefert außerdem immer nur Wahrscheinlichkeitsaussagen darüber, ob die empirischen Ergebnisse den Hypothesen ent- oder widersprechen.

Statistische Aussagen können wiederum nur mittels statistischer Verfahren falsifiziert werden. Das führt zu einem infiniten Regress. Denn auch die Aussage, wonach die gemessene Häufigkeit in diesem Bereich liegt, gilt wiederum mit einer gewissen Wahrscheinlichkeit.

„Wenn man ausdrücken will, daß einer allgemeinen Wirklichkeitsaussage a posteriori ein gewisser Wahrscheinlichkeitsgrad als Geltungswert zukommt, so kann man das nur durch eine Aussage über diese Aussage objektiv festlegen.

Diese Aussage ist von höherem Typus als die Hypothese. Sie ist aber selbst eine allgemeine Wirklichkeitsaussage, der somit als Geltungswert nur ein Wahrscheinlichkeitswert zukommen kann; das sieht man schon daraus, daß eine Falsifizierung der Hypothese auch die Aussage, die ihr einen positiven Wahrscheinlichkeitswert zuschreibt, falsifiziert: ihre Geltung hängt von der Erfahrung ab, sie kann kein endgültig wahrer Satz sein. Ist sie aber nur wahrscheinlich, so kann wieder nur durch eine Aussage von höherem Typus ausgedrückt werden usw. ad infinitum.“[61]

Trotz dieser logischen Probleme bewähren sich statistische Aussagen in der Praxis. Ein „harter“, logischer Falsifikationismus führt hier also nicht weiter. Insbesondere bei physikalischen Experimenten führen etwaige Messfehler zu einer prinzipiellen Unsicherheit. Diese Unsicherheit kann mindestens der entsprechen, die durch statistische Aussagen entsteht.

Was bleibt, ist eine Unsicherheit, was die Aussagekraft von statistischen Aussagen betrifft. Jede statistische Aussage kann prinzipiell ihre Geltung mit Ausweitung des Beobachtungszeitraumes verändern bzw. verlieren.

Wichtig ist deshalb, dass die statistische Hypothese stets an Daten getestet wird, die mit der Erstellung der Hypothesen nichts zu tun hatten. Prämisse für die Gewinnung und Geltung statistischer Aussagen ist, dass dem Datensatz eine Gesetzmäßigkeit zu Grunde liegt.

Denn zufällige Korrelationen lassen sich nur schwer von Kausalzusammenhängen unterscheiden. (Beispiele hierfür gibt es viele: die Korrelation der Storchpopulation mit der Geburtenrate eines Landes oder die Wechselwirkungen des polnischen Schweinebestandes mit der amerikanischen Geldmenge.) Hierzu abermals Popper:

„Popper schreibt, die „wichtigste Anwendung der Wahrscheinlichkeitstheorie (sei) die auf zufällige Ereignisse.“ Aus ihrer Zufallsartigkeit schließe man, daß sich die Wahrscheinlichkeitsrechnung auf sie anwenden lasse. Das erscheint ihm als „paradoxe(r) Schluß von einer Unberechenbarkeit auf die Anwendbarkeit einer bestimmten Berechnungsmethode.“[62]

Ein Kriterium jedoch sollte die Plausibilität der statistischen Korrelation sein. Die Plausibilität wiederum hängt letzten Endes am von Popper viel gehuldigten Common Sense, dem gesunden Alltagsverstandes.

Was also bleibt? Zumindest, dass statistische Aussagen immer mit Vorsicht zu genießen sind. Ihre Geltung kann sich schnell ändern. Zudem sollte man sich stets den Unterschied zwischen Korrelation und Kausalität bewusst machen und dass im Nachhinein für jeden beliebigen Datensatz bestimmte Regelmäßigkeiten entdeckt werden können. Die Prämisse für sinnvolle statistische Aussagen ist, dass sich der getestete Datensatz nach Gesetzen verhält und nicht zufällig zustande kommt. Konkurrieren zwei statistische Aussagen miteinander, ist die mit größerer Plausibilität vorzuziehen.

3. Die Falsifizierbarkeit der Technischen Analyse

Für die Technische Analyse bedeutet dies, dass als Kriterium für ihre Wissenschaftlichkeit ihre prinzipielle Verifizierbarkeit zunächst einmal ausscheidet. Die wiederholte Bewahrheitung ihrer Voraussagen in Einzelfällen sagt nichts über die wissenschaftliche Qualität der Theorie.

Um der Frage nach der Wissenschaftlichkeit der Technischen Analyse nachzugehen, muss diese also zunächst auf ihre Falsifizierbarkeit überprüft werden. Als Basissätze dienen weiterhin die in Teil 1 formulierten Hypothesen. Gibt es also theoretische Beobachtungssätze, die den Basissätzen widersprechen?

These 1 lautete: Was die Arbeit mit Trendlinien und Indikatoren betrifft, so wird davon ausgegangen, dass das Fortbestehen eines Trends wahrscheinlicher ist als eine Trendumkehr.

Die These ist logisch falsifizierbar und zwar mit dem Beobachtungssatz: es lässt sich mit keiner Wahrscheinlichkeit sagen - bzw. die Wahrscheinlichkeit beträgt 0,5 -, dass sich ein bestehender Trend fortsetzt. Man mag nun einwenden, die korrekte Falsifizierung müsse „die Wahrscheinlichkeit, dass ein bestehender Trend sich fortsetzt, ist kleiner als 0,5“ lauten. Doch hinsichtlich des praktischen Nutzens müsste man in diesem Fall einfach die Basishypothese gegen ihre Falsifizierung austauschen.

Praktisch ist diese These nur unter großem Aufwand falsifizierbar. Dazu müsste zunächst einmal detailliert und klar definiert werden, was unter einem Trend verstanden wird. Doch hier tauchen bereits gravierende Probleme auf: nach einer graphischen, harten Methode besteht ein Trend immer dann, wenn sich zwei Tief- bzw. Hochpunkte mit einer Gerade verbinden lassen. Andere Mechanismen arbeiten mit Gleitenden Durchschnitten. Oberhalb bzw. unterhalb dieses Durchschnittes lässt sich von einem Trend sprechen. Doch welcher gleitende Durchschnitt soll verwendet werden? Zwar haben sich die 20-, 50- und 200-Tageslinie eingebürgert, doch stellen sie nichts anderes als eine willkürliche Konvention dar. Prinzipiell ließe sich auch die Trenddefinition zwei Hoch- bzw. Tiefpunkte durch drei Punkte, die mit einer Gerade verbunden werden, ersetzen.

Nach genauen Definitionen der Begriffe Trend und Trendumkehr wäre die Aussage, wonach ein bestehender Trend mit größerer Wahrscheinlichkeit anhält, einem statistischen Testverfahren zu unterziehen.

These 2 lautete: Die Marktteilnehmer haben ein Gedächtnis. Sie erinnern sich an bestimmte Kursniveaus und tendieren dazu, sich an diesen immer wieder ähnlich zu verhalten. Das gilt insbesondere für die Arbeit mit Unterstützungen und Widerständen.

Die korrekte Falsifizierung lautet: Die Marktteilnehmer erinnern sich nicht an historische Kurse. Sie spielen beim aktuellen Kursgeschehen keine Rolle. Jedes Kursniveau besitzt dieselbe statistische Signifikanz.

Auch diese These ist falsifizierbar. Praktisch aber ist es fraglich, ob man jemals tatsächlich diese Behauptung widerlegen könnte. Es handelt sich dabei um die bereits bei der ersten These erwähnten Probleme. Genaue Definitionen, woran sich diese These verifizieren bzw. falsifizieren ließe, sind hier vonnöten. Aber auch diese fehlen. In zahlreichen Lehrbüchern zur Technischen Analyse finden sich immer wieder aus der Basishypothese abgeleitete Sätze, wie „Ist der Kurs einer mindestens zweimal an der Marke von 100 Euro von oben kommend abgeprallt, so stellt die Marke 100 Euro einen Widerstand dar, der nun kursstützend wirkt.“ Dass diese Sätze nur eine statistische Geltung haben und nie uneingeschränkt gelten, wird selbst von härtesten Verfechtern der Technischen Analyse nicht angezweifelt. Wenn diese Sätze aber nur eine statistische Geltung haben, so wäre eine genau definierte Wahrscheinlichkeitsaussage nötig, die dann anhand neuer Daten auf ihre Zuverlässigkeit hin überprüft werden müsste.

These 3 lautete: Aus bestimmten Kursmustern in der Vergangenheit lassen sich Schlüsse auf die zukünftige Kursentwicklung ziehen, da diese zeitlich invariant sind und sich in ähnlicher Form stets wiederholen.

Der falsifizierende Basissatz lautet: Das Kursgeschehen ist indeterministischer Natur. Es lassen sich prinzipiell keine Regelmäßigkeiten erkennen. Diese Falsifikation entspricht übrigens der Random-Walk-Hypothese[63]. Auch diese These ist falsifizierbar.

Faktisch aber spaltet gerade diese These die Marktteilnehmer und Ökonomen in zwei Lager. Vertreter der Random-Walk-Hypothese behaupten vehement, dass sich an den Kapitalmärkten keine Überrenditen* erwirtschaften lassen, gerade weil es eben keine zeitlich invarianten Muster gibt. Auch hier wären klare Definitionen nötig, um eine gehaltvolle, statistisch widerlegbare These zu konstruieren. Diese gibt es zwar in Ansätzen, werden aber oft wegen ihrer begrenzten Datenmenge von Gegnern der These verworfen.[64]

These 4 betraf die Kursprognose mittels der so genannten Elliott-Waves: Laut Ralph Nelson Elliott lässt sich bei Bewegungen der Finanzmärkte stets ein acht­welliges Muster ausmachen. Dieses Muster weist eine fraktale Struktur auf und findet sich somit in allen möglichen Zeitrahmen.

Diese These ist nicht falsifizierbar:

Angenommen ein Marktteilnehmer geht auf Grund der bisherigen Zählung (Welle I aufwärts gerichtet, Welle II abwärts gerichtet, Welle III aufwärts gerichtet) davon aus, dass es nun zu fallenden Kursen kommen müsse, da Welle IV stets abwärts läuft. Steigen die Kurse nun entgegen der Prognose, kann es zu keiner Falsifizierung kommen, denn: der Marktteilnehmer hat seine Zählung am falschen Ausgangspunkt begonnen. Er muss nun seine erste Zählung verwerfen und sich einen neuen Ausgangspunkt der Impulsbewegung suchen. Dann wird er von neuem versuchen, die Wellen korrekt zu identifizieren. Trifft die Prognose nun wieder nicht ein, muss er auch diese Zählung wieder verwerfen. Da über Länge und Dauer der Wellen nichts ausgesagt wird, kann es zu keiner Widerlegung der Theorie kommen. Im Nachhinein lässt sich freilich immer ein acht-welliges Muster ausfindig machen. Ex­ante jedoch kann sich die Prognose nie als falsifizierende Beobachtung erweisen, da ein Nicht-Eintreffen der Prognose stets auf die falsche Zählweise des Akteurs zurückgeführt wird.

These 5 lautete: Anleger orientieren sich zunächst unbewusst an bestimmten Kursmarken, die sich über die Fibonacci-Sequenz ermitteln lassen. Die falsifizierende Aussage müsste lauten: Die Fibonacci-Sequenz hat keinerlei Einfluss auf das Verhalten der Anleger. Doch auch hier tauchen gravierende Probleme auf, die eine praktische Falsifizierbarkeit erschweren. (Im Anhang findet sich eine genaue Erklärung dieser Technik.) Ausschlaggebend dafür ist zunächst die Ermittlung eine Kurstiefs und eine Kurshochs. Doch diese Identifizierung ist sehr von subjektiven Einschätzungen geprägt. Wo der eine ein signifikantes Kurstief sieht, erkennt der andere lediglich ein Zwischentief. Die Problematik ähnelt der von These 4. Erweist sich das Eintreffen der Prognose als falsch, kann das oft auf die falsche Identifizierung von Hoch- und Tiefpunkt durch den Marktteilnehmer zurückgeführt werden.

Trotzdem aber entzieht sich diese Technik nicht prinzipiell der Falsifikation. Um aber dorthin zu gelangen, sind wieder genaue Definitionen nötig, unter welchen Umständen Fibonacci-Relationen zur Anwendung kommen können[65]. Diese sind dann ebenfalls wieder auf ihre statistische Signifikanz zu prüfen, um zufällige Korrelationen auszuscheiden.

3.1 Die Prognosen der Technischen Analyse

Problematisch bei allen fünf Thesen ist außerdem die Unschärfe der aus ihnen gewonnen Prognosen. Vor wirklich handfesten Kursprognosen hüten sich nahezu alle Technischen Analysten und entziehen sich so - zum Teil bewusst - der Kritik.[66] Gewöhnlich wird entweder die zeitliche Komponente oder die Kursmarke angegeben, an der starke Kursbewegungen in eine Richtung erfolgen sollen, aber so gut wie nie beide zugleich. Insofern ist es natürlich ein Leichtes, Prognosen zu erstellen, die z.B. behaupten, der DAX* werde in nächster Zeit eine markante Trendwende vollziehen oder die Marke 1,30 beim Währungspaar EUR/USD steht kurz vor dem Fall. Diese Unschärfe erschwert zum einen die Falsifizierung der Beobachtungsaussagen und verhindert zum anderen die Erstellung klar definierter Wahrscheinlichkeitsaussagen. In diesem Sinn muss man sich auch die Frage stellen, ob es überhaupt Sinn macht von „Prognosen“ zu sprechen:

„Prognosen gelten nach allgemeiner wissenschaftstheoretischer

Auffassung nur dann als wissenschaftlich, wenn sie analog den Erklärungen mit Hilfe von Gesetzen und bestimmten

Anfangsbedingungen gewonnen wurden. In diesem Sinn spricht man von bedingten Prognosen. Unbedingte (d.h. bedingungslose) Vorhersagen lassen nicht von Prophezeiungen abgrenzen und werden deshalb als unwissenschaftlich abgetan.“[67]

Paradoxerweise gelten aber gerade präzise Prognosen in der Szene der Technischen Analysten als unseriös. Wer öfter punktgenaue Prognosen abliefert, ist schnell als „Guru“ verschrien und auf die erste Fehlprognose wird geradezu gewartet.

„Das wahre Kriterium der Gesetzmäßigkeit, das wesentliche Merkmal der Kausalität ist das Eintreffen von Voraussagen.“[68]

Es kommt also zu einem Zirkel-Schluss: zunächst wird eine Gesetzmäßigkeit unterstellt. Diese wiederum aber ist nur vage und statistischer Natur, so dass klar definierte Prognosen nicht gemacht werden können. Und so kann die unterstellte Gesetzmäßigkeit wiederum nicht überprüft bzw. falsifiziert werden.

3.2. Immunisierungstendenzen

Von Immunisierungstendenzen zu sprechen, ist insofern schwierig, da die Unschärfe der Basishypothesen falsifizierende Beobachtungssätze kaum zulassen. Allerdings lassen sich insbesondere bei der Anwendung von Handelssystemen[69] folgende Tendenzen beobachten: Im Datentest wurde ermittelt, dass die Gesamtperformance eines Handelskontos pro Jahr ein Plus von 50 Prozent liegt, wenn immer dann Long- Positionen* eingegangen werden, sobald der DAX* die SMA 50 von unten nach oben schneidet. Nach einem Jahr in der praktischen Anwendung weist das Konto aber nun ein Minus von zehn Prozent auf. Der praktische Nutzen ist also nicht vorhanden. Im Folgeschluss wird nun nicht die Wirkungsweise der Technischen Analyse als Ganzes in Frage gestellt, sondern nur die Wahl der Parameter. Als nächstes wird nun beispielsweise ein exponentiell gewichteter Durchschnitt der letzten 40 Tage (EMA 40) gewählt und das System erneut auf dem Markt angewendet.

Um mit Lakatos zu argumentieren, wird der Kern der Hypothesen also nie in Frage gestellt, sondern stets nur die Thesen aus dem „Schutzgürtel“.

3.3. Zusammenfassung

Thesen 1,2,3 und 5 sind prinzipiell falsifizierbar. Allerdings entziehen sie sich trotzdem wissenschaftlichen Standards. Um das Kriterium der Falsifizierbarkeit zu erfüllen, ist zunächst eine Vielzahl genauerer Definitionen nötig. So wie die Technische Analyse momentan vertreten wird, lassen sich diese Hypothesen zwar prinzipiell falsifizieren, doch für eine sinnvolle Überprüfung sind klar definierte statistische Aussagen nötig, die momentan so nicht vorhanden sind - weder hinsichtlich der Basishypothesen noch die Schärfe der Prognosen betreffend. Insofern müsste sich die Technische Analyse einer grundlegenden Revision unterziehen.

Anders liegt der Fall bei These 4. Die Aussagen der Elliott-Wave-Theorie entziehen sich prinzipiell jeder Falsifizierbarkeit. Auch eine Überarbeitung der Theorie würde dies nicht ändern. Nach Popper fällt die Elliott-Wave-Theorie also klar in den Bereich der Pseudo-Wissenschaft.

Aber selbst, wenn diese Basishypothesen revidiert und einer Falsifizierung zugänglich gemacht werden, bleibt ein Problem bestehen: Dem Finanzgeschehen werden prinzipiell gewisse Regelmäßigkeiten unterstellt und deswegen nach wiederkehrenden Mustern durchsucht. Diese lassen sich immer in irgendeiner Art und Weise finden und zwar in jedem Datensatz. Das rechtfertigt allerdings keine Aussage darüber, ob die gefundenen Regelmäßigkeiten auch in der Zukunft wieder auftauchen. Genau diese These wird aber nie in Frage gestellt. Wird ein Beobachtungssatz wie: „es lohnt sich, immer dann zu kaufen, wenn der aktuelle Kurs über dem Durchschnitt seiner letzten 50 Tage notiert“ falsifiziert, hat das keine Auswirkungen auf die Gültigkeit der Basishypothese. In diesem Sinn lässt sich also auch von Immunisierungsstrategien innerhalb der Technischen Analyse sprechen.

4. Kritik an Popper - Lakatos und seine Forschungsprogramme

Was sich nun bereits zum zweiten Male im Laufe dieser Arbeit abzeichnet, ist die Notwendigkeit einer grundlegenden Revision der Technischen Analyse. Dies wurde im ersten Teil klar, als es um die Rückführung der Technischen Analyse auf die Erkenntnisse der Behavioral Finance ging, und es zeigte sich abermals bei der Falsifizierbarkeit der Technischen Analyse. Allerdings ist die Falsifizierbarkeit einer

Theorie nicht der Weisheit letzter Schluss. Nicht zu Unrecht wurde der Falsifikationismus als ausschlaggebendes Kriterium der Wissenschaftlichkeit einer Theorie zahlreicher Kritik unterzogen, insbesondere von Lakatos und Kuhn:

„According to Lakatos, Popper is wrong in thinking that a crucial experiment can (or should) instantly refute a theory. As Kuhn has shown, the actual history of science teaches us otherwise: genuine scientific progress (as opposed to degenerating science or pseudoscience) is not simply a matter of one theory remaining unrefuted while others are falsified.“[70]

Das liegt nicht zuletzt an dem von Popper selbst geäußerten Problem, wonach Hilfshypothesen und Adhoc-Modifikationen die Theorie dahingehend verändern, dass sie wieder in Einklang mit der vormals falsifizierenden Beobachtungsaussage steht.

Dieses Problem lässt sich aber umgehen - wie von Popper auch vorgeschlagen - wenn der Vertreter bzw. Entdecker der Theorie, selbst mit angibt, unter welchen Bedingungen bzw. Beobachtungen, die Theorie als falsifiziert zu betrachten ist. Schwerer wiegt da schon das Argument, Poppers Falsifikationismus sei praxisfremd. Beobachtungsaussagen sind selbst wieder fehlbar. Messfehler und falsche Geräteeinstellungen können bei physikalischen Experimenten zu falschen Beobachtungsaussagen führen. Eine Theorie nur aufgrund einer falsifizierenden Beobachtungsaussage als falsifiziert zu betrachten, ist überzogen. Aus diesen Gründen macht es wenig Sinn, die Falsifizierbarkeit als alleiniges Kriterium für die Wissenschaftlichkeit einer Theorie heranzuziehen. Thagard äußert sich ähnlich in seinem Artikel „Why Astrology is a Pseudoscience“:

„Astrology cannot be condemned as pseudoscientific on the grounds proposed by verificationists, falsificationists, or Bok and Jerome. (...Nor does astrology make sense of mass disasters, where numerous individuals with very different horoscopes come to similar ends.) But problems such as these do not in themselves show that astrology is either false or pseudoscientific. Even the best theories face unsolved problems throughout their history. To get a criterion demarcating astrology from science, we need to consider it in a wider historical and social context. A demarcation criterion requires a matrix of three elements: theory, community, historical context.“[71]

Will man also die Wissenschaftlichkeit einer Theorie überprüfen, ist es notwendig, den sozialen und historischen Kontext der Theorie genauer zu untersuchen. Übrigens finden sich auch schon bei Popper klar definierte Ansätze, die später von Kuhn und Lakatos aufgegriffen und spezifischer behandelt wurden. Bei Popper ist es der kritische Kontext, in dem sich eine Theorie bewegen sollte; sie muss offen für Kritik sein (in diesem Sinn ist die Falsifizierbarkeit letztlich nichts anderes als ein technisches Kriterium für diese Kritikfähigkeit.)

Lakatos führt den Begriff des Forschungsprogramms ein und unterteilt diese in progressive und degenerative. Ein Forschungsprogramm umfasst nicht nur eine Theorie oder Hypothese, sondern stets ein ganzes Set von Theorien. Dabei entstehen um den harten, nicht falsifizierten Kern einer Theorie (wie zum Beispiel im Falle der Newtonschen Physik bilden die drei Gesetze der Mechanik und das Gesetz der Gravitation den Kern des Forschungsprogrammes[72] ) zahlreiche andere stützende Theorien. Diese bilden eine Art Schutzgürtel („protective belt“) um den Kern herum. Während progressive Forschungsprogramme auf erstaunlich genaue Art und Weise Fakten Voraussagen, die tatsächlich eintreffen, haben degenerative Forschungsprogramme sogar Probleme, eintreffende Ereignisse theorie-kohärent zu erklären.

„Thus, in a progressive research programme, theory leads to the discovery of hitherto unknown novel facts. In degenerating programmes, however, theories are fabricated only in order to accommodate facts“[73]

Relevant wird diese Unterscheidung vor allem dann, wenn zwei Forschungsprogramme miteinander konkurrieren:

„Now, how do scientific revolutions come about? If we have two rival research programmes, and one is progressing, while the other is degenerating, scientists tend to join the progressive programme. This is the rationale of scientific revolutions. But while it is the matter of intellectual honesty to keep the record public, it is not dishonest to stick to a degenerating programme and try to turn it into a progressive one.“[74]

Laut Thargard erfüllt ein degeneratives Forschungsprogramm dann folgende Kriterien:

„A theory or discipline which purports to be scientific is pseudoscientific if and only if:

1. it has been less progressive than alternative theories over a long period of time, and faces many unsolved problems; but
2. the community of practitioners makes little attempt to develop the theory towards solutions of the problems, shows no concern for attempts to evaluate the theory in relation to others, and is selective in considering confirmations and disconfirmations“[75]

Auch unter „Konkurrenzdruck“ von anderen, besseren Theorien, unternehmen die Verfechter eines degenerativen Forschungsprogrammes also keinerlei Versuche, ihre Theorie einer Revision zu unterziehen und halten stur am Kern ihrer Theorie fest. Hier kommt also auch irrationales Element zu tragen, auf das genauer im 3.Teil eingegangen werden wird. Der harte Kern einer Theorie scheint - zumindest legt das die Geschichte degenerativer Forschungsprogramme wie des Marxismus oder das geozentrische Weltbild nahe - mehr auf persönlicher Überzeugung bzw. auf sozialen Faktoren zu beruhen, als auf kritischer Vernunft.

4.1 Die Technische Analyse, ein degenerativas Forschungsprogramm?

Zunächst scheinen die Voraussetzungen für die Übertragbarkeit der Unterscheidung degeneratives - progressives Forschungsprogramm gegeben zu sein. Die Technische Analyse konkurriert mit der so genannten Fundamentalanalyse75[76] und außerdem der Random-Walk-Hypothese, wonach im Finanzmarkt keine Gesetzmäßigkeiten existieren und ergo auch keine Überrenditen* erwirtschaftet werden können. Es lässt sich also von drei miteinander konkurrierenden Forschungsprogrammen sprechen. Die Kerntheorie der Technischen Analyse lautet:

„Beim Erkennen einer gesetzmäßigen Chart-Formation läßt sich in einem Vermögensmarkt aus den Kursen der Vergangenheit auf die Richtung der zukünftigen Bewegung schließen.“[77]

Die Analogie zur Technischen Analyse passt. Um diese Kernthese herum sammeln sich zahlreiche Zusatztheorien (die Elliott-Wave-Theorie lässt sich schließlich auch unter diese Annahme subsumieren). Im Schutzgürtel um die Kernthese wird „geforscht“. Insbesondere gilt das für den Bereich der Technischen Indikatoren (siehe Anhang). Die Zahl der Indikatoren und Oszillatoren, die Marktgeschehen quantifizieren und dabei bestimmte Aspekte des Kursverlaufs in den Vordergrund stellen, nimmt stetig zu.[78] Fachmagazine publizieren monatlich neue Strategien, Handelsansätze und weisen auf bisher unbekannte Muster hin.

Tatsächlich aber wird die Kernthese zäh verteidigt und nicht in Frage gestellt. In der Literatur zur Technischen Analyse wird diese These höchstens zu Beginn kurz gerechtfertigt. Kritische Hinterfragungen bleiben aus. Eine der von Thagard formulierten Bedingungen für ein degeneratives Forschungsprogramm wäre damit erfüllt („the community of practitioners makes little attempt to develop the theory towards solutions of the problems, shows no concern for attempts to evaluate the theory in relation to others,...”). Richtig ist auch, dass die Vertreter der Theorie wenig bis überhaupt keine Anstrengungen unternehmen, die Technische Analyse auf ihre Vorteile gegenüber anderen Theorien (in diesem Sinne anderen Forschungsprogrammen) hin zu überprüfen. Die Entscheidung, für Technischen Analyse, Fundamentalanalyse* oder Random-Walk-Hypothese* wird letztlich als Glaubensfrage dargestellt, die nur über einen dogmatischen Abbruch geklärt werden kann. Genaue statistische Untersuchungen, mit welcher Prognosemethode sich die besseren Ergebnisse erzielen lassen, sind so gut wie nicht vorhanden und scheitern sowohl an klaren Definitionen als auch an der Datenmenge.

Richtig ist auch, dass die Gemeinde der Technischen Analysten selektiv vorgeht, was die Bestätigungen bzw. die Widerlegungen der Kernthese angeht. Dies liegt aber nicht zuletzt an Unschärfe der Prognosen und Thesen, die sich so einer genaueren Überprüfung entziehen.

All diese Punkte sprechen dafür, die Technische Analyse als degeneratives Forschungsprogramm zu bezeichnen. Anders verhält es sich aber mit der Bedingung, dass ein degeneratives Forschungsprogramm weniger progressiv sei als alternative Theorien. Dieser Punkt trifft nicht zu, da die Fundamentalanalyse kaum bessere Problemlösungen bzw. treffsichere Prognosen liefert. Beide Ansätze scheinen hier wenig zu befriedigen (siehe Teil V. Punkt 2.). Der Grund für die Popularität der Technischen Analyse liegt nicht zuletzt an der Tatsache, dass sie relativ einfach und mit wenig technischen, zeitlichen und finanziellen Aufwand zu betreiben ist. Für Fundamentalanalysen ist wesentlich mehr Aufwand erforderlich. Es gilt, Kennziffern der jeweiligen Unternehmen zu besorgen, diese auszuwerten und mit anderen zu vergleichen und ständig zwischen relevanten und irrelevanten Faktoren zu unterscheiden. Hier verfügt die Technische Analyse über einen entscheidenden Vorteil gegenüber anderen Theorien. Die Random-Walk-Hypothese* kann insofern keine Alternative bieten, da sie überhaupt keine Prognosen zulässt und die Möglichkeit einer Überrendite* strikt verneint.

Somit lässt sich die These, wonach die Technische Analyse ein degeneratives Forschungsprogramm sei, nicht ohne Einschränkungen bejahen. Auch wenn viele Punkte eindeutig dafür sprechen, fehlt die alternative, bessere Theorie. Die konkurrierenden Ansätze weisen meist dieselben Probleme auf (keine aussagekräftigen Statistiken, mangelnde Falsifizierbarkeit, etc.) und erfordern in der Praxis erheblich mehr Arbeitsaufwand. Die Popularität der Technischen Analyse gründet sich nicht zuletzt auf ihrer leichten Anwendbarkeit und Erlernbarkeit. Allerdings sie angemerkt, dass auch Thagard in seinen späteren Werken von dieser harten Definition und insbesondere von dem Kriterium, wonach konkurrierende Theorien vorhanden sein müssen, Abstand nahm. Denn nach dieser Definition wäre die Astrologie bis zum Auftreten der Psychologie im 19. Jahrhundert Wissenschaft und danach Pseudo-Wissenschaft gewesen.[79]

5. Zusammenfassung der bisherigen Ergebnisse

Was die Falsifizierbarkeit der Technischen Analyse betrifft, so ist diese weit von wissenschaftlichen Standards entfernt. Während sich manche Thesen zwar prinzipiell falsifizieren ließen, entzieht sich die Elliott-Wave-Theorie völlig einer Falsifizierung. Aber auch für die anderen Basisannahmen fehlen klar definierte und statistisch fundierte Aussagen, um die Theorie in einen kritischen Kontext stellen zu können. Innerhalb der Theorie werden die Basishypothesen nicht in Frage gestellt, sondern nur die daraus abgeleiteten Sätze. Erweisen sich diese als falsch, wird dies auf das veränderte Marktumfeld, manchmal auch auf andere Faktoren wie fehlende Risikokontrolle zurückgeführt.

Die Technische Analyse aber als „degeneratives Forschungsprogramm“ zu bezeichnen, scheint mir etwas zu weit gegriffen. Auch wenn einige Bedingungen dafür erfüllt sind, fehlt in erster Linie eine konkurrierende Theorie, die das Finanzmarktgeschehen besser prognostiziert. Zudem weist die Technische Analyse Vorzüge wie Einfachheit und leicht Anwendbarkeit auf, die sie gegenüber der mit ihr konkurrierenden Theorie wie der Fundamental-Analyse auszeichnet.

Die Technische Analyse ist aber keine „nicht-wissenschaftliche“ bzw. metaphysische Theorie. Sie erhebt zumindest den Anspruch zu funktionieren, wenn auch nicht eine Wissenschaft im herkömmlichen Sinn zu sein. Dieser Anspruch wird von ihren Vertretern auch zäh verteidigt. Selbst große Investment-Banken arbeiten mit diesem Konzept. Insofern verdient die Technische Analyse das Prädikat „pseudo­wissenschaftlich“, im besten Falle vorwissenschaftlich.

O dieses ist das Tier, das es nicht gibt. Sie wußtens nicht und habens jeden Falls - sein Wandeln, seine Haltung, seinen Hals, bis in des stillen Blickes Licht - geliebt.

Zwar war es nicht. Doch weil sie’s liebten, ward Ein reines Tier. Sie ließen immer Raum. Und in dem Raume, klar und ausgespart, erhob es leicht sein Haupt und brauchte kaum zu sein. Sie nährten es mit keinem Korn, nur immer mit der Möglichkeit, es sei.. Und sie gab solche Stärke an das Tier, daß es aus sich ein Stirnhorn trieb. Ein Horn. Zu einer Jungfrau kam es weiß herbei - Und war im Silber-Spiegel und in ihr.

Rainer Maria Rilke (Sonette an Orpheus)[80]

IV. Die soziale Dimension der Technischen Analyse

Der Fortschritt der Wissenschaft lässt sich nicht ausschließlich anhand logischer Methoden wie dem Falsifikationismus erklären. Oft dauert es einige Zeit bis sich tatsächlich die „bessere“ Theorie gegenüber ihren älteren Vorgängern durchsetzt. Auf der anderen Seite halten sich offensichtlich falsche bzw. pseudowissenschaftliche Theorien wie beispielsweise die Astrologie erstaunlich lange Zeit. Bereits im zweiten Teil wurde angedeutet, dass auch soziale Faktoren bei der Entwicklung und Durchsetzung einer Theorie eine große Rolle spielen können. Dieser Teil der Arbeit beschäftigt sich im weitesten Sinne mit den sozialen Komponenten der Technischen Analyse. Dabei wird kein Anspruch auf Vollständigkeit erhoben. Gezeigt werden soll aber, wie wichtig und ausschlaggebend soziale Faktoren für den Betrieb der Wissenschaft im Allgemeinen und für die Technische Analyse im Besonderen sind. Viele der relevanten Punkte werden gemeinhin unter dem Begriff „Sozialer Konstruktivismus“ behandelt. Darüber hinaus soll auf einige Paradoxien innerhalb des Theorienkonzepts der Technischen Analyse aufmerksam gemacht werden, die letztendlich auch sozialer Natur sind. Schließlich sollen Erklärungsansätze aufgezeigt werden, weshalb die Technische Analyse trotz gravierender methodischer Mängel so populär ist.

1. Irrationale Elemente im Fortschritt der Wissenschaft

Der wissenschaftliche Fortschritt beinhaltet irrationale Elemente. Soziale Faktoren spielen eine nicht zu unterschätzende Rolle bei der Entwicklung und Durchsetzung neuer Theorien. Der Übergang vom geozentrischen zum heliozentrischen Weltbild zum Beispiel wurde keineswegs von allen Wissenschaftlern und Institutionen freudig begrüßt. Im Gegenteil - nicht zuletzt auf Grund zahlreicher individueller, materieller und ideologischer Motive dauerte es mehrere Dekaden bis Jahrhunderte bis sich das heliozentrische Weltbild durchsetzte und zum wissenschaftlichen Standard wurde. Kuhn hat im Kontext wissenschaftlicher Paradigmen und Revolutionen immer wieder auf irrationale Faktoren hingewiesen:

„Kuhn continues to insist that paradigm debates, by their very nature, cannot be settled solely by an appeal to evidence, reason, and argument. Reason is not irrelevant to these debates, and considerations based on shared values often play a major role in marshalling support for a new paradigm. (...) So when scientists decide to switch (or not to switch) paradigms, nonrational factors play a vital role.“[81]

Das, was Kuhn „nonrational factors“ nennt, bezieht sich in erster Linie auf soziale Faktoren.

Diesen Punkt greift der soziale Konstruktivismus auf und verstärkt ihn dahingehend, dass ein Großteil, dessen was wir für Wirklichkeit halten, letztlich eine Konstruktion aus verschiedenen sozialen Motiven und Faktoren ist.

2. Was ist sozialer Konstruktivismus?

Das Anliegen des sozialen Konstruktivismus (häufig findet sich auch der Ausdruck „Konstruktionismus“) im weitesten Sinne ist es, auf die sozialen Faktoren aufmerksam zu machen, die Wahrheit, Forschung und Wissenschaft konstituieren.

„The interest of social constructionism is to discover the ways social reality and social phenomena are constructed. The sociological method of social constructionism is to look at the ways social phenomena are created, institutionalized, and made into tradition by humans. Their focus is on the description of the institutions, the actions, and so on, not on analyzing causes and effects.“81[82]

Der Begriff „sozialer Konstruktivismus“ oder „sozialer Konstruktionismus“ wird inflationär verwendet. Bereits im Jahr 1996 lieferte eine Suchanfrage nach diesem Begriff mehr als 90.000 Einträge.[83] Heute, im April 2005, führt eine Suchanfrage nach dem Begriff „social construction“ zu 14,9 Millionen Ergebnissen. Ian Hacking hat sich in seinem 1999 erschienen Buch „Was heißt <soziale Konstruktion>? Zur Konjunktur einer Kampfvokabel“ mit diesem Thema beschäftigt und verdeutlicht darin, dass die Betrachtung sozialer Konstruktionen eines Phänomens momentan sehr „in“ zu sein scheint.

Da sich in der benutzten Literatur kaum brauchbare Definitionen für den Begriff „Sozialer Konstruktivismus“ finden, schlage ich eine Arbeitshypothese vor, die sich an das gängige Verständnis dieses Begriffes anlehnt:

„Der soziale Konstruktivismus ist in erster Linie eine Wissenschafts- und Sozialkritik. Von einer sozialen Konstruktion lässt sich dann sprechen, wenn die konstitutive Leistung des Menschen bestimmte Phänomene erst ermöglicht und ihnen zur Wirklichkeit verhilft. Diese Phänomene werden also weniger von ihrer objektiven Wirklichkeit bestimmt als vom sozialen Umfeld, in dem sie sich befinden.“

„Häufig ist die Prophezeiung die Hauptursache für das prophezeite Ereignis.“[84]

3. Selbstreflexivität

Selbstreflexivität oder Rückbezüglichkeit bezeichnet den Umstand, wenn Theorien über ihre Prognose in ihren Gegenstandsbereich zurückwirken. Die einfachste Form der Rückbezüglichkeit findet sich wohl in dem Paradoxon des Kreters, der behauptet, dass alle Kreter lügen:

„Der berühmte Lügner, der von sich selbst sagt „Ich lüge“, stellt die einfachste Form einer solchen Paradoxie dar. Wenn er tatsächlich lügt, dann ist seine Aussage wahr; ist sie aber wahr, dann ist es unwahr, daß er lügt, und er log daher, wenn er zu lügen behauptete. Also lügt er... und so weiter... In anderen Worten: die Aussage „Ich lüge“ bezieht sich einmal auf die Gesamtheit (mathematisch ausgedrückt: die Menge) seiner Aussagen und gleichzeitig aber auch auf einen Teil (Element) dieser Gesamtheit, nämlich diese eine Aussage. Wo Menge und Element nicht strikt auseinander gehalten werden, ergeben sich die in der Formallogik sattsam bekannten Paradoxien der Rückbezüglichkeit.“[85]

Streng genommen stellt sich dieses Problem bei allen Sozialwissenschaften. Sie machen Aussagen über Subjekte (Elemente), die ihrerseits wieder in ihrer Gesamtheit die Theorie konstituieren.

3.1 Selbsterfüllende Prophezeiungen

Dass sich die Benzinvorräte drastisch verknappen würden, titelte im März 1979 eine kalifornische Zeitung.[86] Zwar entbehrte diese Meldung jeglicher Grundlage, doch kurz darauf erfüllte sich diese „Prophezeiung“ tatsächlich. Was war passiert? Nachdem eine Großzahl von Zeitungslesern die Quelle als glaubwürdig erachtete, begann ein Run auf alle kalifornischen Tankstellen. Innerhalb kürzester Zeit gab es tatsächlich kaum noch Benzin in Kalifornien. Die Prophezeiung erfüllte sich selbst aufgrund ihrer eigenen Voraussage.

„Eine sich selbst erfüllende Prophezeiung ist eine Annahme oder Voraussage, die rein aus der Tatsache heraus, daß sie gemacht wurde, das angenommene, erwartete oder vorhergesagte Ereignis zur Wirklichkeit werden läßt und so ihre eigene „Richtigkeit“ bestätigt.“[87]

Die Grenze zwischen Beobachter und Beobachteten verschwimmt. Voraussetzung ist freilich, dass die Prophezeiung auch geglaubt wird, was insbesondere im Beispiel der „Benzinverknappung“ gilt:

„Nur wenn eine Prophezeiung geglaubt wird, das heißt, nur wenn sie als eine in der Zukunft sozusagen bereits eingetretene Tatsache gesehen wird, kann sie konkret auf die Gegenwart einwirken und sich damit selbst erfüllen.“[88]

und:

„Wie wir gesehen haben, wird die erfundene Wirklichkeit zur „wirklichen“ Wirklichkeit nur dann, wenn die Erfindung geglaubt wird. Wo das Element des Glaubens, der blinden Überzeugung fehlt, bleibt sie wirkungslos. Mit dem besseren Verständnis der selbsterfüllenden

Prophezeiung wächst auch unsere Fähigkeit, sie zu transzendieren. Die Prophezeiung, von der wir wissen, daß sie nur eine Prophezeiung ist, kann sich nicht mehr selbst erfüllen.“[89]

Dies führt über zu einem verwandten Phänomen, den sich selbst zerstörenden Prophezeiungen.

3.2 Selbstzerstörende Prophezeiungen

Ebenso kann es zu sich selbst zerstörenden Prophezeiungen kommen. Durch die Vorhersage entsteht die Möglichkeit ihrer Nichterfüllung. Dies wird beispielsweise in den Geschichtswissenschaft deutlich:

„Denn wenn es Gesetze der Geschichte gibt und wenn diese erkannt werden können (und nur insofern sind sie geschichtswissenschaftlich von Interesse), dann folgt daraus ÿ mindestens prinzipiell ÿ auch die Möglichkeit, den weiteren Verlauf der Weltgeschichte und u. U. auch ihr bzw. Ziel vorauszusagen (...) Daß sich hieraus, fasst man die vollständige Erkennbarkeit der allgemeinen Gesetze des Geschichtsverlauf als konstitutiv für die historischen Wissenschaften auf, eine Menge von Paradoxien ergeben, die mit der Reflexivität auch des historischen Wissens und der damit verbundenen Möglichkeit kontrazyklischen Handelns („self destroying prophecies“) zusammenhängen, ist evident“[90]

Wann immer Theorien Voraussagen über menschliche Verhaltensweisen machen, können solche Paradoxien auftreten. Denn mit der Erkenntnis über die angebliche „Determiniertheit“ des eigenen Verhaltens erwächst ja gleichzeitig die Möglichkeit, sich eben anders zu verhalten. Wenn beispielsweise behauptet wird, dass die kommunistische Revolution immer in den am höchsten industrialisierten Ländern stattfindet, entsteht genau aus dieser Behauptung die Möglichkeit für die Regierenden ebenjener Länder, der Revolution mit Reformen entgegen zu wirken.

3.2 Selbstreflexivität in der Technischen Analyse

Die Technische Analyse nimmt für sich in Anspruch, über die graphische Verarbeitung des Verhaltens aller Marktteilnehmer, Schlüsse auf ihr zukünftiges Verhalten ziehen zu können. Doch genau an dieser Stelle treten einige Paradoxien auf.

„Wenn überhaupt, so erweitert m. E. die "Charttechnik" lediglich das Spektrum an Alternativen zur Anlageplanung als eines unter mehreren mehr oder weniger geeigneten Vehikeln, speziell als Fingerzeig auf die Aussicht einer "sich selbst erfüllenden Prophezeiung". Da der Erfolg des eigenen Handelns bei Börsengeschäften von den gleichzeitig und in unmittelbarer zeitlicher Folge durchgeführten Handlungen anderer mit abhängt, lautet die Kernfrage dann: "Was könnten diejenige tun, die sich ausschließlich an der "Charttechnik" orientieren?" Um aus der Antwort hierauf Kapital schlagen zu können, müsste die eigene

Anlageentscheidung indes bereits getroffen sein, bevor Kauf- bzw. Verkaufsentscheidungen anderer den Kurs ÿ einem Herdentrieb gleich meist sehr abrupt ÿ in die gewünschte Richtung lenken. Hierzu bedarf es allerdings zusätzlicher, besser geeigneter, komplementärer Methoden der qualitativen und quantitativen Informationsauswertung als die der "technischen Analyse". Gemeint sind Methoden, die mögliche künftige Handlungen anderer auf der Grundlage von Tatsachenwissen, gesetzesartigen Aussagen und vermuteten "Stimmungen" mit hoher Glaubwürdigkeit vorauszubedenken erlauben.“[91]

Zum einen erhalten manche Aussagen ihre Gültigkeit erst durch das Bekanntwerden der Theorie selbst. Wenn von Seiten der Analysten behauptet wird, bei 100 Euro befinde sich ein enorm stark ausgeprägter Widerstand der Aktie XY und viele

Marktteilnehmer diese Prognose zu hören bekommen, kann sich die „Prophezeiung“ selbst erfüllen. Was passiert? Da viele Anleger nun der Überzeugung sind, es sei höchst unwahrscheinlich, dass die Aktie unter 100 Euro fallen würde, beginnen sie knapp oberhalb dieser Marke mit dem Aufbau von Positionen. Sie kaufen Aktie XY. Treten viele Käufer in Aktion, so treibt dies die Nachfrage an und ihr Preis steigt. Als mögliche Konsequenz erweist sich der prophezeite Widerstand bei 100 Euro also tatsächlich als eine Marke, von der der Kurs der Aktie nach oben abprallt, und dass nur aufgrund der vorher gemachten, kommunizierten und von den Anlegern geglaubten Aussage. Die Prophezeiung hat sich also selbst erfüllt.

Auch hinsichtlich Trendlinien und -kanälen tritt dieses Phänomen auf:

„Trendlinien und Trendkanäle würden nach diesem Verständnis also ihre Existenz in der Tatsache finden, daß eine relevante Anzahl von Marktteilnehmern diese Theorie kennt, sich nach ihr verhält und ihr folglich durch eine „selbsterfüllende Prophezeiung“ zur Gültigkeit verhilft.“[92]

Diese Phänomene sind ebenso auf alle anderen Bereiche der Technischen Analyse, seien es Elliott-Wellen, Indikatoren oder Fibonacci-Verhältnisse, übertragbar. Vielleicht noch interessanter ist der umgekehrte Fall, also der, bei dem sich Prophezeiungen selbst zerstören.

Bei einer von allen Akteuren geglaubten Vorhersage finden sich einfach keine Marktteilnehmer, die bereit sind, eine Gegenposition einzunehmen:

„Wenn hingegen ein gut geschnittenes Chartbild auftaucht, ist dies mehr das Geheimnis einer kleinen verschworenen Gemeinschaft, sondern eine mittlerweile jedem professionellen Marktteilnehmer zugängliche Information. Das Resultat davon ist jedoch keine „self-fulfilling prophecy“, wie Kritiker der Technischen Analyse meinen, sondern eine „self-fulfilling destruction“, so dass sich an den nunmehr allseits bekannten gefährlichen Chartpunkten (...) nur wenige Kontrahenten für die Handelswilligen finden werden. Es kommt zu Preissprüngen, die in der Regel so groß sind, dass sich der Vorteil eines technisch orientierten Marktteilnehmers gegenüber den übrigen Akteuren dramatisch verringern und aus dem ursprünglich profitablen Geschäft leicht ein Verlust werden kann.“[93]

Ein weiterer möglicher Effekt ist, dass Händler, die große Volumina bewegen und deren Transaktionen sich maßgeblich auf die Kursentwicklung auswirken, genau diese technischen Vorhersagen ausnutzen:

„Es kann mittlerweile aber auch Vorkommen, dass Marktteilnehmer, die große Handelsvolumina bewegen, (...) ganz gezielt wichtige technische Niveaus abwarten, um nach deren Versagen ihre Positionen zu verändern. Sie halten beispielsweise eine gegen eine größere Zahl von Marktteilnehmern, die aufgrund eines Kaufsignals Dollars erwerben möchten, das heißt, sie treten als Anbieter auf, obwohl gerade dies nach einem eindeutigen technischen Kaufsignal nicht zu erwarten gewesen wäre. Und die Nachfrager wundern sich, warum sich der Kurs nicht bewegt oder gar gegen ihr Engagement entwickelt."[94]

Das Wissen um eine solche Prophezeiung eröffnet die Möglichkeit zum kontrazyklischen Handeln. Man stelle sich nur einmal den Fall vor, bei dem eine Aktie knapp über einem wichtigen Widerstand bei 100 Euro notiert. Eine Technische Analyse ergäbe, dass weiterhin von steigenden Kursen auszugehen sei, solange dieser Widerstand nicht nach unten durchbrochen wird. Ein Marktteilnehmer, der die Möglichkeit hat mit hohem Volumen* den Kurs einer Aktie zu drücken, könnte nun beginnen, Papiere zu verkaufen (bzw. leerzuverkaufen, siehe Short-Selling*). Er weiß, dass seine Mittel ausreichen, um den Kurs der Aktie unter 100 Euro fallen zu lassen. Ist der Widerstand durchbrochen, löst er eine Kettenreaktion aus: Da viele Marktteilnehmer davon ausgegangen waren, das Papier würde auf Grund des starken Widerstands weiter steigen, werden sie nun auf dem falschen Fuß erwischt und verkaufen panikartig ihre Papiere. Der Großinvestor kann die Aktien einige zeit später zu einem günstigeren Preis zurückkaufen.

Es kommt also zu einer eigenartigen Paradoxie, wo sowohl selbsterfüllende als auch selbstzerstörende Prophezeiungen auftauchen. Laut Bernd Niquet kann die Technische Analyse nur funktionieren, wenn immer nur eine bestimmte Anzahl von Marktteilnehmern von der Vorhersage weiß und sie glaubt:

„...Wobei natürlich zu beachten ist, daß immer nur eine „relevante“ Anzahl von Marktteilnehmern an die Chart-Theorie glauben muß bzw. umgekehrt auch nicht mehr daran glauben darf. Es dürfen also nicht zu wenige sein, aber auch nicht zu viele, denn wenn fast alle Marktteilnehmer an die Chart-Theorie glauben würden, dann ergäbe sich hier keine „selbsterfüllende“, sondern vielmehr eine „selbstzerstörende“ Prophezeiung.“[95]

Es wird deutlich, dass die Wirksamkeit der Technischen Analyse maßgeblich durch ihre Akzeptanz beeinflusst wird. Die Wirksamkeit der Prognosen verändert sich bzw. entsteht erst durch die Verbreitung der Vorhersagen.

4. Auf der Suche nach einer Ordnung

Die Frage, ob das Geschehen auf den Finanzmärkten einer bestimmten intellegiblen Regelmäßigkeit unterworfen ist, ist von großer Bedeutung. Schließlich eröffnet die Bejahung dieser Frage immense Chancen auf materiellen Reichtum. Leider aber kann eine Antwort darauf in dieser Arbeit nicht gegeben werden. Als Arbeitshypothese interessant ist die Annahme, dass sich die Finanzmärkte chaotisch oder zufällig bewegen. Wie verhalten sich Menschen gegenüber zufälligen Systemen, wenn das Entdecken einer Ordnung von großer Bedeutung für ihr eigenes Leben ist? Weigern sich Menschen die Zufälligkeit eines Systems zu akzeptieren und tendieren sie dazu trotz klarer Absage an eine Regelmäßigkeit weiterhin von dieser auszugehen?

John C. Wright hat sich in seiner Dissertation „Problem Solving and Search Behavior und Noncontigent Rewards“ mit diesem Problem auseinandergesetzt[96]:

Probanden wurden vor einem „vielarmigen Banditen“ gesetzt, auf dem 16 identische, unbezeichnete Klingelknöpfe angebracht waren. In der Mitte befand sich ein 17. Knopf und ein dreistelliges Zählwerk. Die Probanden wurden nun aufgefordert, die Knöpfe so zu drücken, dass sie eine möglichst hohe Punktzahl erreichten. Ihnen wurde gesagt, es gelte ein bestimmtes System zu entdecken. Ihre Leistungen würden also zunächst sehr schwach sein, sich aber nach mehr und mehr Versuchen langsam steigern. Außerdem wurde ihnen erzählt, ein Summton würde erklingen, wenn sie die richtige Taste gedrückt hätten. Der Zusammenhang zwischen dem Drücken des richtigen Knopfes und dem Ertönen des Summtones war kontingent, also zufälliger Natur. Dies wussten die Versuchsteilnehmer jedoch nicht.

Der Versuch wurde so gestaltet, dass die Probanden in den letzten Versuchen den Summton häufiger zu hören bekamen, als am Anfang des Testes. Sie waren also tatsächlich der Meinung, mit der Zeit das System des vielarmigen Banditen durchschaut zu haben. An diesem Punkt wurde den Versuchspersonen die Wahrheit über den Versuchsaufbau mitgeteilt. Die Reaktionen der Probanden waren in erster Linie Unglauben und Ablehnung. Einige waren der Meinung, der Versuchsleiter unterliege selbst einer Täuschung, anderen musste die Rückseite des Geräts gezeigt werden, damit sie sich versichern konnten, dass die Knöpfe überhaupt nicht an das Gerät angeschlossen waren. Das Verhalten der Versuchspersonen zeigt ein Verhaltensschema, das weit über diesen Versuch hinausreicht:

„Das Elegante an diesem Versuch ist, daß er das Wesen eines universalen menschlichen Problems klar herausstreicht: Wenn wir nach langem Suchen und peinlicher Ungewißheit uns endlich einen bestimmten Sachverhalt erklären können, kann unser darin investierter emotionaler Einsatz so groß sein, daß wir es vorziehen, unleugbare Tatsachen, die unserer Erklärung widersprechen, für unwahr halten oder unwirklich erklären, statt unsere Erklärung diesen Tatsachen anzupassen.“[97]

Ein unter schweren Aufwand und langem Suchen entdecktes Muster wird also nur unter Widerwillen wieder aufgeben, auch wenn alle rationalen Elemente gegen das Vorhandensein jeglicher Regelmäßigkeit sprechen.

4.1. Widerstand gegen die Zufälligkeit des Finanzmarktsgeschehens

Die Ergebnisse des Versuchs lassen sich auf das Verhalten der Vertreter der Technischen Analyse übertragen. Von Seiten der Branche wird dem Privatanleger suggeriert, mit der Technischen Analyse ließen sich Überrenditen* erwirtschaften. Der Anleger verwendet also Energie darauf, sich mit den Instrumentarien der Methodik vertraut zu machen. Er kauft entsprechende Softwareprogramme und investiert in eine sichere und schnelle Datenversorgung. Schließlich tätigt er basierend auf der Technischen Analyse verschiedene Investitionen. Manche führen zu Gewinnen, andere zu Verlusten. Unter dem Strich hat der Marktteilnehmer aber nun schon materiell als auch emotional einiges an Aufwand investiert, um die Regelmäßigkeiten in dem System Finanzmarkt aufzuspüren. Gemäß oben geschildertem Versuch wird er sich Argumenten, die die Existenz jeglicher Regelmäßigkeiten im Finanzmarkt abstreiten, verwehren.

Vielleicht noch eindringlicher trifft dieser Sachverhalt auf Anwender von Handelssystemen* zu. Im Folgenden skizziere ich eine stark vereinfachte Darstellung der Arbeitsweise so genannte „systematischer“ Händler[98]. Gewöhnlich wird die Profitabilität eines bestimmten Musters (z.B. Kaufen, wenn der Kurs seinen 20- Tagesdurchschnitt von unten nach oben durchbricht) auf einen Datensatz aus der Vergangenheit getestet. Die Parameter werden dann solange verändert, bis die optimale Einstellung für diese Testperiode gefunden worden ist (in diesem Fall könnte sich beispielsweise als Signalgeber der Durchschnitt der letzten 17 Tage als am profitabelsten erweisen). Danach wird das Handelssystem auf dem Markt angewendet. Nach einiger Zeit beginnt es, Verluste zu produzieren, bis es, nachdem es zu kostspielig geworden ist, wieder vom Markt genommen wird. Nun wird die Testperiode und Einstellungen der Parameter überprüft und wieder die optimalen Einstellungen gesucht. Das Spiel geht immer so weiter, obwohl das Handelskonto längst zusammengeschrumpft ist.

Der Händler hat also bereits einen beträchtlichen Aufwand an Arbeitszeit und Geld geleistet, um bestimmte Regelmäßigkeiten im Markt aufzuspüren. Argumente, die für eine Zufälligkeit des Marktgeschehens sprechen, werden ignoriert.

Abschließend sie noch darauf hingewiesen, dass in dieser Arbeit nicht geklärt werden kann, ob das Marktgeschehen tatsächlich indeterministischer Natur ist oder nicht. Allerdings liefert die Arbeitshypothese, wonach es sich um Zufall handle, gute Erklärungen für das tatsächliche Verhalten vieler Marktteilnehmer.

5. Die Rolle der Peer-Group

Experimente zeigen, wie sehr die eigene Einschätzung von der des sozialen Umfelds abhängig sein kann. Der Psychologe Asch zeigte seinen Studenten zwei Tafeln. Auf der ersten war ein senkrechter Strich abgebildet, auf der zweiten Tafel drei Striche unterschiedlicher Länge. Aufgabe der Studenten war es, den Strich auf der zweiten Tafel zu identifizieren, der dieselbe Länge wie auf Tafel 1 besaß. Bei den ersten beiden Versuchen identifiziert die Gruppe einstimmig und eindeutig den Strich mit selber Länge. Beim dritten Versuch kommt es zu einer Abweichung: ein Student wählt eine andere Linie aus als die Gruppe. Was er nicht weiß, ist, dass die Gruppe zuvor instruiert wurde, einstimmig dieselbe falsche Antwort zu geben. 36,8 Prozent der Versuchspersonen, die sich in der Lage des einzelnen Studenten befanden, misstrauten schließlich ihrer eigenen Wahrnehmung und schlossen sich der Meinung der Gruppe an.[99]

„Die vielleicht beunruhigendste Schlußfolgerung, die aus dem Versuch gezogen werden kann, ist das offensichtlich tiefsitzende Bedürfnis, in Harmonie zur Gruppe zu stehen (...). Die Bereitschaft, sich unterzuordnen, die individuelle Urteilsfreiheit (...) zu verschachern, ist jene menschliche Schwäche, die Demagogen und Diktatoren zur Macht bringt.“[100]

Watzlawicks Schlussfolgerungen aus dem Versuch mögen etwas theatralisch anmuten. Auch verlässt er mit den beiden letzten Sätzen die deskriptive Ebene zugunsten der normativen und verfällt so selbst in eine soziale Konstruktion. Doch wird deutlich, dass selbst Experimente durch den Einfluss des sozialen Umfelds verändert werden können. Die eigene Wahrnehmung wird durch die Wahrnehmung des sozialen Umfelds und deren Kommunikation beeinflusst. Abgesehen von den Ergebnissen einzelner Experimente macht sich dieser Einfluss auch im gesamten wissenschaftlichen Betrieb bemerkbar.

Wissenschaft in der Praxis ist keine ausschließliche Sache von Logik und Experiment, denn Ergebnisse wollen und müssen kommuniziert werden, um in den wissenschaftlichen Betrieb Eingang zu finden. Karl Popper hat - wie im zweiten Teil ersichtlich wurde - die Rolle der Kritik betont, ja sie zum wichtigsten Kriterium im wissenschaftlichen Betrieb gemacht: Eine gute Theorie lässt sich kritisieren und widerlegen. Doch auch Kritik und Falsifizierung einer Theorie hängen von sozialen Faktoren ab:

„Scientific knowledge is, after all, the product of many individuals working in (acknowledged or unacknowledged) concert. (...) These activities are carried out by different individuals, and in this era of „big science“ a single complex experiment may be broken into party, each of which will be charged to a different individual or group of individuals.

The integration and transformation of these activities into a coherent understanding of a given phenomenon are a matter of social negotiations."[101]

In praktischer Hinsicht spielen zudem auch handfeste materielle Interessen eine Rolle. Die Vergabe von Arbeitsplätzen in wissenschaftlichen Institutionen kann von bestimmten Standpunkten geprägt sein.

„The most startling study of peer review suggested that scientific papers in at least one discipline were accepted on the basis of institutional affiliation of the authors rather than the intrinsic worth of the paper. Commentary on the paper suggested that this decision procedure might be more widespread. Its absorption is much more complex process. Presumably the reviewers using the rule assume that someone would not get a job at X institution if that person were not a top-notch investigator, and so her/his experiments must be well-done and the reasoning correct.

Apart from the errors in that assumption, both the reviewer and the critic of the peer review treat what is a social process as an individual process.“[102]

Welche Auswüchse die Rolle das soziale Umfeld bei der Bewertung und Durchsetzung spielen kann, hat Kathleen Okruhlik in ihrem Artikel „Gender and the Biological Science“[103] mehrfach aufgezeigt. So wurde zum Beispiel der größere Kopfumfang bei Männern als Indiz und Voraussetzung für höhere Intelligenz gewertet. Obwohl diese Hypothese offensichtlich falsch und mehrfach falsifiziert worden war, hielt sie sich über einen langen Zeitraum, und zwar aus dem Grund, da sie als Rechtfertigung für die damals gängige Rollenverteilung zwischen Mann und Frau diente.[104]

5.1. Medien und ihr Einfluss

Nach der Veröffentlichung wissenschaftlicher Arbeiten hängt deren Akzeptanz und Wirkung in einem nicht zu unterschätzenden Maße von der Verbreitung durch die Medien ab. Unter Umständen verstaubt eine bedeutende Arbeit in Schubladen, wenn das Interesse von Seiten der Medien nicht gegeben ist.

„While institutional bias may also operate in the postpublication reception of an idea, other factors, such as the attempt to repeat an experiment or to reconcile incompatible claims, can eventually compensate for such misplaced deference. Publication in a journal does not make an idea or result a brick in the evidence of knowledge. Its absorption is much more complex process, involving such things as subsequent citation, use and modification by others, et cetera. Experimental data and hypotheses are transformed through the conflict and integration of a variety of points of view into what is ultimately accepted as scientific knowledge.“[105]

Deutlich wird also auch hier wieder: Wissenschaftliche Erkenntnis hängt in einem hohen Maße von den herrschenden sozialen Verhältnissen, der Verbreitung durch die Medien und dem kritischen Kontext ab. Überspitzt formuliert lautet das: Je stärker finanzielle und materielle Interessen mit der Verbreitung und der Akzeptanz einer bestimmten Hypothese verbunden sind, desto hartnäckiger hält sich diese trotz Falsifizierung oder fehlender Beweise für eine kausale Beziehung. Hängen das finanzielle Überleben und die soziale Akzeptanz einer Forschergruppe, einer Lobby oder einer ganzen Industrie von der Akzeptanz einer Hypothese ab, wird sich diese vehement gegen Angriffe auf diese Hypothese zu Wehr setzen. Der politische und ideologische Einfluss auf den wissenschaftlichen Betrieb ist hinlänglich bekannt (man denke nur an die Rassentheorien oder den Widerstand gegen die Relativitätstheorie im Dritten Reich, aber auch die Leugnung der Mendelschen Vererbungslehre in der Sowjetunion: „The Catholic Church excommunicated Copemicans, the Communist Party persecuted Mendelians on the ground that their doctrines were pseudoscientific.“)[106]

Dieser Effekt kann sich sogar noch verstärken, wenn die Hypothese oder das gesamte Forschungsproramm nicht in den wissenschaftlichen Betrieb integriert ist oder aus diesem verstoßen wurde. Hält sich nämlich eine solche Theorie außerhalb des akademischen Betriebs ist sie fundierter wissenschaftlicher Kritik entzogen. In diesem vor Kritik „geschütztem Raum“ kann sie sich in Ruhe weiterentwickeln und mitunter noch seltsamere Blüten treiben. Beispiele für diese Tendenzen stellen die Astrologie dar oder in jüngster Zeit das Aufkommen von NLP (Neurolinguistischer

Programmierung), das zunächst einen akademischen Ursprung besaß, den Kontakt zum wissenschaftlichen Betrieb aber mit der Zeit verlor und seitdem eigenartige Blüten treibt.[107]

5.2 Survivor Bias

Unter Survivor Bias versteht man die eingeschränkte Wahrnehmung der Gewinner, der Überlebenden. Dies wird auf deren überlegene Intelligenz und ihre besseren Fähigkeiten zurückgeführt[108]. Im kollektiven Gedächtnis bleiben vor allem diejenigen hängen, die „es geschafft haben“. Verlierer werden verdrängt. Wenn man die USA mit der Phrase, dort schaffe man es „vom Tellerwäscher zum Millionär44 assoziiert, so liegt das keineswegs an der falschen Tatsache, dass dort jeder Tellerwäscher früher oder später Millionär werden würde. Doch die Legenden vom schnellen Reichtum in Amerika fanden bevorzugt Eingang in das Gedächtnis vieler Europäer. Tatsächlich mag dies nur einigen wenigen von Zehntausenden tatsächlich gelingen, doch genau diese wenige etablieren die Annahme, jeder könne es mit viel Arbeit in den USA vom Tellerwäscher zum Millionär bringen. Die Tatsache, dass die überwiegende Mehrheit dieses Ziel nicht erreicht, wird ignoriert. Auch die Staatslotterie profitiert von diesem Effekt: Lottomillionäre prägen das kollektive Bewusstsein hinsichtlich des Lotto-Spielens weitaus stärker als die überwiegende Mehrheit der Verlierer.

Dieser Effekt macht sich auch im Finanzmarktgeschehen stark bemerkbar. Über Verlierer - von wenigen Ausnahmen, die mit spektakulären Verlusten auf sich aufmerksam machten (Jesse Livermore[109], Nick Leeson[110] ) - wird nicht gesprochen. Die Gewinner aber werden von der Szene als Helden verehrt. Sie geben Interviews, halten Seminare und verfassen Bücher. Die überwiegende Mehrheit der Publikationen handelt von Persönlichkeiten und deren Techniken. Das Magazin „Traders“, das einzige unabhängige Magazin zum Thema Trading* und Technische Analyse in Deutschland, führt monatlich Interviews mit Persönlichkeiten aus der Trading-Szene, die seit einigen Jahren eine beachtliche Performance aufweisen. Nahezu jede der befragten Personen arbeitet mit der Technischen Analyse.[111] Was aus diesen Menschen passiert, ob sie zwei Jahre später bankrott sind oder nicht, erfährt man nicht, da die Persönlichkeiten nicht weiter verfolgt werden.[112] Was folgt daraus? Die Berichterstattung und das Medienangebot ist einseitig auf Gewinner fokussiert. Durch diese Fokussierung wird beim Leser und Privatanleger der Effekt des Survivor Bias weiter verstärkt. Ihm wird suggeriert, dass es mit den richtigen Werkzeugen (aus der Technischen Analyse) und dem richtigen „Money Management“[113] möglich ist, dauerhaft signifikante Überrenditen* zu erwirtschaften. Schließlich „beweisen“ ihm das ja genug Leitbilder und Idole, die sich in den entsprechenden Medien finden. Allein die Möglichkeit - sei sie auch noch so klein (gewöhnlich wird dieses Unterfangen keineswegs als leicht, sondern im Gegenteil als extrem schwierig dargestellt) - stellt sämtliche rationalen Argumente, die gegen die Möglichkeit von Überrenditen* sprechen, in den Schatten. Als Beweise dienen dann eben genau jene in den entsprechenden Medien vorgestellten Persönlichkeiten.

5.3 Technische Analyse in den Medien

Auch wenn die Technische Analyse nicht in den akademischen Betrieb eingebunden ist, ergibt sich eine brauchbare Analogie zu dem in Punkt 5.0 und 5.1 beschriebenen Einfluss der Peer-Group und der Medien, wonach diese maßgeblich auf die Etablierung wissenschaftlicher Erkenntnisse einwirken.

Wer sich mit dem Thema zu beschäftigen beginnt, sieht sich zunächst einmal einer Flut von Publikationen gegenüber, von denen sich die wenigsten kritisch mit dem Thema auseinandersetzen. Der Finanzbuchverlag[114], der wohl in Deutschland renommierteste Verlag für Technische Analyse und Börsenhandel allgemein, beispielsweise führt in seinem Sortiment, kein einziges Buch, das sich kritisch mit der Technischen Analyse auseinander setzt, dafür aber insgesamt 40 Bücher aus den Sachgebieten „Charttechnik“, „Daytrading“ und „Futures & Optionen“, die allesamt mehr oder weniger die Technische Analyse als einziges funktionierendes Instrument propagieren. Über 60 Internetforen allein im deutschsprachigen Raum setzen sich mit dem Thema auseinander[115]. Privatanleger tauschen hier ihre Erfahrungen aus, geben Tipps und stellen ihre Analysen ins Netz. Kritische Beiträge zur generellen Wirksamkeit der Technischen Analysen finden sich in den seltensten Fällen. Im Gegenteil - gewöhnlich werden auf diesen Foren auch Einsteigerkurse und ähnliches angeboten.[116]

Hinzu kommt, dass auch seitens der Industrie suggeriert wird, mit der Technischen Analysen lassen sich Überrenditen* erzielen. Zum einen bieten viele deutsche Online-Broker* charttechnische Werkzeuge oder Kooperationen mit Diensten, die ihre Analysen zur Verfügung stellen, an.[117] Selbiges gilt für Anbieter von Kursdaten. Auch hier erhält der Kunde meistens zur Datenversorgung auch Werkzeuge zur Technischen Analyse in einem Paket.[118] Auf der Webseite www.tradesignal.com, einem der größten deutschsprachigen Webseiten für Chartanalysen, Kursdaten und

Austausch[119], finden sich täglich technischer Analysen großer Bankhäuser[120]. Gerade Bankhäuser vermitteln gewöhnlich den Eindruck von Seriosität. Die Methodik der Technischen Analyse erscheint so in einem positiven Licht.

Sinn dieser Arbeit ist es nun nicht, eine umfassende Medienanalyse vorzunehmen. Was diese Beispiele aber zeigen, ist, dass mittlerweile ein umfangreiches Netzwerk entstanden ist, welches selbst-referenziell funktioniert. Innerhalb dieses Netzwerks aus Internetforen, Datenanbietern, Verlagen und Bankhäusern ist kaum mehr Raum für Kritik. Kritische Beiträge zur Wirksamkeit der Technischen Analyse werden meist auf persönliche Unfähigkeit zurückgeführt: Wer die Methodik anzweifelt, hat sich die Methodik nicht ausreichend angeeignet, verdient kein Geld und führt seine eigene Unfähigkeit auf die Art der Methode zurück, so die gängigen Vorwürfe.[121] Insofern hat sich die Gemeinde der Technischen Analyse einem kritischen Kontext entzogen. Innerhalb dieses Netzwerkes kommt es zu keiner grundlegenden Kritik mehr. Zwar werden durchaus manchmal einzelne Methoden angezweifelt, besonders die Elliott-Wave-Theorie wird immer wieder in Frage gestellt. Doch die grundlegende Prämisse der Technischen Analyse, wonach sich aus dem graphischen Kursverlauf der Vergangenheit Schlüsse auf die zukünftige Kursentwicklung eines Wertpapiers ziehen lassen, wird nicht in Frage gestellt.

Kritik kommt bisweilen aus dem akademischen Lager oder von anderen „Paradigmen“ wie der Fundamental-Analyse oder der Random-Walk-Hypothese. Da die Technische Analyse aber so gut wie ausschließlich in einem pragmatischen Kontext und außerhalb des akademischen Betriebs gedeiht, zeigen diese Studien wenig Wirkung, von den widersprüchlichen Ergebnissen einmal abgesehen.[122]

6. „Die Technische Analyse funktioniert!“ - Eine soziale Konstruktion?

Als Resultat entsteht also - wie in vorherigen Punkten gesehen - eine eingeschworene Gemeinde von Anwendern und Verfechtern der Theorie. Dazu zählen Privatanleger, Verlage, Webseiten, Seminaranbieter, Online-Broker* und sogar renommierte Bankhäuser. Von all diesen Seiten wird suggeriert, die Technische Analyse funktioniere, oder zumindest, ein privater Anleger erhöhe mit dieser Methodik seinen Wettbewerbsvorteil signifikant. Diese Gemeinde hat sich längst gegen nahezu jede Form von Kritik immunisiert. Kritik entsteht höchstens innerhalb der Methodik, die Wirksamkeit der Technischen Analyse als ganzes wird jedoch nirgends in Frage gestellt. Zahlreiche „Gurus“ und Erfolgsgeschichten einzelner Persönlichkeiten verstärken zudem den Eindruck, dass sich mit der Technischen Analyse (in Kombination mit einem ausgefeilten Kapital- und Risiko­Management) überdurchschnittliche Renditen erzielen lassen, wobei hier der im Exkurs beschriebene „Survivor Bias“ zum Tragen kommt. Negative Erfahrungsberichte werden auf individuelles Fehlverhalten zurückgeführt.

Aus Perspektive eines Privatanlegers gibt es kaum Alternativen. Die Fundamentalanalyse erfordert ein weitaus höheres Maß an Arbeitsaufwand und Forschung. Die Random-Walk-Hypothese, wonach Überrenditen* nicht möglich und das Finanzmarktgeschehen dem Zufall unterworfen sei, scheidet als Alternative aus. Denn wer sich mit dem Börsenhandel beschäftigt, geht natürlich zunächst einmal davon aus, dass sich Überrenditen* erzielen lassen. Andere Formen der Kursprognose gibt es nicht (von Börsenastrologie und anderen kuriosen Sonderformen einmal abgesehen), so dass die Technische Analyse als einzige attraktiv bleibt.

Kann man die Technische Analyse nun als soziale Konstruktion bezeichnen, im Sinne der in Punkt 1 formulierten Arbeitshypothese? Die Frage mit einem klaren Ja oder Nein zu beantworten, fällt mir schwer. Fakt aber ist, dass zahlreiche soziale Faktoren bestimmen die Wahrnehmung dieser Methodik, wie in den vorangegangen Punkten ausführlich geschildert. Außerdem erhalten die Prognosen der Technischen Analyse ihre Relevanz erst aus ihrer sozialen Akzeptanz. Zwar lässt sich hier nicht einwandfrei nachweisen, dass sie ihre Geltung nur aus selbsterfüllenden Prophezeiungen bezieht. Doch die Tatsache, dass diese Effekte vorhanden sind, lässt sich nicht abstreiten.

Insofern scheint es mir etwas zu weit gegriffen, die Technische Analyse pauschal als soziale Konstruktion zu bezeichnen. Bei weiteren Forschungsarbeiten zu diesem Thema sollten diese Effekte aber auf jeden Fall berücksichtigt werden.

7. Zusammenfassung der bisherigen Ergebnisse

Verschiedene soziale Faktoren besitzen einen starken Einfluss auf die Popularität der Technischen Analyse wie auch auf die Wirksamkeit ihrer Vorhersagen. Zum einen ist es die selbstreflexive Struktur der Methodik: wenn aufgrund der Prognosen viele Leute von steigenden/fallenden Kursen ausgehen, kommt es tatsächlich zu Kurssteigerungen/-rückgängen. In diesem Sinne lässt sich durchaus von einer sozialen Konstruktion sprechen. Die Wirklichkeit (= der tatsächliche Preis eines Wertpapiers) ist auf die zuvor gemachten Prognosen zurückzuführen. In wie weit dies allerdings der Fall ist und ob nicht Drittvariablen einen viel größeren Einfluss auf die Preisbildung haben, ließe sich auch unter hohem Aufwand kaum ausmachen. Klar aber ist, dass soziale Faktoren in hohem Maße für die Popularität der Technischen Analyse verantwortlich sind. Gegen kritische Einwände von außen hat sich die Szene beinahe so gut wie abgeschottet. Der kritische Kontext, in dem eine Theorie stets stehen sollte, ist nahezu vollkommen verloren gegangen. Verschiedene psychologische und soziale Faktoren tragen dazu bei. Argumente, die für eine Zufälligkeit von Kursbewegungen sprechen, werden größtenteils ignoriert. Schuld daran sind einerseits individuelle psychologische Faktoren: wer lange nach Mustern in Datensätzen sucht und dann glaubt diese gefunden zu haben, verwehrt sich gegen Argumente, die diese Regelmäßigkeiten in Frage stellen. Zum andern absorbieren Persönlichkeiten und deren Strategien, die, wenn auch nur in einem relativ kurzem

Zeitraum, erstaunliche Resultate vorweisen können, die Aufmerksamkeit der Marktteilnehmer. Verlierer werden ignoriert oder ihre schlechte Leistung wird auf persönliches Versagen zurückgeführt. Nur in den seltensten Fällen wird die Methodik als ganzes angezweifelt.

Zudem suggeriert die Branche, also Softwareanbieter, Datenlieferanten, Verlage und andere Medien aber auch Broker und Banken, die Methodik funktioniere prinzipiell. Auch wenn sich hinsichtlich der Technischen Analyse nicht von einer sozialen Konstruktion im klassischen Sinne sprechen lässt, ist es trotzdem notwendig, soziale Faktoren bei einer wissenschaftstheoretischen Analyse miteinzubeziehen. Zum einen bietet diese Perspektive eine Erklärung für die Popularität der Technischen Analyse (die sich genauso auch auf ähnliche Sachverhalte anwenden ließe), zum anderen wirken diese Faktoren auch auf eine rein wissenschaftstheoretische Betrachtung im logischen Sinne zurück. Autoren wie Helen Longino und Kathleen Okruhlik haben dies bereits gezeigt.

V. Fazit

1. Ergebnisse der Arbeit

Im ersten Teil wurde die Frage nach der Rationalität der Technischen Analyse gestellt. Dazu wurden Basisannahmen der Technischen Analyse mit Erkenntnissen der Behavioral Finance verglichen. Bis auf wenige einzelne Ansätze (z.B. Trendverhalten) konnte gezeigt werden, dass sich die überwiegende Mehrheit der Grundannahmen nicht auf Erkenntnisse der Behavioral Finance zurückführen lässt. Zum Großteil beruhen die Aussagen auf einer Korrelation statistischer Daten. Allerdings ergäben sich nach einer grundlegenden Überarbeitung der Technischen Analyse Perspektiven, ihre Aussagen auf Erkenntnisse der Behavioral Finance zu fußen.

Im Vordergrund steht der praktische Nutzen. Ein rationaler, wissenschaftlicher Anspruch wird größtenteils nicht erhoben: Die Theorie ist dann gut, wenn sie funktioniert.

Gravierende Mängel weist die im zweiten Teil behandelte Falsifizierbarkeit der Technischen Analyse auf. Während sich die Elliott-Wave-Theorie einer Falsifizierung vollständig erzieht, wird diese in den anderen Bereichen durch ungenaue Definitionen wie Aussagen erschwert. Die Technische Analyse ist in diesem Punkt weit von wissenschaftlichen Standards entfernt.

An dieser Stelle drängt sich der Schluss auf, die Methodik als „degeneratives Forschungsprogramm“ zu deklarieren. Dagegen spricht allerdings das Fehlen einer alternativen Theorie. Insofern lässt sich diese Aussage nicht uneingeschränkt bejahen.

Der kritische Kontext der Theorie ist nahezu vollständig verloren gegangen. Medien, Publikationen, Softwareanbieter und Internetforen tragen dazu maßgeblich bei. Darüber hinaus trüben Effekte wie der Survivor Bias, also die einseitige Wahrnehmung von Gewinnern und Ausblendung von Verlieren, den Blick auf die Effektivität der Technischen Analyse. Selbst-reflexive Elemente innerhalb der Theorie und die eben genannten Faktoren legen nahe, von der Technischen Analyse als einer sozialen Konstruktion zu sprechen.

Letztendlich ist der Vorwurf an die Technische Analyse, sie sei pseudo­wissenschaftlich, gerechtfertigt. Allerdings verfügt die Methodik auch über zahlreiche vorwissenschaftliche Ansätze, die Perspektiven auf wissenschaftliche Ansätze zulassen, sofern sie sich einer grundlegenden Revision unterzieht.

„Ich sage euch: Man muss noch Chaos in sich haben, um einen tanzenden Stern gebären zu können. Ich sage euch: Ihr hab noch Chaos in Euch!“

Friedrich Nietzsche, Also sprach Zarathustra[123]

2. Konkurrierende Theorien

Der Großteil dieser Arbeit beschäftigte sich mit der Dekonstruktion der Technischen Analyse. Über die Vorteile dieser Methodik wurde bisher kaum ein Wort verloren. Dass diese vorhanden sind, legt die wachsende Popularität dieser Analysetechnik nahe. Im Folgenden soll die Technische Analyse mit zwei konkurrierenden Theorien verglichen werden. Dabei werden die in dieser Arbeit behandelten Punkte jeweils kurz angerissen und mit den Ergebnissen der Technischen Analyse verglichen. Folgendes Schaubild soll einen Überblick der Finanzmarkttheorien geben:

Märkte sind:

2.1 Die Fundamentalanalyse

Bei der Fundamentalanalyse wird ausgehend von Fundamentaldaten versucht, Rückschlüsse auf die weitere Kursentwicklung zu ziehen.

„Bei der Fundamentalen Analyse wird eine Bewertung von z.B. Aktien anhand von betriebswirtschaftlichen sowie makro- und mikroökonomischen Faktoren vorgenommen. (...) Ziel der Analyse ist die Berechnung des inneren Wertes einer Aktie (...) oder eines Unternehmens. Dabei wird in der Theorie davon ausgegangen, dass der Aktienkurs um den inneren Wert schwankt. Mit Hilfe der Fundamentalen Analyse sollen nun Phasen der Über- oder Unterbewertung zum Kauf bzw. Verkauf von Aktien genutzt werden.“[124]

Grundannahme dieser Technik ist zunächst, dass es einen „inneren Wert“ eines Wertpapiers gibt, um den der tatsächliche Marktpreis stets schwankt. Dies ist insofern problematisch, als dass hier davon ausgegangen wird, es ließe sich über ein paar ökonomische Kennziffern dieser Wert tatsächlich ermitteln. An dieser Stelle kommen klar normative Faktoren ins Spiel. Denn dass es so einen fairen Preis eines Gutes überhaupt gäbe, stellt eine starke Grundannahme dar, die sich nicht so einfach begründen lässt. Schließlich könnte man genauso anführen, der faire Wert eines Gutes sei eben der Kurs, zu dem es auf einem freien Markt gehandelt wird. Auch bei einer oberflächlichen Betrachtung wird deutlich: Die Rationalität der Fundamentalanalyse weist Mängel auf.

Darüber hinaus wird angenommen, der über diverse Kennziffern[125] ermittelte Wert sei zwar langfristig der faire Wert, kurzfristig aber schwankt der tatsächliche Kurs um den fairen Wert. Weder über die zeitliche Dauer solcher Schwankungen noch über deren Intensität wird etwas ausgesagt. Insofern entziehen sich die Grundannahmen der Fundamentalanalyse einer Falsifizierung. Schließlich ist es durchaus denkbar, dass eine Aktie über Jahre hinweg über bzw. unter ihrem fairen Wert notiert, ohne dass dabei die Basishypothese in Frage gestellt werden würde[126]. Was die Selbstreflexivität dieses Ansatzes betrifft, so sind hier dieselben Probleme vorhanden, wie wir sie bei der Technischen Analyse vorgefunden haben. Es kann sowohl zu selbsterfüllenden wie selbstzerstörenden Prophezeiungen kommen. (Immer dann wenn Analysten von einer Überbewertung sprechen und die Marktteilnehmer dieser Analyse Glauben schenken, wird diese Aktie auch tatsächlich verkauft und fällt im Kurs.)

In praktischer Hinsicht schneidet die Fundamentalanalyse jedoch schlechter ab. Um einen Wert bzw. Aktie fundamental zu analysieren, ist wesentlich mehr Aufwand nötig als bei der Technischen Analyse. Es geht darum, Quartalsberichte einzuholen, zahlreiche Kennziffern zu studieren, sie mit anderen zu vergleichen und daraus Schlüsse zu ziehen, die dann, wenn überhaupt, nur im sehr langfristigen Bereich, Geltung besitzen.

2.2 Die Random-Walk-Hypothese

Die Random-Walk-Hypothese bestreitet schlichtweg, es sei an den Finanzmärkten möglich, konsequent Überrenditen* zu erwirtschaften. Sie spricht von einem effizienten Markt, in dem im Kurs eines Wertpapiers bereits alle relevanten Informationen eingepreist sind. Ein Wissensvorsprung ist demnach nicht möglich:

„(Die Random-Walk-Hypothese) besagt, dass die Entwicklung der Aktienkurse einem Zufallspfad ähnelt, so dass vielleicht vorkommende Nichtzufälligkeiten nicht zu erkennen sind. Dies bedeutet, dass die Anleger nicht in der Lage sind, aufgrund der Kenntnis des Aktienkurses (...), eine hinreichend profitable Prognose über zukünftige Aktienkurse zu machen, da sich die Zeitreihe bis zum Aktienkurs (...) nicht von einem kumulierten Zufallsprozess (...) unterscheidet.“[127]

Die Meinungen darüber, ob die Random-Walk-Hypothese zutrifft, gehen stark auseinander. Gerade von Vertretern der Technischen Analyse wird diese vehement bestritten („Die überzeugende Mehrheit der Tests konnte die Random-Walk- Hypothese nicht bestätigen.“[128] ), während man aus anderen Lagern Gegenteiliges vernehmen kann. („Die Frage, ob die Preise tatsächlich zufallsgetrieben sind, wurde empirisch tiefgehend überprüft. Die Ergebnisse sprechen generell für die Random- Walk-Hypothese und damit für die Hypothese der effizienten Märkte.“[129] )

Über die Güte und Validität durchgeführter Tests kann in dieser Arbeit nichts ausgesagt werden. Allerdings scheint es aus wissenschaftstheoretischer Sicht keine Probleme bei der Falsifizierung der These zu geben. Die These ist dann falsifiziert, wenn in einem ausreichend langem Zeitraum bestimmte Muster ausfindig gemacht werden können. Dies lässt sich über entsprechende Testverfahren leicht belegen bzw. widerlegen.

Zumindest bei oberflächlicher Betrachtung erscheint die Random-Walk-Hypothese auch die rationalste aller Varianten zu sein. Die Tatsache, dass die Börsenkurse einem Zufallspfad ähneln, wird hinreichend damit erklärt, dass im Preis bereits alle relevanten Informationen enthalten sind.

„Die Wahrscheinlichkeit, dass eine vom Marktteilnehmer antizipierte Preisentwicklung eintritt, beträgt unter Random-Walk-Bedingungen 50%. Natürlich ist es möglich, dass unter diesen Umständen jemand dreimal richtig liegt mit seiner Prognose, doch diese Chance liegt nur bei 12.5%.“[130]

Dies liefert auch eine gute Erklärung für das Phänomen, dass eben immer wieder Marktteilnehmer auftauchen, die über einen bestimmten Zeitraum hinweg, signifikante Überrenditen* erwirtschaften und deren Methodik dann in den Medien als überlegen dargestellt wird. Nach der Random-Walk-Hypothese lautet die Erklärung: Zufall! Angesichts der riesigen Anzahl von Börsenspekulanten ist es durchaus denkbar, dass einzelne Marktteilnehmer über einen längeren Zeitraum einfach Glück haben. Sie liefert also auch gute Erklärungen für die im dritten Teil geschilderten sozialen Phänomene wie dem Survivor Bias.

3. Auswertung

Von allen in dieser Arbeit vorgestellten Varianten birgt aus wissenschaftstheoretischer Perspektive die Random-Walk-Hypothese die wenigsten Probleme. Sie lässt sich rational begründen und mittels empirischer Tests sollte einer Falsifizierung nichts im Wege stehen. Bei der Fundamentalanalyse zeigen sich im Großen und Ganzen dieselben Probleme wie bei der Technischen Analyse: mangelhafte Falsifizierbarkeit, selbstreflexive Elemente und fehlende Rationalität. Da diese Variante im Gegensatz zur Technischen Analyse vom Anwender wesentlich mehr Aufwand erfordert, muss man - sofern man Einfachheit als Kriterium akzeptiert - der Technischen Analyse den Vorzug geben.

4. Perspektiven

Ist nach all diesen Ergebnissen die Technische Analyse als kompletter Humbug abzutun? Ich denke nicht. Wie in der Arbeit gezeigt wurde, entspricht die Technische Analyse zwar größtenteils nicht wissenschaftstheoretischen Standards. Einige ihrer Elemente aber kann man als vorwissenschaftlich bezeichnen. Sie eröffnen Möglichkeiten auf eine grundlegende Revision und Überarbeitung des Sammelsuriums an Methodiken.

Folgende Schritte wären angebracht:

1. Eine Rationalisierung der Technischen Analyse. Formationen, Trendverhalten, Wellenbewegungen etc. sollten über psychologische Phänomene begründet und erklärt werden können. Die noch junge Disziplin der Behavioral Finance bietet hierfür gute Grundlagen.
2. Klare Definitionen. Die Technische Analyse leidet unter zahlreichen Ungenauigkeiten. Die von ihr postulierten Phänomene sind nicht klar definiert: Wann kann man von einem „Trend“ eines Wertpapiers sprechen? Wann von einer „Dreiecksformation“? Ohne scharfe Definitionen unterliegen die Methodiken der Technischen Analyse immer einem subjektiven Entscheidungsprozess und widersprechen so dem wissenschaftlichen Anspruch der Objektivierbarkeit.
3. Falsifizierbarkeit. Um die Technische Analyse falsifizierbar zu machen, sind klare statistische Aussagen nötig. An dieser Stelle sind empirische Tests gefragt. Sind erstmal scharfe Definitionen der Phänomene vorhanden, wäre es notwendig, diese auf einem bestimmten Datensatz zu testen. Die Geltung der Aussagen kann dann auf einem unbekannten Datensatz geprüft werden. Auf nicht falsifizierbare Elemente wie zum Beispiel die Elliott-Waves*-Theorie sollte ganz verzichtet werden.
4. Aufbau eines kritischen Kontextes. Um eine Weiterentwicklung der Technischen Analyse zu ermöglichen, ist ein kritischerer Umgang mit der Methodik notwendig. Freilich, eine solche Forderung ist schwer umsetzbar, da es keine übergeordnete Institution gibt. In Frage allerdings käme zum Beispiel die Vereinigung Technischer Analysten Deutschlands (VTAD - www.vtad.de), die noch am ehesten die Möglichkeiten besitzt, Standards einzuführen. Dies würde zudem eine striktere Trennung zwischen kommerziellen Interessen und wissenschaftlicher Forschung erfordern.

Doch selbst, wenn all diese Punkte erfüllt werden würden, ist Skepsis angebracht. Mir ist nicht klar, wie die selbst-reflexiven Elemente der Technischen Analyse eliminiert werden könnten. Auch bei klar definierten und statistisch fundierten Prognosen würden Effekte wie die der selbsterfüllenden und selbstzerstörenden Prophezeiungen bestehen bleiben.

Zudem erscheint mir, ein weiterer Punkt auch nach einer grundlegenden Revision der Technischen Analyse relevant zu bleiben: im Nachhinein lassen sich für jeden beliebigen Datensatz bestimmte Regelmäßigkeiten ausfindig machen. Auch wenn über empirische Testverfahren Muster im Finanzmarktgeschehen ausfindig gemacht werden können, stellt dies keine Garantie dafür dar, dass diese Regelmäßigkeiten auch in Zukunft bestehen bleiben. Angesichts der enormen Komplexität, der zunehmenden Verflechtung der Märkte und der Anzahl der Einflussvariablen bleibt es meiner Meinung nach mehr als fraglich, als dass Börsenkurse prognostizierbar gemacht werden könnten, von den Konsequenzen, die das mit sich bringen würden, mal ganz abgesehen. Und deswegen möchte ich diese Arbeit mit einem Zitat von André Kostolany beschließen. Der 1999 verstorbene Berufsspekulant stand Börsentheorien stets sehr abgeneigt gegenüber.

„Viele Journalisten nennen mich einen Börsenguru, doch dieses Prädikat habe ich nie akzeptiert. Ein Guru ist unfehlbar und das bin ich bestimmt nicht. Ich bin nur ein sehr alter, erfahrener Börsenprofi. Was morgen sein wird, weiß auch ich nicht, doch ich weiß, was gestern war und heute ist.

Und das ist schon eine ganze Menge, denn viele meiner Kollegen wissen doch nicht einmal das. Und meine achtzigjährige Börsenerfahrung hat mich vor allem eines gelehrt: Spekulation ist eine Kunst und keine Wissenschaft.“[131]

VI. Anhang

Die Technische Analyse ist ein kaum wirklich klar definierter Sammelbegriff vieler Ansätze zur Kursprognose. Man mag als bindendes Glied unter diesen Ansätzen die Wichtigkeit der graphischen Betrachtung, die Konzentration auf den Chart anführen. Manchen von ihnen sind gängiger, andere werden nur von wenigen Anlegern benutzt.

Folgender Abschnitt wird kurz die verschiedenen Ansätze vorstellen. Ziel ist es, den Leser grundsätzliche Konzepte der Technischen Analyse zu vermitteln. Die folgende Darstellung erhebt keinen Anspruch auf Vollständigkeit. Auf die Präsentation exotischer Varianten wie beispielsweise der Gann-Analyse, Point&Figure- oder Renko-Charts wurde verzichtet.

1. Trendlinien, Unterstützungen und Widerstände

1.1 Trendlinien

Wohl zu den einfachsten und gängigsten Konzepten gehört das Handeln auf Basis von Trendlinien. Eine Trendlinie ist nichts anderes als die Verbindung zweier Punkte. Ein Aufwärtstrend wird beispielsweise durch das Verbinden zweier temporärer Tiefpunkte gekennzeichnet, wobei das zweite Zwischentief höher als das erste liegt. Bei einer Abwärtstrendlinie werden zwei Zwischenhochs mit einer Geraden verbunden, wobei das erste Hoch über dem zweiten liegt. Trendlinien fungieren als Unterstützungen bzw. Widerstände. Durchbricht der Kurs beispielsweise eine Aufwärtstrendlinie von oben nach unten, spricht man von einem „Bruch des Aufwärtstrends“. Das impliziert fallende Kurse. Umgekehrt verhält es sich bei einem Bruch des Abwärtstrends. Je öfter der Kurs an diesen Linien seine Richtung ändert, desto stärker wird die Bedeutung des Trends.[132]

Abbildung in dieser Leseprobe nicht enthalten

(1) Die Verbindung der zwei Zwischentiefs im EUR/USD führt zu einer Trendlinie, die einen Aufwärtstrend signalisiert. Deren Bruch im Februar 2004 deutet auf fallende Kurse hin.

Abbildung in dieser Leseprobe nicht enthalten

(2) Im S&P500 wird der Abwärtstrend durch drei jeweils tiefere Hochpunkte definiert. Erst nach zwei Jahren wird der Abwärtstrend durchbrochen.

1.2 Unterstützungen und Widerstände

Das Konzept der Auf- und Abwärtstrends ist eng verbunden mit dem der Unterstützungen und Widerstände. Eine Unterstützung entsteht, wenn der Kurs mindestens zweimal von einem bestimmten Kursniveau abprallt und wieder zu steigen beginnt. Ein Widerstand entsteht, wenn der Kurs mindestens zweimal von einem bestimmten Kursniveau abprallt und wieder zu fallen beginnt.[133]

Abbildung in dieser Leseprobe nicht enthalten

(3) Zwischen Januar und Mai 2004 prallte der DAX dreimal am Widerstand von 4150 ab und drehte nach unten. Das Kursniveau von 3700 Punkten erwies sich als Unterstützung.

2. Formationen

Das Konzept der Formationen fußt auf dem Verständnis von Widerständen und Unterstützungen. Allerdings bergen Formationen und Kursmuster eine eigene Logik, wobei Käufern und Verkäufern ein bestimmtes Verhaltensmuster unterstellt wird. Ich werde mich bei dieser Darstellung auf drei der gängigsten Formationen beschränken: die Schulter-Kopf-Schulter-Formation, Dreiecke und so genannte Bull- bzw. Bear­Flaggen.

2.1 Die Schulter-Kopf-Schulter-Formationen

Diese Formation trägt ihren Namen, weil sie einem menschlichen Kopf mit zwei Schultern ähnelt. Eine Schulter-Kopf-Schulter-Formationen, kurz SKS, deutet stets auf fallende Kurse hin.

Die erste sich heranbildende Schulter entsteht durch institutionelle, professionelle oder einfache erfahrene Investoren. Auf Grund fundierter Markteinschätzungen gehen sie von steigenden Kursen aus und kaufen. Das treibt die Kurse in die Höhe. Mit der Zeit aber setzen Gewinnmitnahmen ein. Die erste Schulter bildet sich heraus.

Mehr und mehr private Anleger werden nun durch Berichterstattung in den Medien auf die Tatsache aufmerksam, dass sich an der Börse gerade viel Geld verdienen lässt. Auf einmal strömen unerfahrene Kleinanleger auf den Markt und beginnen zu kaufen. Die Manie setzt ein und es kommt zu einer Kettenreaktion. Je schneller die

Kurse steigen, desto mehr Personen werden auf das Phänomen aufmerksam gemacht. Die Insider und erfahrenen Anleger aber halten sich nun mit Käufen zurück. Sie sind bereits seit langem investiert und können sich über die steigenden Kurse freuen. Irgendwann aber beginnen sie ihre Positionen zu liquidieren. Die Kurse beginnen nun zu fallen. Mehr und mehr institutionelle Anleger werfen ihre Aktien auf dem Markt, während die breite Masse noch nicht glauben kann, dass der Boom vorbei sein soll. Der Kopf hat sich herausgebildet. Haben die Professionellen erst einmal verkauft, ist Raum für eine Gegenbewegung, die abermals wieder von Kleinanlegern gemacht wird, die die Hoffnung noch immer nicht aufgegeben haben und sich über „billige Einstiegskurse“ freuen. Jetzt bildet sich die zweite Schulter aus. Für eine weitere Aufwärts-Bewegung fehlt jetzt aber das Geld. Die Kleinanleger sind noch immer investiert, während die Großen liquide bleiben oder längst Short-Positionen* eröffnet haben. Mit dem Bruch der Nackenlinie geht es schließlich in den Keller.

Abbildung in dieser Leseprobe nicht enthalten

(4) Schulter-Kopf-Schulter-Formation, die sich im DAX zwischen 1997 und 2002 ausbildete. Sie trifft zusammen mit dem Platzen der High-Tech-Blase Mitte 2000.

2.2 Dreiecke

Vier Punkte sind nötig, um eine Dreieck als solches zu identifizieren. Montasser spricht von drei verschiedenen Dreiecken: das symmetrische, das fallende und das steigende Dreieck. Ersteres hat eine trendbestätigende Implikation, während die beiden anderen eine Trendwende andeuten.[134] Das symmetrische Dreieck tritt meist nach starken, lang anhaltenden Kursbewegungen in eine Richtung auf. Der Bewegung geht dann das Geld aus. Eine Verschnaufpause wird nötig. In dieser Zeit werden Gewinne mitgenommen und neue Marktteilnehmer steigen ein. Schließlich kommt es zu einem Ausbruch in Richtung des vorangegangenen Trends.

Beim fallenden Dreieck hingegen findet der Kurs eine Unterstützung an der Unterkante des Dreiecks, während aber gleichzeitig die Kurspitzen jeweils nicht mehr übertroffen werden. Schließlich kommt es zu einem Bruch der unteren Begrenzungslinie.

Analog dazu verhält es sich bei einem steigenden Dreieck.

Abbildung in dieser Leseprobe nicht enthalten

(5) Steigendes Dreieck im DAX. Nach Bruch des Widerstandes bei 4160 Punkten, schießt der Kurs um 50 Punkte nach oben.

2.3 Bull- und Bear-Flaggen

Bull- und Bear-Flaggen haben ausschließlich einen trendbestätigenden Charakter. Ähnlich dem symmetrischen Dreieck markieren sie eine Art Verschnaufpause nach einer starken Trendbewegung dar. Sie sind gekennzeichnet durch eine kurze

Seitwärtsbewegung, die durch einen Widerstand und eine Unterstützung begrenzt ist. Nach dessen Durchbruch läuft der Trend weiter in die vorangegangene Richtung. Bull-Flaggen treten in einem Aufwärtstrend auf, Bear-Flaggen in einem Abwärtstrend auf. 134 [135]

3. Indikatoren und Oszillatoren

Indikatoren und Oszillatoren unterscheiden sich von Formationen insofern, dass sie mathematisch berechnet werden und somit keinem subjektiven Erkennungsprozess unterliegen. Ständig werden neue Indikatoren entwickelt. Zu den etablierten zählen an die 100 verschiedene Varianten. Zu den bekanntesten gehören der einfache gleitende Durchschnitt, der Moving Average Convergence / Divergence (MACD) und der SlowStochastics. Der Einfachheit halber werde ich mich hier auf diese drei beschränken.

3.1 Gleitende Durchschnitte

Der wohl einfachste Indikator ist ein gleitender Durchschnitt des Kurses. Dabei wird einfach der Durchschnittskurs einer bestimmten Periode ermittelt. Zu den gängigen gleitenden Durchschnitten (kurz: SMA. Simple Moving Average) zählen die

Perioden 20, 50 und 200 Tage. Notiert der aktuelle Kurs über seinem Durchschnitt deutet dies auf weiter steigende Kurse hin. Liegt er unter seinem Durchschnitt, wird weitere Kursschwäche unterstellt.

3.2. Beispiel für einen Indikator - der MACD

Der MACD setzt sich aus insgesamt drei exponentiell gewichteten gleitenden Durchschnitten (EMA = Exponential Moving Average) zusammen, was in zwei Linien resultiert. Die erste so genannte MACD-Linie entsteht aus der Differenz zweier EMAs zusammen. Die Trigger-Linie ist ein weiterer kürzerer EMA. Als Standardeinstellung wird oft 9, 12 und 26 Tage empfohlen.[136] Signale bzw. Handelsanweisungen entstehen zum einen durch die Kreuzung der beiden Linien, zum anderen aus der Position beider Linien (positiver oder negativer Bereich). Kreuzt die Trigger-Linie die MACD-Linie von oben nach unten, wird das als Signal für fallende Kurse gedeutet. Das Gegenteil gilt, wenn die Linie von unten nach oben gekreuzt wird. Zwei steil ansteigende Linien im positiven Terrain signalisieren einen starken Aufwärtstrend.

3.3 Beispiel für einen Oszillator - der Slow Stochastic

Der Slow Stochastic wird gewöhnlich als Oszillator bezeichnet, da er zwischen den Extremwerten 100 und 0 hin und her pendelt. Auch seine Berechnung fußt maßgeblich auf der Kalkulation von gleitenden Durchschnitten. Der Oszillator besteht aus zwei Linien, der „%D-Linie“ und der „%K-Linie“. Letztere wird mit der Formel (C - Ln) / (Hn -Ln) * 100, wobei C = aktueller (Schluss-Kurs), L = niedrigster Kurs des Beobachtungszeitraumes, H = höchster Kurs des Beobachtungszeitraumes und n = Anzahl der beobachteten Perioden. Die Formel für %D-Linie lautet 100 X (Hn/Ln). Als extrem gelten Werte über 80 und unter 20. Bewegt sich der Oszillator in die Zone von über 80, spricht man von einer überkauften Situation, die so nicht lange bestehen kann. Umgekehrtes gilt, wenn sich die SlowStochastics in die Extremzone von unter 20 bewegt. Außerdem besitzen die Kreuzungen der beiden Linien untereinander Signalcharakter.[137]

Abbildung in dieser Leseprobe nicht enthalten

(7) DAX-Chart mit Gleitendem Durchschnitt der letzten 200 Tage (blau), SlowStochastic (rote und blaue Linien) und MACD (grüne und schwarze Linien).

4. Fibonacci-Analyse

Die Fibonacci-Zahlenreihe geht auf einen italienischen Mathematiker des 13. Jahrhunderts namens Leonardo di Pisa, genannt Fibonacci zurück. Die Reihe entsteht durch die Addition einer Zahl mit ihren Vorgänger, wobei mit 0 und 1 begonnen wird, also: 0, 1, 2, 3, 5, 8, 13, 21... Was Fibonacci-Zahlen und Kursprognosen betrifft, so spielen vor allem die Verhältnisse der Zahlen untereinander eine wichtige Rolle. Ein Verhältnis ist das des Goldenen Schnitts 0,618. Dieses Verhältnis entsteht durch die Division einer Zahl der Reihe mit ihrer nächstfolgenden, z.B. 8 / 13. Weitere sind: 0,236, 0,382, 0,764, 1,618, 2,618. Alle entstehen durch entsprechende Divisionen der Zahlen untereinander. (Der Quotient 0,382 entsteht beispielsweise durch das Teilen einer Zahl durch ihren übernächsten Nachfolger, z.B. 13 / 43 = 0,3823).

Diese Verhältnisse werden zu wichtigen Widerstands-/ bzw. Unterstützungsmarken bei einer Impulsbewegung eines Marktes. Wenn der DAX innerhalb weniger Tage von 3.700 Punkten auf 4.000 Punkte steigen sollte, ist normalerweise zunächst mit einer Gegenbewegung zu rechnen, bevor der Index seinen Weg nach Norden weiter fortsetzt. Bei der Frage, wie weit diese Gegenbewegung laufen wird, kommen nun die Fibonacci-Retracements ins Spiel. Händler, die Fibonacci-Retracements nutzen, grenzen die Impulsbewegung, also den jüngsten Aufwärtstrend, zwischen ihrem Startpunkt und dem vermeintlichen Top ein. Abgetragen werden nun die gängigsten

Retracements 0,618 / 61,8%, 0,5 / 50% (eine Zahl, die sich streng genommen nicht aus der Fibonacci-Folge ableiten lässt, trotzdem aber häufig verwendet wird) und 0,382 / 38,2% in diese Strecke (siehe Bild 2). Diese Levels werden so zu Unterstützungen, an denen der Index vermeintlich seine Gegenbewegung beendet und wieder zu steigen beginnt.

Weniger verbreitet sind außerdem die Kurszielberechnung mit Fibonacci (Projektion der Verhältnisse in Richtung des Trends) und die Zeitzonen-Analyse, bei der anhand von bestimmten Fibonacci-Verhältnissen potenzielle Wendepunkte projiziert werden.

Abbildung in dieser Leseprobe nicht enthalten

(8) Die grünen Linien kennzeichnen gängige Fibonacci-Retracements. Tatsächlich fällt der Kurs nach dem Heranlaufen an das 50%-Retracements weiter.

5. Elliott-Waves

Die Theorie der Elliott-Waves geht auf den Investor Ralph N. Elliott zurück. Dieser entwickelte Mitte der Dreißiger Jahre des letzten Jahrhunderts die Idee, wonach sich die Märkte stets in einem acht-welligen Muster bewegen[138] [139]. Ich werde mich an dieser Stelle auf die Erläuterung des grundlegenden Prinzips beschränken.

Diese acht Wellen gliedern sich in fünf so genannte „Impulswellen“ und drei „Korrekturwellen“, die entgegengesetzt zum übergeordneten Trend laufen. Welle 1 treibt den Kurs nach oben, Welle 2 korrigiert, Welle 3 ist wiederum impulsiv und sollte dabei stets die längste Welle des Zyklus sein, Welle 4 korrigiert und Welle 5 endet mit dem vorläufigen Höchstpunkt des Zyklus. Danach folgen die drei Korrekturwellen, wobei Welle 1 und 3 (oft als „a“ und „c“ bezeichnet) entgegen den Impuls des Zyklus laufen und Welle 2 die Korrektur korrigiert. Nach Abschluss dieses Zyklus beginnt eine neue acht-wellige Struktur, die am Ende der letzten Welle startet. Diese Struktur wird sowohl Aufwärts- als auch Abwärtsbewegungen unterstellt.

Abbildung in dieser Leseprobe nicht enthalten

(9) Schematische Darstellung einen acht-welligen Zyklus nach Ralph N. Elliott.

Jede Welle eines Zyklus setzt sich wieder aus acht Wellen zusammen, die ihrerseits wieder aus acht kleineren Wellen bestehen. Man spricht deshalb von einer fraktalen Struktur. Aufgabe des Marktteilnehmers ist es nun, den Zyklus korrekt zu identifizieren. Kann er herausfinden, in welcher Welle der Markt sich aktuell befindet, so ist er imstande, die weitere Kursentwicklung zu prognostizieren. Wie lange die Wellen sind, ist stets ungewiss. Laut Theorie muss nur Welle 3 stets die längste sein.

Da die Kursanalyse mit Candlesticks zu den umfangreichsten Gebieten der Technischen Analyse gehört, werde ich mich auf drei Muster beschränken, die die Methode exemplarisch verdeutlichen.

Angeblich ist diese Methode eine der ältesten überhaupt. Sie stammt der Sage nach aus dem Japan des 18. Jahrhunderts, wo ein Reishändler an der Terminbörse Dojima damit ein Vermögen verdiente. Wieder entdeckt und einem westlichen Publikum zugänglich gemacht wurde sie vor wenigen Jahren von dem Amerikaner Steve Nison.

Die Technische Analyse mit Candlesticks ist in erster Linie eine besondere Darstellungsform des Kursgeschehens innerhalb einer bestimmten Periode, wobei Eröffnungs-, Schluss-, Hoch- und Tiefstkurs beachtet werden.

Eine Kerze (= Candlestick) besteht gewöhnlich aus einem Körper, einem Schatten (auch Lunte genannt) und einem Docht. Der Körper ist weiß, wenn der Schlusskurs über dem Eröffnungskurs lag. Im gegenteiligen Fall ist der Körper schwarz. Bei einem weißen Körper wird der Eröffnungskurs durch die linke untere Ecke des Körpers dargestellt. Der Schlusskurs befindet sich an der rechten oberen Ecke. Bei einem schwarzen Körper befindet sich der Eröffnungskurs an der linken oberen Ecke, der Schlusskurs an der rechten unteren Ecke des Körpers. Alle Kurse außerhalb dieser Spanne werden entweder durch den Docht (Kurse höher als Eröffnung und Schlusskurs) oder durch den Schatten (Kurse tiefer als Eröffnung und Schlusskurs) dargestellt. So entsteht eine Vielfalt an möglichen Mustern, von denen jedes einzeln oder in Kombination mit anderen Kerzen Aussagekraft besitzt.

Als ein signifikantes Muster wäre der so genannte Shooting Star zu nennen. Nach einem positiven Tag zuvor, eröffnet der Kurs zunächst auf Niveau des gestrigen Schlusskurses. Im Laufe der Handelsspanne steigt der Kurs und fällt wieder ab, um schließlich in etwa auf dem Eröffnungsniveau zu schließen. In einem Candlestick- Chart erscheint nun eine Kerze in Form eines lang gezogenen Schattens und eines kleinen Körpers. Ein Shooting Star wird als Umkehrzeichen gewertet, da er verdeutlicht, dass viele Marktteilnehmer ab einem bestimmten Kursniveau skeptisch wurden und ihre Positionen verkauften.[140]

Abbildung in dieser Leseprobe nicht enthalten

(10) „Shooting Star“ im DAX. Der Kurs eröffnete auf Vortagesniveau bei 3860 Punkten, stieg dann auf 3930 Zähler und fiel noch am selben Tag wieder auf das Eröffnungsniveau ab.

7. Glossar

Abbildung in dieser Leseprobe nicht enthalten

VI. Literaturverzeichnis

Technische Analyse und Behavioral Finance:

- Fischer, Robert; Fischer, Jens: „Trading nach neuen Fibonacci-Regeln. Profitable Strategien für den Börsenerfolg.“ Frankfurt a. M., Eichborn, 2001.
- Goldberg, Joachim, von Nitzsch, Rüdiger: „Behavioral Finance - Gewinnen mit Kompetenz.“ München, Finanzbuchverlag, 4. Auflage 2004.
- Goldberg, Joachim: „Behavioral Finance begründet Technische Analyse. Ohne Disziplin stehen gute Prognosemethoden auf verlorenem Posten - Von irrationalem Verhalten.“ Börsen-Zeitung vom 28.11.1997.
- Kostolany, André: „Die Kunst über Geld nachzudenken.“ München, Econ, 1. Auflage 2001.
- Lefèvre, Edwin: „Reminiscences of a Stock Operator.“ New York, Wiley & Sons, 1994
- Montasser, Reza Darius: „Technische Analyse verstehen. Ansätze, Methoden, Weiterentwicklungen.“ München, Finanzbuchverlag 2000.
- Niquet, Bernd: „Crash der Theorien. Eine neue Sichtweise von Wirtschaft und Börse.“ Kulmbach, Börsenbuch Verlag, 1997.
- Prechter, Robert: „Das Elliott-Wellen-Prinzip. Der Schlüssel zu einem besseren Börsenverständnis.“ München, Finanzbuchverlag, 2004.
- Taleb, Nassim: „Narren des Zufalls. Die verborgene Rolle des Glücks an den Finanzmärkten und im Rest des Lebens.“ Weinheim, Wiley, 2002.
- Tharp, Van K.: „Clever Traden mit System. Erfolgreich an der Börse mit Money Management und Risikokontrolle.“ München, Finanzbuchverlag, 2. unveränderte Auflage 2002.
- „TRADERS’“. Würzburg, Traders Media GmbH, Ausgaben Januar 2002 bis April 2005.
- Wagner, Uwe: „Traden wie ein Profi. Systematische Handelsansätze, Marktpsychologie, Risikokontrolle.“ München, Finanzbuchverlag, 2004.
- Weissenfeld, Horst; Weissenfeld, Stefan: „Börsen-Gurus und ihre Strategien. Mit den erfolgreichsten Investoren zum Erfolg“. Rosenheim, TM Börsenverlag, 2000.
- Williams, Larry: „Die richtige Aktie zur richtigen Zeit“. Kulmbach, Börsenmedien AG, 2003.

Wissenschaftstheorie:

- Curd, Martin u. Cover, J. A. (Hrsg.): „Philosophy of Science. The Central Issues.” New York, Norton & Company, 1998.
- Goller, Hans: „Psychologie. Emotion, Motivation, Verhalten.“ Stuttgart, Kohlhammer, 1995.
- Hacking, Ian: „Was heißt soziale Konstruktion? Zur Konjunktur einer Kampfvokabel in den Wissenschaften.“ Fischer, Frankfurt a. M., 1999.
- Keuth, Herbert: „Die Philosophie Karl Poppers.“ Tübingen, Mohr Siebeck, 2000.
- Janich, Peter (Hrsg.): „Entwicklungen der Methodischen Philosophie.“ Frankfurt a. M., Suhrkamp, 1992.
- Popper, Karl: „Die beiden Grundprobleme der Erkenntnistheorie.“ Tübingen, Mohr, 1979.
- Seiffert, Helmut u. Radnitzky, Gerard (Hrsg.): „Handlexikon zur Wissenschaftstheorie.“ München, Deutscher Taschenbuchverlag, 2. Auflage 1994.
- Watzlawick, Paul (Hrsg.): „Die erfundene Wirklichkeit. Wie wissen wir, was wir zu wissen glauben? Beiträge zum Konstruktivismus.“ München, Piper, 14. Auflage 2002.
- Watzlawick, Paul: „Wie wirklich ist Wirklichkeit? Wahn, Täuschung, Verstehen.“ München, Piper, 21. Auflage 1996.

Webseiten:

- boerse.ard.de/analyse.jsp?key=dokument_3943&haupt_doc=container_finanzwis sen_3960
- de.wikipedia.org/wiki/Die_gro%C3%9Fe_Tulpenmanie
- de.wikipedia.org/wiki/Kondratieff
- de.wikipedia.org/wiki/Schweigespirale
- encyclopedia.laborlawtalk.com/Social_constructionism
- perso.wanadoo.fr/pgreenfinch/bfglo/bfglo.s.htm
- users.hol.gr/~spirost/ta/Varius/ElliotWave.pdf
- www2.student-online.net/Publikationen/295/#Heading1
- www.aktienboard.com/vb/archive/index.php/t-2451.html.
- www.aktienboard.com/vb/showthread.php?threadid=28769&
- www.boersenforum- augsburg.de/pdfs/Broschuere/BFA_Broschuere2004_screen.pdf
- www.cortalconsors.de
- www.deifin.de/tipps.htm
- www.ewheri.ch/pdfs/pdf-markteffizienz_je_laenger_je_mehr.pdf.
- www.finanzbuchverlag.de
- www.finanzgruppen.de/post/3167/Elliottwellen_Analyse_Club.html
- www.neurex.de
- www.skripta.at/BoersenPsych-text.html.
- www.stuttgarter-zeitung.de/stz/page/detail.php/880401
- www.tradersmag.com
- www.tradewire.de
- wiwi.uni-giessen.de/home/rinne/statwas
- www.vtad.de
- www.zfu.ch/service/fartikel/fartikel_02_kap.htm
- www.zeit.de/archiv/2000/41/200041_solidus.xml

Grafiken:

Grafiken (1) bis (8) und sowie (10) erstellt mit Tradesignal Express (www.tradesignal.com).Grafik (9) gefunden auf:

http://www.investireoggi.it/io/canali/Didattica/index.php?pag_id=37&p_id=166103

[...]


[1] Horst Weissenfeld, Stefan Weissenfeld: Börsen-Gurus und ihre Strategien. Rosenheim, Börsenverlag, 2000. S. 264.

[2] Gefunden u.a. auf: http://boerse.ard.de/analyse.jsp?key=dokument_3943&haupt_doc=container_finanzwissen_3960. Zuletzt gesehen am 4. Mai 2005.

[3] Gewöhnlich handelt es sich dabei um Tagesschlusskurse. In der Praxis werden aber genauso Schlusskurs von Monaten, Wochen, Stunden oder Minuten verwendet (=> Daytrader*). Ich werde mich im Weiteren auf Schlusskurse beschränken. Die Ergebnisse sind aber genauso auf andere Zeitrahmen übertragbar.

[4] „Anhänger der Random-Walk-Theorie stellen die Grundprämisse der Technischen Analyse, nach der historische Kursdaten zur Prognose von künftigen Kursbewegungen verwendet werden, grundsätzlich in Frage. (...) Die Grundaussage der Random-Walk-Theorie besagt, dass die Preisänderungen unabhängig voneinander und somit zufällig entstehen.“ Uwe Wagner: Traden wie ein Profi. München, Finanzbuchverlag, 2004. S. 72.

[5] „Ein Markt wird dann als effizient bezeichnet, wenn niemand mehr in der Lage ist, in diesem Markt durch An- und Verkauf aufgrund eines besseren Wissensstandes systematisch Gewinne zu erzielen.“ Bernd Niquet: Der Crash der Theorien. Kulmbach, Börsenbuch-Verlag, 1997. S. 57.

[6] Uwe Wagner: Traden wie ein Profi. München, Finanzbuchverlag, 2004. S. 57.

[7] Z.B. in: Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. Oder auf der Webseite www.tradesignal.com -> Das Lexikon.

[8] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.68.

[9] „In den 1630er Jahren überschlug sich die Entwicklung. Es konnten jetzt auch Optionsscheine auf Tulpenzwiebelnanteile gekauft werden. Die Preise explodierten und stiegen von 1634 bis 1637 auf das über 50-fache an. Im Amsterdam wurde ein komplettes Haus für drei Tulpenzwiebeln verkauft. Viele Zwiebeln kosteten mehrere tausend Gulden, der höchste Preis für die wertvollste Tulpensorte, Semper Augustus, lag Anfang 1637 bei 10.000 Gulden für eine einzige Zwiebel, zu einer Zeit, als ein Zimmermann rund 250 Gulden im Jahr verdiente. Die Spekulation war zur Spekulationsblase gediehen. Im Januar hatten sich die Preise bereits mehr als verdoppelt als am 7. Februar 1637 das Ende der Tulpenmanie kam. Bei der jährlichen Versteigerung in Alkmaar gab es nicht mehr genug Käufer. Die Preise fielen um über 95 Prozent. Viele Bürger verloren ihr ganzes Vermögen, das sie in Tulpenzwiebeln investiert hatten. Am 27. April wurde von der holländischen Regierung endlich verfügt, dass Tulpen gewöhnliche Waren seien und als solche zu behandeln waren, also z.B. bar bezahlt werden mussten.“ Gefunden auf: http://de.wikipedia.org/wiki/Die_gro%C3%9Fe_Tulpenmanie. Zuletzt gesehen am 22. April 2005.

[10] Martin Siegert: Elliott-Wave. Technical Investor Nr. 1, Feb. 2001, S. 72 . Gefunden auf www.tradesignal.com -> Das Lexikon. Zuletzt gesehen am 6. Mai 2005.

[11] J. Goldberg: Behavioral Finance begründet Technische Analyse. Börsen-Zeitung vom 28.11. 1997.

[12] www.tradesignal.com -> Das Lexikon -> Behavioral Finance -> Die Psychologik der Technischen Analyse. Zuletzt gesehen am 29.12.2004.

[13] Joachim Goldberg, Rüdiger von Nitzsch: Behavioral Finance - Gewinnen mit Kompetenz. München, Finanzbuchverlag, 4. Auflage 2004. S. 28.

[14] Vgl. Joachim Goldberg, Rüdiger von Nitzsch: Behavioral Finance - Gewinnen mit Kompetenz. München, Finanzbuchverlag, 4. Auflage 2004. S. 25 ff.

[15] Vgl. Uwe Wagner: Traden wie ein Profi. München, Finanzbuchverlag, 2004. S. 64 ff.

[16] Vgl. Hans Goller: Psychologie. Emotion, Motivation, Verhalten. Stuttgart, Kohlhammer, 1995. S. 97 ff.

[17] J. Goldberg: Behavioral Finance begründet Technische Analyse. Börsen-Zeitung vom 28.11. 1997.

[18] J. Goldberg: Behavioral Finance begründet Technische Analyse. Börsen-Zeitung vom 28.11. 1997.

[19] Vgl. Vgl. Uwe Wagner: Traden wie ein Profi. München, Finanzbuchverlag, 2004. S. 71.

[20] Alfons Cortés: Behavioral Finance für die http://www.zfu.ch/service/fartikel/fartikel_02_kap.htm. Zuletzt gesehen am 3. Januar 2005.

[21] Alfons Cortés: Behavioral Finance für die http://www.zfu.ch/service/fartikel/fartikel_02_kap.htm. Zuletzt gesehen am 3. Januar 2005.

[22] http://de.wikipedia.org/wiki/Schweigespirale. Zuletzt gesehen am 8. Januar 2005.

[23] http://www2.student-online.net/Publikationen/295/#Heading1. Zuletzt gesehen am 6. Mai 2005.

[24] Darüber hinaus kommt der „Endowment Effect“ oder Besitztumseffekt zum Tragen. „Der Besitztumseffekt, auch als Endowment Effect (Thaler 1980) oder Status-Quo-Bias (Samuelson & Zeckhauser 1988) bezeichnet, zeigt sich darin, dass die meisten Menschen für ein bestimmtes Gut, das sie besitzen, einen erheblich höheren Verkaufspreis verlangen würden, als sie im Gegenzug bereit wären, dafür zu bezahlen (Weber 1993). Dieser Effekt ist in zahlreichen Versuchen gezeigt worden und ist auch immer wieder im Alltag anzutreffen.“ Joachim Goldberg, Rüdiger von Nitzsch: Behavioral Finance - Gewinnen mit Kompetenz. München, Finanzbuchverlag, 4. Auflage 2004. S. 131 f.

[25] Steven Hochberg: "Recurring Impulses of Definite Pattern - Elliott Waves Expert." Stocks&Commodities August 2001. http://users.hol.gr/~spirost/ta/Varius/ElliotWave.pdf. Zuletzt gesehen am 6. Mai 2005.

[26] Robert Prechter: Das Elliott-Wellen-Prinzip. München, Finanzbuchverlag, 2004. S. 155.

[27] Robert Prechter: Das Elliott-Wellen-Prinzip. München, Finanzbuchverlag, 2004. S. 24.

[28] Kondratjew veröffentlichte 1926 in der Berliner Zeitschrift "Archiv für Sozialwissenschaft und Sozialpolitik" seinen Aufsatz "Die langen Wellen der Konjunktur". Hierin stellte er anhand empirischen Materials aus Deutschland, Frankreich, England und den USA fest, dass die kurzen Konjunkturzyklen von langen Konjukturwellen überlagert werden. Diese 40 bis 60 Jahre dauernden langen Wellen bestehen aus einer länger andauernden Aufstiegsphase und einer etwas kürzeren Abstiegsphase. Kondratjew konnte zu diesem Zeitpunkt zweieinhalb solcher langen Wellen feststellen, wobei er davon ausging, dass sich die dritte Welle Ende der 20er Jahre des 20. Jahrhunderts ihrem Ende zuneigen würde, was auch eintraf (Börsenkrach und Weltwirtschaftskrise). Ursache für diese langen Wellen sieht er in Gesetzesmäßigkeiten des Kapitalismus, während neue Techniken nur Träger der langen Wellen sind. Gefunden auf: http://de.wikipedia.org/wiki/Kondratieff. Zuletzt gesehen am 22. April 2005.

[29] J. Goldberg: Behavioral Finance begründet Technische Analyse. Börsen-Zeitung vom 28.11. 1997.

[30] Verfasser unbekannt. Gefunden auf http://www.finanz- gruppen.de/post/3167/Elliottwellen_Analyse_Club.html

[31] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 219 -> Modell.

[32] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 280 -> Rationalismus.

[33] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.66

[34] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.66.

[35] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.64 f.

[36] Gefunden auf http://www.aktienboard.com/vb/showthread.php?threadid=28769& 21.1.2005

[37] vgl. Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 275 ff. -> Prognose.

[38] Imre Lakatos: Science and Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 20.

[39] Martin Curd and J. A. Cover: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 79.

[40] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 153 -> Induktion.

[41] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 3

[42] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 4

[43] Karl Popper: The Problem of Induction. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 426.

[44] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 4

[45] Wobei „Lösung“ eigentlich nicht die korrekte Bezeichnung ist: „Popper hat also keineswegs das logische Induktionsproblem neu formuliert und dann gelöst, sondern hat nur aus der Unlösbarkeit des logischen Induktionsproblems die richtigen Konsequenzen gezogen.“ Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 27.

[46] vgl. Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 25 ff.

[47] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 31.

[48] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 82 ff. -> Falsifizierbarkeit, zwei Bedeutungen von.

[49] Karl Popper: The Problem of Induction. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 431.

[50] Letztere erheben - im Gegensatz zu pseudo-wissenschaftlichen Theorien - nicht den Anspruch wissenschaftlich zu sein. Sie haben einen metaphysischen Charakter und können für die wissenschaftliche Arbeit sogar sehr nützlich sein. Die Unterscheidung wissenschaftlich - nicht­wissenschaftlich ist beschreibend und nicht wertend. Die Unterscheidung wissenschaftlich - pseudo­wissenschaftlich kann dagegen durchaus wertend sein.

[51] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 82 -> Falsifizierbarkeit.

[52] Beispiel: Alle Schwäne sind weiß - ein Vertreter „dieser Theorie“ könnte sich auf den Standpunkt stellen, wann immer ein schwarzer Schwan gesichtet werden würde, dieses Wesen eben kein Schwan sei, weil ja eben alle Schwäne weiß sind.

[53] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 83 f. -> Falsifizierbarkeit.

[54] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 83 f. -> Falsifizierbarkeit.

[55] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 84. -> Falsifizierbarkeit.

[56] Karl Popper: Science: Conjectures and Refutations. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 8.

[57] http://wiwi.uni-giessen.de/home/rinne/statwas. Zuletzt gesehen am 4. Mai 2005.

[58] Vgl. Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 83 f. -> Falsifizierbarkeit.

[59] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 208 f.

[60] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 210.

[61] Karl Popper: Die beiden Grundprobleme der Erkenntnistheorie. Tübingen, Mohr, 1979. S. 156.

[62] Herbert Keuth: Die Philosophie Karl Poppers. Tübingen, Mohr Siebeck, 2000. S. 203.

[63] Siehe Teil V. Punkt 2.2

[64] So zum Beispiel in einer Broschüre des Börsenforum Augsburg hinsichtlich einer Untersuchung des Magazins „Börse Online“: „Die scheinbare Überlegenheit mancher Prognosen für den Nikkei (= japanischer Leitindex) schmilzt bei genauerer Überprüfung auf statistische Signifikanz allerdings dahin. Mit anderen Worten: Die Erfolge dieser Prognosen sind eher zufällig als systematisch. Die auf TA basierenden Prognosen besitzen also keine (signifikant) erhöhten Trefferquoten gegenüber der naiven Prognose und mithin keine Aussagekraft für die zukünftige Kursentwicklung. verkauft wird.‘‘ S. 20ff. Zuletzt gesehen am 14.2.2005 auf http://www.boersenforum- augsburg.de/pdfs/Broschuere/BFA_Broschuere2004_screen.pdf.

[65] Zum Beispiel: Die Fibonacci-Relation ist dann relevant, wenn der Kurs nach x Tagen mit Kursanstieg nun x Tage fällt etc.

[66] Beispiele für diese Unschärfe finden sich täglich zum Beispiel auf der Webseite www.tradesignal.com. So zum Beispiel die Technische Analyse vom 16. Februar 2005 „DAX: Fortsetzung des Trendimpuls“ von Armin Kramer hinsichtlich der Entwicklung des DAX: „(...)Fazit: Wir rechnen aufgrund chart- und markttechnisch günstiger Voraussetzungen (intakte Aufwärtstrends, steigender ADX) mit einem baldigen Erreichen der 4.460 Punkte-Marke. Es ist jedoch recht unwahrscheinlich, dass der Index diese Marke bereits im laufenden Aufwärtsimpuls, d.h. ohne nochmalige Konsolidierung, durchbricht.“ Oder in der Analyse vom 15. Februar „EW Gold: Für $455+ müssen Bedingungen eingehalten werden...“ von Stefan Lipphardt: „(...) Doch soweit ist es noch längst nicht. Analog zur Erholung im €/$ bleibt es bisweilen bei der Prognose, dass 445-455 in den nächsten Wochen erreicht werden können und somit ein neuer Aufwärtstrend etabliert wird.“ Beide zuletzt gesehen am 16. Februar auf www.tradesignal.com -> Analysen.

[67] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 275. -> Voraussage

[68] Karl Popper: Die beiden Grundprobleme der Erkenntnistheorie. Tübingen, Mohr, 1979. S. 49.

[69] Handelssysteme sind computerbasierte Regelwerke, die anhand bestimmter Datensätze aus der Vergangenheit, z.B. Tagesschlusskurse des DAX im Zeitraum von 1.1.1980 bis 1.1.2004 Regelmäßigkeiten, aufspüren und diese dann in Kauf- und Verkaufsregeln für die Zukunft umsetzen. Ein Beispiel hierfür wäre: Kaufsignal, sobald der DAX den gleitenden Durchschnitt der letzten 50 Tage (=SMA 50) von unten nach oben schneidet; Verkaufssignal, sobald der DAX den Durchschnitt von oben nach unten schneidet.

[70] Martin Curd and J. A. Cover: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 71.

[71] Paul R. Thagard: Why Astrology is a Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 31.

[72] Vgl. Imre Lakatos: Science and Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 23 f.

[73] Imre Lakatos: Science and Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 25.

[74] Imre Lakatos: Science and Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 25 f.

[75] Paul R. Thagard: Why Astrology is a Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 32.

[76] Bei der Fundamentalanalyse werden anhand von volkswirtschaftlichen oder unternehmerischen Kennziffern - sogenannten Fundamentaldaten - Kursprognosen erstellt. Beispiel: Wenn die Leitzinsen gesenkt werden, ist von steigenden Kursen auszugehen. Oder: Das Kurs-Gewinn­Verhältnis (KGV) einer Aktie ist vergleichsweise gering. Die Aktie wird deswegen in Zukunft stärker steigen als ihre Konkurrenten.

[77] Bernd Niquet: „Der Crash der Theorien“. Kulmbach, Börsenbuch-Verlag, 1997. S. 65.

[78] Das Magazin „Traders'“, das größte Fachmagazin im deutschsprachigen Raum zur Technischen Analyse und Daytrading veröffentlicht monatlich Beiträge Technischer Analysten, die Neuentwicklungen vorstellen. Zum Beispiel: in der Ausgabe September 2004; Dan Valcu: „Der Zusammenhang von Z-Score und Heikin-Ashi“.

[79] Vgl. Martin Curd and J. A. Cover: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 72 ff.

[80] Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 7.

[81] Martin Curd and J. A. Cover: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 227.

[82] http://encyclopedia.laborlawtalk.com/Social_constructionism. Zuletzt gesehen am 21. März 2005.

[83] vgl. Ian Hacking: Was heißt soziale Konstruktion? Fischer, Frankfurt a. M., 1999. S. 14.

[84] Thomas Hobbes, Behemoth. In: Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 91.

[85] Paul Watzlawick: Die erfundene Wirklichkeit. München, Piper, 14. Auflage 2002. S. 200.

[86] Vgl. Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 91 f.

[87] Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 91.

[88] Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 95.

[89] Die erfundene Wirklichkeit. Herausgegeben von Paul Watzlawick. München, Piper, 14. Auflage 2002. S. 107 f.

[90] Handlexikon zur Wissenschaftstheorie. Herausgegeben von Helmut Seiffert und Gerard Radnitzky. München, Ehrenwirth, 1994. S. 94 -> Geisteswissenschaften.

[91] http://www.deifin.de/tipps.htm. Zuletzt gesehen am 3. April 2005.

[92] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.70.

[93] Joachim Goldberg, Rüdiger von Nitzsch: Behavioral Finance ÿ Gewinnen mit Kompetenz. München, Finanzbuchverlag, 4. Auflage 2004. S. 22.

[94] Joachim Goldberg, Rüdiger von Nitzsch: Behavioral Finance ÿ Gewinnen mit Kompetenz. München, Finanzbuchverlag, 4. Auflage 2004. S. 22 f.

[95] Bernd Niquet: Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S.70.

[96] Vgl. Paul Watzlawick: Wie wirklich ist Wirklichkeit? München, Piper, 21. Auflage 1996. S. 65 ff.

[97] Paul Watzlawick: Wie wirklich ist Wirklichkeit? München, Piper, 21. Auflage 1996. S. 66 f.

[98] vgl. Uwe Wagner: Traden wie ein Profi. München, Finanzbuchverlag, 2004. S. 173 ff.

[99] Vgl. Paul Watzlawick: Wie wirklich ist Wirklichkeit? München, Piper, 21. Auflage 1996. S. 93 ff.

[100] Paul Watzlawick: Wie wirklich ist Wirklichkeit? München, Piper, 21. Auflage 1996. S. 95.

[101] Helen E. Longino: Values and Objectivity. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 174 f.

[102] Helen E. Longino: Values and Objectivity. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 175.

[103] Kathleen Okruhlik: Gender and the Biological Sciences. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 192 ff.

[104] „None of these hypotheses is well-supported by evidence and most seem to be clearly refuted. What is interesting for our purposes is that for many researchers the one element of the theoretical network they unwilling to surrender in the face of recalcitrant data is the assumption that there must be predominantly biological reasons for inferior intellectual achievement in women.“ Kathleen Okruhlik: Gender and the Biological Sciences. S. 196.

[105] Helen E. Longino: Values and Objectivity. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 175 f

[106] Vgl. z.B. Geron Wolters: Opportunismus als Naturanlage: Hugo Dingler und das Dritte Reich. In: Entwicklungen der Methodischen Philosophie. Herausgegeben von Peter Janich. Frankfurt a. M., Suhrkamp, 1992. S. 257 ff. oder: Imre Lakatos: Science and Pseudoscience. In: Philosophy of Science. The Central Issues. New York, Norton & Company, 1998. S. 20.

[107] „Die schon in der Gründungsphase eingeleitete und durchaus intendierte Kommerzialisierung erreichte in der Folgezeit ein Ausmaß, dass es vergleichsweise seriösen NLP-Kreisen fast unmöglich machte, eine andere Richtung einzuschlagen. Der Kampf gegen die stetig wachsende Zahl an ,Scharlatanen’, die das öffentliche Ansehen nachhaltig schädigen, scheint zum gegenwärtigen Zeitpunkt noch nicht entschieden.“ Miriam Helisch: NLP - Neurolinguistisches Programmieren. Hausarbeit an der Ludwig-Maximilian Universität München, 2004. Seite 38.

[108] „The survivor bias is a kind of hindsight bias or rationalisation based on the idea that the winner won because of superior skill and strategy. It does not take into account that some non survivors might have used the same skills and strategy but did not succeed. It forgets also the part played by luck in success. This can lead to wrong heuristics or overconfidence.“ http://perso.wanadoo.fr/pgreenfinch/bfglo/bfglo.s.htm. Zuletzt gesehen am 11. April 2005.

[109] In dem Buch „Reminiscences of a Stock Operator“ von Edwin Lefèvre (New York, Wiley & Sons, 1994) wird der Aufstieg und Fall des Spekulanten Jesse Livermore beschrieben. Dieser begann mit wenigen hundert Dollars, galt zeitweise als reichster Mann der Wall Street und verlor mehrmals sein gesamtes Vermögen, bis er schließlich verarmt Selbstmord beging.

[110] Nick Leeson ruinierte 1997 im Alleingang die traditionsreiche Barings Bank und löste mit seinen Fehlspekulationen ein Beben an den internationalen Finanzmärkten aus. Vgl. http://www.stuttgarter- zeitung.de/stz/page/detail.php/880401 vom 21. Februar 2005. Zuletzt gesehen am 22. April 2005.

[111] Vgl. Magazin „Traders“. Würzburg, Traders Media GmbH, Ausgaben Januar 2002 bis April 2005.

[112] Vgl. Nassim Taleb: Narren des Zufalls. Weinheim, Wiley, 2002. S. 215 ff.

[113] Unter Money Management und/oder Risiko Management versteht man den Umgang mit dem Kapital in Bezug auf Größe der einzelnen Positionen, Risikobereitschaft, Anzahl der Positionen etc. Oft wird Money und Risk Management als eine Art „zweiter Schlüssel“ zum Erfolg bezeichnet. Vgl. Van K. Tharp: Clever Traden mit System. München, Finanzbuchverlag, 2. unveränderte Auflage 2002.

[114] www.finanzbuchverlag.de. Zuletzt gesehen am 6. April 2005.

[115] www.tradersmag.com -> Linkliste -> Portale. Zuletzt gesehen am 7. April 2005.

[116] Z.B.: www.tradewire.de. Einsteigerkurs Technische Analyse mit Marcel Mußler: „Teil I: Was ist Technische Analyse und warum funktioniert sie?“ Zuletzt gesehen am 7.April 2005.

[117] Der Online-Broker Cortal Consors (www.cortalconsors.de) beispielsweise bietet den Börsenbrief „Der Charttrader“ seinen Kunden kostenlos an. Zuletzt gesehen am 7. April 2005. Der Broker Neurex hat auf seinen Handelsplattformen „J-Trader“ oder „Neurex-Direct“ Werkzeuge zur Technischen Analyse integriert. www.neurex-direct.de. Zuletzt gesehen am 7. April 2005.

[118] Z.B. „Traders“. Würzburg, Traders Media GmbH, Februar 2005. Seite 2 f. (Anzeige).

[119] „Hier treffen Sie 42.405 Trader, lesen 688.185 Beiträge und laden 278.688 Charts direkt aus den Foren mit dem kostenlosen, interaktiven Power-Charting-Tool TradeSignal express.“ www.tradesignal.com. Zuletzt gesehen am 7. April 2005.

[120] Am 7. April waren folgende Analysen einsehbar: „Euro erholt sich weiter“ von Christian Pohl, FXdirekt Bank, „DAX Widerstand begrenzt Kursfantasie“ von Dirk Oppermann, DZ Bank AG, „USD/JPY (Wochenchart): Bruch des Abwärtstrends eröffnet neues Kurspotential“ von Thomas Amend, HSBC Trinkaus & Burkhardt KgaA u.a.

[121] vgl.: http://www.skripta.at/BoersenPsych-text.html. Zuletzt gesehen am 22. April 2005 oder http://www.aktienboard.com/vb/archive/index.php/t-2451.html. Zuletzt gesehen am 22. April 2005. Ergebnisse der Suchanfrage bei www.google.de mit „Die Technische Analyse funktioniert nicht.“

[122] Mark Schieritz: „Geschichte wiederholt sich“. In: Die ZEIT 2000/41. http://www.zeit.de/archiv/2000/41/200041_solidus.xml zuletzt gesehen am 7. April 2005. „(...) Und Vertreter der Theorie effizienter Märke wie der Princetoner Ökonom Burton Makiel glauben, dass Aussagen über das künftige Kursverhalten einer Aktie grundsätzlich unmöglich sind. "Unter wissenschaftlichen Gesichtspunkten hat die Chartanalyse den Status der Alchimie", meint Makiel. Der Methodenstreit in der Finanzanalyse geht nun allerdings in eine neue Runde: In einer eben erschienenen Studie verteidigt Andrew Lo vom Massachusetts Institute of Technology (MIT) die technische Analyse. Lo untersuchte die Kursentwicklung US-amerikanischer Aktien von 1926 bis 1996 und kommt zu unerwarteten Ergebnissen: Manche der Muster, die von den Chartisten verwendet werden, kommen in den Zyklen überdurchschnittlich häufig vor. Der wissenschaftliche Ritterschlag für die Chartanalyse?“ Gegenteiliges findet sich in einem anderen Artikel: Alex Tillemans: „Börsianer zeigen Anzeichen nichtvorhandener Intelligenz“. In www.wissenschaft.de, 30.September 2003. Zuletzt gesehen am 7. April 2005: „Die Händler, so die Modellannahme der Forscher, erteilen und stornieren Aufträge rein nach dem Zufallsprinzip und halten damit die Preisentwicklung in Bewegung. Farmer und seine Kollegen verglichen die statistischen Daten der Preisentwicklung in ihrem Modell mit den Daten der Londoner Börse zwischen 1998 und 2000 und fanden eine sehr gute Übereinstimmung.“

[123] In: Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 1.

[124] Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 16.

[125] Zur Erläuterung: eine solche Kennziffer ist zum Beispiel das Kurs-/Gewinnverhältnis (KGV). Dabei wird der Aktienkurs durch den Gewinn des Unternehmens dividiert und mit den Werten anderer Unternehmen aus demselben Sektor verglichen. Ist das KGV vergleichsweise hoch, bezeichnet man diese Aktie als „überbewertet“ und rät zum Verkauf. Vgl. Bernd Niquet: Der Crash der Theorien. Kulmbach, Börsenbuch Verlag, 1997. S. 99 ff.

[126] Sehr deutlich wurde dies zu den Boomzeiten des Neuen Marktes. Zahlreiche Internet- und Hightech-Werte erreichten in den Jahren 1997 bis 2001 astronomisch hohe Kurse. Manche Analysten forderten deshalb sogar einen neuen Bewertungsmaßstab. Vgl.: Larry Williams „Die richtige Aktie zur richtigen Zeit.“ Kulmbach, Börsenmedien AG, 2003. S. 131 ff.

[127] Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 20.

[128] Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 20.

[129] Erwin Heri, Nicola Nolé: Markteffizienz... je länger, je mehr. http://www.ewheri.ch/pdfs/pdf- markteffizienz_je_laenger_je_mehr.pdf. Seite 3. Zuletzt gesehen am 25. April 2005.

[130] Erwin Heri, Nicola Nolé: Markteffizienz... je länger, je mehr http://www.ewheri.ch/pdfs/pdf- markteffizienz_je_laenger_je_mehr.pdf. Seite 4. Zuletzt gesehen am 11. Mai 2005.

[131] André Kostolany: Die Kunst über Geld nachzudenken. München, Econ, 1. Auflage 2001. S 25.

[132] Vgl. Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 52 ff.

[133] Vgl. Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 79 ff.

[134] Vgl. Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000.

[135] Vgl. Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S. 79 ff.

[136] http://www.tradesignal.com -> Know How -> Indikatoren -> MACD

[137] Vgl. Reza Darius Montasser: Technische Analyse verstehen. München, Finanzbuchverlag 2000. S.

[138] Vgl. Robert Fischer, Jens Fischer: Trading nach neuen Fibonacci-Regeln. Frankfurt a. M., Eichborn, 2001. S. 2 -101.

[139] vgl. Robert Prechter: Das Elliott-Wellen-Prinzip. München, Finanzbuchverlag, 2003.

[140] Vgl. Steve Nison: Technische Analyse mit Candlesticks. München, Finanzbuchverlag, 2002. S. 43.

Ende der Leseprobe aus 102 Seiten

Details

Titel
Die technische Wertpapieranalyse unter wissenschaftstheoretischen Gesichtspunkten
Hochschule
Hochschule für Philosophie München
Note
2,3
Autor
Jahr
2005
Seiten
102
Katalognummer
V109754
ISBN (eBook)
9783640079322
ISBN (Buch)
9783640114344
Dateigröße
2035 KB
Sprache
Deutsch
Anmerkungen
Die Arbeit untersucht die bei privaten und instituionellen Anlegern sehr beliebte "Technische Analyse" auf ihre Wissenschaftlichkeit. Die Technische Analyse ist eine Methode zur Prognose von Börsenkursen, die versucht, aus dem graphischen Kursverlauf eines Wertpapiers in der Vergangenheit, Schlüsse auf die zukünftige Entwicklung zu ziehen.
Schlagworte
Wertpapieranalyse, Gesichtspunkten
Arbeit zitieren
Philipp Mattheis (Autor:in), 2005, Die technische Wertpapieranalyse unter wissenschaftstheoretischen Gesichtspunkten, München, GRIN Verlag, https://www.grin.com/document/109754

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Die technische Wertpapieranalyse unter wissenschaftstheoretischen Gesichtspunkten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden