Massenmord und Waffenwert. Werteffekte bei Schusswaffenproduzenten nach Massenmorden in den USA


Bachelorarbeit, 2018

72 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Theoretische Grundlagen
2.1 Neoklassische Ökonomie (Standard Modell)
2.1.1 Homo Oeconomicus
2.1.2 Erwartungsnutzentheorie
2.1.3 Random-Walk-Theorie
2.1.4 Effizienzmarkthypothese
2.2 Behavioral Economics
2.2.1 Glaube, Heuristik, Tendenzen
2.2.2 Entscheidungsfindung unter Risiko und Unbestimmtheit
2.2.3 Einordnung in die vorliegende Themenstellung

3 Literaturüberblick

4 Datenerhebung und Methodik
4.1 Datenerhebung
4.2 Methodologie
4.2.1 Ereignisstudie
4.2.2 Regressionsanalyse

5 Empirische Untersuchung
5.1 Ereignisstudie
5.1.1 Kurzfristige Betrachtung (short-term)
5.1.2 Langfristige Betrachtung (long-term)
5.2 Regressionsanalyse
5.2.1 Internationaler Vergleich
5.2.2 Nationaler Industrievergleich
5.2.3 Gesamtinterpretation der Regressionsanalyse

6 Fazit

Anhang

Literaturverzeichnis

Indexverzeichnis

Zusammenfassung

Diese empirische Untersuchung befasst sich mit dem Zusammenhang von Massenmorden, ver- übt mit Schusswaffen, und den jeweiligen Waffenwerten. Dabei konzentriert sich die Studie auf Massenmorde auf US-amerikanischen Boden und den möglichen Einfluss auf US-amerikanische Schusswaffenhersteller. Dabei wird explizit zwischen einer kurzfristigen und langfristigen Be- trachtung differenziert. Zudem soll in Form eines Exkurses auch das Ausmaß dieses Einflusses analysiert werden, wobei die betrachteten Unternehmen einem internationalen Vergleich sowie einem nationalen Industrievergleich unterzogen werden. Auf Grundlage von über 200.000 er- hobenen Kursdaten zu verschiedenen Unternehmen sowie Indizes und mithilfe empirischer In- strumente wurde signifikant belegt, dass es einen Einfluss gibt und sich dieser positiv in die Kursentwicklung mit einbezieht. Dieser beschränkt sich zwar auf die US-amerikanischen Lan- desgrenzen, jedoch nicht explizit auf Schusswaffenproduzenten. Des Weiteren wurde der posi- tive Einfluss auf einzelne Bestandteile, worauf das positive Ergebnis hypothetisch beruhen könnte, analysiert. Im Rahmen dieser gesonderten Untersuchung konnten jedoch keine aussa- gekräftigen Informationen in Bezug auf diesen Sachverhalt geliefert werden. Dies hängt unmit- telbar damit zusammen, dass im Laufe der Studie die Verletzung grundlegender empirischer Annahmen nachgewiesen werden konnte und die Ergebnisse somit auf fehlerhaften Berechnun- gen beruhen.

Abbildungsverzeichnis

Abbildung 1: Random-Walk anhand eines fünfjährigen Verlaufs des Standard and Poor (Brealey, Myers & Allen, 2010, S. 343)

Abbildung 2: Formen effizienter Märkte nach Fama

Abbildung 3: Grundpfeiler der Verhaltensökonomik

Abbildung 4: Glaube, Heuristik und Tendenzen

Abbildung 5: Probability Estimation (Schätzung der Wahrscheinlichkeiten)

Abbildung 6: Differenz in Tagen zwischen aufeinanderfolgenden Ereignissen

Abbildung 7: Timeline einer Ereignisstudie (MacKinlay, 1997, S. 20)

Abbildung 8: CAAR in % für das Ereignisfenster (0...0)

Abbildung 9: CAAR über einen 20-tägigen Zeitraum rund um den Ereignistag

Abbildung 10: Streuung der Störterme der einzelnen Regressionsmodelle

Abbildungsverzeichnis

Tabellenverzeichnis

Tabelle 1: Datenerhebung

Tabelle 2: Auszug aus der Ereignisliste

Tabelle 3: US-Schusswaffenindustrie (börsennotiert)

Tabelle 4: Auszug aus der Liste Internationaler Rüstungsunternehmen

Tabelle 5: Auszug aus der Liste US-amerikanischer Rüstungsunternehmen

Tabelle 6: Schätz- sowie Ereignisfenster für die kurzfristige Ereignisstudie

Tabelle 7: Ereignisfenster für die langfristige Ereignisstudie

Tabelle 8: Bewertung der Signifikanz der Nullhypothese

Tabelle 9: Regressionsmodelle

Tabelle 10: kritische t-Werte der jeweiligen Regressionsmodelle

Tabelle 11: Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 3 und 4)

Tabelle 12: Auszug der Ergebnisse der Ereignisstudie (ausschließlich US- Schusswaffenhersteller)

Tabelle 13: Auszug der Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 5)

Tabelle 14: Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 3 und 5)

Tabelle 15: Auszug der Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 5)

Tabelle 16: Ergebnisse einer langfristigen Ereignisstudie US-amerikanischer Schusswaffenproduzenten

Tabelle 17: Ergebnisse der Regressionsanalyse zu Variante 1 (0...0)

Tabelle 18: Ergebnisse der Regressionsanalyse für Variante 2 (0...0)

Tabellenverzeichnis

Tabelle A1: Gesamtübersicht der erhobenen Kursdaten

Tabelle A2: Ereignisliste.

Tabelle A3: Liste US-amerikanischer Schusswaffenhersteller.

Tabelle A 4: Liste internationaler Rüstungsunternehmen

Tabelle A5: Liste US-amerikanischer Rüstungsunternehmen

Tabelle A6: Ergebnisse der Ereignisstudie (ausschließlich US-Schusswaffenhersteller)

Tabelle A7: Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 4)

Tabelle A8: Ergebnisse der Ereignisstudie (Unternehmen aus Tabelle 5)

Tabellenverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Bei der Fragestellung, ob und inwiefern ein kausaler Zusammenhang zwischen Massenmor- den und Waffenwerten besteht, sollten sich Menschen stets bewusst sein, dass nicht das end- gültige Resultat relevant ist, sondern der Weg bis hin zum Ergebnis.

„An investment in knowledge always pays the best interest.“ (Benjamin Franklin, 1928, S. 125)

Die nachfolgende Einleitung soll eine schematische Gliederung der Vorgehensweise zur empi- rischen Untersuchung des Zusammenhangs zwischen Massenmorden und Werteffekten darstel- len.

Im zweiten Kapitel dieser wissenschaftlichen Arbeit liegt, im Rahmen einer Einführung in die Thematik, eine Darlegung aller wesentlichen theoretischen Grundlagen vor. Somit soll ein all- gemeines Verständnis für die Entwicklung der Anschauung der Märkte gewährleistet werden. Dabei erstreckt sich die Entwicklung von der Theorie des Vollkommenen Marktes, welche die klassische Erwartungsnutzentheorie aus der Neoklassischen Ökonomie beinhaltet, bis hin zur, auf verhaltensökonomisch basierenden, neuen Erwartungsnutzentheorie, der sogenannten Pro- spect-Theory. Im Zuge dieser Ausarbeitung werden Bewegungen am Kapitalmarkt analysiert und deshalb ist es essentiell die von Fama eingeführte Effizienzmarkthypothese, welche auf Grundlage eines Homo Oeconomicus von einem effizienten Kapitalmarkt ausgeht, heranzufüh- ren. Diese impliziert, dass alle verfügbaren Informationen bereits in die Kursentwicklung ein- gepreist werden und somit keine Arbitrage, basierend auf exklusiven monopolistischen Infor- mationen, möglich ist. Die Realität weist jedoch Anomalien am Kapitalmarkt auf, die den tra- ditionellen Annahmen zu Marktanschauungen widersprechen. Da rein ökonomische Erklä- rungsansätze diese Anomalien nicht erklären konnten, etablierte sich ein neuer und nicht rein ökonomischer Wirtschaftszweig, die sogenannte Verhaltensökonomik.

Daraufhin folgt ein Überblick im dritten Kapitel über den aktuellen Wissensstand entsprechend vorangegangener Literatur. Dabei wird anfangs die methodische Herangehensweise einer Er- eignisstudien, als ökonomisches Handwerk, beschrieben. Im Zuge des Literaturüberblicks soll die Entwicklung von Ereignisstudien aus allgemeinen Themengebieten auf Ereignisstudien, die in erster Linie nicht einen ökonomischen Bezug haben, erläutert werden. Zu diesen zählen unter anderen Terroranschläge, welche ebenfalls bereits in Ereignisstudien betrachtet wurden und einen inhaltlichen Bezug zu Massenmorde vermuten lassen.

Im vierten Kapitel folgt dann die Datenerhebung sowie methodische Beschreibung der Instru- mente, die im Rahmen der empirischen Untersuchung zur Anwendung kommen. Im Hinblick auf die Ereignisstudie, werden Kursdaten mit verschiedenen Formaten und Beobachtungsperi- oden von ausgewählten Unternehmen sowie Indizes erhoben. Daraufhin wird das methodische Vorgehen einer Ereignisstudie erläutert. Dabei wird grundlegend zwischen einer kurzfristigen und langfristigen Betrachtung differenziert. Die kurzfristige Ereignisstudie erfolgt mithilfe der CAR-Methode, wohingegen bei einer Betrachtung auf lange Sicht die Buy and Hold-Methode herangezogen wird. Dabei werden überwiegend Überrenditen ermittelt, welche wiederrum auf ihre statistische Signifikanz untersucht werden müssen. Neben der Erläuterung der hierbei ver- wendeten Tests, wird zudem die Methodologie einer Regressionsanalyse beschrieben. Diese gliedert sich in den Teil der Modellbildung und den Abschnitt der empirischen Instrumente zur Bewertung der Aussagekraft des Modells im Allgemeinen sowie der einzeln ermittelten Werte innerhalb des Modells.

Das fünfte Kapitel umfasst die empirische Untersuchung, welche auf Grundlage der erhobenen Daten eine spezifische Anwendung der Ereignisstudie sowie Regressionsanalyse im Hinblick auf die vorliegende Thematik dieser Ausarbeitung vorsieht. Dabei werden zuerst die Ergebnisse der Ereignisstudie ausgewertet und diese anschließend auf ihre statistische Signifikanz untersucht. Basierend auf den berechneten kumulierten abnormalen Renditen, folgt dann die Analyse der im vierten Kapitel eingeführten Regressionsmodelle. Diese werden ebenfalls auf ihre statistisch signifikante Aussagefähigkeit getestet. Zuletzt werden alle Ergebnisse interpretiert und in Be- zug auf die folgenden Hypothesen in den Gesamtkontext der Themenstellung dieser Ausarbei- tung eingeordnet:

H1: Der Kapitalmarkt ist effizient und preist alle für das Wertpapier relevanten Information ein, sodass ein signifikanter Teil der Preisanpassungen unmittelbar am Ereignistag erfolgt.

H2: Gemäß der ersten Hypothese dürften effiziente Märkte auf lange Sicht keine abnormalen Renditen ermöglichen, da die Kurse bereits angepasst sein müssten.

H3: Massenmorde in den USA haben lediglich einen Effekt auf Wertpapiere von Unternehmen, die sich nicht über die US-amerikanischen Grenzen hinaus erstrecken.

H4: Der Effekt eines Massenmords mit einer Schusswaffe spiegelt sich lediglich in den Kursbe- wegungen der Schusswaffenhersteller wieder.

H5: Märkte entwickeln einen sogenannte Memory-Effekt1, sodass sie robuster gegenüber neuen äquivalenten Ereignis werden.

H6: Ein Massenmord, welcher auf religiösen Motiven beruht, hat einen signifikanten Einfluss auf die Höhe der abnormalen Renditen.

H7: Eine erhöhte2 Anzahl an Toten im Zuge eines Massenmords spiegelt sich signifikant in den Kursentwicklungen wieder.

2 Theoretische Grundlagen

Im zweiten Kapitel, soll ein theoretisches Fundament geschaffen werden, welches dem Leser dieser Ausarbeitung gewährleistet, die grundlegenden Entwicklungen in der Betrachtung der Märkte nachvollziehen zu können. Beginnend mit dem Grundmodell, dem sogenannten Stan- dard Modell, aus der Neoklassischen Ökonomie, welches einen rational handelnden Menschen unterstellt, sollen mit der Hinzuziehung von kognitiven und psychologischen Forschungsgebie- ten, die an sich nicht von ökonomischer Natur sind, Abweichungen vom rein rationalen han- delnden Menschen erklärt werden. Jede Art von Abweichung des Status quo, welcher in der Epoche der Neoklassischen Ökonomie gegenwärtig der Homo Oeconomicus war, wird als Ano- malie im wirtschaftstheoretischen Fachjargon deklariert. Durch diese weiträumigere Betrach- tung, also der Hinzuziehung von externen Forschungsgebieten, werden dementsprechend mehr Wege zu neuen Erklärungsansätzen von Anomalien, die im Laufe der Zeit in Erscheinung traten, geebnet.

2.1 Neoklassische Ökonomie (Standard Modell)

Ab Mitte des 19. Jahrhunderts bildete sich die Neoklassische Ökonomie als Nachfolger der klas- sischen Nationalökonomie. Dieser Wirtschaftszweig etablierte das ökonomische Standard Mo- dell und ergänzt die klassische Nationalökonomie vor allem in der Betrachtung der Märkte.

Das erste wesentliche Charakteristikum des neoklassischen Standard Modells ist die Annahme eines rationalen Verhaltens des Menschen, bezüglich der Entscheidungsfindung bei zeitgleichen Nichtvorhandensein von Unsicherheiten, hinsichtlich zukünftiger Situationen. Des Weiteren un- terstellt die Neoklassik aus ökonomischer Perspektive ein Nutzenmaximierungskalkül auf Basis von Präferenzen, Informationen sowie Restriktionen. Das Standard Modell impliziert, dass der der Markt sowie die jeweiligen Preise der Güter stets durch Angebot und Nachfrage determi- niert sind. Gemäß dem bereits unterstellten Nutzenmaximierungskalkül, streben die Marktteil- nehmer, welche in Form von Individuen und Firmen in Erscheinung treten, lediglich die Opti- mierung der eigenen Möglichkeiten an (Ackert & Deaves, 2009, S. 3).

Ackert und Deaves formulieren außerdem drei grundlegende Annahmen über die Menschen der Neoklassischen Ökonomie (Ackert & Deaves, 2009, S. 4):

- “People have rational preferences across possible outcomes or states of nature.” (Vollständigkeit und Transitivität der Präferenzen wird stets angenommen)
- “People maximize utility and firms maximize profits.“ (Bewertung des Nutzens mithilfe von Nutzenfunktionen)
- “People make independent decisions based on all relevant information.” (alle Informationen gelten stets als frei zugänglich)

2.1.1 Homo Oeconomicus

Der Homo oeconomicus ist nach direkter Übersetzung aus dem lateinischen ein rein wirtschaft- lich denkender Mensch. Dabei wird sein Handeln durch positive sowie negative Reize beein- flusst. Da der Homo Oeconomicus ein wirtschaftliches Individuum lässt sich statuieren, dass diese positiven beziehungsweise negativen Anreize von monetärer Natur sind. Das impliziert, dass sein Handeln durch Reize in Form von Gewinn und Verlust beeinflusst werden (Pelzmann, 2009).

„Political Economy considers mankind as occupied solely in acquiring and consuming wealth“ (J.S. Mill, 1874, V.34)

J.S. Mill definierte bereits 1874 den Homo oeconomicus als einen nutzen- beziehungsweise gewinnmaximierenden Marktteilnehmer. Dieses Maximierungskalkül ist jedoch nur möglich, da ihm vollkommen rationales Verhalten unterstellt wird. Da der HO ein Individuum des Wirt- schaftsgeschehens ist, wird er schlussfolgernd mit der Fragestellung der Entscheidungsfindung konfrontiert. Um, auf Basis eines rationalen Verhaltens, die individuell bestmögliche Entschei- dung am Markt zu treffen, ist vollkommene Markttransparenz erforderlich. Markttransparenz impliziert das Vorliegen aller für die Entscheidungsfindung relevanten Informationen. Der Homo oeconomicus reagiert, in Bezug auf diese Informationen, immer mit einem schemati- schen Verhaltensmuster. Zuerst erfolgt die Suche, dann die Aufnahme und zuletzt die Verarbei- tung (Pelzmann, 2009). Somit wird dem Homo Oeconomicus eine stabile und systematische Reaktion auf neue Informationen unterstellt.

Da vollkommene Markttransparenz jedoch nie vorliegt und somit auch kein vollkommenes Wis- sen über alle entscheidungsrelevanten Informationen am Markt, kann der Homo oeconomicus seinem Maximierungskalkül in der Realität nicht gerecht werden. Schlussfolgernd lässt sich die Kritik formulieren, dass das Modell des Homo Oeconomicus als überholt sowie realitätsfern gilt.

2.1.2 Erwartungsnutzentheorie

Die Erwartungsnutzentheorie wurde erstmals von John v. Neumann und Oskar Morgenstern im Jahr 1953 erarbeitet und beschäftigt sich mit der Entscheidungsfindung eines Menschen hin- sichtlich der Konfrontation mit ungewissen Handlungssituationen. Da in der Realität die Unsi- cherheit nicht messbar ist, bewerten die zwei Ökonomen die Wahrscheinlichkeiten von Risiken (Ackert & Deaves, 2009, S. 6); (Neumann & Morgenstern, 2007).

Die EUT basiert auf drei Axiomen (Wilkinson & Klaes, 2012, S. 207):

- Transitivität
- Kontinuität
- Unabhängigkeit

Solange die drei Axiome erfüllt sind, lässt sich eine Risikonutzenfunktion formulieren, welche auf den Wahrscheinlichkeiten der Risiken beruht. Mithilfe der Risikonutzenfunktion ist es mög- lich individuelle Präferenzen zwischen verschiedenen Handlungsalternativen zu bilden (Neumann & Morgenstern, 2007).

2.1.3 Random-Walk-Theorie

In der Theorie der Kapitalmärkte gibt es zwei grundlegende Herangehensweisen bei der Frage, ob mithilfe historischer Preise Voraussagen über zukünftige Kursentwicklungen möglich sind.

Zum einen gibt es die Chartist-Theory, die darauf basiert, dass die Muster aus vergangenen Kurspreisen in der Zukunft wiederkehren. Dies impliziert eine Abhängigkeit zwischen vergan- genen und zukünftigen Kursentwicklungen, stellt jedoch nach Fama die Seltenheit bei Wertpa- pieranalysten dar (Fama, 1965a, S. 55).

Den Gegenpol hierzu bildet die Fundamentalanalyse (intrinsic value method). Diese basiert auf der Annahme, dass Wertpapiere einen sogenannten intrinsic value oder auch Gleichgewichts- preis besitzen, dessen Potenzial von fundamentalen Faktoren, wie z.B. der Wirtschaft im Glo- balen, abhängt. Demzufolge zeigt eine Analyse dieser Faktoren wie sehr der eigentliche Preis um den Gleichgewichtspreis schwankt. Somit entspricht die Bestimmung des intrinsic values einer Vorhersage des zukünftigen Preises (Fama, 1965a, S. 55).

Eine abgewandelte Marktanalyse stellt hierbei die Random-Walk-Theorie dar. Die Random- Walk-Theorie basiert auf der Annahme eines effizienten Marktes. Dies bedeutet, dass stets alle Informationen für alle Marktteilnehmer zur Verfügung stehen. Aufgrund der Tatsache, dass es in einem effizienten Markt mehrere agierende sowie konkurrierende Marktteilnehmer gibt, ent- steht eine Abweichung bezüglich des eigentlichen Preises und dem intrinsic value. Diese Dis- krepanz impliziert, dass fortlaufende Preisänderungen unabhängig sowie identisch verteilte Zu- fallsvariablen darstelle, welche randomly schwanken (Fama, 1965a, S. 56).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Random-Walk anhand eines fünfjährigen Verlaufs des Standard and Poor (Brealey, Myers & Allen, 2010, S. 343)

Das bedeutet, dass die Vergangenheit keine signifikante Aussage über künftige Preisänderungen liefern kann, da die Kurse zufälligen Schwankungen unterliegen. Somit nimmt die Random- Walk-Theory eine Unabhängigkeit zwischen vergangen und zukünftigen Performance der Kurs- zahlen an (Fama, 1965b, S. 34).

Die Random-Walk-Theory beruht somit auf zwei wesentlichen Hypothesen (Fama, 1965b, S. 35):

- „successive price changes are independent“
- „the price changes conform to some probability distributions “

Wichtig ist es in diesem Kontext zu definieren, wie der Begriff der Unabhängigkeit definiert wird. In diesem Zusammenhang bedeutet es, dass die Wahrscheinlichkeitsverteilung der künf- tigen Kursentwicklung unabhängig von historischen Kursänderungen ist. Jedoch liegt vollkom- mene Unabhängigkeit in der Realität nie vor, worauf dann die Kritik, dass mit diesem Modell keine angemessene Abbildung der Realität möglich sei, hervorkommt. Deshalb entwickelte sich eine abgeschwächte Variante der Unabhängigkeitsannahme. Die Unabhängigkeit wird ange- nommen, solange die Abhängigkeit nicht ausreicht, um auf Basis historischer Informationen zukünftig den Profit zu steigern (Fama, 1965b, S. 35).

2.1.4 Effizienzmarkthypothese

Erste theoretische Untersuchungen zur Effizienz von Kapitalmärkten gab es von Bachelier im Jahr 1900. Wenig später folgten auch die ersten empirischen Untersuchungen in diesem Seg- ment (Crowds, 1933). Fama formulierte im Jahr 1970 eine erste Definition einer Effizienz- markthypothese, die von darauffolgenden Definitionen repetiert wurde oder lediglich geringfü- gig ergänzt wurde (Campbell, Lo & MacKinlay, 1997, S. 149 f.):

“A market in which prices always fully reflects available Information is called efficient” (Fama, 1970, S. 383)

Der Begriff fully reflect etablierte sich in Bezug auf die EMH und sagt aus, dass ein effizienter Markt alle relevanten preisbestimmenden Informationen enthält. Fama differenziert zwischen drei verschiedenen Formen des effizienten Marktes:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Formen effizienter Märkte nach Fama3

Bei der ersten Instanz, der sogenannten weak-form, werden nur historische Informationen in die Kursentwicklung mit einbezogen (Fama, 1970, S. 383). Somit beschreibt die schwächste Form der EMH die Unabhängigkeit zwischen historischer und zukünftiger Kursentwicklungen gemäß der Random-Walk-Theory.

Bei der zweiten Instanz, semi-strong, werden darüber hinaus öffentlich zugängliche Informa- tion ebenfalls betrachtet (Fama, 1970, S. 383). Diese mittelstarke Hypothese definiert, dass neue preisrelevante Informationen sich unmittelbar in den aktuellen Aktienkursen wiederspie- geln. Somit ist es gemäß der Hypothese nicht möglich, auf Basis neuer Informationen, Überren- diten zu erzielen, da diese Kurse bereits angepasst wurden. Somit folgten empirische Untersu- chungen, im Hinblick auf die Anpassungsgeschwindigkeit der Kurse (Fama, 1970, S. 388). Je- doch gibt eine Vielzahl kurzfristiger sowie langfristiger Ereignisstudien, die beweisen, dass es durchaus Formen von Informationen gibt, die sich kurzfristig beziehungsweise langfristig auf die Kursentwicklung auswirken4.

Die letzte Form, die strong-form sagt aus, dass neben den beiden Aspekten der semi-strong und weak-form auch preisrelevante Informationen, auf die nur einzelne Marktteilnehmer exklusiv Zugriff haben, mit eingepreist werden (Fama, 1970, S. 383). Dies impliziert den von Fama formulierten vollkommen effizienten Markt. Diese Hypothese liegt in der Realität nahezu nie vor, da immer davon auszugehen ist, dass es Marktteilnehmer gibt, die monopolistischen Zu- gang zu preisrelevanten Informationen haben5 und somit in der Lage sind, sich Vorteile am Kapitalmarkt zu verschaffen.

Ein vollkommen effizienter Markt impliziert somit folgende Aussage:

“In other words, no investor can consistently generate excess return” (Ackert & Deaves, 2009, S. 29)

Das bedeutet, dass ein vollkommener Markt impliziert, dass keinem Marktteilnehmer das Ge- nerieren von abnormalen Renditen6 am Kapitalmarkt möglich ist. Dies bedeutet wiederrum, dass eine unendlich hohe Anpassungsgeschwindigkeit von Kursbewegungen, in Bezug auf neue Informationen, vorliegen muss. Somit wäre gewährleistet, dass die Zeitspanne zwischen An- kündigungszeitpunkt einer preisrelevanten Information und der daraus folgenden Kursände- rung, in der theoretisch Überrenditen möglich wären, gegen Null konvergiert.

Kritik an der EMH folgt daher, dass Akteure am Markt nicht immer einem rationalen Verhal- tensmuster folgen. Im weiteren Verlauf der Ausarbeitung wird belegt, dass in der Realität keine unendlich hohe Anpassungsgeschwindigkeit der Kurse vorliegt und demzufolge Marktteilneh- mer Arbitrage Vorteile7 generieren können. Das dieser Sachverhalt der EMH widerspricht, ist dies ein Anhaltspunkt für mögliche Kritik an dieser Hypothese.

2.2 Behavioral Economics

Die Verhaltensökonomik ist ein sehr junger Forschungszweig der Wirtschaftswissenschaften (1980), da dieser bisher von Ökonomen größtenteils ignoriert wurde. Die Verhaltensökonomik, behavioral economics, verbindet die Wirtschaft mit Bereichen der Verhaltenswissenschaft, die vor allem von psychologischer und soziologischer Natur sind. Ziel ist es die Erklärungskraft von ökonomischen Theorien zu verbessern. Dabei gilt es die strengen Rahmenbedingungen der An- nahmen der traditionellen Modelle zu erweitern, um somit Anomalien, die im Laufe der Zeit entstanden sind, zu erklären. Diese Anomalien sind ökonomische Geschehnisse, die nicht mit rein ökonomischen Erklärungsansätzen erklärbar sind.

„Wer einen Fluss überquert, muss die eine Seite verlassen“ (Mahatma Ghandi)

Die Erklärung erfolgt mithilfe methodischer Herangehensweisen, die auf Psychologie und kog- nitiven Neurowissenschaft beruhen. Bisher wurden ökonomische Theorien lediglich auf Basis ihrer eigenen Annahmen bewertet. Die methodische Herangehensweise der Verhaltensökono- mik weitet dies aus, indem sie zudem den Zusammenhang zur Realität, Allgemeinheit, Lenk- barkeit und Sparsamkeit bewertet (Wilkinson & Klaes, 2012, S. 20).

“Behavioral economics is concerned with improving the explanatory power of economic theories by giving them a sounder psychological basis.” (Wilkinson & Klaes, 2012, S.20)

Die Forschung der Verhaltensökonomik untersucht Anomalien in den folgen vier Bereichen:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Grundpfeiler der Verhaltensökonomik8

Den Zusammenhang zwischen ökonomischen Anomalien und den, für diese Ausarbeitung rele- vanten, Anomalien an Kapitalmärkten liefert die behavioral finance. Die behavioral finance, auch verhaltensorientierte Finanzmarkttheorie genannt, ist ein Element der Verhaltensökono- mik. Die verhaltensorientierte Finanzmarkttheorie analysiert speziell den Effekt von kognitiven und emotionalen Faktoren einzelner Marktteilnehmer auf zukünftige Kursentwicklungen und Renditen einzelner Wertpapiere (Brealey, Myers & Allen, 2010, S. 355).

Somit ist sie ein Kontrast zur traditionellen Betrachtung eines effizienten Marktes und zur An- nahme eines Homo oeconomicus9. Wie eingangs definiert, geht die traditionelle Betrachtung davon aus, dass alle Marktteilnehmer versuchen, nutzenmaximierend am Markt zu agieren und somit die individuell bestmöglichen Entscheidungen treffen. Die Behavioral Finance stellt nicht nur einen Kontrast zur traditionellen Marktanschauung dar, sondern kritisiert diese.

“behavioral economics criticizes the standard economic model for being excessively parsimonious, resulting in a lack of congruence with reality or empirical fit.” (Wilkinson & Klaes, 2012, S. 462)

Zusammenfassend befasst sich die behavioral finance mit dem Sachverhalt, warum Marktteil- nehmer, entgegen der Annahme eines effizienten Marktes, irrational motivierte Fehler begehen (Shefrin, 2002). Diese Fehler implizieren Marktineffizienzen und ermöglichen somit Arbitrage einiger Teilnehmer10. Marktineffizienzen drücken sich in erste Linie in Form von Unter - und Überreaktionen auf neue preisrelevante Informationen aus. Entsprechend der EMH gleichgültig sein müsste, wie die Reaktion der Akteure ausfällt, da neue Informationen eigentlich im Wert- papier bereits eingepreist sein müssten11.

Das Standard Modell der Neoklassik geht von einem vollkommen rational handelnden Men- schen aus. Jegliche Art von Abweichung von dieser Annahme wird aus rein ökonomischer Sicht als Anomalie bewertet. Nachfolgend werden verschiedene Anwendungsfälle von irrationalem Verhaltensmustern beschrieben.

2.2.1 Glaube, Heuristik, Tendenzen

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Glaube, Heuristik und Tendenzen12

Aus der Überschätzung (overestimation) folgen eine Vielzahl Anomalien, die nicht in erster Linie durch Modelle rein ökonomischer Natur erklärt werden können. Dazu behilft man sich in der modernen Ökonomie mit kognitiven Erklärungsansätzen. Überschätzung bezieht sich dabei auf das irrationale Verhalten des Akteurs in Bezug auf die eigenen Fähigkeiten. Das bedeutet, Menschen fühlen sich anscheinend irrtümlich in der Lage die Wahrscheinlichkeitsverteilung zu- künftig eintretender Ereignisse bestimmen zu können. Das impliziert wiederum, dass diese ir- rational motivierten Fehler dem ökonomischen Menschenbild des Homo oeconomicus wider- sprechen (Wilkinson & Klaes, 2012, S. 124 f.).

Overplacement ist ein, auf der Überschätzung basierender Bias, welcher impliziert, dass sich Menschen als Individuum besser als die restliche Bevölkerung einschätzenund somit in der Lage seien zukünftige Marktentwicklungen schon vorher richtig prognostizieren zu können. Somit seien sie auch in der Lage vermeintliche persönliche Nachteile verhindern zu können. Auch dieser Gedankengang geht nicht mit dem Konsens der EMH einher und würde dieser wider- sprechen, da in einem vollkommen effizienten Markt alle Marktteilnehmer Zugang zu sämtliche Informationen haben und somit keine hierarchischen Strukturen zwischen den Akteuren exis- tieren.

Overprecision beschreibt das irrationale Handling mit Informationen von Akteuren. Die Realität zeigt wiederholt, dass Marktteilnehmer überzeugt von der Qualität der Informationen, die sie durch virale sowie mediale Kanäle erhalten. Das bedeutet sie tendieren dazu den Informationen einen maximalen Wahrheitsgehalt zu unterstellen und aus dieser irrtümliche Überschätzung der Präzision der Information folgt, dass Akteure nicht nutzenmaximierend am Markt agieren. Dies wiederrum impliziert einen Widerspruch zum Maximierungskalkül des Homo Oeconomi- cus13 (Wilkinson & Klaes, 2012, S. 125).

Ein wesentliches Element im Segment Self-Serving stellt der Confirmatory Bias dar. Dieser be- schreibt die Tendenz des Individuums neue Informationen an den bisherigen Glauben zu knüp- fen. Das bedeutet, dass wenn Akteure eine bereits manifestierte Stellung zu einem Sachverhalt einnehmen, sie dazu neigen neue Information, die nicht unbedingt konsistent mit dieser Stel- lung sind, als signifikant für mögliche Entscheidungskriterien zu bewerten. Entsprechend der Gefahr einer fehlerhaften Interpretation von Informationen, besteht das Risiko, dass die Markt- teilnehmer nicht nutzenmaximierend am Markt agieren14 (Wilkinson & Klaes, 2012, S. 127).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Probability Estimation (Schätzung der Wahrscheinlichkeiten)15

“(...) people believe that events are more frequent or more possible if examples of it are easier to remember” (Wilkinson & Klaes, 2012, S.119)

Der Begriff salience ist im Kontext des availability heuristic sehr elementar. Eine Information, die für ein Individuum einen persönlichen Bezug hat, kann es in dessen Verhalten beeinflussen. Dies folgt daher, da persönliche Informationen für das Individuum stärker in Erscheinung treten als andere, die für ihn keinen persönlichen Bezug haben, auch wenn diese wohlmöglich von der Allgemeinheit mehr Aufmerksamkeit genießen. Sei es negativ oder positiv, der Einfluss kann derart stark sein, dass das Individuum von seinem rationalen Verhaltensmuster abweicht, was wiederrum der traditionellen ökonomischen Anschauung des Homo Oeconomicus wider- sprechen würde (Wilkinson & Klaes, 2012, S. 119).

Der Base Rate Bias ist eine weitere Implikation der fehlerhaften Einschätzung von Wahrschein- lichkeiten. Der Base Rate Bias beschreibt das Überschätzen von geringen Wahrscheinlichkeiten, die jedoch mit persönlichen negativen Konsequenzen einhergehen. Als Beispiel lässt sich die Wahrscheinlichkeit einer HIV Erkrankung aufführen, wobei die Menschen dazu neigen die ge- ringfügige Wahrscheinlichkeit16 eines positiven HIV-Tests höher einzuschätzen. Das bedeutet, die Angst den gesunden Zustand zu verlieren, bewegt das Individuum dazu, die Wahrschein- lichkeit des Verlustes des Status quo höher zu bewerten, als sie tatsächlich ist (Wilkinson & Klaes, 2012, S. 120).

Im Zusammenhang mit dem Gesetz der kleinen Zahlen (Law of small numbers), tritt oft der Begriff des Gambler´s fallacy Effects in Erscheinung. Dieser Effekt zielt darauf hin, dass eine aufeinanderfolgende Anreihung des Eintretens eines Ereignisses, die Wahrscheinlichkeit für das Eintreten eines anderen Ereignisses vermeintlich erhöht.

“(...) people are incorrectly inferring from a sequence of identical signals, like 3 Ups, that the next signal or outcome will be a different type.” (Wilkinson & Klaes, 2012, S. 122)

Das Standard Modell geht stets davon aus, dass das Individuum rational handelt. Zudem wird eine Unabhängigkeitsannahme, gemäß der eingangs formulierten Chartist-Theory, hinsichtlich des gegenwärtigen und zukünftigen Verhaltens unterstellt. Die Realität widerspricht dieser An- nahmen und zeigt Verzerrungen bezüglich der Bewertung zukünftiger Präferenzen. Hierbei wird der Projektion Bias hinzugezogen, welcher impliziert, dass der irrationale Mensch zu der Annahme tendiert, dass zukünftige Präferenzen den gegenwärtigen entsprechen, oder zumin- dest ähneln. Da die Rationalität zukünftiger Präferenzen von Faktoren abhängt, die einer kor- rekten Prognose unterliegen müssen, kommt es zu einer nicht rationalen Entscheidungsfindung in Bezug auf zukünftige Situationen (Wilkinson & Klaes, 2012, S. 129).

2.2.2 Entscheidungsfindung unter Risiko und Unbestimmtheit

Die Prospect-Theory, oder auch neue Erwartungsnutzentheorie, wurde erstmals von Daniel Kahneman und Amos Tversky im Jahr 1979 formuliert und stellt gemäß dem Namen eine Al- ternative zur Erwartungsnutzentheorie der Neoklassischen Ökonomie dar (Ackert & Deaves, 2009, S. 37). Die grundlegende Kritik an der EUT richtet sich vor allem auf die Nichtbeachtung psychologischer Einflüsse, wie zum Beispiel Risiko und Unbestimmtheit.

“Prospect theory begins with the contention that standard expected utility theory cannot fully ac- count for observed decision-making under risk.” (Ackert & Deaves, 2009, S. 38)

Diese Behauptung impliziert, dass Diskrepanzen zwischen dem realen Verhalten und der EUT gleichzeitig grundlegende Gedanken der Prospect-Theory darstellen.

“People sometimes exhibit risk aversion and sometimes exhibit risk seeking, depending on the nature of the prospect.”

“Peoples’ valuations of prospects depend on gains and losses relative to a reference point. This reference point is usually the status quo”

“People are averse to losses because losses loom larger than gains.” (loss aversion) (Ackert & Deaves, 2009, S. 38 ff.)

Die Prospect-Theory teilt die Entscheidungsfindung unter Risiko in zwei Phasen (Kahnemann & Tversky, 1979):

1. Editing
2. Evaluating

Die Loss-Aversion ist ein wesentliches Element der Prospect-Theory und erklärt einige bisher, rein aus ökonomischer Sicht betrachtet, unerklärbare Marktbewegungen. Higgins definierte 2007 zwei verschiedene Stereotypen in Bezug auf die Reaktion hinsichtlich neuer Informatio- nen. Neue Informationen bringen meist Änderungen für das Individuum mit und als Referenz- punkt gilt stets der Status quo. Zum einen gibt es die Promotion-focused Individuen, die eine erhöhte Sensitivität gegenüber positiven Änderungen zeigen. Wohingegen Prevention-focused Akteure, welche die Mehrheit der Akteure wiederspiegeln, eine erhöhte Sensitivität gegenüber negativen Änderungen zeigen. Negative Änderungen wären u. a. auch der Verlust des Status quo17. Zur weiterführenden Verdeutlichung lässt sich als negative Änderung der Sachverhalt, dass aus Konsumentensicht Preissenkungen nicht so drastisch wie Preiserhöhungen aufgenom- men werden, aufführen (Wilkinson & Klaes, 2012, S. 267 ff.).

Das Decision Weighting ist ebenfalls ein Element der Prospect-Theory und greift wiederholt die fehlerhafte Gewichtung von Wahrscheinlichkeiten. Das bedeutet, Menschen ignorieren Raritä- ten und Überschätzen die Wahrscheinlichkeit von Ereignissen, da sie sich vor negativen Konse- quenzen für ihr Individuum fürchten (Wilkinson & Klaes, 2012, S. 176 ff.).

Zudem erweitert die Prospect-Theory die psychologische Betrachtung auf das risikoaverse Ver- halten bezüglich persönlichen Erträgen und das risikoorientierte Verhalten hinsichtlich Verlus- ten. Die Prospect-Theory erweitert die Betrachtung des Konsenses des Verlusts des Status quo in der Hinsicht, dass nicht allein die Angst vor dem Verlust des Status quo als solchen zu irrati- onalen Neigungen motiviert, sondern auch der Grad der Wiederherstellbarkeit des Status quo nach dessen Verlust (Wilkinson & Klaes, 2012, S. 181).

2.2.3 Einordnung in die vorliegende Themenstellung

In den USA sind die Waffengesetze seit langer Zeit ein sehr politisches und monetäres Thema. Dabei gibt es in den USA eine derart mächtige Waffenlobby bei gleichzeitig liberalen Waffen- gesetzen, wie wahrscheinlich nirgends sonst auf der Welt. Nach zahlreichen Massenmorden mit Schusswaffen entstand ein ebenso großer Gegenpol mit dem Wunsch nach schärferen Waffen Gesetzen. Die aufgeführten Formen von verhaltensorientierten Verhaltensmuster, las- sen somit bereits vermuten, warum US-amerikanische Waffensympathisanten in Folge derarti- ger Ereignisse zu irrationalem Verhalten tendieren.

3 Literaturüberblick

Ereignisstudie blicken auf eine Historie von mehr als 80 Jahren zurück, wobei die erste erfasste Ereignisstudie von James Dolley veröffentlicht wurde. 1933 analysierte er die Kursentwicklung von 95 Aktienstückelungen aus der Zeitperiode von 1921 bis 1931. Diese Studie lieferte, dass eine solche Stückelung in mehr als der Hälfte der betrachteten Aktien einen positiven Effekt auf die Kursentwicklung hatte. Mit dieser Art von Betrachtung des Effektes von Ereignissen auf Kursbewegungen wurde ein Fundament für eine Vielzahl nachfolgender Ereignisstudien gelegt. Zwischen den frühen 1930ern und den späten 1960ern wurden zahlreiche weitere Studien ver- öffentlicht. Unter vielen anderen trieben Myers Bakay (1948), Barker (1956, 1957, 1958) und Ashley (1962) die Entwicklung der allgemeinen Methodologie von Ereignisstudien an. Hinsicht- lich dieser Entwicklung bewirkten Verbesserungen, wie zum Beispiel, dass allgemeine Kursent- wicklungen am Markt sowie korrelierende Ereignisse nicht mehr im Rahmen einer Ereignisstu- die betrachtet wurden, ein signifikanteres Ergebnis, da solche Sachverhalte zu einer Verzerrung führen können. In den späten 1960ern formulierten dann Ray Ball und Philip Brown (1968) sowie Eugene Fama et al. (1969) eine erste allgemeingültige methodische Herangehensweise einer Ereignisstudie, die vom Grundprinzip in jeder heutigen Ereignisstudie enthalten ist. Ball und Brown (1968) konzentrierten sich eher auf die Information von Gewinnen, wohingegen Fama, äquivalent zu Dolley (1933) Aktienstückelungen studierte, dabei jedoch den Effekt von gleichzeitig steigenden Gewinnen in seiner Ereignisstudie ausließ. Zusammenfassend ergab sich mit der Einführung von Ereignisstudien ein Instrument, mithilfe dessen es möglich ist, ökono- mische Hypothesen auf ihren Wahrheitsgehalt statistisch signifikant zu prüfen (MacKinlay, 1997, S. 13 f.).

Brown und Warner veröffentlichten im Jahre 1980 und 1985 eine Vorgehensweise für Ereig- nisstudien, auf die sich bis heute viele Ökonomen bei der Anwendung von Ereignisstudien be- ziehen. In der Veröffentlichung im Jahr 1980 wurde die betrachtete zeitliche Periode in einem monatlichen Rhythmus analysiert, wohingegen fünf Jahre später eine tägliche Frequenz einge- führt wurde, um somit ein präziseres Ergebnis der Studie zu gewährleisten.

Von 1974 bis 2000 wurden über 500 Ereignisstudien in den 5 größten Journals18 veröffentlicht. Dazu zählen sowohl kurzfristige, welche nach allgemeinen Konsens einen Zeitraum von meh- reren Tagen beziehungsweise wenigen Monaten einnehmen können, als auch langfristige Be- trachtungen, die sich über mehrere Monate oder Jahre erstrecken. Im Lauf der Jahre haben sich die Studien mit dem Ziel eines signifikanteren Ergebnisses weiterentwickelt. Die erste Änderung bewirkte eine Präzisierung der Ergebnisse einer Ereignisstudie, infolge einer Konzentrierung der betrachteten Periode auf wenige Tage oder Stunden. Die zweite Änderung ist die gesteigerte Komplexität der Berechnung der wahrgenommenen Rendite und der dazugehörigen Teststatis- tik, da möglichst viele Faktoren beachtet werden, um somit ein möglichst signifikantes Ergebnis zu erzielen (Kothari & Warner, 2008, S. 6).

Eine Vielzahl der Ereignisstudie betrachten, wie sich ökonomische Ereignisse, wie beispiels- weise Mergers & Acquisitions oder geänderte Gewinnausschüttungen, auf die Kursentwicklung von Aktien auswirken. In dieser wissenschaftlichen Ausarbeitung werden Massenmorde als Er- eignisse betrachtet. Da diese an sich nicht von ökonomischer Natur sind, jedoch diesen trotzdem ein Effekt auf die Kursentwicklung unterstellt wird, gilt es zu überprüfen, ob auch nicht ökono- mische Ereignisse ebenfalls relevante Informationen hinsichtlich der Kursentwicklung enthalten können. Dementsprechend wird im Rahmen dieses Literaturüberblicks das Augenmerkt auf Er- eignisstudie mit nicht ökonomischen Ereignissen. Eine ähnliche Ereignisart, welche bereits ein- schlägig analysiert wurde, stellen jegliche Arten von Anschlägen bei denen mehrere Menschen ihr Leben verlieren.

Niederhoffer analysierte im Jahr 1971 den Effekt von globalen Ereignisses auf die Kursentwick- lung. Dabei bezog er sich auf Ereignisse, die mit einer fünf- oder achtzeiligen Überschrift in der New York Times beziehungsweise Los Angelos Times veröffentlicht wurden. Dabei betrachtete er im Rahmen seiner Ereignisstudie die Periode von 1950 bis 1966 und seine Erhebung ergab eine Gesamtanzahl von über 400 Ereignissen. Die Überschriften und somit auch die globalen Ereignisse wurden in 20 verschiedenen Kategorien, hinsichtlich derer Bedeutung, separiert. Eine diese Kategorien stellten die US-amerikanische beziehungsweise internationale Kriegsent- wicklung dar. Somit wurden erstmals Ereignisse analysiert, die nicht ökonomisch waren und im Rahmen einer Ereignisstudie einen statistisch signifikanten Einfluss auf Kursentwicklungen belegen (Niederhoffer, 1971).

Karolyi und Martell führten eine Ereignisstudie zu 75 verschiedenen Arten von Terroranschlä- gen in dem Zeitraum zwischen 1995 und 2002. Dabei ergab die Studie für den Tag des Ereig- nisses einen negativen Effekt von 0,83 Prozent. Mithilfe einer Querschnittsanalyse zeigten sie, dass das Zusammenfallen der Standorte des Terroranschlags und des betrachteten Unterneh- mens einen kausalen Zusammenhang ergeben. Dieser Zusammenhang spiegelt sich in der Hin- sicht wieder, dass bei Vorliegen dieses Sachverhalts der Effekt infolge der Ereignisse stärker ausgeprägt ist19. Des Weiteren zeigten Karolyi und Martell, dass Human Capital Verluste20 stär- kere Auswirkungen als physische Verluste, wie beispielsweise das Einstürzen von Gebäude, ha- ben (Karolyi & Martell, 2006).

Dirk Brounen und Jeroen Derwall beschäftigen sich in ihrer Ausarbeitung aus dem Jahr 2010 ebenfalls mit dem Einfluss von Terroranschlägen auf globale Kapitalmärkte. Wie vorangegan- gen Ereignisstudien, belegt auch diese einen negativen Effekt auf die Kursentwicklungen bör- sennotierter Unternehmen infolge von Terroranschlägen. Zudem ergab die Studie, dass Wert- papiere von Unternehmen, die lokal oder thematisch von Terror betroffen sind, einen stärkeren Einfluss erfahren21. Des Weiteren beschreiben sie, dass eine Normalisierung nach der unmittel- baren Kursbewegung folgt. Somit gehen die beiden Ökonomen, entsprechend Annahme aus Hypothese H2, von keinem langfristigen Effekt der Terroranschläge auf die Wertpapiere aus (Brounen & Derwall, 2010).

Chen und Siems 2004 zeigen den Einfluss von 14 Terroranschlägen ab 1915 auf den US-ame- rikanischen Markt. Aufgrund der langen zeitlichen Periode innerhalb der Ereignisstudie, sind sie in der Lage Ergebnisse über einen langfristigen Horizont zu formulieren. Somit konnten sie statistisch signifikant belegen, dass der Kapitalmarkt mit zunehmender Anzahl von Ereignissen, robuster gegen erneute Anschläge ist22 (Chen & Siems, 2004)

Drakos konzentrierte sich auf den Effekt, den der Terroranschlag auf das World Trade Center vom elften September auf die globalen Märkte hatte. Dabei legte er sein Augenmerk auf die Aktien der Flugliniengesellschaft, die aufgrund der Entführung eines Flugzeugs, welche zum Einstürzen der Zwillingstürme führte, stärker betroffen sein müssten23. Das Ergebnis der Aus- arbeitung zeigte, dass 9/11 ein Ereignis war, welches über den bereits belegten kurzfristigen Effekt hinaus, auch auf lange Sicht signifikante Auswirkungen hat. Denn seit den Geschehnissen von 2001 erhalten Fluggesellschaften eine höhere Risikoeinstufung am Kapitalmarkt und dies impliziert eine geänderte Marktsensitivität in USA (Drakos, 2004).

Sascha Kolaric und Dirk Schiereck analysierten die Veränderung der Aktienkurse von Flugge- sellschaften infolge der Terroranschläge in Paris und Brüssel. Für beide Ereignisse lieferte die Ereignisstudie für verschiedene Ereignisfenster ein negatives Ergebnis für die abnormalen Ren- diten. Sie testeten außerdem mithilfe einer Ereignisstudie und anschließender Regressionsana- lyse die Hypothese eines effizienten Marktes. Die Studie liefert ein Beweis der Markteffizienz- hypothese, da sich die Auswirkungen größtenteils am Tag des betrachteten Ereignisses wieder- spiegelten. Des Weiteren stellen sie fest, dass der Anschlag in Paris im Gegensatz zu den Brüssel- Anschlägen einen stärkeren Einfluss auf die Aktienkurse bewirkt. Kolaric und Schiereck schlie- ßen daraus, dass dieser Sachverhalt vorliegt, weil der Anschlag in Brüssel, zeitlich gesehen nach dem in Paris geschah, und somit der Kapitalmarkt den Einfluss eines möglichen Terroranschlags mit einbezieht. Dies verweist wiederum auf das Vorliegen eines Memory-Effekts in Kapitalmärk- ten äquivalent zu H5. Zudem liefert die Regression im Rahmen der Analyse, dass global agie- rende Fluggesellschaften einen größeren Einfluss durch die Terroranschläge erfahren (Kolaric & Schiereck, 2016).

[...]


1 Die Memory-Funktion kann als eine Art Gedächtnis beschrieben werden, welches in der Lage ist, aufgrund bereits stattgefundener Ereignisse, die Wahrscheinlichkeit für das zukünftige Eintreten eines äquivalenten Ereignisses bereits in die aktuelle Kursentwicklung miteinzubeziehen.

2 Als erhöht, wurde nach subjektiven Ermessen, hinsichtlich der Seltenheit eines solchen Ereignisses, eine Anzahl von mehr als 30 Toten in Folge eines Massenmords deklariert.

3 Abb. 1 ist angelehnt an „Efficient Capital Markets: A Review of Theory and Empirical Work“ (Fama, 1970).

4 Verweis auf den Literaturüberblick in Kapitel 3.

5 Subjektive Ermessen des Verfassers.

6 In Form von Überrenditen.

7 Arbitrage: Börsengeschäfte, die Preis-, Kurs- oder Zinsunterschiede zwischen verschiedenen Märkten zum Gegen- stand der Gewinnerzielung machen (Gabler Wirtschaftslexikon).

8 Abb. 2 ist angelehnt an die inhaltliche Gliederung in „An Introduction to Behavior Economics“ (Wilkinson und Klaes, 2012).

9 Diese Betrachtungen entsprechen dem Standard Modell der Neoklassischen Ökonomie.

10 Diese unterliegen jedoch einer Beschränkung. Limits to Arbitrage: „limits on the ability of the rational investor to exploit market inefficiencies“ (Brealey, Myers & Allen, 2010, S. 356)

11 Entsprechend der Annahme einer unendlich hohen Anpassungsgeschwindigkeit.

12 Abb. 3 ist angelehnt an inhaltliche Gliederung in „An Introduction to Behaviour Economics“ (Wilkinson & Klaes, 2012)

13 Dem Homo Oeconomicus wurde im jeweiligen Abschnitt ein systematisch rationales Verhaltensmuster hinsichtlich des Handlings mit Informationen unterstellt.

14 Somit entgegen der Grundannahme des Homo Oeconomicus des Standard Modells.

15 Angelehnt an die inhaltliche Gliederung aus Abbildung 3.

16 Nach allgemeinem Konsens liegt die Wahrscheinlichkeit einer Erkrankung bei unter 1 %, gleichgültig wie die Krankheitskonstellation ist. (https://www.my-micromacro.net/informationen/ansteckungsrisiko)

17 Der Verweis des Verlusts des Status quo hinsichtlich der Thematik dieser Ausarbeitung wurde bereits einschlägig erläutert.

18 Dazu zählen der Journal of Business, Journal of Finance, Journal of Financial Economics, Journal of Financial and Quantitative Analysis sowie Review of Financial Studies.

19 Dieser Aspekt könnte auf die Hypothese H4 verweisen, welche impliziert, dass US-amerikanische Schusswaffen- produzenten im Gegensatz zu Internationalen stärker betroffen sind.

20 Kidnapping wäre ein Beispiel für einen Human Capital Verlust. In diesem Zusammenhang kann auch auf die availability heuristic, welche im Rahmen der Verhaltensökonomik beschrieben wurde, verwiesen werden.

21 Verweis auf die Hypothesen H4 heit ebenfalls beinhalten. sowie H4, welche den Aspekt der lokalen beziehungsweise thematischen Betroffenheit ebenfalls beinhalten

22 Dieses Ergebnis verweist auf den Memory-Effekt der Märkte aus Hypothese H5 .

23 Äquivalenter Sachverhalt wie in der Hypothese H4 .

Ende der Leseprobe aus 72 Seiten

Details

Titel
Massenmord und Waffenwert. Werteffekte bei Schusswaffenproduzenten nach Massenmorden in den USA
Hochschule
Technische Universität Darmstadt
Note
1,0
Autor
Jahr
2018
Seiten
72
Katalognummer
V510298
ISBN (eBook)
9783346085702
ISBN (Buch)
9783346085719
Sprache
Deutsch
Schlagworte
Ereignisstudie, Event Study, Regressionsanalyse, Effizienzmarkthypothese, Behavioral Finance, Random-Walk-Theorie, Erwartungsnutzentheorie, Homo Oeconomicus, Empirische Untersuchung, Kurzfristige Ereignisstudie, Langfristige Ereignisstudie
Arbeit zitieren
Denis Grancic (Autor:in), 2018, Massenmord und Waffenwert. Werteffekte bei Schusswaffenproduzenten nach Massenmorden in den USA, München, GRIN Verlag, https://www.grin.com/document/510298

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Massenmord und Waffenwert. Werteffekte bei Schusswaffenproduzenten nach Massenmorden in den USA



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden