Lade Inhalt...

Wahrscheinlichkeitstheorie unter Verwendung geometrischer Eigenschaften

Diplomarbeit 2006 111 Seiten

Didaktik - Mathematik

Leseprobe

INHALTVERZEICHNIS

MOTIVATION

EINLEITUNG

ZUR GESCHICHTE DER WAHRSCHEINLICHKEITSTHEORIE

ZUM INHALT

TERMINOLOGIE UND BEGRIFFE

Zufallsexperimente

Ergebnisse & Ereignisse

Wahrscheinlichkeit

Laplace Experimente

Der Begriff der Zufallsvariable und der Erwartungswert

Bernoullis Gesetz der großen Zahlen

GEOMETRISCHE WAHRSCHEINLICHKEITEN

BEISPIELE

Erstes Beispiel

Zweites Beispiel

Drittes Beispiel

Viertes Beispiel

Fünftes Beispiel

EIN ZENTRALES PROBLEM DER WAHRSCHEINLICHKEITSRECHNUNG - DAS PARADOXON VON BERTRAND

EIN ZENTRALES PROBLEM DER WAHRSCHEINLICHKEITSRECHNUNG - DAS NADELPROBLEM VON BUFFON

BEISPIELE FUR DIE VERTIEFUNG VON GEOMETRISCHER WAHRSCHEINLICHKEIT

Sechstes Beispiel

Siebentes Beispiel

Achtes Beispiel

EIN NICHT SO IDEALES BEISPIEL FÜR GEOMETRISCHE WAHRSCHEINLICHKEITSRECHNUNG

SCHLUSSWORT

QUELLENVERZEICHNIS

1. MOTIVATION

Warum wähle ich für meine Arbeit die geometrische Wahrscheinlichkeitsrechnung? Als ich nach einem Thema für meine Diplomarbeit suchte war mir bereits klar, daß es ein Thema der Wahrscheinlichkeitsrechnung werden würde. Obwohl ich die AHS die gesamte Oberstufe hindurch besuchte nahmen wir dieses Themengebiet niemals durch. Wahrscheinlichkeitsrechnung wurde von unserer Lehrerin einfach nicht behandelt. Als ich dann auf der Uni mit etwa 20 Jahren die Vorlesung „Wahrscheinlichkeitstheorie und Statistik für LehramtskandidatInnen“ besuchte waren diese beiden mathematischen Theorien völliges Neuland für mich. Natürlich lernte ich während meines Studiums viele Kolleginnen und Kollegen kennen, die auch gewisse Gebiete der Mathematik im Schulunterricht nicht kennen gelernt hatten, trotzdem bedauere ich im Nachhinein, daß mir Wahrscheinlichkeitstheorie und Statistik in der Schule vorenthalten geblieben war. Schon alleine daher wollte ich mich bei der Arbeit, die irgendwann mein Studium beenden soll unbedingt mit diesem Thema befassen.

Als ich nun meine Mitschrift der Vorlesung durchblätterte, um mich etwas orientieren zu können stieß ich auf das nur kurz abgehandelte Kapitel der geometrischen Wahrscheinlichkeiten. In einem der letzten Seminare, das ich im Laufe der Ausbildung besuchte hielt ich ein Referat über einen winzigen Ausschnitt der geometrischen Wahrscheinlichkeitsrechnung. Eine Kollegin in diesem Seminar wiederum sprach über das Nadelproblem von Buffon. Zu diesem Zeitpunkt wurde mir klar, daß ich mit geometrischer Wahrscheinlichkeitsrechnung genauer auseinandersetzen wollte. Also beschloß ich meine Arbeit diesem Thema zu widmen.

Da ich ein Lehramtsstudium gewählt habe und trotz der tristen Situation auf dem Arbeitsmarkt doch irgendwann auf eine Anstellung hoffe, wollte ich mein Thema irgendwie in Zusammenhang mit Schulmathematik bringen. Daher versuche ich sehr anschaulich zu arbeiten und genügend Platz für Erklärungen und Skizzen zur Verfügung zu Stellen. Außerdem möchte ich vor allem Beispiele vorstellen, die theoretisch tatsächlich in der Schule verwendet werden könnten, wenn man im Rahmen der Behandlung von Stochastik auf die geometrische Wahrscheinlichkeit zu sprechen kommen will.

Als ich nun begann Material für meine Arbeit zu sammeln mußte ich schnell feststellen, daß es zu diesem Thema nicht wirklich viel Information gibt. Zwar befassen sich einige Werke die ich in der Bibliothek finden konnte mit geometrischer Wahrscheinlichkeitsrechnung, die wenigsten aber enthalten für den Schulunterricht brauchbare Themengebiete. Die meisten der ohnehin spärlichen Quellen enthielten Abhandlungen komplizierter mathematischer Probleme, diese wären für den Schulunterricht schon nicht mehr geeignet gewesen. Dieser Umstand verstärkte mich aber eigentlich noch in meinem Vorhaben. Zwar ist es für eine Arbeit immer erfrischender möglichst viele Quellen zur Verfügung zu haben, gleichzeitig reizt es natürlich auch ein scheinbar eher selten abgehandeltes Thema zu behandeln. Aufgrund der geringen Anzahl an spezifischen Quellen mußte ich ein weiters Medium bemühen, welches erst in den letzten Jahren in breiter Form zur Verfügung steht. Im Internet erzielte ich zwar quantitativ wesentlich bessere Erfolge bei meiner Suche, aber der Großteil der gefundenen Quellen war extrem kurz oder hatte nur am Rande etwas mit geometrischer Wahrscheinlichkeitsrechnung zu tun. So mußte ich viele wenig umfangreiche Quellen zu einem Gesamtbild zusammensetzen. Natürlich fand ich auch einige Perlen bei meiner Suche, aber die Betrachtung hunderter unbrauchbarer Internetseiten war wohl nicht weniger Aufwand als eine traditionelle Suche nach Quellen in der Bibliothek. Vielleicht muß man bei Quellen aus dem Internet etwas mißtrauischer sein als bei Büchern, die in etablierten Büchereien stehen. Ich habe daher versucht immer mehrere Quellen zu finden und deren Inhalte zu vergleichen. Nicht in wenigen Fällen stieß ich dabei auf Unsinnigkeiten oder schlicht Unwahrheiten. Ich hoffe ich habe alle diese Unwahrheiten aus dieser Arbeit beseitigen können und möchte nun das eigentliche Thema beginnen.

2. EINLEITUNG

Die Wahrscheinlichkeitstheorie als sehr junges Teilgebiet der Mathematik hat heute in der Schulmathematik einen festen Platz eingenommen. Durch die stets starke Verbindung zwischen Stochastik als Theorie und modellierten Problemen der Realität, die im Falle der Wahrscheinlichkeitstheorie auch für Heranwachsende nachvollziehbar sind, eignet sich gerade dieses Themengebiet hervorragend um der Mathematik, gerade in der Oberstufe wieder etwas Leben einzuhauchen.

Natürlich wurde die Entwicklung fast jeder mathematischen Richtung durch den Wunsch des Menschen motiviert, verschiedene Vorgänge der Natur entweder zu abstrahieren, oder überhaupt erst einsehen zu können. Gleichzeitig strebt der Mensch danach, in sein gesellschaftliches, politisches oder persönliches Dasein bestimmte Ordnungen und Abstraktionen zu bringen. So entstand auch die Wahrscheinlichkeitstheorie und Statistik aus dem Versuch, einerseits eine gegebene Masse, wie etwa das Volk in gewisse Strukturen zu bringen, um zum Beispiel steuerliche oder militärische Kapazitäten allgemein zu erfassen, andererseits aber auch natürliche Zufallsprozesse nachvollziehen oder schematisieren zu können. Neben dieser Motivation spielt auch das Glücksspiel eine entscheidende Rolle in der historischen Betrachtung von Wahrscheinlichkeitsrechnung. So trat lange bevor sich die Mathematik die Wahrscheinlichkeitsrechnung einverleibte und in eine axiomatische Form goß im Glücksspiel etwa das Problem auf, wie Einsätze bei vorzeitigem Abbruch eines Spiels verteilt werden sollten, also mit welcher Chance jeder teilnehmende Spieler zum Zeitpunkt des Abbruchs gewinnen würde. Oder es wurde nach der generellen Möglichkeit eines Spielers gefragt, ein bestimmtes Spiel gewinnen zu können. Die Mathematiker Luca Pacioli (15. Jhdt.), Geronimo Cardano (16. Jhdt.) oder Nicolo Tartaglia (16. Jhdt.) sind in diesem Zusammenhang als Vorreiter der Wahrscheinlichkeitsrechnung zu nennen, auch wenn ihre Versuche zur Berechnung fairer Gewinnverteilung zum größten Teil noch fehlerhaft und nicht allgemein gültig waren. Aber auch politische Gründe waren ausschlaggebend beteiligt um die Entwicklung der Statistik und Wahrscheinlichkeitsrechnung voranzutreiben. So denke man etwa an das schon lange übliche Mittel der Volkszählung, dieses war bei den Römern bereits durchaus verbreitet. Selbstverständlich wurden derartige Methoden nicht aus mathematischen Gründen heraus durchgeführt, sondern lassen sich vielmehr durch wesentlich praktischere Überlegungen, wie etwa die Besteuerung der Bevölkerung oder die Abschätzung der wehrtauglichen Männer erklären. So liegt der Wunsch nach einer statistischen Erfassung komplizierter Daten seit der Entstehung von menschlichen Gemeinschaften in uns begraben, später gesellten sich noch das Streben nach der Erklärbarkeit von natürlichen Zufallsprozessen sowie die Vorhersagbarkeit von Glücksspielen dazu. Alle diese Anreize führten dazu, daß die Mathematik eine intuitiv vorhandene und daher nicht völlig von Irrtümern und Fehlern freie Denkensweise des Menschen aufnahm, mit einem grundsätzlichen axiomatischen Aufbau versah und sich seit mehreren hundert Jahren systematisch mit der Korrektur dieser intuitiven Fehlschlüsse und einer ständigen Verbesserung der Stochastik beschäftigt.

In unserer heutigen Zeit sind wir ständig von Statistiken umgeben, sei es im gesellschaftlichen Bereich oder wirtschaftlich, es sind Verkaufsstatistiken, Wahlprognosen und -analysen, Rentabilitätsstudien für Unternehmen oder werbetaugliche Statistiken zur Manipulation, mit denen wir täglich konfrontiert sind. Damals wie heute war es stets so, daß die Mathematik zur Bewältigung von Alltagsproblemen herangezogen wurde. Im Falle vielsagender Statistiken die uns umgeben hilft uns die Mathematik manchmal die Aussage oder die Seriosität der vorgelegten Statistik beurteilen zu können.

Natürlich darf man nicht die Naturwissenschaften und die Technik vergessen, die sich jeder mathematischen Richtung, so auch der Wahrscheinlichkeitstheorie bedienen um ihre jeweiligen Ziele und Resultate zu erreichen. Und damit kommt der große Vorteil der Stochastik zum Tragen. Während viele Gebiete der Mathematik, wie etwa die höhere Analysis vor allem erst in komplexen naturwissenschaftlichen Problemstellungen ihre Anwendungen finden, kann bei der Wahrscheinlichkeitstheorie und Statistik schon in jungen Jahren das Interesse durch einen hohen Grad an Praxisnähe geweckt werden.

Wie bereits in der Einleitung erwähnt, stellten sich den Menschen schon lange vor der Entwicklung einer mathematischen Wahrscheinlichkeitstheorie verschiedene Probleme, die heute mit statistischen und wahrscheinlichkeitstheoretischen Methoden behandelt werden können. In der Antike wurde zweifelsfrei der Grundstein für viele mathematische Richtungen gelegt, in manchen Fällen noch bedeutend mehr, man denke etwa an die Geometrie. So war es auch damals durchaus schon ein Thema unter Gelehrten, daß gewisse Vorgänge und Naturgesetze sich stark nach zufälligen Mustern verhalten. Bis es allerdings zur Geburt der Wahrscheinlichkeitstheorie als solche kam, sollte noch viel Zeit vergehen.

Zunächst stellten sich eher statistische Fragen, die etwa die Eintreibung von Steuern betrafen oder sich mit der Struktur der Bevölkerung auseinandersetzten. Aber auch Volkszählungen gehörten im alten Ägypten, oder wie wir unter anderem aus der Bibel wissen im alten Rom schon zu bekannten statistischen Verfahren. Im Mittelalter wurden einige Gedanken wieder aufgenommen oder stellten sich durch gegebene Situationen neu. Im 14. Jahrhundert entstand eine Institution, die auch heute noch intensiv mit Statistiken und Wahrscheinlichkeiten arbeitet. Die Versicherung von Schiffen durch eigene Gesellschaften machte es für diese notwendig, die Gefahr abzuschätzen, daß ein Schiff seine Ladung verlieren würde. Dementsprechend wurden die Prämien für die Versicherung festgelegt, im Grunde basieren auch heute die Gebührenschemata der Versicherungsgesellschaften auf solchen versicherungs-mathematischen Überlegungen.

In der Neuzeit versuchten unter anderem die drei oben erwähnten Wissenschaftler Pacioli, Cardano und Tartaglia für Glücksspiele geeignete Methoden zu finden, um die Gewinnchancen jedes Teilnehmers abschätzen zu können. Cardano untersuchte in seinem Buch „Liber de ludo aleae“ die Möglichkeiten beim Wurf mit einem und mehreren Würfeln. Er befaßte sich unter anderem mit den Kombinationen beim Wurf zweier oder dreier Würfel und versuchte auch die Möglichkeiten vorherzusagen, mit mehreren Würfeln eine bestimmte Summe der Augenzahlen zu erreichen. Pacioli und Tartaglia befaßten sich mit den Aufteilungen von Einsätzen bei Spielen. Die von Pacioli angeregte Diskussion in Form von Publizierungen, bei der auch Cardano mitmischte hatte die faire Aufteilung eines Spieleinsatzes bei vorzeitigem Abbruch des Spiels zum Inhalt und trug maßgeblich dazu bei, daß die Mathematik langsam begann, die Wahrscheinlichkeitsrechnung für sich zu entdecken. So haben wir also zwei Hauptmotivationen für das Entstehen einer Theorie der Stochastik. Einerseits die erwähnten Versuche zufällige Vorgänge, etwa in Spielen nachvollziehen zu können und der Drang des Menschen natürliche Gegebenheiten statistisch erfassen zu können.

Als Geburtsstunde einer mathematischen Wahrscheinlichkeitstheorie wird in den meisten Fällen der Briefwechsel zwischen den Mathematikern Blaise Pascal und Pierre de Fermat im Jahre 1654 strapaziert. Der leidenschaftliche Spieler Chevalier de Mere trat an Pascal heran, und stellte ihm verschieden Aufgaben, darunter welche die sich mit dem erwähnten vorzeitigen Abbruch von Spielen befaßte und auch Fragen zum Wurf mit Würfeln. Pascal begann darauf hin den berühmten Briefwechsel und er und Fermat trugen damit maßgeblich dazu bei, daß in der Mitte des 17. Jahrhunderts erstmals ein Werk entstand, das sich explizit mit einer „Wahrscheinlichkeitsrechnung“ auseinandersetzte.

Die Gedanken von Pascal und Fermat wurden nämlich im Jahre 1657 in Huygens Buch „De ratiociniis in ludo aleas“ behandelt. Frei übersetzt heißt das „Über Berechnungen beim Würfelspiel“. Huygens Buch behandelte die Fragen des Würfelns und bot gleichzeitig eine Reihe weiterer ungelöster Aufgaben, darunter auch das oben erwähnte Problem der Einsatzaufteilung von Pacioli. Unter anderem formulierte auch er erstmals in einer Publikation die heute noch verwendeten Urnenziehspiele mit verschieden färbigen Kugeln. Dabei tauchten auch Begriffe wie die absolute oder relative Häufigkeit auf, die später den entscheidenden Ausschlag für große Sätze der Wahrscheinlichkeitsrechnung geben sollten. Der Mann, der diese Überlegungen erstmals ordnete und in eine komplette Formulierung packte war Jakob Bernoulli.

Bernoulli versuchte zunächst, die Fragestellungen von Huygens zu verallgemeinern, indem er erzeugende Funktionen für konkrete Anwendungen des Glücksspiels betrachtete. Weiters gab er Lösungsvorschläge zu einigen Beispielen an, die bei Huygens offen geblieben waren. In seinem Werk „Ars conjectansi“ (Kunst des Vermutens) faßte er viele damals kursierende Resultate zusammen und setzte mit dem Gesetz der großen Zahlen einen Meilenstein der Wahrscheinlichkeitsrechnung. In Anlehnung an die Bedeutung dieses Satzes wird er auch oft als der Satz von Bernoulli bezeichnet. Der entscheidende Verdienst dieses Postulats war es, die Verbindung zwischen der relativen Häufigkeit und der abstrakten Wahrscheinlichkeit herzustellen und auch logisch zu begründen. Aber auch kombinatorische Fragen wurden von Bernoulli in seinem Werk abgehandelt.

Schließlich verbreitete sich die Wahrscheinlichkeitsrechnung und Statistik immer mehr und wurde von vielen Naturwissenschaften zu Hilfe genommen. Heute findet sie sich immer noch in sehr vielen wichtigen Lebensbereichen, etwa der Technik, der Politik, der Wissenschaft, der Soziologie und sogar in der Schule hat diese so junge Teilwissenschaft der Mathematik ihren berechtigten Eingang gefunden.

( 17, 18, 19, 33, 34)

4. ZUM INHALT

Ich will hier nun versuchen ein Teilgebiet der Wahrscheinlichkeitsrechnung, die geometrischen Wahrscheinlichkeiten genauer zu betrachten. Dabei werde ich nach den nötigen Definitionen und Erörterungen zunächst elementare Problemstellungen und Aufgaben ansehen, die geometrische Wahrscheinlichkeiten zum Inhalt haben. Im ersten Teil möchte ich vor allem Beispiele behandeln, die sich auch für den schulischen Gebrauch anwenden lassen könnten. Je nach dem Grad der Schulstufe bieten sich unterschiedliche Zugänge an, um die Verbindung von Wahrscheinlichkeitsrechnung und Geometrie im Mathematikunterricht zu thematisieren. Viele dieser Beispiele arbeiten sehr anschaulich oder sind in einen sehr realitätsnahen Kontext eingebunden, was sie für mich schon automatisch für den Unterricht qualifiziert.

Nach diesem Teil möchte ich mich gerne zwei großen Leitproblemen der geometrischen Wahrscheinlichkeit, dem Nadelproblem von Buffon und dem Paradoxon von Bertrand nähern. Vor allem das zweite Problem beinhaltet neben dem Aspekt der eigentlichen Berechnung auch die Frage nach der „richtigen“ Modellbildung. Als Abschluß habe ich mir vorgenommen auch etwas anspruchsvollere Anwendungen darzustellen, die aber vom Schwierigkeitsgrad und den Vorkenntnissen noch für Maturanten zu bewältigen sein sollten und daher den schulmathematischen Aspekt dieser Arbeit nicht verletzen.

Um den Begriff der geometrischen Wahrscheinlichkeit abzustecken muß man erst den Begriff der allgemeinen Wahrscheinlichkeit betrachten. Für diesen Begriff ist einiges an mathematischer Theorie notwendig. Wir wollen hier versuchen mit jenen Inhalten auszukommen, die wir auch bei der geometrischen Wahrscheinlichkeitsrechnung brauchen werden. Zunächst einmal läßt sich sagen, daß sich Wahrscheinlichkeitsrechnung mit Zufallsexperimenten befaßt. Dabei spielt die Tatsache eine Rolle, daß Experimente verschiedene Ausgänge haben können. Wichtig ist dabei, daß diese verschiedenen Ausgänge zumindest teilweise vom Zufall abhängig sind. Die Wahrscheinlichkeitstheorie trachtet nun danach, diese zufälligen Ereignisse mit einem Modell zu fassen und die verschiedenen Möglichkeiten darzustellen. Die erste Besonderheit der Wahrscheinlichkeitsrechnung ist die Tatsache, daß sie mit dem Begriff des Zufalls arbeitet. Dieser Begriff ist nun eigentlich ein sehr unmathematischer, da er nicht wirklich genau zu definieren oder zu erfassen ist. Zwar kennt fast jeder Mensch die im Alltag übliche Bedeutung des Wortes „Zufall“. Sucht man aber nach einer präzisen mathematischen Beschreibung, so läßt sich diese nicht so direkt wie sonst wiedergeben. Aber es gibt die Möglichkeit, den Begriff „Zufallsexperiment“ zu erfassen, wobei gesagt werden muß, daß auch bei der Beschreibung dieses Begriffs die Bedeutung von „Zufall“ selbst nicht geklärt wird.

Zufallsexperimente :

Als Zufallsexperiment bezeichnet man ein Experiment, bei dem verschiedene Ergebnisse auftreten können. Zwar kann man die verschiedenen Ausgänge eines Zufallsexperiments kennen, allerdings weiß man vor Durchführung des Experiments nicht, welches der möglichen Ergebnisse im speziellen Fall eintreten wird. Die Ergebnisse der Experimente hängen eben vom Zufall ab. Bei einem Zufallsexperiment ist unter anderem wichtig, daß es unter denselben Bedingungen beliebig oft wiederholt werden kann. Die verschiedenen möglichen Ausgänge eines solchen Versuchs nennen wir Ereignisse.

Genau hier liegt auch schon die erste interessante Eigenschaft der Wahrscheinlichkeits - rechnung. Einerseits ist es ihr nicht möglich für den Einzelfall eine sinnvolle Voraussage zu machen, andererseits liefert sie gleichzeitig sehr nützliche Aussagen über das Verhalten aller möglichen Ereignisse. Gerade unter Betrachtung des zweiten Aspekts liefert die Wahrscheinlichkeitsrechnung viele Resultate und Gesetzmäßigkeiten, die heute festen Eingang in der Mathematik gefunden haben.

Triviale Beispiele für Zufallsexperimente:

Der jedem bekannte Wurf einer Münze stellt ein Zufallsexperiment mit nur zwei möglichen Ausgängen dar, vernachlässigt man einmal die „besonderen“ Ausgänge. (die Münze bleibt auf der Kante stehen; die Münze fällt in eine Öffnung in Boden oder rollt unter einen schweren Kasten) Wohl jeder hat in einer unentschiedenen Situation schon einmal auf den Rat einer Münze gehört.

Der Wurf eines Würfels ist ebenfalls schon ein Zufallsexperiment. Eine große Zahl an Vergnügungen und Spielen des Menschen erhalten durch die möglichen Ausgänge des Wurfs erst ihren Reiz.

Jedes Kartenspiel, sofern es fair gespielt wird, lebt vom Gedanken, daß die Verteilung der Spielkarten an die Spieler ein Zufallsexperiment darstellt. Allerdings ist in der Praxis problematisch, daß die Mischung der Karten meist unzureichend durchgeführt wird und daher keine zufällige Verteilung stattfindet. So wird man zum Beispiel mit größerer Wahrscheinlichkeit Karten bekommen, die zusammenpassen als welche die nichts miteinander zu tun haben. Denn in der letzten Partie wurden ja je nach Spieltyp ähnliche Karten von den Spielern aneinandergereiht. Hier kann man sich ein Pokerspiel vorstellen, bei dem jeder Spieler Paare, Drillinge oder Karten gleicher Farbe in der Hand nebeneinander hält. Wird nach der Runde nicht ausreichend gemischt, so wird sich die eine oder andere Konstellation in der nächsten Runde bemerkbar machen.

Ergebnisse & Ereignisse:

Wie gerade beschrieben können Zufallsexperimente verschiedene Ergebnisse aufweisen. Die Menge aller möglichen Ergebnisse bildet den Ergebnisraum und jedes Ereignis ist eine Teilmenge dieses Ergebnisraumes. Ein Ereignis ist ein möglicher Ausgang des Experiments, der zwar im konkreten Fall nicht eintreten muß, allerdings bei mehrmaliger Wiederholung des Experiments sehr wohl auftreten kann. Wichtig dabei ist auch, daß nach Durchführung des Experiments ganz genau festgestellt werden kann, ob ein Ereignis eingetreten ist oder nicht.

Besondere Betrachtung verdienen in diesem Zusammenhang zwei spezielle Ereignisse, die immer in Verbindung mit Versuchen auftreten. Einerseits gibt es das sichere Ereignis, es wird in der Regel mit dem griechischen Großbuchstaben Ω bezeichnet, andererseits aber gibt es auch das unmögliche Ereignis. Dies ist ein Ereignis, das niemals auftritt und wird meistens mit dem Symbol der leeren Menge dargestellt. Das sichere Ereignis hingegen tritt in jedem Fall auf, egal wie der Versuch endet. In diesem Zusammenhang zu erwähnen ist auch das sogenannte Elementarereignis. Wir wollen hier Ereignisse, aus denen kein weiteres Ereignis folgt als Elementarereignisse bezeichnen. Mit der Kenntnis dieses Begriffs läßt sich auch das sichere Ereignis leicht definieren. Das sind Ereignisse, die nur ein Element der Ergebnismenge enthalten. Die Vereinigung aller Elementarereignisse ist das sichere Ereignis, jeweils zwei verschiedene Elementarereignisse sind unvereinbar. Damit können nun wie oben erwähnt alle Ereignisse als Teilmenge der Menge aller möglichen Ereignisse, die wir Omega genannt haben aufgefaßt werden.

Beispiele:

1) Die Ausgänge „es wird eine gerade Zahl geworfen“ oder „es wird nicht 5 geworfen“ sind Ereignisse, die beim Wurf mit einem Würfel auftreten können.
2) Der Ausgang „1 Meter 74cm“ ist ein Ereignis, daß bei Vermessung zufällig gewählter männlicher Oberstufenschüler als Durchschnittskörpergröße herauskommen kann.
3) Der Ausgang „Ein Spieler hat alle vier Asse“ ist ein Ereignis, daß beim Pokerspiel durch zufällige Kartenverteilung unter den Spielern eintreten kann.
4) Beim Würfeln wäre etwa das Ereignis „es wird 1,2,3,4,5 oder 6 geworfen“ ein sicheres Ereignis.
5) Beim Münzwurf wäre das Ereignis „Es wird gleichzeitig Kopf und Zahl geworfen“ ein unmögliches Ereignis.

Wahrscheinlichkeit:

Jedem Ereignis kann man nun eine entsprechende Wahrscheinlichkeit zuordnen. Diese beschreibt, mit welcher abgeschätzten Häufigkeit ein Ergebnis bei mehrmaliger Wiederholung eines Zufallsexperiments auftreten wird. Hier liegt auch die Nähe der Definition von Wahrscheinlichkeit zur relativen Häufigkeit. Denn auch diese beschreibt wie oft ein bestimmtes Ereignis in Relation zur Anzahl der Versuche eintritt. Wir werden auf diesen Zusammenhang noch später zurückkommen.

Um nun zu einer Definition von Wahrscheinlichkeit zu gelangen muß man betrachten, welchen Bedingungen so ein Begriff gehorchen muß. Der Begriff der Wahrscheinlichkeit als Funktion wurde im Jahre 1933 von Andrey Nikolaevich Kolmogorov axiomatisch definiert und damit in die Sprache der Mathematik übertragen.

Diese Axiome seien jetzt kurz dargestellt. Betrachten wir zunächst eine nichtleere Menge Ω. Es sei A eine σ - Algebra von Teilmengen von Ω. Das heißt A ist eine Familie von Teilmengen von Ω, für die gilt:

Abbildung in dieser Leseprobe nicht enthalten

und

Abbildung in dieser Leseprobe nicht enthalten

und

Abbildung in dieser Leseprobe nicht enthalten

(wobei Ai abzählbar viele)

Eine Funktion[Abbildung in dieser Leseprobe nicht enthalten] heißt Wahrscheinlichkeit, Wahrscheinlichkeitsmaß oder Wahrscheinlichkeitsverteilung, wenn sie folgende Eigenschaften besitzt:

Axiom 1: Dem sicheren Ereignis wird die Wahrscheinlichkeit 1 zugeordnet, also

Ρ(Ω) = 1

Axiom 2: Es seien die Ereignisse A1y [Abbildung in dieser Leseprobe nicht enthalten]abzählbar viele Ereignisse, die bei einem Zufallsexperiment paarweise disjunkt auftreten. Dann muß gelten

Abbildung in dieser Leseprobe nicht enthalten

Wir wollen hier für die Beschreibung der Wahrscheinlichkeit eines bestimmten Ereignisses A die Schreibweise P(A) wählen. Dann ist das Tripel (Ω, A, P) der sogenannte Wahrscheinlichkeitsraum. Der Wahrscheinlichkeitsraum ist das mathematische Modell eines zufälligen Versuches. Der Wurf mit einem Würfel oder ein Kartenspiel wären alles Beispiele für endliche Wahrscheinlichkeitsräume.

Laplace Experimente:

Zufallsexperimente, die mit endlich vielen und gleichwahrscheinlichen Ergebnissen arbeiten nennt man Laplace-Experimente. Ω sei hier ein endlicher Ergebnisraum, ein Ereignis A e Ω
hat dann die Wahrscheinlichkeit P(A) = A/fai, also alle für das Ereignis A günstigen Fälle dividiert durch alle möglichen Fälle. Das Paar (Ω, P) nennt man Laplace Raum. A| stellt dabei die Menge aller in A enthaltenen Versuchsergebnisse dar. Auch Laplace selbst verwendete die Gleichung

Abbildung in dieser Leseprobe nicht enthalten

als Definition der heute sogenannten „klassischen Wahrscheinlichkeit“. Direkt aus der Definition [Abbildung in dieser Leseprobe nicht enthalten]fai folgen zwei weitere Resultate, von denen wir im späteren ebenfalls Gebrauch machen werden. Einerseits ergibt sich durch einfaches Einsetzen: [Abbildung in dieser Leseprobe nicht enthalten], andererseits muß auch [Abbildung in dieser Leseprobe nicht enthalten] gelten, natürlich nur sofern[Abbildung in dieser Leseprobe nicht enthalten]. Auch die abzählbare Additivität wie in Axiom 2 gefordert läßt sich leicht beweisen. Für die Theorie der geometrischen Wahrscheinlichkeitsrechnung werden wir uns vor allem die Tatsache merken, daß bei Laplace - Wahrscheinlichkeiten jedes elementare Ereignis, das heißt jedes Ereignis, das sich nicht aus mehreren Ergebnissen zusammensetzt gleich wahrscheinlich ist. Formal bedeutet das: [Abbildung in dieser Leseprobe nicht enthalten] für alle [Abbildung in dieser Leseprobe nicht enthalten] (Trivial für [Abbildung in dieser Leseprobe nicht enthalten]).

( 2, 3, 8, 9, 10, 13, 32)

Der Begriff der Zufallsvariable und der Erwartungswert:

An dieser Stelle will ich in aller Kürze zwei weitere grundlegende Begriffe der Wahrscheinlichkeitsrechnung vorstellen, die Zufallsvariable und den Erwartungswert. Es sei ω ein Elementarereignis aus Ω, diesem werde ein Wert Χ(ω) e IR zugeordnet, das heißt wir erhalten eine Funktion

Abbildung in dieser Leseprobe nicht enthalten

die jedem Elementarereignis einen Wert zuordnet. Diese Funktion ist genau dann eine Zufallsvariable, wenn für jedes reele Intervall (a, b] das Ereignis

[Abbildung in dieser Leseprobe nicht enthalten]eine Wahrscheinlichkeit besitzt, also wenn [Abbildung in dieser Leseprobe nicht enthalten] e A ist

Nach dieser kurzen Erläuterung wollen wir nun noch die Bedeutung des Erwartungswertes klären. Es sei zunächst X eine diskrete Zufallsvariable mit der Wahrscheinlichkeitsfunktion p.

Diese beiden Begriffe wurden noch nicht ausreichend erläutert. Der interessierte Leser findet eine genaue Definition im Werk von Dehling und Haupt (siehe Quellenverzeichnis) auf Seite 65. Wenn gilt

Abbildung in dieser Leseprobe nicht enthalten

so existiert ein Erwartungswert E(X) als gewichteter Mittelwert aller

Realisierungsmöglichkeiten x der Zufallsvariable X. Die zugehörigen Wahrscheinlichkeiten p(x) dienen dabei als Gewichte.

Abbildung in dieser Leseprobe nicht enthalten

Durch geeignete Approximation läßt sich dann der Erwartungswert auch für beliebige Zufallsvariablen definieren. Für Details dieser Konstruktion siehe auch im Werk von Bauer (siehe Quellenverzeichnis) eine präzisere Abhandlung.

Die Bedeutung des Erwartungswertes erkennt man am Besten im Zusammenhang mit dem Glücksspiel. Wenn man an einem fairen Glücksspiel mehrmals teilnimmt, so läßt der Erwartungswert den durchschnittlichen Verlauf der Spielresultate abschätzen. Hierzu sei wieder einmal der Würfel bemüht, da er sich durch seine Bekanntheit und Einfachheit immer wieder eignet, Begriffe exemplarisch zu erklären. Wirft man mit einem fairen Würfel mehrmals, so werden nach genügend langem Werfen alle Zahlen des Würfels irgendwann oben liegen. Wie kann man nun aber auf die durchschnittlich geworfene Augenzahl schließen, ohne vorher hundert Mal oder öfter einen Würfel zu werfen und jede einzelne gewürfelte Zahl mitzuschreiben? Genau hier kommt nun der Erwartungswert ins Spiel. Wir kennen die möglichen Ergebnisse eines Wurfes, diese sind {1, 2, 3, 4, 5, 6}. Das sind also nun unsere Realisierungsmöglichkeiten der Zufallsvariable X. Die dazugehörigen Wahrscheinlichkeiten p sind uns ebenfalls bekannt, für jedes einzelne Element müssen diese Vö sein. Hier sei bemerkt, daß natürlich nicht immer jede Realisierung wie hier mit derselben Wahrscheinlichkeit auftritt. Der Erwartungswert lautet daher in unserem Fall

Abbildung in dieser Leseprobe nicht enthalten

Was in diesem Fall auffällt ist, daß der Erwartungswert bei einem Würfelwurf selbst gar nicht geworfen werden kann. Trotzdem gibt er Aufschluß darüber, welcher Durchschnittswert auf lange Sicht zu erwarten ist.

Bernoullis Gesetz der großen Zahlen:

Kein Versuch, Wahrscheinlichkeitstheorie zu erfassen könnte wohl ohne die Erkenntnis auskommen, die der Schweizer Mathematiker Jakob Bernoulli im 17.Jahrhundert postulierte. Jakob Bernoulli, geboren im Dezember 1654 lernte die Mathematik zum größten Teil im Selbststudium kennen. Seinen Magisterabschluß machte er allerdings 1671 in Theologie. Auch die Physik hatte es ihm offenbar angetan, befaßte er sich doch intensiv mit Experimentalphysik, bevor er auf den Lehrstuhl für Mathematik in Basel wechselte. Neben der erstmaligen Verwendung des Integralbegriffs und etwa der Begründung der Elastizitätstheorie prägte Bernoulli auch entscheidend die Entstehung einer systematischen Wahrscheinlichkeitstheorie. Sein Werk „Ars conjectandi“ beinhaltete Meilensteine der Stochastik wie etwa die Einführung der Bernoullischen Zahlen oder eben das bis heute gültige „schwache Gesetz der großen Zahlen“.

Zunächst muß man den Begriff des Bernoulli Experiments klären. Ein Zufallsexperiment, bei dem ein bestimmtes Ereignis A eintreten kann werde n mal wiederholt. Die einzelnen Versuchsreihen sind dabei voneinander unabhängig, das heißt die einzelnen Ergebnisse beeinflussen einander nicht. Dabei sei nun ausschließlich bedeutsam, ob das Ereignis A eintritt oder nicht. Umgangssprachlich könnte man auch formulieren, daß ein Bernoulli Experiment ein Experiment mit genau zwei möglichen Ausgängen ist. Berühmtestes Beispiel in diesem Zusammenhang ist wohl der Wurf mit einer Münze. Dabei gibt es als Ergebnis des Experiments nur zwei mögliche Ausgänge, nämlich Kopf oder Zahl (je nach Prägungsnation). Abstrahiert man diesen Gedanken mathematisch, so könnte man ohne Beschränkung der Allgemeinheit das Ereignis „Kopf“ als A bezeichnen und das Münzwurfergebnis „Zahl“ eben als Nicht-Eintreffen des Ereignisses A sehen, manche Mathematiker verwenden hierfür die Begriffe „Erfolg“ und „Mißerfolg“. Eine genaue Begriffsabgrenzung ist hier meiner Meinung nach gar nicht nötig, je nach modellierter Situation kann die sprachliche Formulierung variiert werden. So würde sich für ein Schulbeispiel mit Münzwürfen vielleicht eine Kopf - Zahl Sprechweise am ehesten eignen, statt von „Eintreffen“ oder „Nicht-Eintreffen“ zu sprechen. Gleichzeitig sind Bezeichnungen wie „Erfolg“ und „Mißerfolg“ zum Beispiel in industriellen Anwendungen sinnvoll, etwa beim Testen von Geräten.

Nach n - maliger Wiederholung des Bernoulli Experiments ist es nun möglich, dem Ereignis A eine relative Häufigkeit zuzuordnen. Im Falle des Münzwurfes wäre diese etwa der Quotient aus der Anzahl der Versuchsreihen (Würfe) in denen das Ereignis A ein getreten ist und der Anzahl aller Wiederholungen des Experiments. Die relative Häufigkeit ist allerdings eine Größe, die immer erst nach einer Reihe von Experimenten bestimmt werden kann und die keine befriedigende Antwort über das allgemeine Verhalten von Ergebnissen bestimmter Zufallsexperimente liefert. Gleichzeitig zu dieser scheinbaren Unbrauchbarkeit relativer Häufigkeiten geben diese aber einen entscheidenden Anstoß für eine bedeutsame Einsicht in die Theorie der Wahrscheinlichkeitstheorie, die der Mathematiker Bernoulli schließlich in einem für die Wahrscheinlichkeitsrechnung sehr bedeutsamen Gesetz zusammenfaßte. Man unterscheidet dabei das schwache und das starke Gesetz der großen Zahlen. Ersteres sei nun kurz erläutert.

Ein Bernoulli Experiment werde n mal durchgeführt. Rn(A) sei nun die vom Zufall abhängige Größe für jede natürliche Zahl n, die das Eintreten des Ereignisses A bei einem Experiment vom Umfang n angibt. Das Ereignis A habe die Wahrscheinlichkeit P(A) = p.

Dann gilt für jedes ε > 0:

Abbildung in dieser Leseprobe nicht enthalten

oder anders formuliert

Abbildung in dieser Leseprobe nicht enthalten

Ich will nun versuchen diesen Satz in Worten auszudrücken. Wählt man ein passendes ε > 0 aus, so ist der Grenzwert der Wahrscheinlichkeit, daß die relative Häufigkeit und die Wahrscheinlichkeit sich um weniger als ε unterscheiden bei Streben der Anzahl der Versuchswiederholungen gegen unendlich gleich 1. Oder anders gesagt wird eine bleibende Abweichung der relativen Häufigkeit von der Wahrscheinlichkeit mit wachsender Anzahl der Versuchsdurchgänge immer unwahrscheinlicher. Das heißt aber nicht, daß die relative Häufigkeit bei hohen n nahe der Wahrscheinlichkeit bleiben muß. Bewegt man sich im Bereich der Statistik, so kann durch das Gesetz der großen Zahlen von der Untersuchung einer großen Populationsauswahl bezüglich eines bestimmten Merkmals auf die

Gesamtpopulation rückgeschlossen werden. Dies kennen wir alle unter anderem von den Umfragen vor einer politischen Wahl. Hier wird eine repräsentative Stichprobe aus der Gesamtpopulation befragt und die Ergebnisse werden auf alle wahlberechtigten Bürgerinnen und Bürger umgelegt.

Bevor wir nun weiter überlegen soll kurz der Begriff der Unabhängigkeit zweier Zufallsvariablen erläutert werden. Eine Folge Xi, X2, X3, ... von Zufallsvariablen heißt unabhängig, falls für alle n e IN und für alle αι, α.2,..., αη die Beziehung

Abbildung in dieser Leseprobe nicht enthalten

gilt. Wir sagen X/, X2, X3,... haben die gleiche Verteilung, falls für alle a e IR und alle j,k e IN die Beziehung

[Abbildung in dieser Leseprobe nicht enthalten]gilt. Falls Xi, X2, X3,... die gleiche Verteilung haben und Xi einen Erwartungswert besitzt (E(X1) =: E), dann besitzt Xj für alle j e IN einen Erwartungswert und es gilt E(Xj) = E.

Nun aber wieder zurück zur eigentlichen Erklärung. Verwendet man den Terminus der Zufallsvariable, so läßt sich dieses Gesetz wie folgt auffassen. Es sei Xi, X2, X3,... eine unendliche Sequenz von Zufallsvariablen, diese sollen alle einen Erwartungswert besitzen und die gleiche Verteilung haben, das heißt die Xn haben alle denselben Erwartungswert. Weiters sollen die Zufallsvariablen unabhängig voneinander sein, was gerade im vorigen Absatz angesprochen wurde. Es sei außerdem Mn der Mittelwert dieser Zufallsvariablen, das heißt

Wenn nun [Abbildung in dieser Leseprobe nicht enthalten] so konvergiert dieser Mittelwert gegen den Erwartungswert E, oder genauer formuliert:

lim[Abbildung in dieser Leseprobe nicht enthalten] für jede positive Zahl ε

Die Überleitung von der praktischen Größe der relativen Häufigkeit zum abstrakten Begriff der Wahrscheinlichkeit ist durch dieses Postulat nun gelungen. Ein wichtiges Detail soll aber hier noch Erwähnung finden. Da die relative Häufigkeit eines Ereignisses nun eben vom Zufall abhängt kann man nicht sagen, daß diese in jedem Fall in unmittelbarer Nähe der Wahrscheinlichkeit P(A) liegen muß. Es kann sehr wohl Fälle geben, wo dem nicht so ist. Da diese Fälle aber sehr selten sind, eignet sich die Wahrscheinlichkeit in der Praxis meist sehr gut, um die relative Häufigkeit eines Ereignisses in einer konkreten Versuchsreihe abzuschätzen.

Folgendes gilt es aber noch zu beachten. Nach dem schwachen Gesetz der großen Zahlen wäre es allerdings möglich, daß für jede unendliche Versuchesreihe der Mittelwert nicht gegen den Erwartungswert konvergiert. Dies wird jedoch durch das starke Gesetz der großen Zahlen, aus dem das schwache Gesetz der großen Zahlen folgt ausgeschlossen. Das starke Gesetz der großen Zahlen (für Details siehe Heinz BAUER - Wahrscheinlichkeitstheorie - 5. Auflage, Walter De Gruyter Verlag 2002) sagt grob gesagt aus, daß für unendliche Versuchsreihen unter denselben Voraussetzungen wie beim schwachen Gesetz der großen Zahlen mit Wahrscheinlichkeit 1, also fast sicher der Mittelwert gegen den Erwartungswert konvergiert.

(1, 2, 3, 8, 10, 35, 36, 37)

6. GEOMETRISCHE WAHRSCHEINLICHKEITEN

Nach den zahlreichen einführenden Definitionen und Erläuterungen möchte ich nun das eigentliche Thema dieser Arbeit einleiten. Die Wahrscheinlichkeitsrechnung hat seit ihrer oben erwähnten historischen Ausprägung sehr viele Facetten entwickelt. In der heutigen Zeit ist wohl die beschreibende Statistik jenes Teilgebiet, das am meisten Verwendung im täglichen Leben gefunden hat.

In dieser Arbeit möchte ich den Schwerpunkt aber auf ein Teilgebiet lenken, das meiner Ansicht nach in vielen Werken zum Thema Wahrscheinlichkeitstheorie etwas unterrepräsentiert zu sein scheint. Auch in den meisten Schulbüchern sind Beispiele zu geometrischer Wahrscheinlichkeit eher die Ausnahme. Natürlich ist mir klar, daß es sehr viele mathematische Gebiete gibt, die im Schulunterricht nicht ausreichend repräsentiert sind und vielleicht wesentlich wichtiger wären als die geometrischen Wahrscheinlichkeiten. Trotzdem denke ich gerade Beispiele der Art, wie ich sie gleich im Anschluß an die Definition vorstellen möchte eigneten sich sehr gut, um den hohen Grad der Praxisnähe von Wahrscheinlichkeitsrechnung aufzuzeigen, ganz zu schweigen von der schönen Möglichkeit zwei unterschiedliche Gebiete der Mathematik, nämlich Wahrscheinlichkeitsrechnung und Geometrie zu verbinden.

Geometrische Wahrscheinlichkeit beschäftigt sich mit Wahrscheinlichkeiten innerhalb unendlicher Mengen, wobei jedes mögliche Elementarereignis eines Zufallsexperiments mit derselben Wahrscheinlichkeit auftritt. Nun gibt es für gleichwahrscheinliche Ergebnisse in endlichen Räumen ein eindeutig gültiges Modell, den Laplace-Raum. In diesem haben wir die für die Anwendung äußerst praktikable Formel für die Wahrscheinlichkeit

Abbildung in dieser Leseprobe nicht enthalten

In der geometrischen Wahrscheinlichkeit werden wir diese Formel in leicht abgewandelter Form ebenfalls verwenden können, wenngleich dazu oftmals wesentlich komplexere Vorüberlegungen notwendig sein werden, als bei den geschilderten Beispielen für Laplace - Wahrscheinlichkeiten, etwa dem Würfeln mit einem Würfel oder dem Münzwurf. Entscheidend wird der Gedanke sein, daß sowohl die für ein Ereignis A günstigen Fälle bei der berechneten Wahrscheinlichkeit, als auch alle möglichen Fälle durch geometrische Figuren dargestellt werden können. Die beiden Objekte können dann in Beziehung zueinander gesetzt werden, wodurch sich schließlich die Wahrscheinlichkeit berechnen läßt.

Ein entscheidendes Merkmal der geometrischen Wahrscheinlichkeit ist, daß es bei vielen Beispielen auf die grundlegende Wahl des Modells ankommt, welches Ergebnis zum Schluß herauskommt, da ein allgemein gültiges Modell, wie das bei den Laplace-Räumen fehlt.

Bevor wir uns aber ein paar dieser Paradoxa genauer ansehen, möchte ich das Thema zunächst durch ein paar Beispiele motivieren. Dabei werde ich nicht nur Beispiele und deren Lösungsweg darstellen, sondern zugleich versuchen die Nützlichkeit für den eventuellen Einsatz im Schulunterricht aufzuzeigen und die Querverbindung zur Geometrie herausstreichen sollen. Bei manchen Beispielen werde ich versuchen, den theoretischen Zugang möglichst weit aufzurollen, da oft ein langsames Herantasten an den „endgültigen“ Lösungsweg didaktische Vorteile bringen kann.

Bemerkungen:

Wie oben erwähnt gibt es bei geometrischen Wahrscheinlichkeiten immer eine Grundmenge, diese wird konsequenterweise meisten mit Ω bezeichnet. Wir werden uns hier fast ausschließlich mit Ergebnismengen Ω mit endlichem Volumen befassen, die Teilmengen der reelen Zahlen IR oder des Vektorraumes IRn sind. Bei einem Zufallsexperiment wird nun zufällig eine Teilmenge A £ Ω ausgewählt. Diese einem bestimmten Ereignis zugeordnete Untermenge liegt zur Gänze in der Grundmenge und umfaßt alle Elementarereignisse, die für die jeweilige Situation günstig für das geforderte Resultat sind. Im Grunde könnte man diese Untermenge auch als Erfolgsmenge bezeichnen, oder auch als Ergebnismenge.

Die Tatsache, daß geometrische Wahrscheinlichkeiten mit kontinuierlichen Zufallsvariablen und nicht mit diskreten arbeiten, führt direkt zur Erkenntnis, daß bei geometrischen Wahrscheinlichkeiten jedes Elementarereignis die Wahrscheinlichkeit 0 haben muß. Da wir uns in einer unendlichen Menge bewegen, würde sonst sofort aus dem zweiten Axiom von Kolmogorov folgen, daß die Wahrscheinlichkeit Ρ(Ω) = œ wäre, was wiederum dem ersten Axiom widerspräche. Das sei hier kurz erläutert:

Es seien Ai (i e IN) Elementarereignisse aus Ω und jedes Ai trete mit der gleichen Wahrscheinlichkeit p > 0 auf. Die Ai sind Elementarereignisse, daher auch unvereinbar oder besser ausgedrückt disjunkt. Nun folgt aus dem dritten Axiom von Kolmogorov sofort:

Abbildung in dieser Leseprobe nicht enthalten

Da Ρ(Ω) allerdings immer mit Wahrscheinlichkeit 1 auftritt stellt diese Überlegung einen klassischen Widerspruch dar und die Wahrscheinlichkeit p für das Auftreten der Elementar - ereignisse kann nicht größer 0 sein. Also darf bei kontinuierlichen Zufallsmengen mit gleichwahrscheinlich auftretenden Elementarereignissen kein Elementarereignis mit größerer Wahrscheinlichkeit als 0 auftreten.

Wird nun ein Zufallsexperiment durchgeführt, so werden die Ergebnisse mit Punkten in einer geometrischen Region identifiziert. Alle Ereignisse, die einen definierten Erfolg für das zufällige Experiment darstellen, werden in der oben erwähnten Erfolgsmenge oder -region zusammengefaßt. Man kann auch sagen: All jene Ereignisse, die in die Erfolgsregion fallen werden als Erfolg bezeichnet, alle anderen als Mißerfolg. Um nun die Wahrscheinlichkeit zu erhalten, bei der Durchführung eines Zufallsexperiments einen Erfolg zu erzielen, muß man die beiden Regionen oder Mengen irgendwie in Relation zueinander setzen.

Im Eindimensionalen liegt die Lösung dazu auf der Hand. Repräsentiert etwa ein Zahlenbereich auf der Zahlengeraden innerhalb der Menge IR die Grundregion und ein anderer die Erfolgsregion, so kann man die Wahrscheinlichkeit eines Erfolges ganz einfach durch den Quotient der Längen der beiden Abschnitte berechnen. Das heißt:

Abbildung in dieser Leseprobe nicht enthalten

wobei r die Erfolgsregion und Ω die Grundmenge bezeichnen soll.

Da r eine Teilmenge von Ω darstellt, folgt sofort:

Abbildung in dieser Leseprobe nicht enthalten

Diese Überlegung aus dem Eindimensionalen läßt sich für die Ebene leicht übernehmen, indem man einfach in der oberen Formel für P(A) die „Länge“ durch die „Fläche“ ersetzt, ebenso verhält es sich im dreidimensionalen, hier verwendet man dann eben den Begriff des Volumens. Aus diesen Überlegungen kann man schließen, daß sich die geometrische Wahrscheinlichkeit wie auch die Geometrie auf beliebig viele Dimensionen verallgemeinern läßt. Die Begriffe „Länge“ oder „Volumen“ werden dann durch den Überbegriff „Maß“ ausgedrückt.

Wir werden sehen, daß mit Hilfe geometrischer Wahrscheinlichkeitsrechnung viele Beispiele zu lösen sind, die zunächst in ihrer Problemstellung gar nichts Geometrisches beinhalten. Trotzdem werden wir am Weg der Lösung immer wieder auf die Geometrie zurückgreifen. Ich möchte im nächsten Abschnitt einige solcher Beispiele vorstellen, deren Charakter zunächst eher trivial sein wird. Die Beispiele sollen vor allem der Anschauung dienen und ich werde vereinzelt versuchen, Lösungswege zu zerlegen oder deren Herleitung nachvollziehbar zu machen.

(2, 3, 6, 7, 9, 10, 18)

[...]

Details

Seiten
111
Jahr
2006
ISBN (eBook)
9783640477128
ISBN (Buch)
9783640477104
Dateigröße
2.5 MB
Sprache
Deutsch
Katalognummer
v136428
Institution / Hochschule
Universität Wien
Note
sehr gut
Schlagworte
Wahrscheinlichkeitstheorie Verwendung Eigenschaften

Autor

Zurück

Titel: Wahrscheinlichkeitstheorie unter Verwendung geometrischer Eigenschaften