Anwendungsvoraussetzungen und Grenzen klassischer Schätz- und Testverfahren in der Wirtschaftsprüfung


Masterarbeit, 2012

105 Seiten, Note: 1,00


Leseprobe


Inhaltsverzeichnis

1 Einführung und methodologische Überlegungen

I Statistische Grundlagen und Überblick
2 Die Erarbeitung der Grundlagen
2.1 Kombinatorische Grundlagen
2.2 Stochastische Grundlagen
2.2.1 Die Definition der Wahrscheinlichkeit
2.2.2 Die Grundbegriffe der Statistik
2.2.3 Verteilungsfunktionen und Wahrscheinlichkeitsdichtefunktio­nen
2.2.3.1 Diskrete Verteilungsfunktionen
2.2.3.2 Stetige Verteilungsfunktion
2.2.4 Der Erwartungswert und die Varianz von diskreten und ste­tigen Zufallsvariablen
2.2.5 Spezielle diskrete Verteilungen
2.2.5.1 Die Laplace-Verteilung
2.2.5.2 Die Bernoulli-Verteilung
2.2.5.3 Die Binomiale Verteilung
2.2.5.4 Die Hypergeometrische Verteilung
2.2.5.5 Die Poisson-Verteilung
2.2.6 Stetige Verteilungen: Die Xormalverteilung
2.2.7 Die Stichprobe und ihre Eigenschaften
2.2.7.1 Definition und Eigenschaften einer Stichprobe
2.2.7.2 Erwartungswert und Varianz des Stichprobenmittels
2.2.7.3 Der Begriff der Erwartungstreue
2.3 Stochastische Konvergenz und Konvergenz von Verteilungen
2.3.1 Approximation diskreter Verteilungen durch die Xormalver­teilung
3 Überblick über die quantitativen Methoden der Wirtschaftsprü­fung
3.1 Die Methoden der induktiven Statistik: Schätzen und Testen

II Schätzverfahren in der Wirtschaftsprüfung
4 Schätzverfahren bei der homograden Fragestellung
4.1 Punktsehätzung
4.2 Intervallsehätzung
4.3 Der Stichprobenumfang
4.3.1 Berechnung des Stichprobenumfang bei der Schätzung des Anteils bei gegebenem absolutem erwarteten Fehler
4.3.2 Berechnung des Stichprobenumfang bei der Schätzung der Anzahl bei gegebenem absolutem erwarteten Fehler
4.3.3 Berechnung des Stichprobenumfang bei der Schätzung des Anteils bei gegebenem relativem erwarteten Fehler
4.3.4 Berechnung des Stichprobenumfang bei der Schätzung des Anzahl bei gegebenem relativem erwarteten Fehler
5 Schätzverfahren bei der heterograden Fragestellung
5.1 Die freie Hochrechnung: einfache Mittelwertsehätzung
5.1.1 Bestimmung des Stichprobenumfangs bei gegebenem relati­ven Fehler zur Schätzung des Mittelwertes und der Summe
5.1.2 Bestimmung des Stichprobenumfangs bei gegebenem relati­ven Fehler zur Schätzung des Mittelwertes und der Summe
5.2 Die gebundene Hochrechnung
5.2.1 Verhältnissehätzung
5.2.2 Regressionssehätzung
5.2.3 Differenzensehätzung
6 Komplexe Stichprobenverfahren in der Wirtschaftsprüfung
6.1 Die Schichtung der Stichprobe bei der heterograden Fragestellung ,
6.1.1 Die geschichtete Auswahl
6.1.1.1 Gleichmäßige Aufteilung
6.1.1.2 Proportionale Aufteilung
6.1.1.3 Optimale Aufteilung (Xeyman-Aufteilung)
6.1.1.4 Aufteilung nach den Gesamtkosten
6.1.2 Die Schichtung der Stichprobe bei der homograden Frage­stellung
6.1.2.1 Proportionale Aufteilung
6.1.2.2 Optimale Aufteilung
6.2 Weitere komplexe Stichprobenverfahren

III Test verfahren in der Wirtschaftsprüfung
7 Testverfahren bei der homograden Fragestellung
7.0. 1 Der einfache Hypothesentest
7.1 Das sequentielle Testverfahren
8 Test verfahren bei der heterograden Fragestellung
8.0. 1 Der einfache Hypothesentest
8.0. 2 Der Sequentialtest
9 Grenzen der behandelten Verfahren aus Sicht der Wirtschafts­prüfung
9.1 Zielbedingte Grenzen
9.2 Methodenbedingte Grenzen
9.3 Objektbedingte Grenzen
9.4 Vergleich von Zufallsauswahl und bewusster Auswahl zu Prüfungs­zwecken
10 Schlussbemerkungen

. . . und alles, was man weiß, nicht, bloß rauschen und brausen gehört hat., lässt sich in drei Worten sagen.

Motto des TLP von Wittgenstein

Kapitel 1

Einführung und methodologische Überlegungen

Der folgende Abhandlung gibt eine umfassende Einführung und Wertung klassi­scher quantitativer Verfahren die in der Wirtschaftsprüfung ihre Anwendung fin­den. Jede Prüfung ist ein Soll-Ist-Vergleich. Der tautologisehe Charakter dieser Aussage soll jedoch nicht darüber hinwegtäuschen dass oftmals komplexe Verfah­ren innerhalb der Wirtschaftsprüfung ihre Anwendung finden. Diese Masterarbeit widmet sieh einer bestimmten Gruppe dieser Verfahren, die die Gemeinsamkeit besitzen quantitativer Natur zu sein. Von einer “quantitativen Natur” einer Me­thode spricht man in diesem Zusammenhang, wenn bei dieser mathematische und statistische Modelle zur Anwendung kommen.

Dabei werden zwei Ziele verfolgt: Zunächst die klassischen quantitativen Verfah­ren der Wirtschaftsprüfung grundlegend zu erklären und abzuleiten, was bisher in der Literatur vermieden wurde, und die Möglichkeiten und Grenzen der, so abgelei­teten, Modelle im Hinblick auf ihre praktische Verwertbarkeit zu beurteilen. Unter dem Vorwand der Praktikabilität kommt es in der Fachliteratur, als auch in der Ausbildung zum Wirtschaftsprüfer, zu einer Vernachlässigung quantitativer Me­thoden. Da diese Methoden jedoch regelmäßig ihre Anwendung in der Wirtschafts­prüfung finden, resultiert dies im mangeldem Verständnis über die Möglichkeiten aber auch die Grenzen dieser Verfahren. GIEZEK (2011) spricht in diesem Zusam­menhang, von einer “Lücke zwischen den Disziplinen”.[1] Die meisten Wirtschafts­prüfer besitzen geringe Kenntnisse über die Funktionsweise und die Annahmen der statistischen Verfahren die sie in ihrem Beruf benutzen.[2] Die Statistiker hingegen, die bestens mit den Verfahren vertraut sind, wissen jedoch wenig über die eigent­lichen Prüfungshandlungen und die Ziele der Wirtschaftsprüfung.[3] Diese Arbeit soll auch dazu beitragen diese Lücke, zumindest teilweise, zu schließen. Sie setzt daher in zweifacher Hinsicht den Anspruch auf Vollständigkeit: Sie soll alle (rele­vanten) klassischen quantitativen Verfahren erfassen und diese, ansgehend von den Axiomen der Wahrscheinlichkeitsrechnung , ableiten. Ein mathematischer Charak­ter vieler Abschnitte dieser Arbeit kann daher nicht vermieden werden. Da sieh die Arbeit jedoch einer “Grundlagenforschung" innerhalb der wissenschaftlichen Disziplin der Betriebsprüfungslehre widmet, soll dies auch nicht unnötig versucht werden.

Für unsere Anliegen bedeuteten diese Charakterisierungen der Betriebsprü­fungslehre , dass die Beurteilung quantitativer Verfahren der Wirtschaftsprüfung nie ein endgültiges positives Urteil liefern kann. Zwar können unsere Ergebnisse theoretisch geführt werden und auch ihre Richtigkeit an einigen Beispielen postu­liert werden, jedoch bleibt es lediglich bei der Postulation derselben. Es ist daher wissenschaftstheoretisch nicht möglich am Ende einer, noch so guten, wissenschaft­lichen Auseinandersetzung mit einer Thematik zu sagen, diese würde ihre Ziele gänzlich erfüllen. Im positiven Sinne ist also a priori ein Rahmen gesetzt: es kann lediglich auf den Nutzen einzelner Methoden im Vergleich zu anderen Methoden hingewiesen werden. Im negativen Sinne ist es jedoch Möglich Methoden zu falsi­fizieren, Prinzipiell sollten man also in der Lage sein eine Methode aufgrund ihrer theoretischen aber auch empirischen Nachteile als “ungenügend" für bestimmte Prüfhandlungen zu titulieren. Dies wird der zentrale methodologische Leitfaden der Arbeit sein.

Während diese Abhandlung zwar das Ziel einer vollständigen Darbietung für die Wirtschaftsprüfung relevanter klassischer statistischer Verfahren verfolgt, kann sie jedoch nicht als Einführung in die Stichprobentheorie als solches verstanden wer­den, zumal viele Aspekte hier ausgeblendet wurden. Die dem praktischen Anspruch verschiedener Disziplinen entsprechende Entwicklung der statistischen Methoden, macht es selbst für eine rein statistische Abhandlung nicht mehr möglich alle Ver­fahren darzustellen. Dieses Defizit einer umfassenden Vollständigkeit, stellt für den Wirtschaftsprüfer jedoch einen Vorteil dar, zumal diese Arbeit eine grundlegende Einsicht in jene quantitativen Methoden bietet, die in der Wirtschaftsprüfungs­praxis zur Anwendung kommen, von unnötigen Ausschweifungen jedoch verschont bleibt. Dennoch stellen die zu beweisenden Formeln, als auch die Stichprobentheo­rie als solche, keinen Endzweck dar, sondern ein Instrumentarium zur Bewältigung konkreter Fragestellungen, in diesem Fall jener der Wirtschaftsprüfung.

Die Statistik (und vor allem ihre induktive Teildisziplin) basiert in weiten Tei­len auf der Wahrscheinlichkeitsrechnung , die einige ihrer Grundlagen wiederum in kombinatorischen Grundüberlegungen über die Abzählbarkeit hat. Die Unter­suchungen beginnen somit mit der Erarbeitung der kombinatorischen und statis­tischen Grundlagen, ohne die eine Behandlung der Thematik nicht möglich ist. Anschließend werden dann die “klassischen" quantitativen Verfahren des attribu­tiven und variablen Samplings behandelt. Daran schließt eine Untersuchung über die Grenzen eben dieser Verfahren für die Zwecke der Wirtschaftsprüfung an.

Auf die praktische Umsetzung der behandelten Verfahren wird hier jedoch, aus Platzgründen, nicht näher eingegangen. Diese erfolgt meist im Rahmen einfacher statistischer Programme wie R oder, wie üblich in kleineren Kanzleien, EXCEL , Eine Einführung zu den Anwendungen mit EXCEL bietet beispielsweise HÖR- MAXX (1977), Eine Einführung in die Umsetzung der Stiehprobenverfahren in der Programmspraehe R bietet hingegen KAUERMAXX/KUCHEXHOFF (2011) sowie BEHR/PÖTTER (2011)

Teil I Statistische Grundlagen und Überblick

Die Euphorie des um neue Techniken bemühten Theoretikers und die “Formalphobie” des Praktikers stehen sich, nur allzu häufig unversöhnlich gegenüber.

Kapitel 2 Die Erarbeitung der Grundlagen

Seit Mensehengedenken stellt die Mathematik den Anknüpfungspunkt und den Katalysator der Entwieklung versehiedenster Disziplinen der Wissensehaft dar. Aueh die Grundlagenkrise in der ersten Hälfte des 20. Jahrhunderts konnte dem nur wenig entgegensetzten. Es ist daher nieht verwunderlieh, dass mathematische Verfahren und Modelle schon sehr früh ihren Einzug in die Betriebswirtschaftsleh­re feierten. Sowohl im internen als aueh im externen Rechnungswesen sind diese Verfahren nieht mehr wegzudenken. Bald fanden aueh quantitative Verfahren Ein­zug in die Betriebsprüfungslehre . Diese Verfahren sind in vielerlei Hinsicht sta­tistische Verfahren die gewisse kombinatorische und statistische Grundkenntnisse voraussetzen.[4] Oftmals kann man in der Fachliteratur zur Wirtschaftsprüfung ei­ne "Tendenz zur Trivialisierung"dieser mathematischen Grundlagen beobachten. Xur wenige Anwender der Verfahren sind mit den theoretischen und praktischen Bedingungen und Grenzen der Anwendung vertraut. Deshalb soll im Folgenden versucht werden dieses Defizit abzubauen.

Der Analyse von Datenmaterial widmet sieh die deskriptive (beschreibende) Statistik. Sie hat sieh die Sammlung von Daten und Extrahierung von Informa­tionen aus diesen zur Aufgabe gemacht. Oftmals kann es jedoch weder möglich, noch ökonomisch zumutbar sein, die Grundgesamtheit in ihrer Gänze derart zu analysieren. Jedoch schon die Erkenntnisse die aus der Analyse eines Teils dieser Grundgesamtheit (der Stichprobe) resultieren, können unter gewissen Bedingungen auf die Grundgesamtheit[5] selbst übertragen werden. Dieser Aufgabe, die natürlich für die Wirtschaftsprüfung essentiell ist, hat sieh die induktive (schließende) Sta­tistik oder einfach Stichprobentheorie gewidmet.[6] Die Verfahren der induktiven Statistik sind somit das natürliche Instrumentarium für Fragestellungen bei de­nen eine vollkommene Sammlung und Analyse des Datenmaterials nieht möglich oder ökonomisch nicht tragbar wäre. Die Anwendung dieser Verfahren innerhalb der Wirtschaftsprüfung, bei der die Frage nach der Effizienz zumindest genauso relevant erscheint, wie die der Effektivität, ist selbstverständlich.

Die Methoden die innerhalb der induktiven Statistik (bzw, der Stichprobentheo­rie) zur Anwendung kommen, können grob in Sehätzmethoden und Testmethoden unterteilt werden. Der Unterschied zwischen diesen beiden Gruppen von Verfahren liegt im Resultat, Während das Ergebnis der Sehätzmethoden eine zahlenmäßige Information darstellt, ist das Resultat der Testverfahren eine Entscheidung über die Akzeptanz, Sowohl die Sehätzverfahren, als auch die Testverfahren haben Ein­zug in den Methodenkanon der Wirtschaftsprüfung gefeiert. Egal ob es sieh bei der behandelten Fragestellung um eine nach dem Anteil (homograder Fall) oder eine nach dem Wert (heterograder Fall) handelt, können sowohl die einen als auch die anderen zur Anwendung kommen.

Die Statistik selbst hat jedoch ihre Wurzeln in der Wahrscheinlichkeitstheorie und der Kombinatorik , Der Aufbau dieser Arbeit wird dem Rechnung tragen. Das erste Unterkapitel behandelt deshalb die kombinatorischen Präliminarien die den statistischen Modellen zugrunde liegen. Daran Anschließend und basierend auf diesen, werden die Wahrseheinliehkeitstheoretisehen und statistischen Modelle behandelt. Dieser pyramidenartige Aufbau des ersten Teils der Arbeit ermöglicht die Erarbeitung eines grundlegenden Verständnisses für die behandelten Verfahren.

2.1 Kombinatorische Grundlagen

Die Kombinatorik ist Grundlage vieler Disziplinen der diskreten Mathematik , Sie bildet auch den Ausgangspunkt bei jeder Beschäftigung mit Wahrscheinlichkeits­theorie und Statistik , Das diesem oftmals wenig oder gar kein Raum geschenkt wird geschieht immer auf Kosten des Verständnisses der später behandelten Dis­ziplinen, Da diese Arbeit jedoch gerade dem grundlegendem Verständnis quanti­tativer Methoden der Wirtschaftsprüfung verpflichtet ist, muss auch auf die Kom­binatorik eingegangen werden, in jenem Ausmaß dass für die hiesigen Anliegen relevant ist.

Diese mathematische Disziplin beschäftigt sieh mit Fragestellungen die danach trachten die Anzahl der Möglichkeiten der Elemente einer Gesamtmenge aufzuzäh­len, sie anzuordnen und zu gruppieren. Die Antworten auf derartige Fragen bilden die Grundlage der klassischen Definition der Wahrscheinlichkeit,[7]

Xiehtsdestotrotz bildet die Kombinatorik die anfangs intuitivste, letztendlich jedoch eine der schwierigsten Disziplinen der Mathematik, Aber nicht nur der Ge­genstand dieser mathematischen Disziplin ist unklar und schwierig zu formulieren, auch sie selbst stellt weiterhin eine Disziplin dar die sieh sowohl einer exakten Definition als auch eines Rahmens entzieht. Jede Einführung in die Kombinatorik beginnt deshalb meist mit anschaulichen Beispielen zu sog, Urnenmodellen , artet jedoch bald in eine Fülle möglicher Ergebnisräume aus. Um derartige unangenehme Überraschungen in dieser Arbeit zu umgehen, werden alle Ergebnisse vorwegge­nommen und in der Tabelle 2,1, dargestellt. Die Definition zweier Grundbegriffe ist im Vorfeld jedoch unerlässlich. Weitere Begriffe, vor allem die der Wahrschein­lichkeitsrechnung, werden jedoch erst im Kapitel zu den statistische Grundlagen eingeführt,[8]

Definition 1. (Ereignismenge.)[9] Die Ereignismenge eines Zufallsexperiments wird, stets mit Ω gekennzeichnet. Die Potenzmenge[10] von Ω wird als Ereignisraum bezeichnet.[11]

Definition 2. (Ereignis.)[12] '2 Ein Ereignis ist ein Element der Ereignismenge.

Tabelle 2.1: Anzahl der Möglichkeiten bei verschiedenen Ereignisräumen

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2.1.[13] gibt eine Zusammenstellung der zentralen Ereignisräume der Kombinatorik wieder,[14] Alle anderen, hier nicht erwähnten, Ereignisräume sind le­diglich Spezialfälle der obigen vier. Es wird nun anhand einfacher Beispiele versucht die obigen Formeln plausibler zu machen. Die Beispiele sind mengentheoretisch ori­entiert um den Grundgedanken, mit möglichst wenigen Worten, darzustellen,[15]

Beispiel 1. (Variationen mit Wiederholungen.)w Es soll in diesem Beispiel gezeigt werden, dass die Anzahl der möglichen Ereignisse bei k-Variationen ei­ner Menge der Mächtigkeit n gleich, nk ist.[16] [17] Betrachten man beispielsweise eine Menge M mit zwei Elementen ‘a und b: M = {a, b}, so stellt sich, die Frage wie viele Variationen, d.h. Reihungen, mit genau vier Elementen, aus den Elementen der Menge M konstruiert werden können. Da bei disem Ereignisraum keine Re­striktionen bezüglich der Wiederholung von Elementen aufgestellt wurden, ist diese Fragestellung durchaus plausibel. Die gesuchten Variationen können nun allgemein folgendermaßen dargestellt werden: xyzw, wobei [Abbildung in dieser Leseprobe nicht enthalten] keine Bedingung der Konstruktion der Variationen ist. Nun ist es klar, dass x auf zwei Arten gewählt werden kann: entweder a oder b. Genauso verhält es sich, auch mit den anderen Elementen der Variation. Somit, ist die gesamte Anzahl der möglicher Variationen R, 2 · 2 · 2 · 2 = 24. Das Ergebnis entspricht der Formel für Variationen mit Wie­derholungen, wobei n = 2 die Mächtigkeit der Menge M darstellt, und k = 4 die Anzahl der Elemente der Variation. Es ist offensichtlich, dass derartige Plausibili­tätsüberlegungen keinen formalen Beweis für die obigen Formeln ersetzen können. Für unsere Anliegen reicht, dies jedoch vollkommen aus.

Beispiel 2. (Variationen ohne Wiederholung en.)[18] Die Ausgangsmenge in diesem Beispiel ist die Menge M = {a,b,c,d}. Es sollen nun Variationen kon­struieren werden, die keine Wiederholungen der Elemente aus M gestatten. Die Variationen sollen dabei jeweils zwei Elemente enthalten. Das Element x kann so­mit auf f Arten gewählt werden, das zweite Element y, jedoch, nur auf drei Arten. Dies hängt damit zusammen, dass schon bei der Wahl von x ein Element “ver­braucht,” wurde und Wiederholungen nicht, erlaubt, sind. Somit, gibt, es insgesamt, 4 -(4 - 1) Menge n R die die Bedingungen erfüllen. Auch dies ist mit der obigen Formel für Variationen ohne Wiederholungen konsistent.[19]

Beispiel 3. (Kombinationen ohne Wiederholungen.)[20] Die Ausgangsmenge ist wiederum die Menge M = {a,b,c,d}. Es soll nun die Mengen R konstruie­ren werden, die jedoch, keine Wiederholungen der Elemente aus M gestatten. Im Unterschied zu den bisherigen zwei Beispielen sucht, man hier daher keine. Va­riationen (oder Reihungen), sondern Mengen. Die Reihenfolge der Elemente wird somit, per Definition, ausgeblendet. Unter der Annahme das jede Menge R zwei Elemente enthalten soll, oder allgemein R = x,y gelten muss, folgt unmittelbar, dass folgende Mengen generiert werden können:

Abbildung in dieser Leseprobe nicht enthalten

Es gibt daher insgesamt [Abbildung in dieser Leseprobe nicht enthalten] solcher Mengen. Auch dies ist konsistent mit unserer obigen Formel, n M und к die Mächtigkeit der zu konstruierenden Mengen R.

Diese drei Beispiele genügen um ein Grundverständnis über die, für die Wirt­schaftsprüfung relevanten, Sachverhalte zu gewährleisten. Die letzte Möglichkeit, die der Kombinationen mit Wiederholungen ist etwas komplizierter, für die Ziel­setzung dieser Arbeit jedoch wenig fruchtbar,[21]

Das Zufallsexperiment (beispielsweise eine Ziehung von Kugeln) kann jedoch in Stufen erfolgen, Überlegungen zu einem r-Stufigen Gesamtexperiment haben zur Formulierung der sog. Produktregel der Kombinatorik geführt. Dies ist eine der wenigen Grundüberlegungen der Kombinatorik die auch im späteren Verlauf der Arbeit wichtig sein Werden.

Theorem 1. (Produktregel der Kombinatorik)[22] Ein r-stufi,ges Gesamtexpe­riment besitzt

Abbildung in dieser Leseprobe nicht enthalten

wobei [Abbildung in dieser Leseprobe nicht enthalten] die Anzahl der möglichen Versuchsergebnisse der i-ten Stufe darstellt.

Der Beweis dieses Theorems basiert auf einfachen Überlegungen zur Abzähl­barkeit von Ereignissen,[23]

2.2 Stochastische Grundlagen

Aufbauend auf den, nun erarbeiteten, kombinatorischen Grundkenntnissen kann man sieh der Wahrscheinlichkeitsrechnung und der Statistik zuwenden. Diese zwei Teilgebiete der Mathematik werden heute mit dem Begriff Stochastik zusammen­gefasst, Demnach wäre die Stochastik “die Lehre von den Gesetzmäßigkeiten des Zufalls"[24], Der Begriff selbst stammt aus dem griechischen und stecht im Zusam­menhang mit [Abbildung in dieser Leseprobe nicht enthalten] (das Ziel, die Mutmaßung), [Abbildung in dieser Leseprobe nicht enthalten](scharfsinnig im Vermuten) und [Abbildung in dieser Leseprobe nicht enthalten] (etwas erraten, erkennen, beurteilen) und drückt da­mit das intuitive Verständnis der Wahrscheinlichkeitsrechnung der Statistik aus,[25] Die Wahrscheinlichkeitstheorie hat dabei die Aufgabe zufällige Vorgänge zu be­schreiben und Modelle aufzustellen, wobei die Statistik einen Umgang mit dem Zufall und die Schlussfolgerungen aus dem Zufall ermöglichen soll. Somit ist es nicht verwunderlich dass die quantitativen Methoden der Wirtschaftsprüfung auf diesen zwei Disziplinen der Mathematik aufbauen,[26]

Das intuitive Verständnis von der Xatur des Zufalls wird alle folgenden Überlegun­gen begleiten. Dennoch soll versucht werden sieh der Thematik wissenschaftlich zu nähern. Die Formale Handhabung der Thematik soll jedoch nicht auf eine norma­tive Herangehensweise reduziert werden, sondern stellt vielmehr eine deskriptive Darstellung komplexer Zusammenhänge dar. Den Ausgangspunkt bilden auch hier einige grundlegende Definitionen, Aufbauend auf diesen werden die Eigenschaf­ten einiger wichtiger diskreter Verteilungen analysieren. Im Folgendem werden die meisten diskreten Verteilungen behandelt. Von den stetigen Verteilungen wird le­diglich die Xormalverteilung behandelt. Diese ist auf den Umstand zuriiekzuführen, dass viele diskrete Verteilungen durch die Xormalverteilung approximiert werden können

2.2.1 Die Definition der Wahrscheinlichkeit

Es gibt viele Versuche den Begriff der Wahrscheinlichkeit zu definieren. Das Unbe­hagen einer zu weit reichenden Formalisierung als auch der Verlust der immanenten Intuitivität des Begriffes dabei, bewirkte sicherlich dass die klassische Definition der Wahrscheinlichkeit in den meisten Lehrbüchern beibehalten wurde, Xiehts- destotrotz resultierte der “Drang" zur Axiomatisierung im 20, Jahrhundert, dass weite Teile der Mathematik auf diese Weise fundiert wurden. In diesem Zusam­menhang ist, vor allem, der russische Mathematiker Kolmogoroff zu nennen. Er war es der als erster die Wahrseheinliehkeitstheorie axiomatisierte und eine exakte Definition des Wahrseheinliehkeitsbegriffs erlaubte. Im folgendem sollen deshalb drei Definitionen der Wahrscheinlichkeit dargestellt werden,

Definition 3. (Wahrscheinlichkeitsdefinition nach Laplace[27] )[28] Wenn sich ein Ereignis A in m Teilereignisse zerlegen läßt, die alle zu einer vollständigen Gruppe von n paarweise unvereinbaren und gleichmöglichen Ereignissen gehören, so ist die Wahrscheinlichkeit P(A) des Ereignisses A gleich,

Abbildung in dieser Leseprobe nicht enthalten

Über die Anzahl derartiger Ereignisse wurde schon im Kapitel zur Kombina­torik genügend in Erfahrung gebracht. Die zentralen Voraussetzungen die dieser Definition zugrunde liegen sind (1) eine endliche Grundgesamtheit und (2) der Umstand dass alle Elementarergebnisse gleiehwahrseheinlieh sind,[29] Es soll nun versucht werden ein, auf den ersten Blick, schwieriges Beispiel mit, den zur Verfü­gung stehenden, elementaren, Mitteln zu lösen.

Beispiel 4. Unter der Annahme, dass ein Algorithmus aus 10 mögliehen unter­einander unterschiedlichen Buchstaben (unter ihnen auch der Buchstabe “a”) eine zufällige Folge von drei Buchstaben bildet. Wie groß ist die Wahrscheinlichkeit das die nächste Folge den Buchstaben “a” enthält? Dabei ist zu beachten dass ein Buchstabe nur einmal in eine Folge auftre.ten kann.

Lösung. Der letzte Satz besagt, dass Wiederholungen von Buchstaben in den Folgen nicht möglich sind. Da die Reihenfolge der Buchstaben in der Folge offensichtlich irrelevant ist, handelt es sieh hierbei daher um Kombinationen ohne Wiederholungen. Dabei ist die Mächtigkeit der Ge­samtmenge der Elemente (hier die Menge der zehn Buchstaben) als n zu k. Insgesamt gibt es also [Abbildung in dieser Leseprobe nicht enthalten] Kombinationen von Folgen (oder Mengen) von Buchstaben, Die Anzahl der Kombinationen die jedoch den Buchstaben “a” enthalten beträgt [Abbildung in dieser Leseprobe nicht enthalten], Gemäß der obigen Definition der Wahrschein­lichkeit ist die Wahrscheinlichkeit einer Menge von Buchstaben die den Buchstaben “a” enthalten gleich [Abbildung in dieser Leseprobe nicht enthalten]

Die obige Definition der Wahrscheinlichkeit ist in der Literatur als Laplaeesehe- Wahrseheinliehkeit bekannt, nach ihrem Begründer Pierre Simon Laplace (1799 - 1827). Ähnlich wie die Laplacesche-Verteilung (siehe Kapitel 2,2,5.1.) geht sie von dem Laplace-Experiment aus als einem Zufallsexperiment in dem jedes Ereig­nis gleich wahrscheinlich ist. Es ist augenscheinlich, dass in den bisherigen kombi­natorischen Überlegungen dies stets Voraussetzung war: da über die Wahrschein­lichkeit nichts näheres gesagt wurde, wurde eine Gleichverteilung dieser, implizit angenommen. Selbsterklärend ist auch, dass eine derartige Definition nichts empi­risches an sich hat. Die Wahrscheinlichkeit im obigen Beispiel kann a priori, d.h, vor den eigentlichen Beobachtungen berechnet werden. Eine empirisch-induktive Variante der Definition der Wahrscheinlichkeit findet man hingegen bei Richard von Mises (1883 - 1953). Sie stellt somit eine a posteriori orientierte Wahr­scheinlichkeitsdefinition dar,[30]

Definition 4. (Wahrscheinlichkeitsdefinition nach Mises)[31]:il Die Wahrschein­lichkeit P(A) eines Ereignisses A entspricht dem Grenzwert der relativen Häufig­keiten des Auftretens von A in einer Folge von unendlicher und unabhängiger Wiederholungen des betreffenden Zufallexperiments. Somit gilt

Abbildung in dieser Leseprobe nicht enthalten

Schlussendlich weisen jedoch sowohl die Laplassehe als auch die Misesehe Wahr- seheinliehkeitsdefinition erhebliche Defizite auf. Dies schon erwähnte Gleiehvertei- lungsannahme bei Lapiace als auch die Komplexität bei Mises sind Nachteile die den Bedarf nach einer alternativen Wahrseheinliehkeitsdefinition im 20, Jahrhun­dert steigerten. Im Jahre 1933 stellt der russische Mathematiker Andrei Nikola- jewitsch Kolmogoroff (1903 - 1987) ein axiomatisehes System auf, dass diese Nachteile umgehen sollte. Diese Axiome bilden die Grundlage der modernen Wahr­scheinlichkeitstheorie und sind mit dem Großteil der späteren Verfahren in engem Zusammenhang,[32]

Der Begriff der Wahrscheinlichkeit von Kolmogoroff basiert auf mengentheo­retischen Überlegungen, Die Potenzmenge (oft vereinfachend das System einer bestimmten Menge genannt[33] ) stellt die Menge aller Teilmengen einer bestimmten Menge dar. Wenn die Grundgesamtheit abzählbar unendlich oder gar stetig ist bietet die Idee der Potenzmenge keinen Ausgangspunkt für die Wahrscheinlich­keitstheorie dar. Zwar sieht sich der Wirtschaftsprüfer stets endlichen Grundge­samtheiten entgegen, jedoch bedienen sich viele Verfahren der Wirtschaftsprüfung auch stetiger Verteilungen wie der Normal Verteilung , Dies vor allem dort, wo durch eine Approximation durch die Nor mal Verteilung der Rechenaufwand erheb­lich gemindert werden kann.

Um diese Problematik zu umgehen wird in der modernen Wahrscheinlichkeits­theorie der Begriff der o-Algebra eingeführt. Die o-Algebra abstrahiert in ihrer Definition aller möglichen Teilmengen des Ereignisraumes und beschäftigt sich le­diglich mit jenen, die für die bestimmte Fragestellung relevant sind, o-Algebren sind somit natürliche Mengensysteme für zufällige Ereignisse,[34]

Definition 5. (o - Algebra.)[35] Sie Ω eine nichtleere Menge. Ein System A von Teilmengen von Ω heißt o-Algebra über Ω, falls [36]

Abbildung in dieser Leseprobe nicht enthalten

Definition 6. (Wahrscheinlichkeitsraum: Die Axiome von Kolmogoroff)[37] Mit dem Wissen über die Eigenschaften einer o-Algebra kann nun auch der Begriff des Wahrscheinlichkeitsraums eingeführt werden. Ist Ω eine Ereignismenge und ist [Abbildung in dieser Leseprobe nicht enthalten] eine σ-Algebra von Ereignissen über Ω, so heißt eine Abbildung [Abbildung in dieser Leseprobe nicht enthalten] ein Wahrscheinlichkeitsmaß, wenn gilt:

- Nichtnegativität: P (A) > 0 für alle[Abbildung in dieser Leseprobe nicht enthalten]
- Normiertheit: P(Ω) = 1
- Additivität:[Abbildung in dieser Leseprobe nicht enthalten] für paarweise unvereinbare Ereignisse [Abbildung in dieser Leseprobe nicht enthalten]

Das Tripel (Ω, A,P) heißt Wahrscheinlichkeitsraum. P(A) heißt Wahrscheinlich­keit des Ereignisses A.

Der Vorteil dieser Wahrscheinlichkeitsdefinition und zugleich auch die Rechtfer­tigung der Axiomatisierung beruht auf ihrer Vereinbarkeit mit den Wahrscheinlich­keitsdefinitionen nach Laplace und Mises, Aber auch die Möglichkeit viele Sätze der Wahrscheinlichkeitstheorie exakt zu beweisen spricht für diesen Ansatz, So­mit besteht kein Widerspruch zwischen den verschiedenen Definitionen der Wahr­scheinlichkeit, Abhängig von der Situation wird, zur numerischen Bestimmung von Wahrscheinlichkeiten, entweder die Definition nach Laplace oder nach Mises her­angezogen,[38]

2.2.2 Die Grundbegriffe der Statistik

Die Größe bei der ein Zufallsexperiment auftritt wird Zufallsvariable genannt. In diesem Sinne ordnet die Zufallsvariable jedem Experiment einen bestimmten Wert zu. Somit kann definiert werden, dass

Definition 7. (Zufallsvariable.)[39] Jede Abbildung bzw. Funktion, die die Ei­genschaft hat, den Elementen der Ereignismenge eine bestimmte Zahl zuzuordnen wird Zufallsvariable genannt. Somit kann gesagt werden, dass X eine Zufallsvaria­ble darstellt, wenn für jede reelle Zahl x die Wahrscheinlichkeit P(X < x) existiert.

Während also die Zufallsvariable die Abbildung der Ereignismenge in die Menge der reellen Zahlen (oder eine Teilmenge dieser) darstellt, so steht die Realisierung der Zufallsvariable für einen konkreten Wert, der im Experiment auftritt. Um die Zufallsvariablen von ihren Realisierungen unterscheiden zu können werden diese (die Realisierungen) mit kleinen, während die Zufallsvariablen mit großen Buch­staben bezeichnet werden.

Definition 8. (Grundgesamtheit und Stichprobe.)[40] Die menge aller mög­lichen Realisierungen einer Zufallsvariable wird als Grundgesamtheit bezeichnet.

Hingegen stellt die Stichprobe die n-fache Realisierung einer Zufallsvariable dar, wobei n für die Stichprobengröße steht.

Bekanntlich ist, nach einem Resultat Georg Cantors (1845 - 1918) , die Menge der reellen Zahlen iiberabzählbar. Dies bedeutet, dass die “Unendlichkeit" der reellen Zahlen selbst auf einer unendlich langen Liste von Zahlen nicht aus- driiekbar wäre. Dieses Ergebnis, als auch verschiedenste Anwendungserfordernisse der Stochastik, haben dazu geführt die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen einzuführen.

Definition 9. (Diskrete und stetige Zufallsvariablen.)[41] Treten bei der Ab­bildung der Zufallsvariable lediglich ganze Zahlen auf, so .spricht man von einer diskreten Zufallsvariable. Enthält die Abbildungsmenge jedoch auch reelle Zahlen, so spricht man von stetigen Zufallsvariablen.

Die, hier behandelten, kombinatorischen Grundlagen, sind, gemäß dieser Defi­nition, stets Hilfsmittel im Umgang mit diskreten Zufallsvariablen,

2.2.3 Verteilungsfunktionen und Wahrscheinlichkeitsdichtefunktionen

Nachdem nun die Wahrscheinlichkeit definiert wurde soll der Begriff der Vertei­lungsfunktion geklärt werden. Zufallsvariablen sind durch ihre Verteilungsfunktio­nen sowie durch die Dichtefunktionen im stetigen Fall bzw, die Wahrscheinlich­keitsfunktionen im diskreten Fall charakterisiert.

Definition 10. (Verteilungsfunktion)[42] Sei X eine Zufallsvariable über [Abbildung in dieser Leseprobe nicht enthalten]. Dann heißt die Abbildung F : [Abbildung in dieser Leseprobe nicht enthalten] mit

Abbildung in dieser Leseprobe nicht enthalten

Verteilungsfunktion der Zufallsvariable X. Die Eigenschaften einer Verteilungs­funktion F .sind folgende (a,b e R,a < b):

Abbildung in dieser Leseprobe nicht enthalten

Dies stellt die allgemeine Form einer Verteilungsfunktion dar. Es ist anzumer­ken, dass an dieser Stelle weder eine diskrete noch eine stetige Verteilung ange­nommen wurde. Diese speziellen Fälle werden gesondert behandelt. Weiter ist aber auch auf den Unterschied zwischen dieser (theoretischen) Verteilungsfunktion und einer empirischen Verteilungsfunktion hinzuweisen. Die hier definierte Verteilungs­funktion ist genau genommen, das Gegenstück zur empirischen Verteilungsfunkti­on, Die empirische Verteilungsfunktion ist der deskriptiven Statistik zuzuordnen[43] stellt jedoch die kumulierten relativen Häufigkeiten eines bestimmten komparati­ven Merkmals dar,[44]

2.2.3.1 Diskrete Verteilungsfunktionen

Da man es in der Wirtschaftsprüfung, aber auch generell in den Wirtschaftswis­senschaften, regelmäßig mit Wahrscheinlichkeitsverteilungen zu tun hat ist die Be­trachtung nur eines einzelnen Zustandes, wie im obigen Beispiel, nicht angebracht. Man muss demnach die Betrachtungen ausweiten. Doch was versteht man über­haupt unter einer Verteilungsfunktion? Während die Wahrscheinlichkeitsfunktion nach der Wahrscheinlichkeit des Eintretens eines bestimmten Ereignisses fragt, stellt die Verteilungsfunktion eine kumulierte Größe dar.

Die allgemeine Definition der Verteilungsfunktion soll nun auch für die Spezi­alfälle der diskrete und stetige Verteilungen bestimmt werden,

Definition 11. (Wahrscheinlichkeitsfunktion)[45] Eine Zufallsvariable X heißt diskret (oder diskret verteilt), wenn ihr Wertbereich endlich oder abzählbar unend­lich ist. Die Wahrscheinlichkeitsfunktion kann ausgedrückt werden als

Abbildung in dieser Leseprobe nicht enthalten

Sie ordnet somit jedem Wert xi aus dem diskreten Wertbereich eine Wahrschein­lichkeit [Abbildung in dieser Leseprobe nicht enthalten]. Da es sie bei der Variable um eine diskrete Zufallsvariable handelt, spricht man in diesem Zusammenhang von einer diskreten Wahrscheinlichkeits­funktion.

Die diskrete Verteilungsfunktion basiert stellt eine kumulative Funktion dar, die auf der diskreten Wahrscheinlichkeitsfunktion basiert.

Definition 12. (Diskrete Verteilungsfunktion)[46] Für eine diskrete Zufallsva­riable, mit einer Wahrscheinlichkeitsfunktion fx(xi), stellt die Funktion

Abbildung in dieser Leseprobe nicht enthalten

die diskrete Verteilungsfunktion dar.

Diese diskrete Verteilungsfunktion erfüllt alle Bedingungen der obigen, allge­meinen, Definition der Verteilungsfunktion.

2.2.3.2 Stetige Verteilungsfunktion

Das was die Wahrseheinlielikeitsfunktion für diskrete Zufallsvariablen darstellt, stellt die Dichtefunktion für stetige Zufallsvariablen dar.

Definition 13. (Dichtefunktion)[47] Die Diehte.funktion stellt die Wahrsehein- lichkeitsfunktion einer stetigen Zufallsvariable. Für die Diehte.funktion gilt

Abbildung in dieser Leseprobe nicht enthalten

Die stetige Verteilungsfunktion basiert auf dieser Dichtefunktion.

Definition 14. (Stetige Verteilungsfunktion.)[48] Für eine stetige Zufallsvaria­ble mit einer Dichtefunktion fx (x) stellt die Funktion

Abbildung in dieser Leseprobe nicht enthalten

die stetige Verteilungsfunktion der Zufallsvariable dar.

Es ist an dieser Stelle auf den mathematischen Zusammenhang zwischen der stetigen Verteilungsfunktion und ihrer Dichtefunktion hinzuweisen. Die Ableitung der Verteilungsfunktion ergibt die Dichtefunktion.

2.2.4 Der Erwartungswert und die Varianz von diskreten und stetigen Zufallsvariablen

Sowohl diskrete als auch stetige Zufallsvariablen werden durch die verschiedenste Kennzahlen charakterisiert, von denen der Erwartungswert und die Varianz einen zentralen Platz einnehmen. Der Erwartungswert wird in der deskriptiven Statistik als Lagemaß, die Varianz dagegen als Streuungmaß bezeichnet. Somit sind diese beiden Kennzahlen Parameter die die Lage und Streuung einer Wahrscheinlich­keitsverteilung angeben. Es gilt nun diese beiden Kennzahlen exakt zu definieren, bevor sie, bei den einzelnen Verteilungen abgeleitet werden. Die Unterscheidung in diskrete und stetige Größen wird naturgemäß auch hier beibehalten,

Definition 15. (Diskreter Erwartung sw ert.)[49] Der Erwartungswert einer dis­kreten Zufallsvariable ist definiert als

Abbildung in dieser Leseprobe nicht enthalten

Definition 16. (Stetiger Erwartungswert. )[50] Der Erwartungswert einer steti­gen Zufallsvariable ist definiert als

Abbildung in dieser Leseprobe nicht enthalten

Um das Ziel einer quantitativen Bestimmung der Genauigkeit eines Schätzwer­tes zu bestimmen wird die Varianz als Streuungsmaß herangezogen. Ähnlich wie für den Erwartungswert, gilt auch hier:

Definition 17. (Diskrete Varianz.)[51] Die Varianz einer diskreten Zufallsvaria­ble ist definiert als

Abbildung in dieser Leseprobe nicht enthalten

Definition 18. (Stetige Varianz.)[52] Die Varianz einer stetigen Zufallsvariable ist definiert als

Abbildung in dieser Leseprobe nicht enthalten

Der jeweils zweite Ausdruck für die Varianz ist das Resultat des sog. Verschie­bungssatzes.[53]

Tabelle 2.2: Allgemeine Darstellung des Erwartungswertes und der Varianz

Abbildung in dieser Leseprobe nicht enthalten

Ein weiteres Streuungsmaß stellt die Standardabweichung dar:

Definition 19. (Standardabweichung) Die Standardabweichung ist als Wurzel der Varianz definiert:

Abbildung in dieser Leseprobe nicht enthalten

Die obigen Größen sind jedoch nichts anderes als Spezialfälle allgemeiner Grö­ßen, die Momente genannt werden. Eine Verteilung ist durch verschiedene Mo­mente charakterisiert, wobei der Erwartungswert und die Varianz lediglich zwei der wichtigsten darstellen.[54]

Ausgehend von diesen Definitionen kann auch der Erwartungswert bzw. die Varianz einer linear transformierten dieser Zufallsvariable bestimmt werden. Für den Erwartungswert gilt dann im einfachsten Fall

Abbildung in dieser Leseprobe nicht enthalten

Somit ist der Erwartungswert durch eine Linearität gekennzeichnet.[55]

Doch auch der Zusammenhang zwischen zwei Zufallsvariablen wird bei den bevorstehenden Betrachtungen relevant sein. Dieser Zusammenhang wird durch die Kovarianz und die Korrelation ausgedrückt.

Definition 20. (Kovarianz.) Die Kovarianz stellt die gemeinsame Verteilung zweier quantitativer Merkmale dar und hat somit zweidimensionalen Charakter. Sie ist gegeben mit

Abbildung in dieser Leseprobe nicht enthalten

Im Falle stochastisch unabhängiger Zufallsvariablen beträgt die Kovarianz null, da gilt dass [Abbildung in dieser Leseprobe nicht enthalten][56]

2.2.5 Spezielle diskrete Verteilungen

Basierend auf den Definitionen diskreter Verteilungen und der allgemeinen Form des Erwartungswertes und der Varianz bei diskreten Verteilungen kann nun eine Analyse jener Verteilungen durchgeführt werden, die innerhalb der quantitativen Methoden der Wirtschaftsprüfung, direkt oder indirekt, zur Anwendung kommen. Es soll jedoch dabei bedacht werden, dass die Statistik auch andere Verteilungen kennt, die hier nicht angeführt werden.

2.2.5.1 Die Laplace-Verteilung

Die Laplace- oder Gleiehverteilung stellt die einfachste der diskreten Verteilungen dar.

Definition 21. (Laplace- Verteilung.)[57] Die Verteilung einer Zufallsvariabel X heißt Laplace-Verteilung oder Gleichverteilung auf {1,..., N}, wenn gilt

Abbildung in dieser Leseprobe nicht enthalten

Das vereinfachte Verständnis einer Verteilung, das der Lapiace-Verteilung zu­grunde liegt, ist jedoch praktisch, für die Wirtschaftsprüfung, wenig relevant. Theo­retisch hingegen bildet die Lapiace-Verteilung die Grundlage für verschiedene an­dere Verteilungen.

2.2.5.2 Die Bernoulli-Verteilung

Oftmals gibt es jedoch zwei Mögliche Zustände die unterschiedliche Wahrschein­lichkeiten aufweisen. Dies ist, vor allem, bei symmetrischen Glücksspielen der Fall. In diesem Fall spricht man von sog. Bernoulli-Prozessen,[58]

Definition 22. (Bernoullizufallsvariable.)[59] Gehen wir von einer Zufallsva­riable Xi mi t i = 1,...,n aus, die durch folgende Eigenschafts charakterisiert ist

Abbildung in dieser Leseprobe nicht enthalten

Diese Zufallsvariable wird als Вernoullizvfallsvariable bezeichnet.

Diese gibt daher lediglich wieder ob für ein i-tes Experiment der erste oder der zweite Zustand stattgefunden hat (Erfolg oder Misserfolg). Theorem

Theorem 2. (Bernoulli- Verteilung)[60] Unter der Annahme, dass der erste Zu­stand (Erfolg) mit einer Wahrscheinlichkeit von p eintritt, hat die В ernoulli-Verteilung folgende Wahrscheinlichkeitsfunktion:

Abbildung in dieser Leseprobe nicht enthalten

2.2.5.3 Die Binomiale Verteilung

Die Binomialverteilung stellt eine diskrete Wahrscheinlichkeitsverteilung dar die durch einen Bernoulli-Prozess und die Annahme einer Laplace-Wahrscheinlichkeit gekennzeichnet ist. Sie ist somit die Wahrscheinlichkeitsverteilung für ein Alter­nativmerkmal (A oder nicht-A) mit konstanter Erfolgswahrscheinlichkeit p für A dar.

Theorem 3. (Binomialverteilung.)[61] Für Bernoulli-Prozesse die durch eine Laplace- Wahrscheinlichkeit charakterisiert sind gilt folgende Gleichung bezüglich ihrer Verteilungsfunktion

Abbildung in dieser Leseprobe nicht enthalten

Beweis. Für den Beweis dieses Theorems wird man sieh, ohne Be­schränkung der Allgemeinheit, des Urnenmodells bedienen. Das Urnen­modell ermöglicht es die zwei Bedingungen des Theorems, nämlich den Bernoulli-Prozess und die Laplace- Wahrscheinlichkeit, abzubilden. Aus­gehend von einer Urne mit insgesamt N Bällen und der Möglichkeit n-mal einen dieser Bälle zu ziehen, ihn aber daraufhin wieder zurück­zulegen, kann die obige Verteilungsfunktion konstruiert werden. Weiter wird davon ausgegangen, dass sich unter diesen N Bällen R schwarze Bälle befinden und der Rest weiß ist. Ausgehend von den Überlegun­gen zu Variationen mit Wiederholungen (siehe Abschnitt 1.1.) kann nun feststellen, dass es insgesamt Nn Möglichkeiten gibt n Bälle aus den N Bällen zu ziehen (ohne Rücksichtnahme auf die Farbe). Will man nun die Wahrscheinlichkeit ausrechnen, dass unter den n gezogenen Bällen genau k schwarze sind, muss zunächst die Anzahl der Möglichen Kombi­nationen festgehalten werden, die dies gewährleistet. Für die Schwarzen gibt es insgesamt Mk Kombinationen bei der Ziehung und für die weißen [Abbildung in dieser Leseprobe nicht enthalten] insgesamt also [Abbildung in dieser Leseprobe nicht enthalten] Bisher wurde jedoch die Reihenfolge der gezogenen Schwarzen Bälle nicht berücksich­tigt. Solcher Kombinationen gibt es insgesamt [Abbildung in dieser Leseprobe nicht enthalten]. Daher ist die Anzahl[Abbildung in dieser Leseprobe nicht enthalten]schwarze Kugeln zu ziehen, mit [Abbildung in dieser Leseprobe nicht enthalten] gegeben. Die Wahrscheinlichkeit beträgt somit[62]

Abbildung in dieser Leseprobe nicht enthalten

Dies stellt die Dichtefunktion (Wahrscheinlichkeitsfunktion) der Binomi­alverteilung dar. Die Verteilungsfunktion ist dann entsprechend

Abbildung in dieser Leseprobe nicht enthalten

Korollar 1. (Erwartungswert der Binomialverteilung. )[63] Der Erwartungs­wert der Binomialverteilung beträgt

Abbildung in dieser Leseprobe nicht enthalten

Beweis. Aufgrund der allgemein gültigen Additivität des Erwartungs­wertes (Siehe ()) erhält man

Abbildung in dieser Leseprobe nicht enthalten

Ähnlich kann auch die Varianz der Binomialverteilung bestimmt werden

Korollar 2. (Varianz der Binomalverteilung.)[64] Die Varianz der Binomial­verteilung beträgt

Abbildung in dieser Leseprobe nicht enthalten

Beweis. Unter der Annahme dass

Abbildung in dieser Leseprobe nicht enthalten

ist, und der Eigenschaften der Varianz in Hinsicht auf eine lineare Trans­formation einer Zufallsvariable (Siehe Gleichung ()) ergibt sieh

Abbildung in dieser Leseprobe nicht enthalten

[...]


[1] Vgl. GIEZEK (2011): S. 1.

[2] Zu rechtlichen und wirtschaftlichen Rahmenbedingungen der .Jahresabschlussprüfung siehe B Ľ RT L / Ľ G G Ľ R / S Λ M Ľ R (2010) sowie LĽFFSON (1991)

[3] Siehe dazu ARK1N (1958): S. 66.

[4] Dio Anwendungsvoraussetzungen dieser Verfahren werden aueh unter dem Gesichtspunkt der Möglichkeiten der Objektivierung des .Jahreserfolges von BAĽTGĽ (1970) behandelt. Ihre Anwendung ist demnach nieht nur auf die eigentliche .lahresabschlussprüfung begrenzt.

[5] Eine exakte Definition dieser Begriffe erfolgt in späteren Kapiteln.

[6] Vgl. GĽNSGHĽL/BĽGKĽR (2005): S. 3.

[7] Siehe dazu Kapitol 2.2.1.

[8] Eine mengentheoretische Einführung in din Kombinatorik bintnt auch FLACHSMĽYĽR (1969)

[9] Vgl. SCHWARZE (2001): S. 15.

[10] Einn Potonzmongo ist din Mongo allor Toilmongon oinor bostimmton Mongo. Nohmon wir boispiolswoiso dio Menge A = {1, 2}. Diese Menge to insgesamt 4 Teilmengen: 2} sowie 0. Die Potenzmenge von A ist dann die Menge P = {{1}, {2}, {1, 2}, 0}. Nichtsdestotrotz ist hier festzuhalten, dass die Potenzmenge, für unsere Anliegen ein sehr weiter Begriff ist. Wenn wir im Folgendem von der Ereignismenge sprechen, so werden wir dies stets unter Berücksichtigung bestimmter Restriktionen tun. Beispielsweise werden wir verlangen, dass die Elemente der Potenzmenge, Mengen sind, die selbst eine bestimmte Anzahl der Elemente enthalten.

[11] Vgl. KOHN (2005): S. 198.

[12] Vgl. SCHWARZE (2001): S. 14.

[13] Variationen ohne Wiederholungen sind mit der Formel (n)k gegeben. Dabei gilt [Abbildung in dieser Leseprobe nicht enthalten] Weitere binomiale Identitäten können in verschiedenen Lehrbüchern der diskreten Mathematik gefunden werden. Jemand der sein Lebenswerk gerade den binamialen Identitäten gewidmet hat ist Henry W. GOULD. Sein Buch “Combinatorial Identities” aus dem Jahre 1972 ist heute ein Standardwerk zu dieser Thematik. Die von ihm, in den letzten Jahrzehnten zusammengestellten Manuskripte und Vorlesungen werden kontinuierliche auf seiner Website publiziert.

[14] Vgl. BOSCH (1996): S. 67.

[15] Zu weiteren Beispielen siehe BOSCH (1996): S. 601Г.

[16] Die Berechnung der Fakultät n! kann bei größeren Zahlen u.U. problematisch sein. Eine gute Approximation stellt dabei die Stirling-Formel dar [Abbildung in dieser Leseprobe nicht enthalten]

[17] Die Mächtigkeit einer Menge stellt die Anzahl ihrer Elemente dar.

[18] Vgl. KRĽYSZ1G (1998): S. 102.

[19] Aufmerksame Leser werden schon vielleicht bemerkt haben, dass die Mächtigkeit der Menge M stets größer sein muss als die Mächtigkeit der Menge R. Weiter ist noch anzumerken, dass nVariationen einer Menge der Machtigkeit n Permutationcn genannt. werden. Vgl. dazu KREYSZIG (1998): S. 99.

[20] Vgl. KRĽYSZ1G (1998): S. 102. Es ist jedoch an dieser Stelle anzumerken, dass KRĽYSZ1G (1998) den terminologischen Unterschied zwischen Variationen und Kombinationen nicht berücksichtigt, sondern stets von Kombinationen spricht, die entweder die Anordnung berücksichtigen oder eben nicht, ln dieser Abhandlung wird der Unterschied jedoch beibehalten.

[21] Zur Vertiefung siehe FLACHSMEYER (1969)

[22] Vgl. BOSCH (1996): S. 61.

[23] Siehe dazu BOSCH (1996): S. 61.

[24] Vgl. MĽ1NTRUP/SCHÄFFLĽR (2005): S. VH.

[25] Vgl. GEMOLL/VRETSKA (2006)

[26] Vgl. GEORGll (2007): S. lit

[27] Oieser (klassische) Begriff der Wahrscheinlichkeit wird auf den französischen Mathematiker Pierre Simon Laplace (1749 - 1827) zurückgeführt. Er resultierte aus seinen Untersuchungen über die Chancen beim Glücksspiel. Siehe dazu BOSCH (1996): S. 59.

[28] Vgl. KOHN (2005): S. 205., UHLMANN (1982): S. 19.

[29] Vgl. BOSCH (1996): S. 59.

[30] Vgl. KOHN (2005): s. 205ÍT.

[31] Vgl. SCHWARZE (2001): S. 24.

[32] Vgl. KOHN (2005): s. 207ff

[33] Vgl. KLENKE (2008): S. 1.

[34] Vgl. KLENKE (2008): S. 2. Vertiefend zu a-Algebren siehe KLEXKE (2008) sowie MEINTRUP/SCHAFFLER (2005)

[35] LEHN (2006): S. 26.

[36] Im folgendem steht AC für die Menge der komplementären Ereignise zu A. Es wird auch einleuchtend sein, dass die von uns schon im Abschnitt zur Kombinatorik erwähnte Potenzmenge eine σ-Algebra darstellt, da sie alle drei Bedingungen erfüllt.

[37] Vgl. LEHN (2006): S. 28., KRĽYSZ1G (1998): S. 60., SCHWARZE (2001): S. 20.

[38] Vlg. KOHN (2005): S. 208.

[39] Vlg. SACHS (2002): S. 89., KREYSZ1G (1998): S. 72.

[40] Vlg. SACHS (2002): S. 89., MENDENTHALL/OTT/SCHAEFFLER (1971): S. 201., THOMPSON (1984): S.

[41] Vlg. SACHS (2002): S. 89., SCHWARZE (2001): S. 46.

[42] LEHN (2006): S. 40.

[43] Vgl. GENSCHEL/BECKER (2005): S.

[44] Vgl. KOHN (2005): S. 45.

[45] LEHN (2006): S. 41.; Vgl. KOHN (2005): S. 203.

[46] Vgl. KOHN (2005): S. 231., V1NCZE (1971): S. 311., KREYSZ1G (1998): S. 78.

[47] Vgl. GENSCHEL/BECKER (2005): S. 14.

[48] Vgl. GENSCHEL/BECKER (2005): S. 24., V1NCZĽ (1971): S. 321., KREYSZ1G (1998): S. 80.

[49] Vgl. KREYSZIG (1998): S. 85., SCHWARZE (2001): S. 57.

[50] Vgl. KREYSZIG (1998): S. 85., SCHWARZE (2001): S. 57.

[51] Vgl. KREYSZIG (1998): S. 87., SCHWARZE (2001): S. 60.

[52] Vgl. KREYSZIG (1998): S. 88., SCHWARZE (2001): S. 60.

[53] Vgl. GENSCHEL/BECKER (2005):S. 27.

[54] Siehe dazu KREYSZ1G (1998): S. 92. sowie UHLMANN (1982): S. 26.

[55] Vgl. GENSCHEL/BECKER (2005): S. 25.

[56] Vgl. GENSCHEL/BECKER (2005): S. 33.

[57] DEHL1NG/НAUPT (2003): S. 68.

[58] Vgl. KOHN (2005): S. 285.

[59] Vgl. KREYSZ1G (1998): S. 108f.

[60] Vgl. GENSCUEL/BECKER (2005): S. 38.

[61] Vgl. GĽNSCHĽL/BĽCKĽR (2005): S. 39., V1NCZĽ (1971): S. 60., KRĽYSZ1G (1998): S. 109.

[62] Der bewiesene Ausdruck für die Binomialverteilung erinnert in vielerlei Einsicht an die Binomialentwieklung [Abbildung in dieser Leseprobe nicht enthalten] die von Isaac Barrow und Jakob Bernoulli bewiesen wurde. Aufgrund dieses Umstandes erhielt die Binomialver­teilung ihren Namen. Siehe Dazu SACHS (2000):S. 268. sowie W1RTH (?): S. 46.

[63] Vgl. SCHWARZE (1975): S. 43. Einen äußerst eleganten und kurzen Beweis, der jedoch über die sog. Mo­menterzeugende Funktion getätigt wird, liefert hingegen KRĽYSZ1G (1998): S. 111.

[64] Vgl. UHLMANN (1982): S. 37.

Ende der Leseprobe aus 105 Seiten

Details

Titel
Anwendungsvoraussetzungen und Grenzen klassischer Schätz- und Testverfahren in der Wirtschaftsprüfung
Hochschule
Wirtschaftsuniversität Wien  (Institut für Revisions-, Treuhand- und Rechnungswesen)
Note
1,00
Autor
Jahr
2012
Seiten
105
Katalognummer
V314369
ISBN (eBook)
9783668132382
ISBN (Buch)
9783668132399
Dateigröße
6475 KB
Sprache
Deutsch
Anmerkungen
Schlagworte
Wirtschaftsprüfung, Statistik, Quantitative Methoden, Poisson, Normalverteilung, Gesetz der großen Zahl, Intervallschätzung, Testverfahren, Jahresabschlussprüfung, Rechnungswesen
Arbeit zitieren
Edin Boskovic (Autor:in), 2012, Anwendungsvoraussetzungen und Grenzen klassischer Schätz- und Testverfahren in der Wirtschaftsprüfung, München, GRIN Verlag, https://www.grin.com/document/314369

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Anwendungsvoraussetzungen und Grenzen klassischer Schätz- und Testverfahren in der Wirtschaftsprüfung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden