Adaptive Sampling - ein Fortschritt in der Revisionstechnik?


Diplomarbeit, 1998

112 Seiten, Note: 1


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Problemstellung

2 Zu der Struktur von buchhalterischen Grundgesamtheiten
2.1 Zu der Verteilung der Buchwerte
2.2 Zu der Verteilung der Fehler

3 Anwendungsvoraussetzung statistischer Schätzverfahren und deren Übereinstimmung mit den Merkmalen einer typischen Prüfungssituation

4 Zu der einfachen Zufallsstichprobe

5 Zu dem Adaptive Sampling

6 Zu dem Adaptive Cluster Sampling
6.1 Grundlagen des Adaptive Cluster Sampling
6.2 Zu der Nachbarschaftsdefinition
6.3 Zu der Bedingung Abbildung in dieser Leseprobe nicht enthalten
6.4 Beispiel Nr. 1
6.5 Ein Schätzer, der auf den Auswahlwahrscheinlichkeiten der Netzwerke durch die Anfangsstichprobe basiert
6.6 Ein Schätzer, der auf der Häufigkeit der Auswahl der Netzwerke durch die Anfangsstichprobe basiert.
6.7 Beispiel Nr. 2

7 Einflußgrößen der relativen Effizienz von Adaptive Cluster Sampling im Verhältnis zu der einfachen Zufallsstichprobe
7.1 Eigenschaften der Grundgesamtheit
7.1.1 Die Varianz innerhalb der Netzwerke
7.1.2 Die geographische Seltenheit von Fehlern
7.2 Der Stichprobenumfang

8 Empirischer Vergleich der Effizienz zwischen Adaptive Cluster Sampling und der einfachen Zufallsstichprobe
8.1 Zu dem Computerprogramm für den Wirksamkeitsvergleich zwischen Adaptive Cluster Sampling und der einfachen Zufallsstichprobe
8.2 Zu dem Beispiel Nr. 2
8.3 Beispiel Nr. 3

9 Zu dem Stichprobenumfang des Adaptive Cluster Sampling

10 Lineare Kostenfunktion des Adaptive Cluster Sampling und der einfachen Zufallsstichprobe

11 Alternative Auswahltechniken und Schätzer des Adaptive Cluster Sampling
11.1 Stratified Adaptive Cluster Sampling
11.2 Adaptive Cluster Sampling Based on Order Statistics
11.3 Adaptive Cluster Sampling mit einer Anfangsstichprobe mit ungleichen Ziehungswahrscheinlichkeiten

12 Zusammenfassung und Ausblick

Anhang

Literaturverzeichnis

Eidesstattliche Versicherung

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 2.1 Verteilung der Buchwerte eines Lagers in Form einer Lorenzkurve

Abbildung 5.1 Unterscheidung der Stichprobenverfahren nach der Auswahltechnik

Abbildung 6.1 Ablaufdiagramm zur Erhebung einer Stichprobe mit Adaptive Cluster Sampling

Abbildung 6.2 Nachbarschaftsdefinition für den ein- , zwei- und dreidimensionalen Fall

Abbildung 6.3 Grundgesamtheit des Beispiels Nr. 1 mit einer Anfangsstichprobe

Abbildung 6.4 Die zweidimensionale Nachbarschaftsdefinition des Beispiels Nr. 1

Abbildung 6.5 Grundgesamtheit des Beispiels Nr. 1 nach der Durchführung des Adaptive Cluster Sampling

Abbildung 6.6 Darstellung der gezogenen Netzwerke und Klumpen

Abbildung 8.1 Die Möglichkeiten Excel 97 zu steuern.

Abbildung 8.2 Start des Computerprogramms

Abbildung 8.3 Die zweidimensionale Nachbarschaftsdefinition des Computerprogramms

Abbildung 8.4 Ablaufdiagramm der Ziehung des Adaptive Cluster Sampling durch das Computerprogramm

Abbildung 8.5 Grafische Darstellung der relativen Häufigkeiten und der Buchwerte des Beispiels Nr. 3

Abbildung 11.1 Darstellung eines über zwei Schichten verlaufenden Klumpens

Tabellenverzeichnis

Tabelle 3-1 Gegenüberstellung der Grundlagen und Anwendungsvoraussetzungen von klassischer Stichprobentheorie und Survey Sampling

Tabelle 3-2 Wesentliche statistische Merkmale einer typischen stichprobengestützten Prüfung und deren Erfüllung durch die klassische Stichprobentheorie und das Survey Sampling

Tabelle 6-1 Sämtliche Stichproben und Schätzer des Beispiels Nr. 2

Tabelle 8-1 Ergebnisse der empirischen Untersuchung des Beispiels Nr. 2

Tabelle 8-2 Grundgesamtheit des Beispiels Nr. 3

Tabelle 8-3 Charakteristische Merkmale der Buchwerte des Beispiels Nr. 3

Tabelle 8-4 Ergebnisse der empirischen Untersuchung des Beispiels Nr. 3

1 Problemstellung

Als Revisionstechnik werden, analog zur Prüfungstechnik des externen Prüfers, die von einem Revisor eingesetzten Werkzeuge und Hilfsmittel, sowie das methodische Vorgehen bei der Revision bezeichnet. Trotz unterschiedlicher Zielsetzung von Revisor und Prüfer sind Revisions- und Prüfungstechnik weitgehend identisch.[1] Aus diesem Grund soll in dieser Arbeit nicht zwischen Revisions- und Prüfungstechnik unterschieden werden.

Regelmäßig steht der Prüfer vor dem Optimierungsproblem, bei vorgegebener Urteilsqualität und Fertigstellungsfrist die Kosten zu minimieren.[2] Daher muß der Abschlußprüfer im allgemeinen stichprobengestützte Prüfungsmethoden einsetzen, um das Ziel der Jahresabschlußprüfung unter Beachtung der gebotenen Wirtschaftlichkeit und Termingerechtheit zu erreichen.[3]

Systematische Fehler sind Abweichungen vom wahren Wert, die nicht zufällig entstanden sind. Ursache für systematische Fehler können wissentliche oder willentliche Einwirkungen und organisatorische oder technische Umstände sein.[4] Ändert beispielsweise eine Führungskraft im Rechnungswesen die Rechnungslegungspolitik, so kann dies solange Fehler verursachen, bis das Personal mit den Veränderungen vertraut ist. Analog können einer neuen Führungskraft gehäuft Beurteilungsfehler unterlaufen, bis sie mit dem ihr unbekannten System vertraut ist.[5] In den beiden vorgenannten Beispielen ist das Phänomen zu beobachten, daß Fehler selten, aber durch eine gemeinsame Ursache bedingt, systematisch bzw. in Serie (Klumpen) auftreten können. In großen Bereichen des Prüffeldes sind keine fehlerhaften Vermögensgegenstände, während sich die meisten Fehler auf wenige Klumpen (engl.: „cluster“) verteilen. Folglich wird die durchschnittliche Fehlerdichte der Grundgesamtheit gering sein. Die vorhandenen Fehler sind andererseits in einzelnen Klumpen sehr stark konzentriert. Bei Anwendung von klassischen Stichprobenverfahren kann erwartet werden, daß viele fehlerfreie Stichprobenelemente in die Stichprobe gelangen. In dieser, durch ein inhomogenes Prüffeld charakterisierbaren Prüfungssituation ist davon auszugehen, daß Schätzungen derartiger Prüffelder mit klassischen Stichprobenverfahren eine geringe Effizienz (Wirksamkeit) aufweisen werden. Die Effizienz einer unverzerrten Schätzung wird üblicherweise durch die Varianz oder Standardabweichung gemessen.[6] Der HFA des IDW[7] empfiehlt in dieser Prüfungssituation auf die bewußte Auswahl der zu prüfenden Kontensalden oder Geschäftsvorfälle zurückzugreifen, und so die Vorinformationen über vermutete systematische Fehler bei der Auswahl der Elemente zu berücksichtigen. Die bewußte Auswahl ist freilich für eine Quantifizierung der erreichten Sicherheit und Genauigkeit ungeeignet. Es stellen sich daher die folgenden Fragen:

- Existiert in der mathematisch-statistischen Literatur ein Stichprobenverfahren, welches eine Adaption seiner Auswahltechnik (Auswahlverfahrens) an die Fehlerursache systematischer Fehler ermöglicht? – und wenn ja:
- Ist in jedem Fall von einer hohen Effizienz dieses Verfahrens auszugehen?

Die vorliegende Arbeit untersucht zunächst in Kapitel 2 die Struktur von buchhalterischen Grundgesamtheiten. Anschließend werden in Kapitel 3 die Anwendungsvoraussetzungen statistischer Schätzverfahren mit den Merkmalen einer typischen Prüfungssituation verglichen. Relativ knapp wird in Kapitel 4 auf die einfache Zufallsstichprobe eingegangen. In Kapitel 5 wird das Adaptive Sampling und in Kapitel 6 das Adaptive Cluster Sampling eingeführt. In dem folgenden Kapitel werden die theoretischen Eigenschaften des Adaptive Cluster Sampling dargestellt. Das Kapitel 8 untersucht, ob die theoretisch ableitbare Effizienz des Adaptive Cluster Sampling in einer empirischen Untersuchung zweier einfacher Grundgesamtheiten belegt werden kann. Die folgenden Kapitel gehen auf den Stichprobenumfang und die lineare Kostenfunktion des Adaptive Cluster Sampling ein. Schließlich werden in Kapitel 11 alternative Auswahltechniken und Schätzer des Adaptive Cluster Sampling vorgestellt.

2 Zu der Struktur von buchhalterischen Grundgesamtheiten

Die Strukturanalyse betrifft die Verteilung der Buchwerte und die Verteilung der Fehlerbeträge (Differenz zwischen dem Buchwert und dem wahren Wert), der zu prüfenden Grundgesamtheit.

2.1 Zu der Verteilung der Buchwerte

Buchwerte sind in der Regel signifikant positiv schief verteilt. Dies bedeutet, daß die niedrigen Buchwerte sehr viel zahlreicher als die hohen Buchwerte sind. Die Varianz der hohen Buchwerte ist größer als die der niedrigen Buchwerte.[8]

Beispielsweise ist es bei Vorräten die Regel, daß 20% der Buchwerte 80% des Gesamtlagerwertes auf sich vereinen. Die folgende Abbildung 2.1 veranschaulicht die ABC-Analyse[9] eines typischen Lagers:

Abbildung 2.1 Verteilung der Buchwerte eines Lagers in Form einer Lorenzkurve

Abbildung in dieser Leseprobe nicht enthalten

Entnommen aus: Quick [1991], S. 44.

Entsprechend ihrem relativen Buchwert kommt den A-Artikeln eine hohe, den B-Artikeln eine mittlere und den C-Artikeln eine geringe Bedeutung (Wesentlichkeit) zu. Die Bedeutung der Elemente eines Prüffeldes sollte als Entscheidungshilfe bei der Bestimmung der Prüfungsaktivitäten genutzt werden.[10]

2.2 Zu der Verteilung der Fehler

Eine Systemprüfung (systemorientierte Prüfung) kann Aufschluß über den zu erwartenden Fehleranteil (Anzahl der Fehler dividiert durch die Anzahl der Lagerpositionen) der Grundgesamtheit geben.[11] Im Allgemeinen ist der in empirischen Studien beobachtete physische Fehleranteil der Grundgesamtheit niedrig. Im Falle eines hohen physischen Fehleranteils dürften die meisten Fehler einen unbedeutenden Fehlerbetrag aufweisen. Regelmäßig ist ein hoher Anteil des Gesamtfehlers des Prüffeldes zumeist auf wenige, bedeutende Fehler zurückzuführen.[12] Typischerweise ist die Mehrzahl der Fehler klein[13] und bei Einzelbetrachtung generell unter der Materiality-Grenze[14]. So ist beim Vorratsvermögen in der Regel der physische Fehleranteil größer als der wertmäßige Fehleranteil (Gesamtfehler dividiert durch den Gesamtbuchwert).[15]

Bisherige empirische Studien gelangten zu widersprüchlichen Ergebnissen hinsichtlich des Zusammenhangs zwischen den Buchwerten und deren prozentualen Einzelabweichungen. So haben Ham/Losell/Smieliauskas ein umgekehrt proportionales Verhältnis zwischen dem Buchwert und dessen prozentualer Einzelabweichung ermittelt.[16] Hingegen wurde von Johnson/Leitch/Neter[17] eine proportionale und von Ramage/Krieger/Spero[18] eine konstante Relation festgestellt. Neter/Johnson/Leitch kamen in ihrer Studie zu widersprüchlichen Beziehungen zwischen den Buchwerten und deren prozentualen Einzelabweichungen.[19] Mithin stellt Rohrbach fest, daß die Verteilung der prozentualen Einzelabweichungen der Buchwerte zumeist unvorhersehbar ist.[20]

Zwischen den positiven absoluten Fehlerbeträgen und den Buchwerten liegt eine hohe Korrelation vor.[21]

Fehlerbeträge weisen eine hohe Varianz auf und sind nicht normalverteilt.[22] Für einige Konten kann eine schiefe Verteilung der Fehler vorliegen. So kann erwartet werden, daß Forderungen und Verkäufe hauptsächlich Überbewertungen und Verbindlichkeiten überwiegend Unterbewertungen aufweisen. Bei Vorräten und Anlagen haben empirische Untersuchungen etwa zur Hälfte über- bzw. unterbewertete Prüffelder ermittelt.[23] Über- und Unterbewertungen können sich zu einer (niedrigen) Fehlersumme kompensieren.[24]

Coakley/Loebbecke[25] befragten mittels der Delphi-Methode Abschlußprüfer nach ihren Fehlereinschätzungen für mittelgroße Unternehmen der verarbeitenden Industrie. Den folgenden Bereichen wurde in der Studie eine hohe Fehlerwahrscheinlichkeit beigemessen:

- Aufzeichnung von Verkäufen ohne den Versand der Ware,
- Periodenabgrenzung von Verkäufen,
- Retouren,
- Kasseneingänge,
- Einkäufe und Rechnungsabgrenzungsposten,
- Wiedereinlagerung von Retouren,
- Abschreibung uneinbringlicher Forderungen,
- Garantierückstellungen,
- Vollständigkeit und Richtigkeit von Rückstellungen,
- obsolete Vorräte,
- Herstellungskosten.

Für bestimmte Fehler und deren Fehlerursache wurden hinsichtlich ihrer zeitlichen Verteilung Regelmäßigkeiten bzw. Muster von den befragten Abschlußprüfern vorhergesagt. Beispielsweise gaben sie an, daß Fehler bei der Periodenabgrenzung dazu tendieren sich quartalsweise zu wiederholen.

Eine Fehlerquelle kann auf zweierlei Weise zu einem bedeutenden Fehler führen. Zum einen können die kumulierten Abweichungen einer Fehlerquelle einen bedeutenden Fehler bilden. Zum anderen können potentielle Fehlerquellen auch zusammenhängen. Die Aufdeckung eines wesentlichen Fehlers einer Fehlerquelle kann dann darauf hinweisen, daß wesentliche Fehler auch in einer verbundenen Fehlerquelle entstanden sind. Dies trifft beispielsweise für den Fall zu, daß ein Mitarbeiter Vorschriftsverletzungen begeht. Fehler können dann auf allen Tätigkeitsfeldern des Mitarbeiters entstanden sein. Auch wenn die kumulierten Fehler eines einzigen Tätigkeitsfeldes noch nicht wesentlich sind, können die kumulierten Fehler sämtlicher Arbeitsfelder dieses Mitarbeiters dennoch einen wesentlichen Fehler darstellen.[26] Generell tendieren systematische Fehler in eine Richtung.[27]

Die Fehlerursache spiegelt sich in Korrelationen zwischen den Elementen eines Prüffeldes wider. Cochran[28] unterscheidet zwischen:

- „Zufällig“ geordneten Grundgesamtheiten,
- Grundgesamtheiten mit linearem Trend,
- Grundgesamtheiten mit periodischer Schwingung,
- Autokorrelierten Grundgesamtheiten und
- Natürlichen Grundgesamtheiten.

Bei „zufällig“ geordneten Grundgesamtheiten liegt zumeist keine Korrelation zwischen benachbarten Elementen vor. Bei Grundgesamtheiten mit linearem Trend steigt mit wachsendem Abbildung in dieser Leseprobe nicht enthalten der Merkmalswert Abbildung in dieser Leseprobe nicht enthalten (z. B. der Fehlerbetrag). Zum Beispiel kann eine Werkzeugmaschine im zeitlichen Verlauf bis zu ihrem Ausfall immer mehr Ausschuß produzieren. Bei Grundgesamtheiten mit periodischer Schwingung unterliegt der Fehlerbetrag periodischen Schwingungen, die ihre Ursache beispielsweise in einem technischen Defekt haben können. So kann eine defekte Werkzeugmaschine in regelmäßigen Intervallen Ausschuß produzieren. Bei Autokorrelierten Grundgesamtheiten sind die Merkmalswerte Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten (z. B. der Buchwert) positiv miteinander korreliert. Dies ist der Fall, wenn mit steigendem Buchwert der Fehlerbetrag steigt. Als natürliche Grundgesamtheiten bezeichnet Cochran Grundgesamtheiten die aus der Natur stammen, beispielsweise Baumbestände, Boden- oder Lufttemperaturen. In dieser Arbeit sei der zu untersuchende Merkmalswert Abbildung in dieser Leseprobe nicht enthalten der Fehlerbetrag eines Buchwertes. Der Fehlerbetrag eines Buchwertes ist die Abweichung des Buchwertes vom wahren (bei der Prüfung festgestellten) Wert.

3 Anwendungsvoraussetzung statistischer Schätzverfahren und deren Übereinstimmung mit den Merkmalen einer typischen Prüfungssituation

Generell muß vor dem Einsatz statistischer Schätzverfahren das Prüffeld abgegrenzt und sachgerecht und strukturell aufbereitet sein. Hierzu gehören insbesondere die vollständige Erfassung der Grundgesamtheit, Informationen über einzelne Parameter der Grundgesamtheit (z. B. der erwartete Fehleranteil), die Struktur der Grundgesamtheit (z. B. die Häufigkeitsverteilung eines wichtigen Merkmals) sowie die Feststellung eines zweckmäßigen und wirksamen internen Kontrollsystems.[29]

Bei der Jahresabschlußprüfung dürfen Zufallsstichproben nur mit mathematisch-statistischen Verfahren gezogen werden, deren Anwendungsvoraussetzung in der konkreten Prüfungssituation hinreichend genau erfüllt sind.[30]

Für die Bestimmung von Durchschnitts- oder Gesamtwerten bzw. der entsprechenden Fehlerbeträge sollen vorzugsweise, unter Einhaltung ihrer jeweiligen Prämissen, die nachfolgenden Stichprobenverfahren eingesetzt werden:

(1) Ungeschichtete und geschichtete Schätzverfahren
a) freie Hochrechnung
b) gebundene Hochrechnung
- Differenzenschätzung
- Regressionsschätzung
(2) Dollar-Unit-Sampling-Verfahren (DUS)

Dieser Vorschlag des IDW[31] betrifft zwei Forschungsrichtungen der mathematisch-statistischen Literatur:

- die klassische Stichprobentheorie und
- das Survey Sampling.

Die freie und die gebundene Hochrechnung sind Verfahren der klassischen Stichprobentheorie. Das Dollar-Unit-Sampling entstammt dem Survey Sampling, welches auch als angewandte statistische Stichprobentheorie bezeichnet wird.[32]

Die Anwendungsvoraussetzungen eines Verfahrens werden wesentlich von seiner theoretischen Grundlage bestimmt. Die beiden Forschungsrichtungen der Statistik unterscheiden sich insbesondere in:

- der Auffassung von Repräsentativität einer Stichprobe und
- der Wahl von Schätzverfahren.[33]

Die Grundlagen und Anwendungsvoraussetzungen beider Forschungsrichtungen sind in der folgenden Tabelle 3-1 gegenübergestellt:

Tabelle 3-1 Gegenüberstellung der Grundlagen und Anwendungsvoraussetzungen von klassischer Stichprobentheorie und Survey Sampling

Abbildung in dieser Leseprobe nicht enthalten

In Anlehnung an: Mochty [1997], S.746.

Die Anwendung eines Verfahrens bedingt die Erfüllung seiner Anwendungsvoraussetzungen in der betreffenden Prüfungssituation.[34] Nur dann können die theoretisch ableitbaren Eigenschaften des Stichprobenverfahrens, wie Erwartungstreue, Effizienz, Konsistenz und Suffizienz gewährleistet werden.[35]

Eine typische Prüfungssituation kann im wesentlichen durch folgende statistische Merkmale beschrieben werden:

- Die zu prüfenden Elemente der endlichen Grundgesamtheit sind reale Sachverhalte, wie beispielsweise Geschäftsvorfälle, Vermögensgegenstände, Belege und Kontensalden.
- Bei der Erhebung und Auswertung der Daten entstehen Kosten.
- Der Datenzugriff kann beschränkt sein. Beispielsweise kann bei der Einholung von Saldenbestätigungen die Rücklaufqoute kleiner als 100% sein.
- Bei der Erhebung und Auswertung der Daten können Fehler entstehen.
- Zwischen den Daten können wechselseitige Beziehungen vorliegen.
- Es liegen Informationen anderer
- Prüfungshandlungen (Systemprüfung, analytische Prüfung),
- Prüfungsperioden und
- Prüffelder

vor, die zur Effizienzsteigerung der Stichprobenuntersuchung genutzt werden können.[36]

Die folgende Tabelle 3-2 stellt die Charakteristika der Prüfungssituation den Prämissen beider mathematisch-statistischer Forschungsrichtungen gegenüber:

Tabelle 3-2 Wesentliche statistische Merkmale einer typischen stichprobengestützten Prüfung und deren Erfüllung durch die klassische Stichprobentheorie und das Survey Sampling

Abbildung in dieser Leseprobe nicht enthalten

Aus der Tabelle 3-2 ist ersichtlich, daß die realen Gegebenheiten einer Prüfung den Anwendungsvoraussetzungen der klassischen Stichprobentheorie widersprechen. Insbesondere die folgenden Prämissen klassischer Stichprobenverfahren sind in der Prüfungsrealität nicht erfüllt:

- übereinstimmende Verteilung,
- Zugehörigkeit zu einer Klasse theoretischer Verteilungsfunktionen,
- paarweise Unabhängigkeit der Daten.

Der Tabelle 3-2 ist zu entnehmen, daß die Merkmale einer typischen Prüfungshandlung eine gute Entsprechung in den Anwendungsvoraussetzungen des Survey Sampling finden.

Das vom IDW vorgeschlagene Dollar-Unit-Sampling-Verfahren ist ergo von seinem theoretischen Fundament für die stichprobengestützte Prüfung gut geeignet.[37] Es ist hingegen kein geeignetes Verfahren für die Aufdeckung von erheblichen Unterbewertungen, sowie zur Prüfung von Positionen mit einem Buchwert von Null (Nullpositionen).[38] Bei einer großen Zahl geringer Fehlerbeträge muß bei Verwendung des Dollar-Unit-Sampling mit einer Überschätzung der tatsächlich bestehenden Überbewertungen gerechnet werden. Das Dollar-Unit-Sampling kommt vorzugsweise in Betracht, wenn in einem Prüffeld wenige, erhebliche Fehlerbeträge durch überhöhte Mengen- oder Wertansätze erwartet werden.[39] Damit ist das Dollar-Unit-Sampling aufgrund seiner Auswahltechnik kein universell einsetzbares Werkzeug, sondern vielmehr ein Spezialverfahren, welches innerhalb seines Einsatzbereiches eine sichere Beurteilung geeigneter Prüffelder ermöglicht.[40]

Fehler können gemäß eines zeitlichen oder anderen Musters innerhalb der Grundgesamtheit verteilt sein.[41] Es stellt sich die Frage, ob es in der Forschungsrichtung des Survey Sampling ein Stichprobenverfahren gibt, welches für die Aufdeckung von derartigen systematischen Fehlern besonders geeignet ist.[42]

Als Lösungsansatz empfiehlt Mochty[43] die Evaluation des Adaptive Sampling (AS), als möglicherweise zweckmäßiges Verfahren zur Aufdeckung von systematischen Fehlern.

In den folgenden Kapiteln soll das Adaptive Sampling vorgestellt und näher untersucht werden. Zuvor soll jedoch auf die einfache Zufallsstichprobe (engl.: „Simple Random Sampling“, SRS) eingegangen werden, da sie Bestandteil des Adaptive Sampling sein kann, und in dieser Arbeit zum Effizienzvergleich genutzt werden soll.

4 Zu der einfachen Zufallsstichprobe

Die Abbildung in dieser Leseprobe nicht enthalten Elemente (Lagerpositionen) der endlichen Grundgesamtheit (Prüffeld), seien mit Abbildung in dieser Leseprobe nicht enthalten beschriftet. Verbunden mit dem Abbildung in dieser Leseprobe nicht enthalten-ten Element ist sein Merkmalswert Abbildung in dieser Leseprobe nicht enthalten.

Bei der einfachen Zufallsstichprobe mit Zurücklegen wird eine Stichprobe vom Umfang Abbildung in dieser Leseprobe nicht enthalten (mit Abbildung in dieser Leseprobe nicht enthalten) gezogen. Jedes Element gelangt mit der gleichen Wahrscheinlichkeit von Abbildung in dieser Leseprobe nicht enthalten in die Stichprobe.

Ein erwartungstreuer Schätzer für den Mittelwert der Grundgesamtheit ist:[44]

Abbildung in dieser Leseprobe nicht enthalten. (4-1)

Für den Totalwert Abbildung in dieser Leseprobe nicht enthalten der Grundgesamtheit gilt dann:

Abbildung in dieser Leseprobe nicht enthalten. (4-2)

Die Stichprobenvarianz Abbildung in dieser Leseprobe nicht enthalten kann wie folgt berechnet werden:[45]

Abbildung in dieser Leseprobe nicht enthalten. (4-3)

5 Zu dem Adaptive Sampling

Das Adaptive Sampling gehört zu der angewandten statistischen Stichprobentheorie, dem Survey Sampling.[46] Es wurde unter anderem vorgeschlagen um Garnelenbestände im Golf von Alaska zu schätzen. Hierbei wurde ein Schleppnetz hinter einem Forschungsschiff durch zufällig ausgewählte Areale gezogen und die so gefangenen Garnelengattungen auf die ganze Studienregion hochgerechnet. Die zu untersuchende Fläche war sehr groß und die Stichprobenziehung äußerst zeitaufwendig. Die Biologen auf dem Forschungsschiff fanden heraus, daß sich die wesentlichen Garnelenbestände in Schwärmen auf nur ganz wenige Areale konzentrierten, während weite Bereiche nur minimale Mengen an Garnelen aufwiesen. Durch die Bewegungen der Garnelenschwärme änderten sich die Verbreitungsgebiete kontinuierlich. Die bevölkerten Areale waren nicht vollständig zu prognostizieren. Die Biologen äußerten den Wunsch nach einem Stichprobenverfahren, durch das sie ihre Stichprobenziehung in solchen Arealen beschleunigen konnten, in denen aufgrund der Ergebnisse der bisherigen Stichprobenziehungen keine Garnelenschwärme zu erwarten waren. Für derartige Untersuchungssituationen wurde das Adaptive Sampling von Thompson/Ramsey[47] vorgeschlagen und eingesetzt. So wurde bei einem Fanggewicht von kleiner gleich 50 Pfund das folgende Schleppnetz mit einer halben Seemeile Länge gewählt. Bei Fängen über 50 Pfund wurde ein Schleppnetz von einer ganzen Seemeile Länge gewählt.[48] Der gesamte Garnelenbestand wurde, unter Berücksichtigung der unterschiedlichen Reichweiten der eingesetzten Schleppnetze, hochgerechnet.

Der Begriff Adaptive Sampling bezeichnet mithin ein Stichprobenverfahren, dessen Auswahltechnik die Elemente in Abhängigkeit der bereits in der Erhebung beobachteten Merkmalsausprägungen auswählt.[49] Die Auswahlprozedur des Adaptive Sampling hat die Flexibilität sich im Verlauf der Stichprobenerhebung in Reaktion auf die beobachteten Muster der Merkmalsausprägungen zu ändern bzw. anzupassen (zu adaptieren).[50]

Die Abgrenzung des Adaptive Sampling zu anderen Stichprobenverfahren anhand seiner Auswahltechnik (engl.: „sampling design“) veranschaulicht die folgende Abbildung 5.1:

Abbildung 5.1 Unterscheidung der Stichprobenverfahren nach der Auswahltechnik

Abbildung in dieser Leseprobe nicht enthalten

Bei der konventionellen (engl.: „conventional“) Auswahltechnik ist die Auswahl der Elemente unabhängig von den Beobachtungen bereits gezogener Stichprobenelemente. Folglich können bei konventioneller Auswahltechnik alle Stichprobenelemente vor der Auswertung gezogen werden. Zu den Stichprobenverfahren mit konventioneller Auswahltechnik gehören beispielsweise die systematische Auswahl, die einfache Zufallsstichprobe, die geschichtete einfache Zufallsstichprobe und das Dollar-Unit-Sampling.

Bei Stichprobenverfahren mit adaptiver (engl.: „adaptive“) Auswahltechnik kann die Auswahl der Elemente von den bereits in der Erhebung (Stichprobe) ermittelten Merkmalsausprägungen abhängen. Ein Beispiel hierfür ist neben dem Adaptive Sampling in seinen vielgestaltigen Ausprägungsformen, die einfache Zufallsstichprobe mit einem Stoppmechanismus für den Fall, daß eine definierte Bedingung erfüllt wird (engl.: „sequential Sampling“). Die konventionellen und adaptiven Auswahltechniken bilden zusammen die Gruppe der „Standard“-Auswahltechniken. Hängt die Auswahltechnik von Merkmalsausprägungen oder Variablen außerhalb der Stichprobe ab, so wird sie als „nicht Standard“ bezeichnet (engl.: „nonstandard“).[51]

Bei der bewußten Auswahl nutzt der Prüfer seine Vorinformationen und Erfahrungen, um die Stichprobenauswahl in Abhängigkeit der folgenden Kriterien zu treffen:

- des erwarteten Fehlerrisikos des zu prüfenden Elementes und
- der dem zu prüfenden Element beigemessenen Bedeutung.[52]

Die bewußte Auswahl hat demnach adaptive Merkmale. Da der Prüfer bei der bewußten Auswahl auch Informationen die er nicht aus der Stichprobe erhalten hat nutzt, ist folglich ist die bewußte Auswahl in die Gruppe der „nicht Standard“-Auswahltechniken einzuordnen.[53]

Der Schluß von der Stichprobe auf die Grundgesamtheit (Hochrechnung) kann analog zu der Auswahltechnik in verschiedene Gruppen unterteilt werden.[54] Die Kombination einer Auswahltechnik und eines Hochrechnungsverfahrens (Schätzverfahrens) sei als Strategie bezeichnet.[55]

6 Zu dem Adaptive Cluster Sampling

6.1 Grundlagen des Adaptive Cluster Sampling

Das Adaptive Cluster Sampling ist eine Variante des Adaptive Sampling. Es wurde für die Situation entwickelt, daß die zu quantifizierende Population selten und geklumpt ist.[56] Die Erhebung der Stichprobe folgt dem in Abbildung 6.1 veranschaulichten Ablauf.

Abbildung 6.1 Ablaufdiagramm zur Erhebung einer Stichprobe mit Adaptive Cluster Sampling

Abbildung in dieser Leseprobe nicht enthalten

Beim Adaptive Cluster Sampling ist die Definition der Nachbarschaft von Elementen und die Definition einer Bedingung Abbildung in dieser Leseprobe nicht enthalten erforderlich. Die Erfüllung der Bedingung Abbildung in dieser Leseprobe nicht enthalten durch die Merkmalsausprägung eines Elementes führt zu der Aufnahme seiner Nachbarelemente in die Stichprobe.

Anschließend wird eine Anfangsstichprobe vom Umfang Abbildung in dieser Leseprobe nicht enthalten gezogen. Die Anfangsstichprobe kann mit verschiedenen Stichprobenverfahren gezogen werden.[57] Hiernach werden die Elemente der Anfangsstichprobe ausgewertet (geprüft). Für den Fall, daß die Merkmalsausprägung eines Elementes die Bedingung Abbildung in dieser Leseprobe nicht enthalten erfüllt, werden seine Nachbarn zu der Stichprobe hinzugefügt.

Die Stichprobenziehung des Adaptive Cluster Sampling ähnelt der Vorgehensweise eines Abschlußprüfers, der bei der bewußten Auswahl im Falle der Aufdeckung von wesentlichen Abweichungen den Stichprobenumfang erhöht, um die Gesamtabweichung des Prüffeldes genauer beurteilen zu können.[58] Beim Adaptive Cluster Sampling bestimmt die Nachbarschaftsdefintion den Suchort und die Bedingung Abbildung in dieser Leseprobe nicht enthalten legt das Vorliegen eines wesentlichen Fehlers fest. Im Unterschied zu der bewußten Auswahl ermöglicht das Adaptive Cluster Sampling die Hochrechnung von der (adaptiven) Stichprobe auf die Grundgesamtheit.

6.2 Zu der Nachbarschaftsdefinition

Die räumliche Nachbarschaft von rechteckigen Elementen kann durch eine gemeinsame Grenzlinie definiert werden. Die folgende Abbildung 6.2 veranschaulicht derartige Nachbarschaftsdefinitionen für den ein-, zwei- und dreidimensionalen Fall:

Abbildung 6.2 Nachbarschaftsdefinition für den ein- , zwei- und dreidimensionalen Fall

Abbildung in dieser Leseprobe nicht enthalten

In Anlehnung an: Thompson/Seber [1996], S.113.

Der abgebildete Lagerplatz Abbildung in dieser Leseprobe nicht enthalten besitzt im 1-D-Fall zwei Nachbarelemente, im 2-D-Fall vier Nachbarelemente und im 3-D-Fall sechs Nachbarelemente, welche bei Erfüllung der Bedingung Abbildung in dieser Leseprobe nicht enthalten in die Stichprobe aufgenommen werden.

Ein Beispiel für den 1-D-Fall ist im Kapitel 6.7 und ein Beispiel für den 2-D-Fall im Kapitel 6.4 dargestellt. Die räumliche Nachbarschaftsdefinition eines Hochregallagers ist ein Beispiel für den 3-D-Fall.

Im Gegensatz zu der Abbildung 6.2 sind aber auch Nachbarschaftsdefinitionen denkbar, bei denen die Nachbarelemente nicht über eine gemeinsame Grenzlinie definiert sind. Stattdessen kann die Nachbarschaft zwischen den Elementen über gemeinsame Merkmale definiert werden, wie beispielsweise:

- das Bearbeitungsdatum.
- die Lieferfirma,
- die Produktseriennummer,
- der Sachbearbeiter,

In jedem Fall muß die Nachbarschaftsdefinition symmetrisch in der Hinsicht sein, daß, wenn Element Abbildung in dieser Leseprobe nicht enthalten Nachbar von Element Abbildung in dieser Leseprobe nicht enthalten ist, auch Abbildung in dieser Leseprobe nicht enthalten Nachbar von Abbildung in dieser Leseprobe nicht enthalten ist.[59]

Die Ursache systematischer Fehler muß ihre Entsprechung in der Nachbarschaftsdefinition des Adaptive Cluster Sampling erhalten, um wirksame Schätzungen der Grundgesamtheit zu erzielen. Wird zur Ziehung des Adaptive Cluster Sampling ein Computerprogramm eingesetzt, so unterstützt es eventuell die erforderliche Nachbarschaftsdefinition nicht. In diesem Fall kann unter Umständen die Grundgesamtheit an die Nachbarschaftsdefinition des Computerprogramms (Prüfungssoftware) angepasst werden. Die Kongruenz zwischen Nachbarschaftsdefinition und Fehlerursache kann möglicherweise durch eine der vorliegenden Fehlerursache entsprechende Sortierung der Grundgesamtheit hergestellt werden. Dies kann an den folgenden zwei Szenarios erläutert werden:

Szenario 1: Die Elemente des Prüffeldes liegen in zeitlicher Reihenfolge sortiert vor. Die eingesetzte Prüfungssoftware unterstützt die in Abbildung 6.2 dargestellte Nachbarschaftsdefinition des 1-D-Falles. Es wird aufgrund von Vorinformationen vermutet, daß Aushilfskräfte bzw. überlastetes Personal Serienfehler im Prüffeld verursacht haben. In diesem Szenario kann es für den Einsatz des Adaptive Cluster Sampling zweckmäßig bzw. erforderlich sein, die Elemente der Grundgesamtheit zu sortieren. Als erstes Sortierkriterium käme der Mitarbeiter und als zweites das Bearbeitungsdatum, der durch die jeweiligen Mitarbeiter bearbeiteten Geschäftsvorfälle, in Betracht. Als Ergebnis der Sortierung liegen die von einem Mitarbeiter bearbeiteten Geschäftsvorfälle in zeitlicher Ordnung vor.

Szenario 2: Die Elemente des Prüffeldes (Vorratsgüter) liegen nach der Materialnummer sortiert vor. Die eingesetzte Prüfungssoftware unterstützt wieder die in Abbildung 6.2 dargestellte Nachbarschaftsdefinition des 1-D-Falles. Es besteht der Verdacht, daß ein in bestimmten Intervallen auftretender Gerätefehler einer Waage beim Wiegen der Vorratsgüter zu insgesamt bedeutenden Abweichungen geführt hat. Als Sortierkriterium erscheint das Wiegedatum der Vorratsgüter durch diese Waage zweckmäßig. Mit Hilfe des Adaptive Cluster Sampling könnten, in dieser nun nach der Fehlerursache sortierten Grundgesamtheit, anschließend möglicherweise Netzwerke (Klumpen) mit Abweichungen gefunden werden, die auf einen Gerätefehler während eines bestimmten Zeitintervalls zurückzuführen sind.

6.3 Zu der Bedingung Abbildung in dieser Leseprobe nicht enthalten

Die Berücksichtigung des Fehlerbetrages bzw. die Definition über das Vorliegen eines wesentlichen Fehlers erfolgt beim Adaptive Cluster Sampling durch die Festlegung der Bedingung Abbildung in dieser Leseprobe nicht enthalten. Der Bedingung Abbildung in dieser Leseprobe nicht enthalten kommt die Aufgabe eines Filters zu, der hinsichtlich des Fehlerbetrags das Vorliegen eines wesentlichen Fehlers definiert, und einen, durch die Nachbarschaftsdefinition abgegrenzten Suchprozeß auslöst. So erfordert ein Zahlendreher im Pfennigbereich, im Gegensatz zu einer Fehlentscheidung im TDM-Bereich, möglicherweise nicht die Überprüfung der Nachbarelemente. Für den Extremfall, daß die Bedingung C so restriktiv bestimmt wird, daß kein Element der Grundgesamtheit sie erfüllt, entspricht das Adaptive Cluster Sampling dem Stichprobenverfahren, welches zur Ziehung der Anfangsstichprobe eingesetzt wurde.

Ist das Fehlerausmaß nicht in Geldeinheiten messbar, so können den Fehlern Nutzeneinheiten zugeordnet werden, welche über die Bedingung Abbildung in dieser Leseprobe nicht enthalten die Prüfung von Nachbarelementen auslösen und damit den Gang der stichprobengestützten Prüfung steuern.[60] Die Nutzeneinheiten sollten proportional zu der Fehlerschwere vergeben werden.

6.4 Beispiel Nr. 1

Am Beispiel einer Inventurprüfung soll die Ziehung der Stichprobenelemente mit Adaptive Cluster Sampling gezeigt werden. Das zu prüfende Lager ist in der Abbildung 6.3 dargestellt. Es besteht aus 10 Zeilen (1-10) und 10 Spalten (A-J). Die Grundgesamtheit besteht aus Abbildung in dieser Leseprobe nicht enthalten physischen Lagerplätzen (Elementen) Abbildung in dieser Leseprobe nicht enthalten gleicher Größe mit Abbildung in dieser Leseprobe nicht enthalten. Verbunden mit dem Lagerplatz Abbildung in dieser Leseprobe nicht enthalten ist sein Fehlerbetrag (Merkmalsausprägung) Abbildung in dieser Leseprobe nicht enthalten in Tonnen.

Zunächst wird mit einer einfachen Zufallsstichprobe ohne Zurücklegen eine Anfangsstichprobe Abbildung in dieser Leseprobe nicht enthalten gezogen. Die im Lagerplatz Abbildung in dieser Leseprobe nicht enthalten vorhandenen Vermögensgegenstände werden nach Art, Menge und Wert geprüft, mit den Inventurergebnissen verglichen und es wird der Fehlerbetrag Abbildung in dieser Leseprobe nicht enthalten des Lagerplatzes Abbildung in dieser Leseprobe nicht enthalten ermittelt.

Abbildung 6.3 Grundgesamtheit des Beispiels Nr. 1 mit einer Anfangsstichprobe

Abbildung in dieser Leseprobe nicht enthalten

In Anlehnung an: Thompson/Seber [1996], S. 9.

Die in der Anfangsstichprobe gezogenen Lagerplätze sind in der Abbildung 6.3 dunkelgrau dargestellt.

Die Bedingung Abbildung in dieser Leseprobe nicht enthalten für die Aufnahme von Nachbarlagerplätze in die Stichprobe sei mit Abbildung in dieser Leseprobe nicht enthalten definiert.

Die Nachbarschaft zweier Lagerplätze sei gegeben, wenn eine gemeinsame Grenzlinie zwischen den Lagerplätzen besteht. Die folgende Abbildung 6.4 veranschaulicht die in diesem Beispiel benutzte (zweidimensionale) Nachbarschaftsdefinition:

[...]


[1] Vgl. Brandt [1980], S. 433.

[2] Vgl. Mochty [1997], S. 736f.

[3] Vgl. HFA [1988], S. 240f.

[4] Vgl. Buchner [1980], S. 164f.

[5] Vgl. Quick [1996], S. 266.

[6] Vgl. Polasek [1997], S. 23f.

[7] Vgl. HFA [1988], S. 246f.

[8] Vgl. Rohrbach [1993], S. 81.

[9] Vgl. Quick [1991], S. 42-45.

[10] Vgl. HFA [1989], S. 13.

[11] Vgl. Quick [1996], S. 357-361.

[12] Vgl. Rohrbach [1993], S. 81f

[13] Vgl. Icerman/Hillison [1991], S. 33.

[14] Vgl. Quick [1991], S. 60-65.

[15] Vgl. Matt [1980], S. 192.

[16] Vgl. Ham/Losell/Smieliauskas [1985], S. 403f.

[17] Vgl. Johnson/Leitch/Neter [1981], S. 291.

[18] Vgl. Ramage/Krieger/Spero [1979], S. 87.

[19] Vgl. Neter/Johnson/Leitch [1985], S. 498f.

[20] Vgl. Rohrbach [1993], S. 81f.

[21] Vgl. Ramage/Krieger/Spero [1979], S. 87; Matt [1980], S. 199.

[22] Vgl. Ham/Losell/Smieliauskas [1985], S. 403.

[23] Vgl. Quick [1996], S. 293-297.

[24] Vgl. Kunz [1981], S. 309f.

[25] Vgl. Coakley/Loebbecke [1985], S. 235.

[26] Vgl. Coakley/Loebbecke [1985], S. 208.

[27] Vgl. Buchner [1980], S. 164f.

[28] Vgl. Cochran [1972], S. 253-265.

[29] Vgl. HFA [1988], S. 242f.

[30] Vgl. HFA [1988], S. 243.

[31] Vgl. HFA [1988], S. 244-246.

[32] Vgl. Mochty [1997], S. 746-748.

[33] Vgl. Mochty [1997], S. 745-751.

[34] Vgl. HFA [1988], S. 245.

[35] Vgl. Mochty [1997], S. 747.

[36] Vgl. Mochty [1997], S. 747f.

[37] Vgl. Mochty [1997], S. 749.

[38] Vgl. HFA [1988], S. 242.

[39] Vgl. HFA [1988], S. 246.

[40] Vgl. Quick [1991], S. 329-339.

[41] Vgl. die Ausführungen in Kapitel 2.2.

[42] Vgl. den allgemeinen Hinweis in: Coakley/Loebbecke [1985], S. 205: „When a specific type of monetary error is anticipated during a particular audit, knowledge of these error patterns may aid the auditor in selecting sampling methods and designing sampling plans, and in designing audit techniques and procedures.“

[43] In unveröffentlichten Betrachtungen zu diesem Thema.

[44] Gründer [1989], S. 35, S. 38.

[45] Gründer [1989], S. 42.

[46] Vgl. die Ausführungen in Kapitel 3.

[47] Vgl. Thompson/Ramsey [1983] zitiert bei Thompson/Seber [1996], S. 1.

[48] Vgl. Thompson/Seber [1996], S. 8: "One might say, if the fishing is good keep fishing, otherwise move on!"

[49] Vgl. Thompson/Seber [1996], S. ix.

[50] Vgl. Thompson/Seber [1996], S. 1.

[51] Vgl. Thompson/Seber [1996], S. 4.

[52] Vgl. HFA [1988], S. 242.

[53] Zu Beispielen aus anderen Fachbereichen vgl. Thompson/Seber [1996], S. 30f.

[54] Vgl. Thompson/Seber [1996], S. 5-8.

[55] Vgl. Thompson/Seber [1996], S. 235.

[56] Vgl. Thompson/Seber [1996], S. 93.

[57] Vgl. die Ausführungen in Kapitel 11.3.

[58] Vgl. HFA [1988], S. 241f.

[59] Vgl. Thompson/Seber [1996], S. 94.

[60] Prof. Dr. L. Mochty, in unveröffentlichten Betrachtungen zu diesem Thema.

Ende der Leseprobe aus 112 Seiten

Details

Titel
Adaptive Sampling - ein Fortschritt in der Revisionstechnik?
Note
1
Autor
Jahr
1998
Seiten
112
Katalognummer
V185309
ISBN (eBook)
9783656998334
ISBN (Buch)
9783867462433
Dateigröße
1110 KB
Sprache
Deutsch
Schlagworte
adaptive, sampling, fortschritt, revisionstechnik
Arbeit zitieren
Oscar Garcia Moreno (Autor:in), 1998, Adaptive Sampling - ein Fortschritt in der Revisionstechnik?, München, GRIN Verlag, https://www.grin.com/document/185309

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Adaptive Sampling - ein Fortschritt in der Revisionstechnik?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden