Prozess-Sicherheit I. Statistische Methoden für Ingenieure im operativen Qualitäts-Management


Fachbuch, 2016

268 Seiten


Leseprobe


Inhaltsverzeichnis

1 EINFÜHRUNG IN DIE STATISTIK
1.1 Vorbehalte, Fehler und Manipulation
1.2 Aufgabenbereiche der Statistik
1.3 Merkmalsdefinitionen
1.4 Skalentypen und ihre Anwendungen
1.5 Charakterisierung von Merkmalen
1.5.1 Stetige und diskrete Merkmale
1.5.2 Zufallsvariable, Einfluss- und Zielgrößen
1.6 Verhältniszahlen
1.7 Datengewinnung
1.8 Umfang der Datenerhebung
1.9 Arten statistischer Untersuchungen
1.10 Stichproben und -erhebung

2 WAHRSCHEINLICHKEIT UND WAHRSCHEINLICHKEITSVERTEILUNG
2.1 Statistische Unabhängigkeit
2.2 Verteilungsfunktion
2.3 Binomialverteilung
2.4 Poissonverteilung

3 NORMALVERTEILUNG
3.1 Standardisierte Normalverteilung
3.1.1 Grafiken zur NV
3.2 Restriktionen bei Anwendung der NV
3.3 Die Parameter der Normalverteilung
3.4 Tests mit einer Stichprobe
3.4.1 Analyse der Bestandsindizes
3.5 Tests auf Normalverteilung
3.5.1 Anderson-Darling-Test
3.5.2 Ryan-Joiner-Test
3.5.3 Epps-Pulley-Test
3.6 Transformationen
3.6.1 Das geometrische Mittel
3.6.2 Das harmonische Mittel
3.6.3 Powertransformationen
3.6.4 Spezielle Transformationen
3.6.5 Box-Cox Methode
3.6.6 Analyse der transformierten Werte

4 STICHPROBENPLÄNE
4.1 Zufallsstichprobe und Modellbildung
4.2 Die diskreten Verteilungen
4.3 Die stetigen Verteilungen
4.4 Einfache attributive Stichprobenpläne
4.5 Die Operationscharakteristik (OC)
4.5.1 OC-Funktionen in Abhängigkeit von den Prüfverteilungen F und
4.5.2 Die Durchschlupfkennlinie
4.5.3 Der durchschnittliche Prüfumfang (ASN)
4.5.4 100%-Prüfung bei Ablehnung
4.5.5 Konstruktion einfacher Stichprobenpläne bei vorgegebenen Eigenschaften
4.5.6 Ausgabe in OQM-Stat
4.6 Die doppelte Stichprobe
4.6.1 Die Kenngrößen des doppelten Stichprobenplans
4.7 Betrachtungen zu den mehrfachen Stichprobenplänen
4.8 Sequentielle Stichprobenpläne für die Attributprüfung
4.8.1 Die Kenngrößen des sequentiellen Stichprobenplans
4.8.2 Vergleich mit einfachen Stichprobenplänen
4.9 Stichprobensystem nach DIN ISO 2859
4.9.1 Die Bedeutung des AQL-Wertes in der DIN ISO 2859
4.9.2 Aufbau der DIN ISO 2859
4.9.3 AQL oder RQL
4.9.4 Einzel- oder Gesamt-AQL
4.9.5 Einfluss der Losgröße bei der DIN ISO 2859
4.9.6 Die Bestimmung des AQL-Wertes
4.9.7 Die erste Methode (Kosten)
4.9.8 Die zweite Methode (Durchschlupf)
4.9.9 Die dritte Methode (Punktbewertung)
4.10 Stichprobensysteme und Qualitätsziele
4.11 Variablenprüfpläne
4.11.1 Grundlagen der Variablenprüfung
4.11.2 Vergleich von Attribut- und Variablenprüfung
4.11.3 Durchführung der Prüfung
4.11.4 Berechnung der Kenngrößen
4.11.5 Doppelstichprobenplan und Sequentieller Stichprobenplan
4.11.6 Vorzeitiger Abbruch bei Variablenprüfung
4.11.7 Prüfung des Durchschnitts bei bekannter Varianz (einseitiger Test)
4.11.8 Prüfung der Varianz bei bekanntem Durchschnitt (einseitiger Test)
4.11.9 Prüfung der Varianz bei unbekanntem Durchschnitt (einseitiger Test)
4.11.10 Prüfung des Durchschnitts bei bekannter Varianz (beidseitiger Test)
4.12 Analyse des MIL-STD 414 und der messenden Prüfung
4.12.1 Das Konzept der messenden Prüfung
4.12.2 Die Voraussetzung der Normalverteilung (NV)
4.12.3 Prüfpläne mit bekannter Standardabweichung
4.12.4 AQL und Prüfaufwand
4.12.5 AQL-Klassen und Messgenauigkeit (Präzision)
4.12.6 Ausgabe eines Variablenplans im OQM-Stat
4.12.7 Zusammenfassung und Ausblick
4.13 Stichprobenprüfung für kontinuierliche Fertigung
4.13.1 Der Dodge-Plan CSP-1
4.13.2 Die Pläne CSP-2 und CSP-3
4.14 Ein Plan von Wald und Wolfowitz
4.14.1 Prüffrequenz
4.14.2 Mindestwert von k mit Rücksicht auf die vorhandene Prüfkapazität
4.14.3 Zusammenhang zwischen Prüfkapazität und Prüffrequenz
4.14.4 Mittlere Anzahl gefertigter Einheiten
4.14.5 Gruppenprüfung
4.14.6 Voraussetzungen für die Teilmengenbeurteilung
4.14.7 Vergleich der Teilmengenbeurteilung mit anderen Verfahren
4.14.8 Restposten am Schichtende bzw. bei Typwechsel
4.14.9 Abschließende Bemerkungen
4.15 Reihenstichprobenplan (Chain-Sampling Plan)
4.15.1 Die Operationscharakteristik
4.15.2 Der Durchschlupf
4.15.3 Die Konstruktion von Reihenstichprobenplänen
4.16 Lebensdauerprüfpläne
4.16.1 Statistisch relevante Eigenschaften von Lebensdauerprüfplänen
4.16.2 Einstufige Pläne mit direkter zeitlicher Limitierung
4.16.3 Einfachstichprobenpläne für exponential-verteilte Messwerte
4.16.4 Beendigung nach einer festen Anzahl von Ausfällen k
4.16.5 Beendigung nach einer festen Zeit t(V)
4.16.6 Experimente ohne Ersetzen (E0) ausgefallener Elemente
4.16.7 Experimente mit Ersetzen ausgefallener Elemente
4.16.8 Sequentielle Lebensdauertests
4.16.9 Stichprobenpläne für die Weibull-Verteilung
4.17 Zur statistischen Variante des Gesund- und Totprüfens
4.17.1 Das Gesundprüfen
4.17.2 Das Totprüfen
4.18 Kostenoptimale Stichprobenpläne
4.18.1 Kostenmodelle
4.18.2 Das Kostenmodell A
4.18.3 Das Kostenmodell B
4.18.4 Optimale Stichproben nach dem Min-Max-Prinzip für Kostenmodell A
4.18.5 Keine Vorinformation über Fehleranteile
4.18.6 Mit Vorinformation über Fehleranteile
4.18.7 Abschließende Anmerkungen
4.18.8 Optimum für das Kostenmodell B
4.18.9 Verfahren A
4.18.10 Verfahren B
4.18.11 Verfahren C
4.18.12 Verfahren D

5 DER STATISTISCHE TEST
5.1 Elemente des Hypothesentests
5.2 Signifikanztests
5.3 Null- und Alternativhypothese
5.3.1 Risiko I. und II. Art
5.3.2 Testgüte (auch Trennschärfe, Test Power)
5.3.3 Statistische Vertrauensbereiche
5.4 Test auf Ausreißer
5.5 Test auf Autokorrelation
5.6 Mittelwertvergleiche (ANOVA)
5.6.1 Mittelwerte mit Zielwerten vergleichen
5.6.2 Vergleich unabhängiger Mittelwerte
5.6.3 Vergleich abhängiger Mittelwerte
5.6.4 Vergleich zweier Varianzen, F-Test
5.6.5 Levene und Browne-Forsythe Test
5.6.6 Analyse der Homoskedastizität
5.7 Die einfache Streuungszerlegung
5.7.1 Beispiel: Mittelwertvergleich der Bestandsindizes
5.7.2 Lineare Kontraste
5.8 Analyse diskreter Variabler
5.8.1 Binomialverteilte Anteile
5.8.2 Poissonverteilte Ereigniszahlen
5.8.3 Vierfelder Tafeln
5.8.4 Mehrfelder Tafeln
5.8.5 Der r-c-Felder-Test
5.9 Sensorische Analysen
5.9.1 Der Mensch als Prüfgerät
5.9.2 Statistische Methodik und Sensorik
5.9.3 Die paarweise Unterschiedsprüfung
5.9.4 Die Dreiecksprüfung
5.9.5 Paarvergleichsurteile
5.9.6 Attributive MSA

6 GAGE R&R ANALYSIS
6.1 Messmittelfähigkeitsanalysen
6.2 Messfehler und Merkmalswert
6.3 Messfähigkeit im engeren und weiteren Sinne
6.4 Richtigkeit
6.5 Wiederholpräzision
6.5.1 Beispiel zu Richtigkeit und Wiederholpräzision
6.5.2 Messmittelfähigkeitsindizes
6.5.3 Linearität
6.5.4 Homogenität
6.5.5 Untersuchung auf Linearität und Homogenität
6.5.6 Stabilität
6.5.7 Anwendung einer Qualitätsregelkarte
6.5.8 Beispiel: Stabilitätsanalyse
6.5.9 Vergleichspräzision und Gesamtstreuung
6.6 SIX SIGMA Gage R&R
6.6.1 Beispiel: MSA für Katapult
6.7 Einfache Schätzung der Messunsicherheit
6.7.1 Wert der Zufallskomponente
6.7.2 Wert der systematischen Komponente
6.7.3 Zusammensetzung der Komponenten
6.8 Erweiterte Messunsicherheit
6.8.1 Messunsicherheit in der Normung
6.8.2 Gütekriterien von Messungen
6.8.3 Einflussgrößen auf Messunsicherheit
6.8.4 Interpretation der erweiterten Messunsicherheit U
6.8.5 Bestimmung des Messunsicherheitsbudgets
6.8.6 Bemerkungen zur MSA

7 STATISTISCHE PROZESSLENKUNG
7.1 Die Analyse des Vorlaufes
7.2 Die Wahl der QRK
7.3 Anzahl der erforderlichen QRK
7.4 Der richtige Einsatz der QRK
7.5 Mittellinien und Eingriffsgrenzen eintragen
7.6 Stichprobenentnahme
7.7 Anwendung der QRK
7.8 Maßnahmen an Hand von QRK
7.9 QRK ohne vorgegebene Grenzwerte
7.9.1 Schätzung der Streuung
7.9.2 Die Spannweiten-Methode (R-Methode)
7.9.3 Die Standardabweichungs-Methode
7.9.4 Die Varianz-Methode
7.9.5 Die Einzelwert-Methode
7.9.6 Der varianzanalytische Ansatz
7.9.7 QRK für Mittelwerte
7.9.8 QRK für Urwerte
7.9.9 QRK für Spannweite (Range)
7.9.10 QRK für Standardabweichungskarte (s-Karte)
7.10 QRK mit vorgegebenen Grenzwerten
7.10.1 Die Pre-Control-Karte
7.11 Die Regenbogenkarte
7.12 Prüfung auf unnatürliche Linienzüge
7.13 Die Kusum-Karten
7.13.1 Vorüberlegungen zur Kusum-Karte
7.13.2 Konstruktion von Kusum-Karten

8 FÄHIGKEITSUNTERSUCHUNGEN
8.1 Das I-MR Chart
8.2 Berechnung der Kennwerte
8.3 Grundlagen in der Praxis
8.4 Die zeitabhängigen Verteilungsmodelle in der Normung
8.4.1 Zeitabhängiges Verteilungsmodell A1
8.4.2 Zeitabhängiges Verteilungsmodell A2
8.4.3 Zeitabhängiges Verteilungsmodell B
8.4.4 Zeitabhängiges Verteilungsmodell C1
8.4.5 Zeitabhängiges Verteilungsmodell C2
8.4.6 Zeitabhängiges Verteilungsmodell C3
8.4.7 Zeitabhängiges Verteilungsmodell C4
8.4.8 Zeitabhängiges Verteilungsmodell D
8.5 Die Schätzverfahren in den Normen

9 VERZEICHNIS DER GRAFIKEN UND TABELLEN
9.1 Grafiken
9.2 Tabellen

10 LITERATURVERZEICHNIS

1 Einführung in die Statistik

Viele Menschen haben ein gestörtes Verhältnis zur Statistik, denn auf der einen Seite glauben sie den statistischen Aussagen (vor allem dann, wenn es die eigene Meinung stützt) und auf der anderen Seite werden statistische Aussagen als besonders raffinierte Lügen angesehen (vor allem dann, wenn es der eigenen Meinungen zuwider läuft). Versuchen wir die Frage, warum sind Wettervorhersagen manchmal falsch, zu beantworten. Trotz umfangreicher Modelle, tausenden von Messwerten, schnellsten Rechnern und komplexen Statistiken irrt der Meteorologe manchmal. Nicht weil er die Daten manipuliert oder weil er Freude an der Lüge hat, sondern im Gegenteil er möchte richtige Vorhersagen treffen. Dies würde aber ein deterministisches System voraussetzen. Wettervorhersagen sind nur wahrscheinlich und deshalb keine sicheren Ereignisse.

Statistische Aussagen sind nicht wahr, sondern nur wahrscheinlich.

Ein anderer Aspekt betrifft die statistischen Aussagen und deren Interpretation. Alle Raucher wissen, dass rauchen im Mittel das Leben verkürzt. Darauf angesprochen wird immer wieder ein 90 Jahre alter Mann, der sein Leben lang geraucht hat, als Gegenargument angeführt. Ein anderes Beispiel, dass zeigen soll, welch ein Unsinn mit Statistik betrieben werden kann, ist die Aussage, dass eine Familie in Deutschland durchschnittlich 1.5 Kinder hat. So etwas hat noch niemand gesehen und jeder weiß, dass halbe Kinder nicht existieren. Die Preissteigerungsrate liegt bei 2% und viele glauben nun, dass gelte auch für ihre eigenen Ausgaben. Dieser Glauben ist meistens falsch, weil kaum jemand den gleichen Warenkorb hat, wie er zur Berechnung genutzt wurde.

Statistische Aussagen gelten nie für Individuen oder einzelne Objekte, sondern treffen Aussagen über Stichproben und Grundgesamtheiten.

In einem Herstellungsprozess wurde für ein Los von Glaskugeln ein Mittelwert von 19.90 µm für den Durchmesser ermittelt. Nun interpretieren die Laien, dass alle Glaskugeln diesen Durchmesser haben. Ein mögliches Ergebnis könnte die Darstellung einer Mischverteilung (Abb. 1) sein.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Mischverteilung

Hier sehen wir, dass kaum ein Wert von 19.90 µm zu finden ist. Das Beispiel für solche Fälle soll zeigen, wie solche Fehler zustande kommen. Es sollen kleine Glaskugeln (Durchmesser 20 µm) als Füllmaterial hergestellt werden. Dabei ist der Zielwert von 20 µm nicht immer zu erreichen, manche sind zu klein und andere sind zu groß. Die Lösung der Fertigung wir mischen verschiedene Lose sodass der mittlere Durchmesser immer angenähert erreicht wird.

Statistische Kennwerte sind nur dann gute Schätzungen,

wenn auch die Voraussetzungen für ihre Bestimmung eingehalten wurden.

Eine Selbstverständlichkeit ist es zu einem Lageparameter (Durchschnitt, Zentralwert, usw.). Immer auch ein Maß für die Streuung anzugeben, dies wird leider viel zu oft nicht gemacht. Deshalb werden wir uns dies am Beispiel der Glaskugeln verdeutlichen (Abb. 2).

Dichte von zwei Stichproben

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Unterschiedliche Streuungen

Der durchschnittliche Durchmesser von 20 µm gilt für die gepunktete und unterbrochene Verteilung der Messwerte. Bei der unterbrochenen Verteilung repräsentiert der Lageparameter von 20 µm die Messwerte besser als bei der gepunkteten Verteilung. Es wäre also unverzeihlich, die Streuung als weiteren Kennwert zu unterschlagen. Die durchgezogene Linie ergibt die SummenVerteilung, diese ist in einem solchen Fall immer spitzgipflig und nicht normalverteilt.

Zu einem Lageparameter gehört immer ein Streuungsparameter.

Dieses Buch will helfen solche elementaren Fehler zu vermeiden und die Methodik der Statistik[1] zu erklären. Dabei wird ein besonderer Schwerpunkt auf die Anwendung der verschiedenen Analysen und deren Interpretation gelegt. Die Mathematik der verschiedenen Analysen und Tests beschränkt sich auf die Darstellung der Formeln ohne diese abzuleiten. Für viele Analysen ist die Unterstützung durch einen Rechner mit entsprechender Software angeraten. Im Buch werden deshalb alle Analysen mit MS Excel Add-in: OQM-Stat oder Minitab durchgeführt. Das Buch behandelt alle typischen Verfahren des Qualitätsingenieurs.

1.1 Vorbehalte, Fehler und Manipulation

Das Wort Statistik hat jeder schon gehört und benutzt. Begriffe wie Verkaufsstatistik, Unfallstatistik, Bevölkerungsstatistik, Verkehrsstatistik usw. lesen wir täglich in der Zeitung. Es handelt sich bei diesen Statistiken um die zahlenmäßige Beobachtung von Massenerscheinungen der Natur und des Menschenlebens. So assoziiert man die Statistik immer mit Aussagen über den Durchschnitt, das arithmetische Mittel. Man spricht über die durchschnittliche Lebenserwartung von Frauen und Männern, von der mittleren Zuschauerzahl, von der durchschnittlichen Jahrestemperatur usw., alle diese Angaben begegnen uns ständig in den Medien. Die Aussagekraft der Statistik und ihre Unentbehrlichkeit wird in zunehmendem Maße anerkannt; gewisse zum Teil unberechtigte Vorwürfe richten sich weniger gegen die statistische Methode als gegen den häufigen Missbrauch der Statistik zu populären, keiner wissenschaftlichen Kritik standhaltenden Beweisführungen. So definiert der statistische Laie: Es gibt drei Arten von Lügen, so definierte der englische Staatsmann Benjamin Disraeli (nach Aussage von Mark Twain):

There are three kinds of lies:

lies, damned lies and statistics!

Aussagen wie diese sind keine Seltenheit. Die Menschen bringen der Statistik (durchaus nicht immer zu unrecht) ein gehöriges Maß an Misstrauen entgegen. Dies muss nicht so sein: Wenn man mit dem Werkzeug der Statistik vertraut ist, kann man oft ganz schnell einen Fehler oder eine Manipulation in einer statistischen Darstellung entlarven. Viele dieser Möglichkeiten werden anhand unterschiedlicher Bereiche der Statistik kurz vorgestellt.

Dies ist wohl der meist zitierte Ausspruch zum Thema Statistik, der in den verschiedensten Variationen immer wieder auftaucht. Er besagt, dass die Statistik eine besonders heimtückische Form der Lüge darstellt. Dieser Ruf begründet sich durch den bewussten Missbrauch der Statistik und ihrer Kennwerte zur Manipulation um so bestimmte Ziele zu erreichen. So reden beispielsweise die Gewerkschaften von prozentualen Gewinnen um damit ihre Lohnforderungen zu begründen, während die Unternehmer vom Gewinnzuwachs sprechen um die Lohnforderungen als überhöht abzulehnen. Wenn diese Manipulation erkannt werden soll, muss man wissen, dass bei hohen und gleichbleibenden Gewinnen der Gewinnzuwachs ständig geringer und sogar negativ werden kann. Eine andere witzige Definition der Statistik zeigt ein weiteres Problem von statistischen Aussagen. Die ermittelten Parameter eines Objektes wie zum Beispiel die Länge und die Breite geben keine erschöpfende Auskunft über das Objekt. Zitat von Aaron Levenstein, Professor für Betriebswirtschaftslehre und Autor.

Statistiken sind wie Bikinis, sie zeigen viel und verbergen das Wesentliche!

Dieser Spruch ist eher scherzhaft gemeint, doch steckt in diesem Spruch eine Menge Wahrheit. Jeder Merkmalsträger hat eine Vielzahl von Merkmalen, von denen immer nur eine geringe Untermenge betrachtet wird. Dies ist die Konzentration auf die vermeintlich wichtigen Variablen. Bei Daten über Personen wird dieses Problem noch deutlicher, wenn über eine Person Daten bzgl. der Pünktlichkeit und der Leistung am Arbeitsplatz ermittelt wurden, befähigen die Daten niemand die Person umfassend zu beurteilen, dies gilt auch wenn weitere Daten erhoben werden. Eine vollständige Beurteilung muss in der Regel unterbleiben, weil immer nur ein Datenschatten erhoben werden kann. Diese Bemerkungen werden mit Schmunzeln aufgenommen, und haben immer auch einen realen Hintergrund. Dies gilt auch für den folgenden Ausspruch.

Statistiken sind das Nonplusultra des Unwiderlegbaren, weil Statistiken mathematisch exakt sind.

Hinter dieser Bemerkung steckt, dass der Laie niemals einen Mittelwert oder auch einen anderen Parameter anzweifelt, wenn er auf mehr als zehn Stellen nach dem Komma berechnet wurde. Dies ist allerdings eine besonders heimtückische Form der bewussten oder unbewussten Manipulation und der Statistiker wird deshalb immer auf eine Angabe bestehen, welche ihm Auskunft über die Genauigkeit der Schätzung gibt. Denn in der Regel ist nicht der Kennwert der Stichprobe von Bedeutung, sondern die verallgemeinerte Aussage über den zu erwarteten Kennwert der Grundgesamtheit.

Lügen mit Statistik beginnt nicht bei der Analyse und Aufbereitung von gesammelten Daten, sondern meist schon viel früher - bei der Definition von Begriffen. Zu jeder wissenschaftlichen Untersuchung gehört die Definition von verwendeten Begriffen, sofern diese nicht in einem allgemeinen Konsens bereits definiert wurden. Bei zahlreichen Begriffen ist dies jedoch nicht der Fall, z.B. Arbeitslosigkeit, Ausländer, Geburtenrate, Tourismus, Wohnung, Ureinwohner, Armut, Wohlstand, Wirtschaftswachstum, Schulbildung, Kriminalität, Analphabetismus, Streik, Säuglingssterblichkeit etc. Solange die gewählten Definitionen plausibel (und konsensfähig) erscheinen ist nichts gegen eine begriffliche Vielfalt einzuwenden (auch wenn sie mitunter mühsam ist), die Manipulation beginnt jedoch dann, wenn Begriffe bewusst so bestimmt werden, damit sich das Ergebnis mühelos in das eigene Weltbild einfügen lässt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3 Italien überholt Großbritannien

Italien hat 1987 erstmals England im Bruttoinlandsprodukt (BIP) überholt und lag hinter USA, Japan, UdSSR, BRD und Frankreich erstmals an sechster Stelle. Dieser Tag ging als Il sorpasso (sorpassare=überholen) in die Geschichtsbücher Italiens ein und hob dort das Nationalbewusstsein, während er das der Engländer beschädigte. Was war passiert? Hatte man in Italien Gold gefunden? Hatten sie in die Hände gespuckt und das das Bruttoinlandsprodukt gesteigert? Nein, man vergisst eines oft, wenn man exakte Zahlen vorgesetzt bekommt. Die Frage, welche Definition steckt dahinter. Das einzige, was sich geändert hatte, war die Definition des Bruttoinlandsprodukts. Während vorher - wie noch heute in Deutschland und vielen Ländern üblich Schwarzarbeit u.ä. unberücksichtigt bleibt, hatte man nun in Italien die gesamte Schattenwirtschaft mit 5% im Bruttoinlandsprodukt angesetzt und es so um 5% gesteigert!

Wenn wir in den Medien Zahlen präsentiert bekommen, erfahren wir, dass pro Person durchschnittlich 12,3 kg Rindfleisch im Jahr verzehrt und 27,8 l Milch getrunken werden. Bei manchen dieser Angaben lässt sich mit gutem Willen noch behaupten, man könne tatsächlich so genau zählen, bei anderen scheint dies weniger plausibel und doch neigen wir oft dazu, nur dann Zahlen zu glauben, wenn sie Dezimalstellen aufweisen oder in den obigen Größenordnungen nicht auf die Hunderterstelle gerundet sind. Wenn jemand sagt, er habe im Jahr 2000 ein Nettoeinkommen von € 25000,- gehabt, dann nehmen wir an, es handle sich um eine grobe Schätzung. Sagt aber diese Person, sie habe ein Nettoeinkommen von € 24763,- gehabt, so nehmen wir an, dies sei ein realistischer Wert ohne zu bedenken, dass das Einkommen meist niemals so genau zu berechnen ist. Hierbei spielt natürlich auch das oben dargestellte Problem der Begriffsdefinition wiederum eine Rolle. Worauf wir aber achten müssen, ist, dass genaue Angaben nicht unbedingt mehr Informationsgehalt besitzen (oder mehr der Realität entsprechen) als gerundete Angaben.

Andere Fragen, die uns in der Statistik beschäftigen, sind jene nach der Messgenauigkeit quantitativer Merkmale (Körpergröße, Einkommen, Gewicht, Schadstoffemission eines Autos etc.). Wenn wir Merkmale sehr genau messen, so erhalten wir bei einer Untersuchung viele verschiedene Werte, mitunter kommt keine Ausprägung zweimal vor. Um die Daten aufzubereiten werden häufig Klassen gebildet. Dadurch reduzieren wir den Informationsgehalt. Dies birgt Quellen der Manipulation in sich, wenn die Grenzen der Klassen nicht aus sachlichen Gründen gebildet werden, sondern durch Anpassen der Klassengrenze an gewünschte Häufigkeitsverteilungen. Die Häufigkeitsverteilung kann stark verzerrt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 Klassenanzahl in Histogrammen

Prozentangaben sind wichtiger Teil der deskriptiven Statistik und haben es per Definition in sich, dass sie sich auf eine bestimmte Basis (Nenner) beziehen. Je nach gewählter Basis werden große Prozentwerte plötzlich ganz klein. Viele Prozentangaben in der Tageszeitung und daraus gezogene spektakuläre Schlussfolgerungen sind oftmals grob fahrlässig verursachte Irrtümer. Kann man z.B. aus der Tatsache, dass in den USA die meisten Gewaltverbrechen zu Hause geschehen, schließen, dass man am sichersten im Central Park schläft? Wohnungen sind nicht zwingend ein gefährliches Pflaster, sondern wir halten uns nun mal die meiste Zeit dort auf. Wer geht schon gerne ins Bett? Immerhin sterben dort 95% aller Menschen!

Ein Politiker fordert die Einführung einer Pflichtversicherung für Radfahrer. Zur Begründung verweist er auf eine Statistik, die besagt, dass Radfahrer ein Drittel aller (registrierten) Sportunfälle verursachen. Das mag eine ganz korrekte Aussage sein, sie kann aber auch gar nichts besagen. Um sie beurteilen zu können, müssen wir wissen, welchen Anteil die Radfahrer an allen Sportlern des Landes überhaupt ausmachen. Ist Radfahren mit einem Anteil von 10% an allen sportlichen Aktivitäten vertreten, so könnte man obiger Forderung durchaus zustimmen. Machen die Radfahrer allerdings über die Hälfte aller Sportler aus, so relativiert sich auch ihr Anteil an allen Sportunfällen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5 Suizid und Bezugsbasis

Auch die grafische Art der Aufbereitung statistischer Daten birgt zahlreiche Fehler- und Manipulationsquellen. Zu den beliebtesten Tricks zählen das Beschneiden der Ordinate (ohne entsprechende Kennzeichnung), das Stauchen und Strecken ganzer Achsen oder auch nur bestimmter Achsenabschnitte, das falsche Verhältnis von Längen, Flächen und Volumina (von Säulen und Balken, Kreisdiagrammen, Piktogrammen, Blasen) zur darzustellenden Häufigkeit.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 6 Unterdrückte Nullpunkte

So liegen den beiden Säulendiagrammen in der Abbildung die gleichen Daten zugrunde. In der linken Darstellung wurde kräftig manipuliert um das moderate Wachstum zu beschleunigen. In nächsten Abbildung werden ebenfalls die mageren Differenzen durch kosmetische Tricks optisch verstärkt (Abschneiden und Streckung der Ordinate, Stauchung der Abszisse).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 7 Riesige Abstände

Je nach Datenniveau dürfen bestimmte Maßzahlen berechnet werden oder nicht (z.B. würde eine mittlere Haarfarbe keinen Sinn machen). Entscheidend für die Wahl der angemessen Maßzahl ist aber nicht nur das Datenniveau, sondern auch die Beschaffenheit der Verteilung: Sind in einer Stichprobe (wenn auch nur wenige) extreme Ausreißer zu finden, so verzerren diese das arithmetische Mittel besonders stark und lassen den Median unverändert.

Über Eigenschaften der Lagemaße Bescheid zu Wissen kann einem so manchen Fehltritt ersparen: So beklagte die Weltbank 1980, dass in den USA mehr als die Hälfte der Einwohner an Hunger leiden würden. Sie definierten als hungrig, wer weniger als die durchschnittliche Zahl an Kalorien zu sich nehme. Diese Definition alleine kann man schon als wenig sinnvoll bezeichnen, sie hat aber einen entscheidenden anderen Haken: Ein Durchschnitt ist im Wesen so definiert, dass in etwa die Hälfte der einbezogenen Werte darunter liegt (beim Median ist es genau die Hälfte), also verwundert es einen Statistiker wohl kaum, dass halb Amerika hungere.

Der Kardinalfehler in der Statistik ist allerdings die Angabe von Lagemaßen ohne ein dazu gehörendes Streuungsmaß. Viele Untergruppen (z.B. Frauen/Männer) mögen bezüglich eines bestimmten Merkmals den gleichen Durchschnitt aufweisen und sind sich dennoch überhaupt nicht ähnlich. Durchschnittstemperaturen sagen so gut wie gar nichts, wenn wir keine Streuung als Information dazu erhalten. Zwei Orte mit der gleichen durchschnittlichen Jahrestemperatur können ganz unterschiedlich beschaffen sein, je nachdem wie extrem die Temperaturschwankungen sind, angegeben durch die Streuung.

Beliebte weitere Tricks: störende Zwischenjahre weglassen (und die Abszisse nicht mehr beschriften), die Decke des Diagramms senken (dann sieht ein Wachstum so aus als würde es die Grenzen sprengen), Beschriftung der Achsen weglassen, Einfügen von Grafikelemente (z.B. Pfeile die einen Anstieg oder Abfall noch stärker verdeutlichen sollen). Seit 1983 stabile Gebühren! Der Hit?

Abbildung in dieser Leseprobe nicht enthalten

Abb. 8 Die stabile Post

Trends werden in der mathematischen Fachsprache nicht prognostiziert, sondern extrapoliert - ein gar nicht leichtes Unterfangen, wie schon sehr oft auf sehr eindrucksvolle Art und Weise demonstriert wurde. Diese Thematik führt uns auch geradewegs in das Gebiet der Wachstumsmodelle.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 9 Rohöl und kein Ende

Die meisten Fehler werden begangen, wenn nach der Devise (Immer so weiter !) verfahren wird und einfach das Wachstum der aktuellen Periode (1930 bis 1972) als Grundlage der Extrapolation herangezogen wird. Dies mag zwar für einen kurzfristigen Zeitraum richtig sein (und die beste Methode mit der geringsten Irrtumswahrscheinlichkeit), doch niemals für weiter in die Zukunft reichende Vorhersagen taugen (siehe Abb. 9). Die Strich-Punkt-Linie ist eine nichtlineare Regression, welche die Daten von 1930 bis 1972 perfekt anpasst und ist nach 1973 nicht mehr brauchbar. Ansonsten würde z.B. Europa in wenigen Jahrhunderten entvölkert sein, sollte der Bevölkerungsrückgang unbeirrt wie in den 90er Jahren fortfahren. Bedenklich werden solche Extrapolationen, wenn sie den Menschen unbegründet Angst machen - wie etwa im Falle der Vorhersage der Ausbreitung von Aids. Auch hier wurde das am Anfang schnelle Wachstum als Grundlage für längerfristige Extrapolationen herangezogen mit dem Resultat, dass die Weitsichtigen von damals heute ziemlich blamiert sind. Im Umgang mit Extrapolationen ist daher äußerste Vorsicht geboten.

1.2 Aufgabenbereiche der Statistik

Der Fachmann geht mit seiner Definition der Statistik über die bisherige Darstellung hinaus, weil nur die beschreibende Statistik berücksichtigt wurde. Er definiert die Statistik als Methodenlehre, die aus der Beobachtung, Beschreibung und Analyse empirischer, zufälliger Erscheinungen Erfahrungsgesetze ableitet. Statistische Methoden sind überall da erforderlich, wo Ergebnisse nicht beliebig oft und exakt reproduzierbar sind. Die Ursachen dieses Mangels an Reproduzierbarkeit liegen in unkontrollierten und unkontrollierbaren Einflüssen. Dies führt bei einer Beobachtungsreihe zur Streuung der Messwerte (Merkmalsausprägungen) von Merkmalen. Der Ungewissheit als Ergebnis der Streuung wird mit wissenschaftlicher Methodik begegnet, d.h. Anwendungen der Statistik ermöglichen es, vernünftige optimale Entscheidungen im Falle von zufälligen Erscheinungen zu treffen. Mit der Statistik gelingt es den Zufall in den Griff zu bekommen. Statistische Methoden erlauben die Beurteilung vom Mess-, Zähl- und Bewertungsergebnissen die allgemein als Beobachtungen bezeichnet werden. In Fällen von Ungewissheit ermöglichen die statistischen Methoden Entscheidungen über die Ursachen oder Zusammenhänge der Beobachtungen mit anderen Erscheinungen. Neben vereinfachenden Annahmen dominiert hierbei die Wahrscheinlichkeitsrechnung, die Modelle zur Erfassung zufallsbedingter Erscheinungen liefert. Die Lehre der Wahrscheinlichkeitsrechnung und ihrer Modelle bezeichnet man als Stochastik. Aus der bisher angesprochenen Charakterisierung und Darstellung der realen Verhältnisse lässt sich die Statistik in zwei Teilbereiche gliedern:

Deskriptive Statistik

Die deskriptive oder beschreibende Statistik wird angewendet, um Grundgesamtheiten in komprimierter Form darzustellen, als Diagramm, Histogramm, Polygon, Schaubild, Tabelle und Kennwerten wie Mittelwert, Standardabweichung usw.. Hauptsächliche Anwendungsgebiete sind die Sozial- und Wirtschaftswissenschaften, sie ist die Vorstufe der analytischen Statistik. Eine verallgemeinernde Interpretation der deskriptiven statistischen Analyse, die über das erhobene Material hinausgeht, ist spekulativ.

Explorative Datenanalyse (engl.: Exploratory Data Analysis, EDA)

Die EDA, manchmal auch als explorative Statistik bezeichnet, hat sich seit Tukeys (1977) bahnbrechendem Werk in den letzten zwanzig Jahren als eigenständige Form der Datenanalyse herauskristallisiert, auch wenn sie manchmal noch der Deskriptiven Statistik zugeordnet wird. Die EDA beschäftigt sich vor allem mit der genauen Inspektion von Daten, um Auffälligkeiten auf die Spur zu kommen, die Hinweise auf mögliche Datenstrukturen und Zusammenhänge liefern. Auch die Aufdeckung von Datenwerten, die auf Fehler oder außergewöhnliche Einflüsse hindeuten, gehört zum Aufgabengebiet der EDA. Sie bedient sich dabei vielfach grafischer Mittel.

Analytische Statistik

Die induktive oder analytische Statistik wird angewendet, um von einer Teilmenge unter Benutzung mathematischer Modelle auf eine Grundgesamtheit zu schließen. Aussagen der analytischen Statistik sind Wahrscheinlichkeitsaussagen über die Vereinbarkeit der in den Untersuchungsdaten erfassten Realität mit den aus einer Theorie abgeleiteten Hypothesen. Für den Einsatz der analytischen Statistik ist es deshalb erforderlich, eine auf einem statistischen Modell basierende Hypothese zu formulieren, da ihr eine theoretisch begründete, konkrete Fragestellung vorausgeht. Die analytische Statistik ermöglicht im Gegensatz zur deskriptiven Statistik die Aufstellung allgemein gültiger Aussagen über die Grundgesamtheiten welche den getesteten Hypothesen zugrunde liegen. Hauptsächliche Anwendungsgebiete sind die Natur-, Ingenieur-, und Medizinwissenschaften.

Die Statistik umfasst somit alle quantitativen Analysetechniken, mit denen zufällige Daten zusammenfassend beschrieben werden können (deskriptive Statistik) bzw. mit denen auf der Basis zufälliger Daten Aussagen über die Richtigkeit von Hypothesen formuliert werden können (analytische Statistik). Im Alltag erfassen wir einen Zusammenhang oder einen Unterschied mit Hilfe von Sachkenntnis und nach dem sogenannten Eindruck. Der Wissenschaftler, der gewisse Erscheinungen, Abhängigkeiten, Trends und Effekte vieler Art entdeckt und darauf eine Arbeitshypothese begründet, sichert diese ab gegen die Hypothese: die festgestellten Effekte sind einzig und allein durch den Zufall bedingt. Die Frage, ob beobachtete Erscheinungen nur als Zufallsergebnisse gelten können oder typisch sind, beantwortet die analytische Statistik. Mit Hilfe statistischer Verfahren lassen sich folgende Fragen beantworten und Behauptungen überprüfen.

Wie viel Personen müssen befragt werden, um eine Wahlprognose zu erstellen?

Beeinflusst sportliche Betätigung die Häufigkeit des Auftretens von Kreislauferkrankungen? Wie ändern sich die Eigenschaften einer Legierung in Abhängigkeit von der Zusammensetzung und den Anteilen der Komponenten?

Hat die neue Montageeinrichtung der Fehleranteil gesenkt? Welche Einstellungen von Prozessparametern sind optimal?

Zur Beantwortung dieser und anderer Fragen benötigt man Daten, denn Daten sind wichtig, um Annahmen zu bewerten und neues Wissen zu entdecken.

1.3 Merkmalsdefinitionen

Die deskriptive Statistik dient der Beschreibung, der Strukturierung und der Verdeutlichung unübersichtlichen und umfangreichen Datenmaterials: Wo kommt dieses Material her, um was für Daten handelt es sich? Diese und ähnliche Fragen müssen zunächst einmal untersucht werden.

Abb. 10 Grundgesamtheit

Als Grundgesamtheit (im Beispiel: Stahlkugeln) bezeichnet man die Menge aller bzgl. des zu untersuchenden Merkmals gleichartigen Objekte, Individuen oder Ereignisse, d. h. die Grundgesamtheit wird gebildet durch alle Objekte, Individuen oder Ereignisse, die überhaupt zur betrachteten Menge gehören können. Die präzise Definition der Grundgesamtheit erfolgt in der Regel zielorientiert, z.B. alle wahlberechtigten Personen eines Landes. Dies, damit das Volumen einschränkt wird, um die Validität der Aussagen zu erhöhen, aber auch um die anfallenden Kosten einer Erhebung zu minimieren.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 11 Stichprobe

Als Stichprobe bezeichnet man eine Teilmenge einer Grundgesamtheit, die unter bestimmten Gesichtspunkten ausgewählt wurde. Mit Stichproben wird in Anwendungen der Statistik häufig gearbeitet, da es oft nicht möglich ist, die Grundgesamtheit zu untersuchen. Um die einzelnen Elemente einer Stichprobe zu erhalten, stehen verschiedene Auswahlverfahren zur Verfügung. Die korrekte Wahl des Auswahlverfahrens ist oft nicht trivial, da die Stichprobe repräsentativ sein muss, um auf die Grundgesamtheit schließen zu können.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 12 Merkmalsträger

Statistische Einheiten sind Einzelobjekte oder Ereignisse, die einer Untersuchung zugrunde liegen. Sie sind Träger von Informationen, die für eine Problemstellung relevant sind. Daher heißen sie auch Merkmalsträger. Der Merkmalsträger besitzt mehrere verschiedene Merkmale. Die Charakteristiken eines Merkmalsträgers sind die Merkmale, welche gemessen werden können. Auf die gemessenen Merkmale der Untersuchungseinheit werden die statistischen Analysen angewendet. Die Merkmale werden in der induktiven Statistik als Variablen bezeichnet.

Bei der Beobachtung oder Messung von Merkmalen an Untersuchungseinheiten stellt man die Merkmalsausprägung (den Merkmalswert oder Variablenwert) jedes Merkmals an jeder Untersuchungseinheit fest; alle Merkmalsausprägungen sind dann identisch mit dem gewonnenen Datenmaterial. Die betrachteten Eigenschaften sind abhängig von den Merkmalsträgern und diese sind abhängig von den Zielen der Untersuchung. Nicht alle Merkmale sind für die Analysen von Bedeutung, man beschränkt sich auf die für Untersuchung wichtigen Merkmale.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 13 Merkmalsträger und mögliche Merkmale

Die Merkmale werden in der induktiven Statistik als Variablen bezeichnet. Bei der Beobachtung von Merkmalen an Untersuchungseinheiten stellt man die Merkmalsausprägung (den Merkmalswert oder Variablenwert) jedes Merkmals an jeder Untersuchungseinheit fest; die Merkmalsausprägungen insgesamt sind dann identisch mit dem gewonnenen Datenmaterial.

1.4 Skalentypen und ihre Anwendungen

Die Beobachtungseinheiten, Personen, Objekte oder Ereignisse, an denen Messungen vorgenommen werden, sind Träger von Merkmalen verschiedener Ausprägungen. Diese Ausprägungen sind zu messen. Eine Definition des Messen lautet:

Messen ist das Zuordnen von Zahlen zu Objekten oder Ereignissen nach bestimmten Vorschriften.

Diese Definition ist eng gefasst, denn in der Umgangssprache ist es durchaus gebräuchlich, zu sagen: Er kann sich mit mir nicht messen. Bei dieser Art Messung wird eine Rangfolge festgestellt, die verbal lauten könnte: besser - schlechter. Eine noch einfachere Art des Messen ist, lediglich Unterscheidungen zu treffen wie männlich - weiblich. Es muss zu einer Messung eine Skala vorhanden sein, die es gestattet, jede Ausprägung einer Einheit einem Skalenwert zuzuordnen. Sind die Einheiten beispielsweise Klebebänder und es interessiert die Farbe, dann sind die Skalenwerte Weiß, Schwarz, Rot usw. Interessiert die Verarbeitungsfähigkeit, können die Skalenwerte lauten: ausgezeichnet - zufrieden stellend - unzureichend. Interessiert die Zugfestigkeit, können die Skalenwerte einer metrischen Skala entnommen sein. Aus diesen Beispielen wird deutlich, dass es unterschiedliche Typen von Skalen gibt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 14 Beispiele für Messergebnisse

OBJEKTIVITÄT: Ein Messinstrument ist objektiv, wenn es das Merkmal, das es misst, eindeutig misst, d.h. wenn verschiedene Prüfer zum gleichen Ergebnis gelangen. Problem: subjektive Beurteilungen, individuelle Unterschiede der Prüfer welche sich auf die Messung auswirken.

ZUVERLÄSSIGKEIT: Ein Messinstrument ist zuverlässig, wenn es das Merkmal, das es misst, exakt misst, d.h. wenn die Messung bei wiederholter Anwendung unter gleichen Bedingungen zum gleichen Ergebnis führt. Problem: komplexe Messmethoden, Messinstrumente die einen Gang haben, Prüfer sind nicht regelbare Störgrößen

GÜLTIGKEIT: Ein Messinstrument ist gültig, wenn es das Merkmal, das es messen soll, wirklich misst, d.h. wenn die Ergebnisse mit den durch andere Methoden am gleichen Objekt gewonnen Befunden gut übereinstimmen. Problem: Es werden nicht die richtigen Merkmale oder nur Lagen und keine Verteilungen bzw. Streuungen gemessen

1.5 Charakterisierung von Merkmalen

Merkmalsausprägungen können unterschiedlichster Form sein: Sie sind nicht immer Zahlen, sie können z.B. auch Zustände sein. (Aus diesem Grund sprechen wir auch von Daten- und nicht von Zahlenmaterial.) Ausgehend von solchen Unterschieden möglicher Ausprägungen werden Merk- male in Klassen eingeteilt. Eine Art der Klassifizierung ist die Unterscheidung quantitativer und qualitativer Merkmale: Die Ausprägungen quantitativer Merkmale unterscheiden sich durch ihre Größe, die Ausprägungen qualitativer Merkmale durch ihre Art. Um die Ausprägung eines Merkmals messen zu können, muss man natürlich zunächst eine Skala festlegen, die alle möglichen Ausprägungen eines Merkmals beinhaltet. Man unterscheidet:

Nominalskala (topologisch)

Die einfachste Form der Messung findet auf der Nominalskala statt. Die Zahlen, Buchstaben, Symbole der Nominalskala bezeichnen bestimmte Ausprägungen einer Einheit; sie haben also eine namengebende Funktion. Merkmale, deren Ausprägungen einer solchen Skala genügen, nennt man auch nominale Merkmale. Mit dieser Skalierung ist keine Wertung oder Anordnung verbunden. Beispiele für die Nominalskala sind:

Postleitzahlen,
Autokennzeichen,
Produktionsnummern,
Artikelbezeichnungen usw.

Es können zur Analyse nur absolute oder relative Häufigkeiten bzgl. der Ausprägungen gebildet werden. Erlaubte Transformationen sind:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 15 Nominales Merkmal

Ordinalskala (topologisch)

Die Skalenwerte der Ordinalskala (Rangskala) bezeichnen Intensitäten der Merkmalsausprägung, sie haben also eine ordnende Funktion. Mit der Skalierung ist eine Wertung verbunden. Beispiele für die Ordinalskala sind:

Schulnoten,
militärische Dienstgrade,
Güteklassen,
Beurteilungen sensorischer Merkmale usw.

Es können zur Analyse verteilungsfreie und in besonderen Fällen auch parametrische Methoden eingesetzt werden. Erlaubte Transformationen sind:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 16 Ordinales Merkmal

Intervallskala (metrisch, kardinal)

Bei der Intervallskala ist jeder Skalenwert ein Produkt aus einem Zahlenwert und der Maßeinheit, in der das Merkmal gemessen wird. Die Differenz zwischen zwei Skalenwerten ist sinnvoll. Auf Intervallskalen sind alle positiven linearen Transformationen Y = aX + b zulässig. Beispiele für die Intervallskala sind:

Temperaturen in °C, °R und °F, Kalenderdatum usw.

Verhältnisskala (metrisch, kardinal)

Die Verhältnisskala hat alle Eigenschaften der Intervallskala und darüber hinaus einen absoluten Nullpunkt. Bei der Verhältnisskala sind auch die Quotienten von Skalenwerten sinnvoll. Auf Verhältnisskalen sind alle Ähnlichkeitstransformationen entsprechend Y = aX zulässig. Beispiele für die Verhältnisskala sind:

Temperatur in K,
Lebensalter,
Längen und alle in SI-Einheiten gemessenen Merkmale.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 17 Metrisches Merkmal

1.5.1 Stetige und diskrete Merkmale

Wir wollen nun noch eine weitere Art der Klassifizierung von Merkmalen kennen lernen, nämlich die Einteilung in stetige und diskrete Merkmale.

Abb. 18 Stetige und diskrete Merkmale

Ein diskretes Merkmal kann nur endlich viele Ausprägungen besitzen. Dagegen nennen wir ein Merkmal stetig, wenn es als Ausprägung jeden beliebigen Wert in einem Bereich haben kann. Stetige Merkmale werden in der Regel mit der Normalverteilung und diskrete Merkmale werden mit der Binomial- und Poissonverteilung analysiert.

1.5.2 Zufallsvariable, Einfluss- und Zielgrößen

In der Statistik bezeichnet man die betrachteten Charakteristika der Untersuchungsobjekte als Merkmale. Diese treten an den Untersuchungsobjekten, an den Einheiten oder Merkmalsträgern die ein oder mehrere Merkmale aufweisen -, in verschiedenen Ausprägungen auf. Das Auffinden aussagekräftiger Merkmale ist eine wichtige Teilaufgabe der Statistik. Je nachdem wie die Merkmalsausprägungen beschrieben werden, unterscheidet man durch Zählen (Anzahl Sitzplätze) oder Messen (Höchstgeschwindigkeit) erfasste quantitative Merkmale von den qualitativen Merkmalen, wie z.B. Geschlecht, Beruf, Familienstand sowie ordinale Merkmale, die sich nach der Intensität der Merkmalsausprägung in eine Rangfolge mit numerisch nicht definierbaren Intervallen bringen lassen (Schulnoten). Die Menge aller möglichen Einheiten, welche der statistischen Betrachtung zugrunde liegen, nennen wir Grundgesamtheit.

Man unterscheidet zwei Arten von Grundgesamtheiten: Einmal eine endliche Grundgesamtheit existierender Objekte wie sie für eine Erhebung typisch ist, zum anderen eine beliebig große Grundgesamtheit hypothetischer Objekte, wie sie für Experimente typisch sind; hier wird durch Wiederholung der Messung unter gleichen bis ähnlichen Bedingungen eine Grundgesamtheit von Messwerten geschaffen, die als Realisierungen von Zufallsvariablen mit bestimmter Verteilung aufgefasst werden.

Betrachten wir den Bremsweg eines Autos. Dieser wird von vielen Variablen wie Geschwindigkeit, Gewicht des Autos, Reifendruck, Reifentyp, Fahrbahn und vielen weiteren Variablen beeinflusst. Ändert sich eine Ausprägung dieser Variablen ändert sich auch der Bremsweg. Dies ist aber kein zufälliges Ergebnis, sondern durch Veränderung (Special Causes, nicht regelbar) einer Einflussgröße verursacht. Würde man nun die alle bekannten Einflussgrößen konstant halten und wiederholte Messungen durchführen, erhielte man trotzdem abweichende Bremswege. Diese Unterschiede in den Bremswegen sind auf kleinste Abweichungen (Common Causes, regelbar) aller Einflussgrößen zurückzuführen. Man spricht deshalb von zufälligen Abweichungen, der Bremsweg ist also eine Zufallsvariable. Wird man von einem Wagentyp den Bremsweg wissen wollen, wird nur eine Teilmenge aller Fahrzeuge geprüft werden können. Von dieser Teilmenge, der Zufallsstichprobe, wird dann auf den Bremsweg aller Autos diesen Wagentyps geschlossen. Da alle Messwerte Zufallsergebnisse sind, ist der arithmetische Mittelwert (der Erwartungswert) für alle Fahrzeuge der Grundgesamtheit auch eine Zufallsvariable. Dieser hat, wie auch die Messwerte, einen definierten Streubereich, d.h. die Auswirkungen des Zufalls sind berechenbar. Im folgenden sollen einige wesentliche Begriffe erläutert werden. Wir stellen dazu zunächst die verschiedenen, häufig verwendeten Arten von Variablen zusammen. Wir nehmen an, dass im Versuch neben der messbaren abhängigen eine oder mehrere unabhängige Variablen auftreten. In der induktiven Statistik werden die Merkmale, man spricht besser von Variablen, wie folgt unterteilt:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 19 Definition von Variablen.

Variable sind oft von einander abhängig, sie bilden einfache oder auch komplexe Kausalketten. Beispiel Steinwurf: Die Wurfweite ist abhängig von der Abwurfgeschwindigkeit, dem Gewicht des Steins und des Abwurfwinkels. Die Abwurfgeschwindigkeit ist wiederum abhängig von der Wurftechnik, der Fitness und der Erfahrung des Werfers. Die Fitness wird vom Training und dem Alter des Werfers beeinflusst, etc. Diese Unterteilung und Definition der Variablen ist eine der wesentlichen Aufgaben der statistischen Versuchsplanung.

Effektvariable:

auch Zielgröße (engl. Response), Regressand, abhängige (Zufalls-) Variable des Versuchs, auf sie ist die statistische Hypothese gerichtet, ihre Messung ist zentrales Anliegen des Versuchs. Beispiele: Qualitätsverbesserung, Leistungszuwachs, Kostensenkung, Umsatz.

Faktorvariable:

auch Bedingung, Regressor oder Faktor: unabhängige Variable des Versuch, also Einflussgröße die in der statistischen Hypothese als Untersuchungsbedingung mitformuliert wird und im Versuch in verschiedenen Ausprägungen auftritt. Diese Ausprägungen können Faktorstufen sein. Faktorvariable sind messbare oder auch nicht messbare (nur in Kategorien definierte) Größen und lassen sich unterteilen in Planfaktor-, Fixfaktor- und organismische Variable

Planfaktorvariable, auch Planfaktor; bewusst variierte kontrollierbare Einflussgröße.

Beispiele: Organisationsform, Herstellungsmethode, Maschineneinstellung, Lösungsstrategie und Mischungsanteile

Fixfaktorvariable, auch Fixfaktor; konstant zu haltende, kontrollierbare Einflussgröße. Beispiele: Rohmaterial, Prüfer, Untersuchungsmilieu.

Kovariable, auch organismische Variable, wenn sie nicht in Versuch berücksichtigt wird, auch Störvariable; aufgrund natürlicher Variation in den Versuch eingehende, kontrollierbare Einflussgröße. Liegen die Ausprägungen der Variablen in Form intervallskalierter Daten vor, so kann diese als Kovariable im Versuch berücksichtigt werden. Beispiele: Lagerzeit, Rohmateriallos, Luftfeuchtigkeit, Raumtemperatur.

Faktorstufen:

auch Behandlungen; Ausprägungen oder Zusammenfassungen von Ausprägungen der Faktorvariablen. Bei nicht messbaren Faktorvariablen sind die Ausprägungen selbst die Faktorstufen. Im Falle messbarer Faktorvariablen entstehen die Faktorstufen im allgemeinen erst durch Zusammenfassung mehrerer Ausprägungen, also durch Gruppenbildung oder Einstellung. Die Faktorstufen werden bei der Versuchsplanung zielgerichtet gewählt und in den Versuch einbezogen. Der Begriff der Faktorstufe ist sehr umfassend. Beispiele für Faktorvariable:

Lösungsstrategie: algorithmisches Vorgehen, heuristisches Vorgehen; Alter: Vorschulalter, Unterstufe, Mittelstufe;

Temperatur: 100 °C und 120 °C.

Effekt:

Differenz zwischen Anfangs- und Endzustand der Effektvariablen als Resultat der Wirkung der Faktorvariablen.

Die Statistik beschäftigt sich unter anderem mit folgenden Fragen: Welche Variablen sind wichtig oder voneinander abhängig? Welche Strukturen sind zwischen den Variablen erkennbar? Welche Faktoren erklären die abhängigen Variablen?

1.6 Verhältniszahlen

In der Statistik betrachtet man auch Zahlen, die einen bestimmten Sachverhalt quantitativ kennzeichnen. So beschreiben z.B. die Lagemaße das Zentrum einer Häufigkeitsverteilung, die Streuungsmaße die Variation der Merkmalsausprägungen und die Merkmalsausprägungen selbst eine Eigenschaft der Untersuchungseinheit. Diese werden als statistische Maßzahlen bezeichnet. Bildet man den Quotienten zweier Maßzahlen, so erhält man die sogenannten Verhältniszahlen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 20 Gliederung von Verhältniszahlen.

Bezieht man eine Teilgröße auf eine ihr übergeordnete Gesamtgröße, so erhält man eine Gliederungszahl. Ein typisches Beispiel ist der Ausschussanteil einer Produktion. Den Quotienten zweier sachlich sinnvoll in Verbindung stehender Maßzahlen bezeichnet man als Beziehungszahl. Man unterscheidet zwischen Verursachungszahlen und Entsprechungszahlen. Bei Verursachungszahlen bezieht man Bewegungsmassen auf die zugehörige Bestandsmassen. Beispiele für Verursachungszahlen sind die Geburtenrate oder MOS (engl.: months of stock). Alle Beziehungszahlen, bei denen man Ereignisse nicht auf ihren Bestand beziehen kann, werden als Entsprechungszah- len bezeichnet. Typische Entsprechungszahlen sind Laufraten (engl.: run rates) bei der Herstellung von Folien oder Klebebändern. Einige der Beziehungszahlen haben sich in unserem Sprachschatz etabliert wie die Bevölkerungsdichte oder der Hektarertrag. Doch bei der Interpretation von Beziehungszahlen ist Vorsicht geboten. Werden nicht nur sachlich sinnvolle Maßzahlen, sondern zwei Maßzahlen der gleichen Art in Beziehung gesetzt, so spricht man von Indexzahlen. Man bezeichnet diese als einfache Indizes, wenn die zugehörigen Maßzahlen einen realen Sachverhalt beschreiben (z.B. Wachstum). Beschreibt die Maßzahl einen fiktiven Zustand, so erhält man zusammengesetzte Indizes (z.B. Preisindex).

1.7 Datengewinnung

Statistische Daten können durch Befragung, durch Beobachtung oder durch planmäßig angelegte Experimente gewonnen werden.

Befragungen (Fragebogen u. a.): In der Marktforschung und in der empirischen Sozialforschung werden Daten häufig durch direkte oder telefonische Befragung gewonnen. Bei der direkten Befragung werden die Daten im Zuge des Gesprächs in Fragebögen eingegeben; bei Telefoninterviews erfolgt die Dateneingabe meist sofort am PC des Interviewers. Beobachtung (Körpergewicht u. a.): Auch durch Beobachtung lassen sich Daten gewinnen. Man denke etwa an die Ermittlung des Körpergewichts von Personen, an die Blutdruckmessung in der Arztpraxis, an die Messung von Verkehrsströmen oder an Waldschadensinventuren.

Experimente (Industrie u. a.): In der Technik und in den Naturwissenschaften sind Messdaten oft das Ergebnis systematisch angelegter Versuche. Man variiert hierbei eine oder mehrere Einflussgrößen - z. B. die Aufprallgeschwindigkeit eines Kraftfahrzeugs bei einem Unfall oder die Dosierung eines Medikaments - und studiert die Effekte.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 21 Arten der Datengewinnung

Wenn Daten für einen Untersuchungszweck eigens erhoben werden, spricht man von einer Primärerhebung. Bei einer Sekundärerhebung greift man hingegen auf vorhandenes Datenmaterial aus amtlichen oder sonstigen Quellen zurück.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 22 Arten von Erhebungen

Primärerhebung (Blutdruck u. a.): In vielen Anwendungsbereichen der Statistik werden Daten direkt erzeugt, d. h. ohne Rückgriff auf vorhandene Datenquellen. Beispiele sind etwa die Gewinnung von Blutdruckwerten, die Online-Überwachung von Fertigungsprozessen in der Industrie oder die Bewertung schriftlicher Leistungen an Schulen und Hochschulen. Sekundärerhebung (Institute, Datenbanken u.a.): Für viele statistische Fragestellungen bietet es sich an, vorhandene Datenbestände zu nutzen. Als Quellen seien hier Statistische

22

Ämter und Bundesbehörden genannt sowie Forschungsinstitute mit öffentlichem oder privatem Träger.

Tertiärerhebung (Institute, Datenbanken u.a.): Manchmal stehen nicht die Urdaten sondern nur noch verarbeitete oder abgeleitete Kenngrößen (Verhältniszahlen, Indizes, Mittelwerte, etc.) zur Verfügung.

1.8 Umfang der Datenerhebung

Wenn man bei einer Untersuchung alle Elemente der Grundgesamtheit erfasst, spricht man von einer Vollerhebung. Falls man nur Stichproben aus der Grundgesamtheit heranzieht, liegt eine Teilerhebung vor.

Vollerhebung (Volkszählung): Die 1987 in der ehemaligen Bundesrepublik Deutschland mit erheblichem Kostenaufwand durchgeführte Volkszählung ist ein Paradebeispiel einer Vollerhebung. Erfasst wurden hier vor allem Merkmale von Einzelpersonen, etwa Familienstand, Alter und Ausbildung.

Teilerhebung (Mikrozensus): Seit 1957 wird in Deutschland alljährlich von den Statistischen Landesämtern der Mikrozensus durchgeführt. Beim Mikrozensus werden - wie bei der Volkszählung - Daten zur sozialen und wirtschaftlichen Entwicklung der Bevölkerung erhoben. Allerdings wird hier nur ca. 1 % der Bevölkerung befragt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 23 Umfang der Datengewinnung

Ein häufig angewendetes Stichprobenverfahren ist die Ziehung einer Zufallsstichprobe. Daneben gibt es auch systematische Auswahltechniken und Mischformen, etwa bei geschichteten Stichproben.

Zufallsstichprobe (Serienfertigung u. a.): Bei Ziehung einer Zufallsstichprobe werden die Stichprobenelemente zufällig ausgewählt. Bei der Überwachung von Qualitätsmerkmalen in der industriellen Serienfertigung greift man z. B. eine feste Anzahl von Merkmalsträgern heraus und misst an diesen die Merkmalsausprägungen. Auch beim Mikrozensus erfolgt die Auswahl von 1% der Bevölkerung über einen Zufallsmechanismus.

Systematische Auswahl (Politbarometer u. a.): Um die Beliebtheit der bekanntesten deutschen Politiker zu bewerten, führt das ZDF monatlich Wählerbefragungen auf Stichprobenbasis in Form von Telefoninterviews durch. Bei der Auswahl der Stichprobe verfährt man so, dass die Gesamtbevölkerung zunächst systematisch in Teilmengen - sogenannte Schichten - zerlegt wird, aus denen dann die Zufallsstichproben gezogen werden.

Willkürliche Auswahl (Auswahl aufs Geratewohl)

Meist Elemente, auf die ohne Anstrengung zurückgegriffen werden kann mit der Konsequenz stark verzerrter Ergebnisse, die es nicht gestatten auf die GG schließen.

Schneeballverfahren

Wahl einer Zielperson, die bestimmte Forderungen erfüllt diese Person nennt weitere Personen, die eben diese Forderungen erfüllen. (Direktmarketing)

Bewusste Auswahl

Die gezielte Auswahl bestimmter Elemente der GG (Informationsreichtum, hoch Reprä-

sentativ für die GG). Auswahl typischer Fälle (z.B. typische Patienten mit gleichem Krankheitsbild), Auswahl nach dem Konzentrationsprinzip (z.B. bei der Konzentration von 95% der Beschäftigten in 10% der Firmen), Auswahl von Extremgruppen (z.B. Vielseher, politisch Engagierte)

Quotenauswahl

Vorgabe prozentualer Zusammensetzungen bestimmter Strukturmerkmale der GG (meist soziodemografische Merkmale)

Die systematische Auswahl ist in der schließenden Statistik nicht anwendbar und nur in bestimmten Situationen sinnvoll und hilfreich.

Häufig bieten sich Zerlegungen von Grundgesamtheiten in zwei oder auch mehr homogene Teilgesamtheiten an, sog. Schichten. Bei einer Gruppe von Personen könnte man z. B. nach Geschlecht differenzieren und so zwei Schichten definieren. In Betracht käme auch die Bildung von drei Schichten, etwa nach den Kriterien vollzeitbeschäftigt, teilzeitbeschäftigt und nicht erwerbstätig. Bei der Ziehung von Stichproben können uns im Großen und Ganzen zwei Arten von Fehlern passieren: systematische und zufällige Fehler. Erstere beruhen auf mangelnde Sorgfalt bei der Planung der Untersuchung und Auswahl der Stichprobe, die man dann als verzerrt bezeichnet. Letztere können mit Hilfe der Wahrscheinlichkeitstheorie abgeschätzt werden. Systematische Fehler in der Stichprobenziehung unterlaufen in der Statistik sehr häufig. Oftmals werden dabei Ergebnisse einer bestimmten Untersuchung auf andere Grundgesamtheiten übertragen. Wenn etwa in einer Oberstufenklasse eines Gymnasiums die Leistung in räumlicher Vorstellung gemessen wird und in dieser Klasse die Mädchen die Jungen schlagen, so können wir daraus nicht folgern, dass sich dieser Sachverhalt auch in der gesamten Bevölkerung wieder findet. Mit anderen Worten: Diese Stichprobe ist bestimmt nicht repräsentativ für die Bevölkerung. Es ist auch nicht verwunderlich, wenn chinesische Studenten in Übersee besser abschneiden als ihre amerikanischen Kollegen. Der Schluss, chinesische Studenten wären im Allgemeinen klüger als amerikanische, ist aber dennoch nicht zulässig. Erstere sind sicher nicht repräsentativ für alle chinesischen Studenten. Chinesische Familien werden bestimmt nur ihre klügsten Kinder, die auch bestimmt erfolgreich sein werden, nach Übersee schicken, um dort zu studieren.

Präsidentenwahl 1936 - Alfred M. Landon versus Franklin D. Roosevelt

Der Literary Digest hatte beim den Wahlen von 1916 bis 1932 den Präsidenten korrekt vorhergesagt und wollten nun durch eine große Umfrage die vorherigen Ergebnisse noch übertreffen. Man versandte etwa 10 Millionen Probestimmzettel. Die dazu erforderlichen Adressen bezog man aus Telefon-, Autoverzeichnissen und den Abonnenten des Digest. Aus der Vielzahl von Adressen wurden dann zufällig die Probestimmzettel versendet. Von den 10 Millionen versandten Probestimmzetteln an die Wahlberechtigten wurden 2.4 Millionen Probestimmzettel zurückgesendet. Eine gigantische Stichprobe mit der man wohl präzise Aussagen treffen müsste. Der Literary Digest titelte „Erdrutschsieg für Landon“ mit der Vorhersage Landon 57 % und Roosevelt 43 %. Das Ergebnis der Wahl ging aber ganz anders aus, nämlich Landon 36.5 % und Roosevelt 60.9 %. Wie war ein solcher Fehler möglich? Dafür sind zwei Ursachen festzustellen. Die Grundgesamtheit der Wahlberechtigten war nicht mit der Grundgesamtheit der Telefon- und Autobesitzer identisch. Der zweite Grund liegt in der Selbstselektion, denn von 10 Millionen haben nur 2.4 Millionen geantwortet. Man darf niemals davon ausgehen, dass das Wahlverhalten von Beantwortern und Nichtbeantwortern gleich ist. Dies führte zur deutlichen Verzerrung der Vorhersage. Eine ähnliche Verzerrung darf heute bei Online-Umfragen erwartet werden.

Schier nicht enden wollende Quellen an Fehler- und Manipulationsmöglichkeiten stellen das Erhebungsinstrument und der Interviewer dar. Es kann an dieser Stelle nur ganz marginal auf einige wenige Problemfelder eingegangen werden. Dabei können bestimmte Eigenschaften des Interviewers (z.B. Alter, Geschlecht, Körpergröße, Auftreten, Gestik, Mimik, subjektive Attraktivität, Stimmlage, Körpersprache, Körperhaltung, Tonfall) das Antwortverhalten des Befragten beeinflussen. Dieser wiederum wird versuchen, sozial erwünschte Antworten zu geben, dem Interviewer zu gefallen, ihn zu beeindrucken, besonders positive Eigenschaften hervorzukehren, Negati- ves zu verbergen, peinliche oder zu persönliche Fragen zu umgehen etc. Besonders gut untersucht wurde die so genannte Ja-Sage-Tendenz, d.h. dass Befragte auf Fragen lieber mit Ja als mit Nein antworten.

1.9 Arten statistischer Untersuchungen

Wenn an verschiedenen Merkmalsträgern zu einem festen Zeitpunkt die Ausprägungen eines Merkmals erfasst werden, resultiert eine Querschnittsreihe. Verfolgt man ein Merkmal im Zeitverlauf anhand eines einzigen Merkmalsträgers, erhält man eine Zeitreihe. Häufig wird ein Merkmal anhand mehrerer fester Merkmalsträger im Zeitverlauf beobachtet. Durch eine solche Kombination von Querschnitts- und Zeitreihenanalysen entsteht eine Längsschnittstudie, die auch Panel genannt wird.

Querschnittsreihe: Das ZDF stellt allwöchentlich einer Wählerstichprobe die berühmte Sonntagsfrage, bei der unter Annahme einer direkt bevorstehenden Bundestagswahl das Wahlverhalten erfragt wird. Die Ergebnisse solcher Datenerhebungen repräsentieren Querschnittsreihen.

Zeitreihe: Die Daten, welche die Entwicklung des DAX-Index an einem Börsentag widerspiegeln, bilden eine Zeitreihe. Bei Zeitreihen ist es üblich, die einzelnen Werte durch einen Linienzug zu verbinden. Der Entwicklungsverlauf wird so optisch besser sichtbar. Längsschnittstudie: Das seit 1984 geführte sozioökonomische Panel ist eines der bekanntesten Beispiele für Längsschnittstudien. In dieser vom Deutschen Institut für Wirtschaftsforschung getragenen Studie werden einmal pro Jahr ca. 7000 Haushalte nach den Ausprägungen mehrerer sozialer und ökonomischer Merkmale befragt, z.B. nach dem Beschäftigtenstatus.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 24 Untersuchungsart

1.10 Stichproben und -erhebung

Die Stichprobenerhebung bietet gegenüber einer Vollerhebung wirtschaftliche und erkenntnistheoretische Vorteile. Wirtschaftliche Vorteile sind geringere Kosten und geringerer Zeitaufwand. Erkenntnistheoretische Vorteile liegen darin, dass bei den Teilerhebungen dem einzelnen Element mehr Aufmerksamkeit geschenkt und damit die Untersuchung tiefer und thematisch breiter angelegt werden kann. Stichprobenerhebungen sind also schneller, billiger, im allgemeinen informativer und dem Untersuchungsziel angemessener als eine Vollerhebung.

Eine Stichprobe erhält man, indem man eine vorgegebene Anzahl von Einzelelementen aus der Grundgesamtheit entnimmt und untersucht. Ziel ist es dabei, aus der Stichprobe etwas über die Grundgesamtheit zu lernen. Grundvoraussetzung ist dabei, dass jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit hat, in die Stichprobe zu gelangen. Eine Stichprobe sagt immer nur etwas aus über die Grundgesamtheit (oder den Teil der (vermeintlichen) Grundgesamtheit), für die (den) diese Bedingung erfüllt ist. Man spricht von einer repräsentativen Stichprobe (z.B. Zufallsstichprobe). Beispiele:

Eine Stichprobe aus einem Fertigungslos sagt nur etwas über dieses Fertigungslos aus und nicht über die Fertigung als Ganzes.

Eine Untersuchung zu einem bestimmten Zeitpunkt sagt nur etwas über diesen Zeitpunkt aus und nicht über die Fertigung als Ganzes.

Das klingt trivial, wird aber leider in der Praxis oft vergessen. Stichprobenergebnisse unterliegen dem Zufall, d.h. man erhält unterschiedliche Einzelwerte und damit auch unterschiedliche Kennwerte. Unter einer repräsentativen Stichprobe versteht man ein wirklichkeitsgetreues Abbild der Grundgesamtheit. Repräsentanz ist eine notwendige Bedingung, um von einer Stichprobenerhebung die Parameter der Grundgesamtheit zu ermitteln. Diese Forderung an eine Stichprobe ist in der Praxis nicht leicht zu realisieren und wird am ehesten durch konsequente Zufallsauswahl erreicht. Die Art und Weise, in der man die Stichprobe aus der Gesamtheit auswählt, hängt davon ab, welche Informationen man über die Grundgesamtheit bekommen will. Ganz grob kann man zwischen zwei Prinzipien unterscheiden:

Prinzip der Zufallsauswahl oder der bewussten Auswahl.

Das Prinzip der Zufallsauswahl wird immer beachtet, auch in Verbindung mit dem Prinzip der bewussten Auswahl. Bei dem Prinzip der bewussten Auswahl lässt sich folgende Unterteilung treffen.

Geschichtete Stichprobe:

Zum Beispiel: Einheiten sind in mehreren Kartons verpackt und es sollen aus jedem Karton Einheiten zufällig entnommen und gemessen werden.

Klumpenstichprobe:

Zum Beispiel: Kunststoffteile aus einem Spritzwerkzeug mit mehreren Nestern. Aus einem zufällig ausgewählten Schuss werden alle Teile eines Nestes beurteilt.

Ein Auswahlfehler auch Stichprobenfehler oder Zufallsfehler genannt, kommen dadurch zustande, dass in der Stichprobe nur eine begrenzte Anzahl von Elementen der Grundgesamtheit enthalten ist.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 25 Auswahl- bzw. Zufallsfehler abhängig vom Stichprobenumfang

Neben dem Zufallsfehler müssen Fehler berücksichtigt werden, die aus der Anwendung von Stichprobenverfahren resultieren, aber auch solche, die nicht den Stichprobenverfahren zuzuschreiben sind. Diese Fehler werden oft als sachliche Fehler bezeichnet. Eine Berechnung der Größe des sachlichen Fehlers ist nicht möglich. Er ist abhängig von den sogenannten Störfaktoren.

Stichprobenimmanente Störfaktoren

Einsatz eines nicht angemessenen Auswahlverfahrens.

Festlegung ungünstiger Stufen beim mehrstufigen Auswahlverfahren. Bildung ungünstiger Schichten beim geschichteten Auswahlverfahren. Ermessensfreiheit der Interviewer beim Quotenauswahlverfahren. Aufstellung eines unzureichenden Auswahlplanes.

Stichprobenexterne Störfaktoren

Störfaktoren bei der Datenerhebung

Störfaktoren des Untersuchungsgegenstandes Störfaktoren beim Analyseinstrument Störfaktoren bei der Versuchssituation

Alles, was dazu beiträgt, die Wirkung der Störfaktoren einzuengen, sollte getan werden: denn nur so lassen sich Ergebnisse erreichen, die außer dem berechenbaren Zufallsfehler keine wesentlichen Verzerrungen aufweisen. Der Stichprobenumfang ist eine Funktion der statistischen Sicherheit, das heißt, je größer der Stichprobenumfang, umso höher die Prüfschärfe. Die erfolgreiche praktische Anwendung von statistischen Tests hängt daher maßgeblich von der richtigen Wahl des Stichprobenumfanges ab. Der Stichprobenumfang ist so zu wählen, dass alle praktisch relevanten Abweichungen tatsächlich erkannt werden. Für die Bestimmung des Stichprobenumfanges muss man sich darüber klar sein:

wie genau die Ergebnisse sein sollen, d.h. welchen Zufallsfehler man einkalkulieren will und mit welcher Irrtumswahrscheinlichkeit die Aussagen gemacht werden sollen.

Als Genauigkeit definiert man die Abweichung des Schätzwertes von seinem Parameter.

Abbildung in dieser Leseprobe nicht enthalten

Je kleiner ✁, desto größer ist die Genauigkeit. Die folgende Formel gibt mit vorgegebener Genauigkeit ✁ und vorgegebener statistischer Sicherheit 1 − ✍/2 minimale Stichprobenumfänge zur Schätzung von Standardabweichung und Mittelwert an:

Abbildung in dieser Leseprobe nicht enthalten

Tab. 1 Ausgewählte Stichprobenumfänge und Genauigkeit der Schätzung

Die Tabelle 1 kann genutzt werden, um abzuschätzen ob die Genauigkeit ausreichend hoch ist. Bei einem Stichprobenumfang von n = 5 und einer Standardabweichung von s = 3 beträgt die Genauigkeit

1.242 $3 = 3.726 gemäß ✁ = ✁Std $ s oder anders ausgedrückt die Abweichung zwischen dem Mittelwert der Stichprobe und dem Mittelwert der Grundgesamtheit kann (mit einer Wahrscheinlichkeit

Abbildung in dieser Leseprobe nicht enthalten

häufig durch den Schwellenwert der standardisierten Normalverteilung z1−✍/2 ersetzt. Da ebenfalls

häufig die Grundgesamtheit gegen unendlich strebt oder doch größer 10 Formel zur Berechnung des Stichprobenumfang.

Abbildung in dieser Leseprobe nicht enthalten

Approximiert man die Binomialverteilung durch die Normalverteilung, wird s2 durch [p(1 − p)][2] ersetzt und man erhält eine Formel für Anteilswerte.

Abbildung in dieser Leseprobe nicht enthalten

Bei der Festlegung von Delta sollte man sich von folgendem leiten lassen:

Delta sollte in der Nähe von Abweichungen der praktischen Relevanz liegen.

Delta sollte bei größeren Einflüssen seitens der Störfaktoren nicht zu klein gewählt werden. Es hat wenig Sinn, Delta auf Millimeter herabzudrücken, wenn die Störfaktoren Ungenauigkeiten in der Größenordnung von Zentimetern bewirken. Hier würde man eine Genauigkeit vortäuschen, die nicht vorhanden ist.

2 Wahrscheinlichkeit und Wahrscheinlichkeitsverteilung

Im normalen Sprachgebrauch ist Wahrscheinlichkeit etwas Vages und Unsicheres. Dies zeigt sich z.B. in dem Satz: Wahrscheinlich scheint morgen die Sonne. In der Statistik dagegen ist der Begriff Wahrscheinlichkeit exakt definiert und hat einen Zahlenwert. Die Wahrscheinlichkeit eines bestimmten Ereignisses ist die relative Häufigkeit dieses Ereignisses bei unendlich vielen (identischen) Wiederholungen (Gesetz der großen Zahlen). Im Prinzip kann damit die Wahrscheinlichkeit eines beliebigen Ereignisses empirisch (d.h. durch Versuche) ermittelt werden, indem man sehr viele (eigentlich unendlich viele) Versuche durchführt und bestimmt, bei welchem Anteil der Versuche das betrachtete Ereignis aufgetreten ist. Man nennt eine so ermittelte Wahrscheinlichkeit empirische Wahrscheinlichkeit (H).

Abbildung in dieser Leseprobe nicht enthalten

abzuleiten. Diese mathematische Wahrscheinlichkeit wird z.B. Beim Würfeln ermittelt. Man geht aus von möglichen Versuchsausgängen (Elementarereignissen), die alle einzeln die gleiche Wahrscheinlichkeit des Auftretens haben (z. B. Beim Würfeln das Werfen einer bestimmten Zahl). Insgesamt sind beim Würfeln sechs verschiedene Versuchsausgänge möglich (Werfen der Zahlen 1 bis 6). Bei einem bestimmten Wurf ist der Ausgang rein zufällig, jeder der sechs möglichen Versuchsausgänge hat die gleiche Chance aufzutreten. Die Wahrscheinlichkeit dafür, dass man eine 1 wirft, ist 1/6, da sie nur einer von sechs möglichen, einzeln gleichberechtigten (gleichwahrscheinlichen) möglichen Versuchsausgängen ist. Die mathematische Wahrscheinlichkeit W erhält man:

Abbildung in dieser Leseprobe nicht enthalten

2.1 Statistische Unabhängigkeit

Viele statistische Aussagen bzw. Verfahren gelten nur, wenn die betrachteten Ereignisse statistisch voneinander unabhängig sind. Bei praktischen Anwendungen der Statistik sind viele Fehlschlüsse und falsche Aussagen darauf zurückzuführen, dass nicht berücksichtigt wurde, dass Ereignisse voneinander abhängig sind. Daher ist es von großer Bedeutung, den Begriff der statistischen Unabhängigkeit richtig zu verstehen.

Zwei Ereignisse A und B sind statistisch voneinander unabhängig, wenn die Wahrscheinlichkeit für das Eintreffen eines dieser Ereignisse nicht vom Eintreffen des anderen Ereignisses beeinflusst wird.

Bezeichnet man die Wahrscheinlichkeit dafür, dass Ereignis B eintritt, mit W(B) und die Wahrscheinlichkeit dafür, dass B eintritt, wenn A bereits eingetreten ist, mit W(BxA), gilt:

A und B abhängig w W(B x A) = W(B)

Gleichbedeutend damit ist: Sind zwei Ereignisse A und B voneinander unabhängig, so ist die Wahrscheinlichkeit dafür, dass A und B eintreten, das Produkt der Einzelwahrscheinlichkeiten.

A und B unabhängig w W(A 3 B) = W(A) $ W(B)

Beispiel 1: Würfel

Würfelt man mit einem symmetrischen Würfel zweimal hintereinander, so ist das Ergebnis des zweiten Wurfs unabhängig vom Ergebnis des ersten Wurfs. Die Wahrscheinlichkeit, beim zweiten Wurf eine 1 zu würfeln (1/6), wird nicht davon beeinflusst, ob beim ersten Wurf eine bestimmte Zahl geworfen wurde. Würfelt man mit einem unsymmetrischen Würfel, bei dem die 1 zweimal auftritt (aber dafür keine 6), zweimal hintereinander, so ist das Ergebnis des zweiten Wurfs unabhängig vom Ergebnis des ersten Wurfs. Die Wahrscheinlichkeit, beim zweiten Wurf eine 1 zu würfeln (2/6), wird nicht davon beeinflusst, ob beim ersten Wurf eine bestimmte Zahl geworfen wurde. Hat man dagegen 6 verschiedene unsymmetrische Würfel, von denen einer zweimal die 1 aber keine 6, einer zweimal die 2 aber keine 5, usw. enthält, entnimmt einer Schachtel blind einen dieser Würfel (ohne zu wissen welchen) und würfelt man dann mit diesem unsymmetrischen Würfel zweimal hintereinander, so sind die Ergebnisse der beiden Würfe voneinander abhängig. Hat man nämlich beim ersten Wurf eine 1 gewürfelt, so kann man nicht den sechsten Würfel aus der Schachtel entnommen haben, da dieser keine 1 enthält. Damit ist auch die Wahrscheinlichkeit, beim nächsten Wurf wieder eine 1 zu würfeln, größer als 1/6. Die Wahrscheinlichkeit eines bestimmten Ergebnisses hängt vom Ergebnis des ersten Wurfs ab.

Beispiel 2: Messgerät

Mit einem Messgerät wird die Länge eines Werkstücks mehrfach hintereinander gemessen. Aufgrund zufälliger Einflüsse unterscheiden sich die Messwerte etwas voneinander. Solange kein systematischer Fehler vorliegt, sind die Abweichungen aufeinander folgender Messungen voneinander unabhängig. Durch Mittelwertbildung aus mehreren Messwerten erhält man ein genaueres Maß für die Länge, weil sich Messfehler z.T. gegenseitig kompensieren. Unterliegt das Messgerät jedoch einem systematischen Trend zusätzlich zu den zufälligen Fehlern, so hängen aufeinander folgende Messwerte voneinander ab: Aufeinander folgende Messwerte unterscheiden sich nämlich nur durch die zufälligen Fehler, der systematische Fehler durch den Trend ist bei aufeinander folgenden Messungen (fast) gleich. Der zweite Messwert liegt daher mit erhöhter Wahrscheinlichkeit in der Nähe des ersten Messwerts: Abhängigkeit. Bei Mittelwertbildung aus mehreren Messwerten kompensiert sich dann nur noch der zufällige Anteil am Messfehler, der systematische Anteil durch den Trend bleibt.

2.2 Verteilungsfunktion

Eine Zufallsvariable (oder Zufallsgröße) X ist eine Vorschrift, die jedem Ergebnis eines Zufallsexperiments eine Zahl x zuordnet. Diese Vorschrift kann z.B. ein bestimmtes Messverfahren sein, das jeder Welle einen Messwert für den Durchmesser zuordnet. Besonders häufig werden Zufallsvariable verwendet, um einfach darzustellen, dass nicht der Messwert selbst betrachtet wird, sondern eine andere Größe, die jeweils aus einem oder auch mehreren Messwerten berechnet wird. Beispiele:

Ist die Zufallsgröße X die Messung des Durchmessers einer Welle, so ist die Zufallsgröße ✜X2/4 der daraus errechnete Querschnitt der Welle.

Ist die Zufallsgröße X der Durchmesser einer Welle und die Zufallsgröße Y der Durchmesser einer Bohrung, so ist die Zufallsgröße Y-X das daraus errechnete Spiel der Welle in der Bohrung.

Ist die Zufallsgröße L die Länge, B die Breite und H die Höhe eines Quaders, so ist die Zufallsgröße LHB das daraus errechnete Volumen des Quaders.

Zufallsvariablen werden immer mit Großbuchstaben (z.B. X), ihre Zahlenwerte (d.h. z.B. die Ergebnisse einer Messung) mit Kleinbuchstaben (z.B. x1, x2, x3, usw.) Bezeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 26 Verteilungshäufigkeit f(x)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 27 Verteilungsfunktion F(x)

Wie die relative Häufigkeit in die empirische Wahrscheinlichkeit übergeht, wenn die Anzahl der Versuche gegen unendlich geht, so geht ein Histogramm in eine Verteilungsfunktion über.

Das Histogramm der relativen Häufigkeit wird für n d ∞ zur Verteilungsdichte f(x) der Zufallsgröße X.

Das Histogramm der relativen Summenhäufigkeit wird für n d ∞ zur Verteilungsfunktion F(x) der Zufallsgröße X.

Bei einem diskreten Merkmal wie z.B. der Anzahl schlechter Bauteile erhält man eine diskrete Verteilung. Die Verteilungsdichte f(x) ist nur für ganz bestimmte diskrete Wertexi(= 0, 1, 2, 3, ...) definiert und die Verteilungsfunktion hat eine Stufenform. Abb. 26 und 27 zeigen schematisch Verteilungsdichte und Verteilungsfunktion einer diskreten Verteilung. Es gilt:

Abbildung in dieser Leseprobe nicht enthalten

Bei einer diskreten Verteilung ist f(x) ist nur an diskreten Werten x definiert. An diesen Werten macht F(x) einen Sprung der Höhe f(x+1). F(x+1) hat den höheren Wert. Werden die Messwerte einer Stichprobe(n = 50) als Histogramm dargestellt, erhält man eine Häufigkeitsverteilung der Messwerte. Viele dieser Häufigkeitsverteilungen haben eine glockenförmige Gestalt, ähnlich einer Normalverteilung.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 2 Körperlängen Neugeborener

Bei einem stetigen Merkmal, wie z.B. bei Körperlängen können beliebige Werte als Ergebnis auftreten (zumindest wenn man vernachlässigt, dass man Messgeräte nur auf eine endliche Zahl von Dezimalstellen abliest). Erhöht man in dieser Situation die Anzahl der Messwerte, so wird man das Histogramm in zwei Richtungen verändern:

die Messwerte werden in mehr Gruppen unterteilt (feinere Balken)

in jeder Gruppe sind mehr Einzelwerte enthalten, dadurch nähern sich die relativen Häufigkeiten empirischen Wahrscheinlichkeiten.

Skaliert man bei dieser ständigen Verfeinerung der Auftragung die Histogrammbalken jetzt so, dass die Fläche des Balkens der relativen Häufigkeit entspricht, so erhält man im Grenzfall, dass die Anzahl der Messwerte gegen unendlich geht, die stetige Verteilungsdichte f(x) des stetigen Merkmals. Die Wahrscheinlichkeit, mit der ein Wert zwischen x und x + dx auftritt beträgt f(x) dx (d.h. Fläche eines Balkens der Breite dx). Aus der relativen Summenhäufigkeit wird die stetige Verteilungsfunktion F(x).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 28 Verteilungsdichte f(x)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 29 Verteilungsfunktion F(x)

Die Verteilungsfunktion F(x) gibt an, mit welcher Wahrscheinlichkeit ein Wert [ x auftritt. Abb.

28 und 29 zeigen schematisch die Bedeutung von f(x) dx und F(x). In Formeln:

x

Abbildung in dieser Leseprobe nicht enthalten

Das Maximum der Verteilungsdichte ist umso höher, je enger die Verteilung ist, da die Fläche unter der Verteilungsdichte auf 1 normiert ist. Für eine beliebige stetige Verteilung gilt: Die Verteilungsfunktion F(x) ist die Fläche unter f(x) für Werte [ x. f(x) ist so normiert, dass die Gesamtfläche unter f(x) gleich 1 ist. f(x) ist die Ableitung von F(x). Umgekehrt ist F(x) das Integral von f(x).

2.3 Binomialverteilung

Die Binomialverteilung ist eine diskrete Verteilung, die sich durch Ziehung aus einer dichotomen Grundgesamtheit ergibt.

Beispiel: Es sei bekannt, dass 15% der Bevölkerung älter als 65 Jahre sind. Wie wahrscheinlich ist es dann, in einer Stichprobe vom Umfang n genau k Personen zu finden, die älter als 65 Jahre sind.

Solche Ziehungen aus einer dichotomen Grundgesamtheit entsprechen einem sog. Bernoulli-Experiment. Dieses ist durch drei Eigenschaften gekennzeichnet:

Es gibt nur zwei mögliche, einander ausschließende Ereignisse und die Wahrscheinlichkeiten der beiden Ereignisse sind konstant. Die einzelnen Versuche (Ziehungen) sind voneinander unabhängig.

Die dritte Bedingung wird als annähernd erfüllt angesehen, wenn der Auswahlsatz weniger als 5% der Grundgesamtheit ausmacht. Die Wahrscheinlichkeitsfunktion ergibt sich unter Berücksichtigung der Anzahl der möglichen Kombinationen und der Eintrittswahrscheinlichkeiten der beiden Ereignisse. Die Dichte der Binomialverteilung f(x) ist gegeben durch:

Abbildung in dieser Leseprobe nicht enthalten

Bei der Binomialverteilung handelt es sich um eine diskrete Verteilung, weil x nur die diskreten Werte 0, 1, 2, … annehmen kann. Der Parameter p bleibt unverändert, wenn Teile nach der Entnahme wieder zurückgelegt werden (wird in der Praxis kaum durchgeführt). Ist die Anzahl N der Teile in der Grundgesamtheit sehr viel größer als n (10n < N), so bleibt p näherungsweise unverändert.

Praktische Anwendung:

Gut - Schlecht Prüfung z.B. bei der Wareneingangsprüfung oder bei der stichprobenweisen Überwachung der eigenen Fertigung. Ziel dieser Prüfungen ist es, aus einer möglichst kleinen Stichprobe etwas über die Gesamtheit zu lernen. Weitere Anwendungen sind Qualitätsregelkarten für Fehleranteile p oder Fehler in der Stichprobe np, diese sind dann erforderlich, wenn die Binomialverteilung nicht durch die Normal-Verteilung approximiert werden kann.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 3 Ableitung der Binomialverteilung

Entnimmt man ein Teil aus einer Fertigung mit einem (bekannten) Anteil schlechter Teile von z.B. P=0.1 (=10%), so ist die Wahrscheinlichkeit dafür, dass dieses Teil schlecht ist, natürlich gleich p=0.1. Die Wahrscheinlichkeit dafür, dass dieses Teil gut ist, ist natürlich gleich 1-p=q=0.9. Entnimmt man drei Teile, so sind folgende Fälle möglich:

Die Multiplikationsfaktoren 1 2 1 bzw. 1 3 3 1 bei drei Teilen sind die sog. Binomialkoeffizienten, die bei der Entwicklung von (q+p)n auftreten (daher auch Binomialverteilung).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 30 Binomialkoeffizienten definiert durch Pascalsches Dreieck

Die Binomialkoeffizienten werden bestimmt durch folgende Formel:

Abbildung in dieser Leseprobe nicht enthalten

Für einen Stichprobenumfang von n=6 und k=2 Ereignissen ergibt sich aus dem Pascal Dreieck der

Wert 15, die Überprüfung anhand des Binomialkoeffizienten ergibt den gleichen Wert.

Abbildung in dieser Leseprobe nicht enthalten

Die Binomialverteilung hängt von den beiden Parametern p und n ab. Sie bestimmen das Erscheinungsbild der Verteilung. Die folgenden Bilder zeigen die Verteilungsdichte f(x) für verschiedene Werte von n bei festem p=0.02. Besonders sei darauf hingewiesen, dass die Verteilung der Werte recht breit ist, d.h. aufeinander folgende Stichproben können z.B. durchaus zwischen 0 und 5 schlechte Teile enthalten, obwohl sich nichts verändert hat. Diese Unterschiede sind rein zufällig und man darf sich davon nicht zu falschen Schlüssen verleiten lassen!

Die Binomialverteilung wird vor allem durch das Produkt np bestimmt. Für kleine Werte von n ist die Verteilung etwas schmäler - das wird im wesentlichen dadurch bedingt, dass immer x [ n, dadurch wird die Verteilung für kleine Werte von n sozusagen in Richtung kleinere Werte von x gedrückt (so können bei n=2 z.B. die Werte x=3, 4, 5, 6, … nicht auftreten).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 31 Binomialverteilung bei konstantem Anteil p=0.02.

Hinweis: Der Anteil fehlerhafter Einheiten von mehreren Stichproben ist nur dann binomialverteilt, wenn alle Stichproben aus der gleichen Grundgesamtheit entnommen wurden. Ändert sich p, so erhält man immer eine breitere Verteilung der Stichprobenergebnisse als die Binomialverteilung angibt.

Man kann Mittelwert und Varianz (bzw. Standardabweichung) der Binomialverteilung in Abhängigkeit von n und p berechnen. Dies soll durch folgende Formel dargestellt werden.

Abbildung in dieser Leseprobe nicht enthalten

Für manche Rechnungen ist die Binomialverteilung schwieriger zu handhaben als die Normalverteilung. Daher hilft es, dass unter gewissen Randbedingungen die Binomialverteilung mit ausreichender Genauigkeit durch die Normalverteilung bzw. Poissonverteilung angenähert werden kann. Für npq > 4 ist die Binomialverteilung in brauchbarer und für npq > 9 in guter Näherung normalverteilt mit Mittelwert x = np − 0.5 und Varianz s[2] = npq. Wenn diese Bedingung erfüllt ist, ist die Binomialverteilung so breit, dass ihre diskrete Natur vernachlässigt werden kann, und der Mittelwert ist ausreichend weit von 0 entfernt, dass negative Werte auch bei der Normalverteilung kaum mehr auftreten. Relative Häufigkeiten pi malisierung wie folgt transformiert werden.

Abbildung in dieser Leseprobe nicht enthalten

Für p < 0.11 kann die Binomialverteilung in brauchbarer Näherung durch die Poissonverteilung mit[Abbildung in dieser Leseprobe nicht enthalten]= np angenähert werden. Für festes[Abbildung in dieser Leseprobe nicht enthalten]= np ändert sich die Verteilung bei großem n (und kleinem p) kaum.

2.4 Poissonverteilung

Die Poissonverteilung erlaubt die Berechnung der Wahrscheinlichkeit, mit der ein bestimmtes Merkmal insgesamt x-mal in einer Einheit auftritt, wenn das Merkmal zufällig verteilt ist und im Mittel[Abbildung in dieser Leseprobe nicht enthalten]-mal in einer Einheit auftritt (✙ bekannt). Es handelt sich um eine diskrete Verteilung, weil x nur die diskreten Werte 0, 1, 2, … annehmen kann. Beispiele

Anzahl der Staubkörner in einem cm[3] Luft

Anzahl der Autos pro h auf einer bestimmten Straße Anzahl der Verkehrstoten pro Tag in Deutschland Anzahl der Lötfehler auf einer Leiterplatte Anzahl der Isolationsfehler auf einer Drahtrolle

Praktische Anwendung: Zählen und Erfassen von Fehlern z.B. bei der Wareneingangsprüfung oder bei der stichprobenweisen Überwachung der eigenen Fertigung. Unterschied zu Binomialverteilung: Die Anzahl von Fehlern ist nicht nach oben begrenzt, während die Anzahl schlechter Teile nicht größer als die Anzahl

Abbildung in dieser Leseprobe nicht enthalten

wobei[Abbildung in dieser Leseprobe nicht enthalten]= mittlere Zahl von Fehlern (oder andere Merkmale) pro Einheit und x = Anzahl Fehler in betrachteter Einheit (nur ganzzahlige Werte möglich)

Abbildung in dieser Leseprobe nicht enthalten

Tab. 4 Poissonverteilung mit µ=2

Die Poissonverteilung kann aus der Binomialverteilung abgeleitet werden, indem man für einen festen Wert von np den Wert von n d ∞ gehen lässt (und damit p d 0). Die Binomialverteilung gibt an, wie viele Einheiten schlecht sind. Dabei wird nicht unterschieden, ob eine Einheit 1 oder mehr Fehler hat. Die Anzahl der Fehler ist i.a. größer als die Anzahl fehlerhafter Einheiten. Möchte man die Verteilung der Fehlerzahl erhalten, unterteilt man jede Einheit in so viele (n) gleiche Untereinheiten, dass jede Untereinheit maximal einen Fehler enthält. Dann entspricht die Anzahl der schlechten Untereinheiten der Anzahl der Fehler der Einheit. Dabei ändert sich die Anzahl der Fehler nicht. Unterteilt man in doppelt so viele Untereinheiten, so ist die Wahrscheinlichkeit, dass eine Untereinheit schlecht ist, nur noch halb so groß. Das Produkt np bleibt konstant (und ist die mittlere Anzahl von Fehlern pro Einheit).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 32 Poissonverteilung [f(x)]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 33 Poissonverteilung [F(x)]

Durch Summation der Verteilungsdichte erhält man die Verteilungsfunktion. Sie gibt die Wahrscheinlichkeit an, mit der eine bestimmte Anzahl oder weniger Fehler auftreten. Voraussetzung für Poissonverteilung:

Die Fehler (Merkmale) müssen zufällig verteilt sein, das Auftreten der einzelnen Fehler (Einzelmerkmale) muss voneinander unabhängig sein.

Man beachte, zählt man Lötbrücken zwischen einzelnen Bauelementebeinchen, so erhält man an einem verschobenen Bauelement u.U. 20 oder mehr Lötbrücken, obwohl nur eine einzige Ursache vorliegt, nämlich das verschobene Bauelement - die Lötbrücken sind nicht voneinander unabhängig. Sie haben eine gemeinsame Ursache. Fehler müssen so definiert werden, dass die einzelnen Fehler voneinander unabhängig sind. In diesem Beispiel darf das verschobene Bauelement nur als ein Fehler definiert werden (und nicht jede einzelne Lötbrücke).

Hinweis

Fehlerzahlen von mehreren Stichproben sind nur dann poissonverteilt, wenn alle Stichproben aus der gleichen Grundgesamtheit entnommen wurden. Ändert sich µ, so erhält man immer eine breitere Verteilung der Stichprobenergebnisse als die Poissonverteilung angibt.

Abb. 34 Verteilungsdichte f(x) der PV für verschiedene µ

Für kleine Werte von[Abbildung in dieser Leseprobe nicht enthalten]ist die Verteilungsdichte sehr unsymmetrisch, einfach dadurch bedingt, dass nicht weniger als null Fehler auftreten können. Für große Werte von[Abbildung in dieser Leseprobe nicht enthalten]wird die Verteilung symmetrisch und breiter (absolut gesehen, relativ zu[Abbildung in dieser Leseprobe nicht enthalten]wird sie schmäler). Mit Hilfe der folgenden Formeln kann man Mittelwert und Varianz (bzw. Standardabweichung) der Poissonverteilung in Abhängigkeit von[Abbildung in dieser Leseprobe nicht enthalten]berechnen.

Abbildung in dieser Leseprobe nicht enthalten

Für[Abbildung in dieser Leseprobe nicht enthalten]> 4 ist x in brauchbarer und für[Abbildung in dieser Leseprobe nicht enthalten]> 9 in guter Näherung normalverteilt mit Mittelwert (✙−0.5) und Varianz [Abbildung in dieser Leseprobe nicht enthalten]. Wenn diese Bedingung erfüllt ist, ist die Poissonverteilung so breit, dass ihre diskrete Natur vernachlässigt werden kann, und der Mittelwert ist ausreichend weit von null entfernt, dass negative Werte auch bei der Normalverteilung kaum mehr auftreten. Fehleranzahlen xi können zur Varianzstabilität und Normalisierung wie folgt transformiert werden.

Abbildung in dieser Leseprobe nicht enthalten

Die Summe von unabhängig poissonverteilten Werten ist wiederum eine Poissonverteilung. Der Parameter[Abbildung in dieser Leseprobe nicht enthalten]der neuen Verteilung ist die Summe der ✙i der Einzelverteilungen. Wie bei der Normalverteilung werden damit Mittelwert und Varianz addiert.

[...]

Ende der Leseprobe aus 268 Seiten

Details

Titel
Prozess-Sicherheit I. Statistische Methoden für Ingenieure im operativen Qualitäts-Management
Autor
Jahr
2016
Seiten
268
Katalognummer
V339120
ISBN (eBook)
9783668332898
ISBN (Buch)
9783668332904
Dateigröße
12685 KB
Sprache
Deutsch
Anmerkungen
Die dargestellten Verfahren werden durch ein MS Excel® Add-in OQM-Stat unterstüzt. Dies ist bei mir kostenfrei zu beziehen. Anforderungen richten sie bitte an mich OQM@ESPENHOFF.DE oder besuchen sie meine Webseite: www.espenhoff.de auf welcher in unregelmäßigen Abständen immer wieder neues zu finden ist. Dieses Buch wurde mit großer Sorgfalt erstellt, trotzdem sind Fehler nicht ausgeschlossen. Für diese Fehler bin nur ich verantwortlich und ich bitte sie mir diese Fehler mit zu teilen.
Schlagworte
Prozesssicherheit, statistik, qualitätsmanagement, qms, Ausreißertests, Stichproben, Normalverteilung
Arbeit zitieren
Eckehardt Spenhoff (Autor:in), 2016, Prozess-Sicherheit I. Statistische Methoden für Ingenieure im operativen Qualitäts-Management, München, GRIN Verlag, https://www.grin.com/document/339120

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Prozess-Sicherheit I. Statistische Methoden für Ingenieure im operativen Qualitäts-Management



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden