Lade Inhalt...

The Quality Engineering 2018

Aufbau eines Qualitätsvorhersagemodells

Ausarbeitung 2018 7 Seiten

Informatik - Allgemeines

Leseprobe

Digital Interaction: The Quality Engineering 2018

SERGIO STAAB, Hochschule RheinMain University of Applied Sciences

ABSTRACT

Heutzutage gilt es, effektive, effiziente und zu- gleich einfach zu bedienende Software zu ent- wickeln. Da sich alle Systeme und Dienste letzt- lich an menschliche Nutzer richten, ist es uner- lässlich, sich mit der Interaktion zwischen Mensch und Maschine auseinanderzusetzen.

Die Qualität, d.h. die Fragen, ob ein System von einem Nutzer als gut oder schlecht interpretiert wird, ist ein komplexes Konstrukt von Wahr- nehmungs- und eigenen Beurteilungsprozessen.

Die Messung solcher Prozesse, die in einer Ge- wichtung derselben endet, ist ein großer Schritt aus dem Wissenschaftsbereich der Sozial- und Verhaltenswissenschaften in Richtung der Ma- thematik und Informatik. Ferner ist diese Mes- sung das Gebiet der Psychophysik, welche sich mit den Zusammenhängen zwischen physikali- schen Größen und deren Wahrnehmung durch menschliche Nutzer befasst.

Dieses Papier zielt darauf ab, Qualitäts- und Usability-Merkmale, die bei derzeit etablierten Usability-Modellen eingesetzt werden, zur Auf- stellung eines Qualitätsvorhersagemodells, zu erheben und zu analysieren.

KEYWORDS

Effectiveness, Ergonomie, Perception and As- sessment Processes, Quality Engineering, Qua- lity of Service, Quality of Experience, Usability

1. EINLEITUNG

Moderne Usability-Tests prüfen Systeme auf Qualitätsmerkmale bezüglich Ihrer Effektivität, Genauigkeit und Vollständigkeit. Darunter fal- len beispielsweise Erlenbarkeit, Effizienz, Ein- prägsamkeit und Zufriedenheit. Zur Analyse dieser Qualitätsmerkmale ist ein Verständnis über die Grundlagen der Informationswissen- schaft, Psychophysik, Skalierung, Statistik, und schließlich der Usability erforderlich. Auf die- sem Wissen aufbauend, gilt es nun, die Qualität eines Systems oder eines Dienstes zu messen. Die verschiedenen Qualitätsmerkmale, -aspekte und -faktoren werden in dieser Arbeit unter- sucht und analysiert.

2. INFORMATIONSWISSENSCHAFT

Die Informationswissenschaft beschäftigt sich mit der Beschaffung, Verarbeitung und Bereit- stellung von relevanten Informationen und Wis- sen. [[7]] Wissen entsteht durch Wissensproduk- tion, welche zunächst einen Rohstoff benötigt, nämlich die ungefilterte Information. Diese wird von unserer Wahrnehmung aufgenommen und als interne Wahrnehmung verarbeitet. Die interne Wahrnehmung ist eine geistige Such- funktion, die sowohl bewusst als auch unbe- wusst geschehen kann. Dabei muss die Kon- zentration nicht bewusst auf der Information selbst liegen. Allgemein wird Wissen auch als die Gesamtheit der Kenntnisse auf einem be- stimmten Gebiet gesehen. [[3]] Wir unterscheiden hierbei zwischen dem subjektiven Wissen und dem objektiven Wissen. Das subjektive Wissen kann als erlangtes Wissen eines Individuums bzw. einer Person gesehen werden. Allgemein betrachtet, ist das Wissen für das jeweilige Sub- jekt gültig, sprich dem Wissen wird ein grund- sätzlicher Wahrheitsanspruch mitgegeben, ohne diesen objektiv zu betrachten. In vielen Berei- chen kann nur subjektives Wissen erlangt wer- den. Nehmen wir die Psychologie: In diesem Erkenntnisbereich kann das Wissen nur auf Symptome und nicht objektivierbaren Phäno- menen aufbauen. Daher ist subjektives Wissen immer beschränktes Wissen. Das objektive Wissen dagegen existiert in Form von Doku- menten, Büchern und Datenbanken. Es ist Wis- sen, das für jedes Subjekt gültig und daher all- gemein gültig ist. Man muss davon ausgehen, dass im Falle objektiv gültigen Wissens auch alle anderen Personen zum selben Ergebnis, sprich zum selben Wissen gelangen können. Aus objektivem Wissen kann subjektives Wis- sen erarbeitet werden, z.B. beim Lesen eines Buches. Genauso kann subjektives Wissen als objektives Wissen fixiert werden, z.B. beim Schreiben eines Buches. Die eigentliche Infor- mation ist zunächst eine Teilmenge aus dem ob- jektiven oder subjektiven Wissen, die in der konkreten Situation für eine bestimmte Person oder Personengruppe nützlich sein kann. Eine Extraktion von Information wäre aber ohne eine Wissensrepräsentation aus einem Wissensfun- dus ohne entscheidende physikalische Größen, z.B. die elektromagnetische Welle, die auf das Auge des Betrachters trifft, nicht möglich. Phy- sikalische Größen sind in der Psychophysik räumlich, zeitlich und in ihren Eigenschaften bestimmt. Man bezeichnet sie deshalb auch als physikalische Ereignisse. [[3]]

3. PSYCHOPHYSIK

Usability-Tests sind psychophysikalische Mes- sungen, welche darauf abzielen, mittels dem Wiederholen physikalischer Ereignisse 0,1 …s ϵ S0{ ሽ, den Aufbau des subjektiven Wissens (im Folgenden als Menge der Wahr- nehmungsereignisse H0{ ሽ bezeichnet) so exakt, wie möglich, durch die Beschreibungsmenge B0{ ሽ zu beschreiben. [[1]]

Abbildung in dieer Leseprobe nicht enthalten

Abbildung 1: Psychophysikalische Mengen

Interessant ist der Zusammenhang zwischen s0, dem physikalischen Ereignis, und h0, dem Wahrnehmungsereignis der Person (dem Sub- jekt) auf s0, denn genau dieser spiegelt den Auf- bau des subjektiven Wissens wider. Das Wahr- nehmungsereignis, zu dem auch die später dar- aus resultierende Aussage über Qualität gehört, lässt sich nur mit wahrnehmenden und beurtei- lenden Subjekten messen. Physikalische Ereig- nisse eines Systems oder Dienstes werden von Subjekten, im Rahmen ihrer Möglichkeiten, subjektiv wahrgenommen und bewertet. Diese Wahrnehmung definieren wir als Wahrneh- mungsprozess (d.h. die wahrgenommene Be- schaffenheit eines Systems). Die Bewertung hingegen definieren wir als Beurteilungspro- zess (d.h. die erwünschte Beschaffenheit eines Systems). Beide Prozesse greifen bei der Be- wertung von Qualität ineinander. [[1]] Zunächst wird das vorausgegangene physikalische Ereignis von einem Subjekt wahrgenommen. Man spricht von der wahrgenommenen Nature. Die Nature kann mittels Selbstreflexion ergrün- det werden und wird zu einem Merkmal (d.h. die erkannte und benennbare Eigenschaft eines Systems). Da das Subjekt gleichzeitig ein wahr- nehmendes und beurteilendes Messorgan ist, geht der Beurteilungsprozess als solcher immer mit der internen Referenz des Subjektes einher. Darunter fallen die Wahrnehmungseigenschaf- ten, wie das Hör- und Sehvermögen, sowie die Verhaltenseigenschaften, wie Erfahrung, Moti- vation, individuelle Präferenzen, Fähigkeiten und Wissen. Die interne Referenz stellt eben- falls eine erwartete Nature und erwartete Merk- male. Abbildung 2 zeigt, wie die Schnittmenge der erwarteten und wahrgenommenen Merk- male über ein Qualitätsereignis zu einem Be- schreibungsereignis 0, 1 … b ϵ B0{ ሽ wird. [[1]]

Abbildung in dieer Leseprobe nicht enthalten

Abbildung 2: Wahrnehmungs- und Beurteilungs- prozesse 1

4. SKALIERUNG

Das subjektive Wissen, welches mittels Selbs- treflexion als ergründetes Beschreibungsereig- nis eines physikalischen Ereignisses vorliegt, ist nun als objektives Wissen zu fixieren. Hierbei bedient man sich der Skalierung (d.h. die Mes- sung von Zahlen zu entsprechenden physikali- schen Ereignissen). Die Messung sollte die Ei- genschaften Validität (die Eignung einer Mes- sung), Objektivität (Zuverlässigkeit, Stabilität einer Messung), Paralleltest-Reliabilität (wie stark korrelieren die Ergebnisse zweier, sich sehr ähnelnder, Messungen) und Retest-Reliabi- lität (wie stark korrelieren die Ergebnisse einer Messung, die aufeinanderfolgend wiederholt werden) aufweisen. Es folgt eine grundlegende Klassifizierung von Messniveaus. [[2]]

Nominalskalen repräsentieren eine endlich ab- zählbare Menge von Identitäten, definieren aber keine Relationen zwischen den Identitäten. Eine Ampel kann beispielsweise ein rotes, gelbes o- der grünes Signal geben, wobei (Rot > Grün). [[1]]

Ordinalskalen haben wie Nominalskalen auch nur eine endlich abzählbare Menge möglicher Identitäten. Allerdings können sie noch in eine Rangfolge gebracht werden. Der Rangordnung fehlen jedoch Relationen. Somit lassen sich bspw. auf einer Skala mit den Identitäten „trifft sehr zu / trifft eher zu / trifft eher nicht zu / trifft nicht zu“ keine Abstände zwischen den Identi- täten interpretieren. [[1]]

Intervallskalen können zwischen einem Inter- vall unendlich viele abzählbare Identitäten an- nehmen, welche eine σ-additive Rangordnung aufweisen. Diese Relation lässt die Bildung von Abständen zwischen Identitäten zu. Bspw. sind Jahreszahlen und Datumsangaben intervallska- liert. [[1]]

Ratioskalen haben neben den Eigenschaften der Intervallskalen einen absoluten Nullpunkt. Die- ser erlaubt die Bildung von verhältnisskalierten Daten. In der Naturwissenschaft fängt Kilo- gramm bei 0 an, somit können Objekte bezüg- lich ihres Gewichts in sinnvolle Verhältnisse gebracht werden. Bspw. ist Objekt 1 doppelt so schwer, wie Objekt 2. [[1]]

Die bei einer Skalierung ermittelten Zahlen- werte sollten möglichst genau das Beschrei- bungsereignis widerspiegeln. Daher ist es er- strebenswert, ein breites Feld an Messniveaus zur Verfügung zu haben. Ratioskalen haben das höchste Skalenniveau. Sie sind zur Messung der Intensität von Wahrnehmungen zu favorisieren. Als gängiges Verfahren hat sich die sog. Mag- nitude Estimation (ME) etabliert, bei der der Versuchsperson zunächst ein schon bewertetes physikalisches Ereignis dargeboten wird. Nun ist es die Aufgabe der Person, weitere Ereig- nisse in Relation des zuvor bewerteten Ereignis- ses zu stellen. Man bekommt jedoch keine In- terpretation der erhaltenen Zahlenwerte. Daher haben sich für viele Anwendungsfälle durch ihre Einfachheit Intervall- oder Ordinalskalen als brauchbarer erwiesen. [[6]] Darunter fallen üb- liche Skalierungsverfahren, wie die absolute Kategorienzuordnung, engl. Absolute Category Rating, ACR. Die Zuordnung physikalischer Ereignisse in Kategorien ist ein populäres Vor- gehen. Dieses Vorgehen hat Ordinalskalenni- veau und ist durch seine Einfachheit auch bei untrainierten Versuchspersonen anwendbar. Nachteile ergeben sich aus der subjektiven In- terpretation der Kategorienattribute, der Kon- texteffekte, den nicht äquidistanten Intervallen, sowie den schlecht zu interpretierenden Ext- rema Kategorien. Darunter fallen auch die, aus der Psychologie und empirischen Sozialfor- schung bekannten, Likert-Skalen, welche auf die subjektive Zustimmung oder Ablehnung po- sitiv oder negativ formulierter Behauptungen (Items) aufbauen. Aufgebaut auf der Ratio- und Kategorieskalierung, sind die Category-Ratio- Skalen (CR-Skalen), welche die Ratioeigen- schaft und die Interpretation der Kategorieska- lierung miteinander kombinieren. [[5]]

5. DESKRIPTIVE STATISTIK

Oft werden die Gewichtungen der Qualitäts- merkmale (d.h. ein erkanntes Merkmal des Sys- tems, welches als variable Eigenschaft aufge- fasst werden kann) bei der Skalierung von Be- schreibungsereignissen aus der subjektiven Wahrnehmung der Testleiter bzw. der Entwick- ler von Systemen vorgenommen. Solch eine Gewichtung ist jedoch zu einfach und geht nur bedingt mit der subjektiven Referenz der Ver- suchsperson einher.

Die Gewichtungen der Qualitätsmerkmale - so- wohl die abhängigen Variablen (d.h. die Wir- kung) als auch die unabhängigen Variablen (d.h. die Ursache) - sollten nach einer Skalie- rung mittels multivariatem Analyseverfahren in einen neuen Wahrnehmungsraum referenziert werden. [[6]]

Wir unterscheiden, je nach vorhandenem Mess- niveau und vorhandener Qualität der existieren- den Messvariablen, zwischen Methoden der Dependenz- und der Interdependenzanalyse. Um mittels Dependenzanalysen die Kausalbe- ziehungen zwischen abhängigen und unabhän- gigen Variablen bestimmen zu können, bieten sich unterschiedliche Methoden an. Darunter die Multiple Regressionsanalyse, welche aus metrischen Variablen Regressionskoeffizienten herausarbeitet. [[6]]

Darüber hinaus die Varianz- und Diskriminanz- analyse zur signifikanten Bestimmung von Zu- sammenhängen zwischen metrischen, abhängi- gen Variablen und nominal skalierten, unabhän- gigen Variablen, und zwischen, metrischen, un- abhängigen Variablen und nominal skalierten, abhängigen Variablen.

Eine weitere Methode ist die Kontrastgrup- penanalyse, mit deren Hilfe man aus einer ab- hängigen Variable und nominal skalierten, un- abhängigen Variablen, mittels Spaltung der Stichprobe, Faktoren bezüglich der abhängigen Variablen herleiten kann. (d.h. ein Faktor ist eine Zusammenfassung mehrerer, für die Stich- probe relevanter, Qualitätsmerkmale). [[8]]

Exsistieren zwischen abhängigen und unabhän- gigen Variablen keine direkten Kausalbezie- hungen, sind zunächst Interdependenzanalysen zur Verdichtung von Variablen, wie die Cluster- analyse oder die Faktorenanalyse, erforderlich. Bei dieser werden Merkmale als Faktoren zu- sammengefasst. Die Clusteranalyse erzeugt durch Gruppierungen der Stichprobenelemente anhand von Ähnlichkeiten und Unähnlichkeiten eine Bildung von homogenen Gruppen (Clus- ter), aus denen wiederum Faktoren interpretiert werden. Die aus den Interdependenzanalysen herausgearbeiteten Faktoren sind zur Einschät- zung der Wahrnehmungsereignisse hilfreich, sagen aber noch nichts über die Gewichtungen des jeweiligen Faktors bzgl. des Qualitätsereig- nisses aus. In der Praxis bedient man sich einfacher Abbildungsfunktionen, wie dem Vek- tormodell, welches einen monotonen Zusam- menhang zwischen den Faktoren und der Qua- lität voraussetzt, oder dem Idealpunktmodell, bei dem eine Qualitätsbeeinträchtigung je nach Abweichung eines zuvor definierten Idealpunk- tes angenommen wird. [[8]]

6. DATENANALYSE

Sind die Qualitätsmerkmale mittels Interdepen- denzanalysen verdichtet und eine Gewichtung der Faktoren gegeben, so lassen sich die Mess- ergebnisse einer Skalierung durch die zuvor be- schriebenen multivariaten Analyseverfahren in einen neuen Wahrnehmungsraum referenzie- ren. Dieser sollte neben den Testergebnissen auch die im Test verwendeten Randfaktoren be- inhalten (d.h. die subjektive Referenz der Ver- suchspersonen, sowie Testbedingungen Raum, Versuchsleiter, Szenarien etc.), da diese weiter- hin einen signifikanten Einfluss auf die Aussage einer Qualität haben. Ob und inwieweit ein bzw. zwei Randfaktoren die Testergebnisse beein- flusst haben, lässt sich bei normalverteilten Messergebnissen (1+2 ≥ 30) mittels t-Test sowohl für gepaarte Stichproben (d.h. die Mes- sergebnisse stammen von derselben Versuchs- person) und unabhängigen Stichproben (d.h. die Messergebnisse stammen von verschiedenen Personen) über die Nullhypothese prüfen. Hierzu wird eine Teststatistik aus einer Mittel- wertanalyse anhand zweier Stichprobenmittel- werte, unter Berücksichtigung eines Testni- veaus und einer Testverteilung, zur Überprü- fung, ob eine zuvor angenommene Hypothese z.B. = 0 angenommen oder abgelehnt wer- den kann, genutzt. [[4]] Bei mehr als einem Faktor, oder bei gleichzeitigem Einfluss mehrerer Fak- toren, eignet sich die Varianzanalyse. Den Ein- flussfaktoren (d.h. den zu prüfenden Faktoren) unterstellt man eine Ursache für eine, bei der Zielvariablen (d.h. einer besonderen Ausprä- gung von Messergebnissen) eventuell be- obachtbaren, Wirkung zu sein. Bei den Ein- flussfaktoren unterscheidet man allgemein zwi- schen festen (d.h. für den Versuch erschöpfen- den Einflüssen bspw.

[...]

Details

Seiten
7
Jahr
2018
ISBN (eBook)
9783668836846
ISBN (Buch)
9783668836853
Sprache
Deutsch
Katalognummer
v449725
Institution / Hochschule
Hochschule RheinMain
Note
1,0
Schlagworte
Effectiveness Ergonomie Perception and As-sessment Processes Quality Engineering Qua-lity of Service Quality of Experience Usability

Autor

Zurück

Titel: The Quality Engineering 2018