Lade Inhalt...

Data Mining als Grundlage für den Einsatz von Performance Measurement Systemen in Logistiknetzwerken

Seminararbeit 2004 20 Seiten

BWL - Beschaffung, Produktion, Logistik

Leseprobe

Inhaltsverzeichnis

1 Problemstellung

2 Data Warehouse
2.1 Definition
2.2 Data Warehouses in der Logistik

3 Knowledge Discovery in Databases oder Data Mining im weiteren Sinne
3.1 Definition
3.2 Der Prozess des Data Mining im weiteren Sinne
3.2.1 Planung
3.2.2 Vorbereitung
3.2.3 Mining
3.2.4 Auswertung

4 Integration in Konzepte des Performance Measurement
4.1 Definition des Performance Measurement
4.2 DEA-Analyse und Data Mining in der Logistik
4.3 Balanced Scorecard und Data Mining in der Logistik
4.4 Weitere konzeptunabhängige Anwendungsvorschläge für die Logistik
4.4.1 Lieferanten-Bewertung
4.4.2 Bewertung der Qualität von Routen
4.5 Kritische Würdigung

5 Zusammenfassung

Tabellenverzeichnis

Tabelle 1: Teileanforderungen und Verpackte Aufträge pro Stunde

Tabelle 2: Lieferantenklassifikation

1 Problemstellung

Die weltweite Menge an Informationen verdoppelt sich schätzungsweise alle 20 Monate, die Zahl und Größe von Datenbanken dagegen vermutlich noch schneller.[1] Aus diesem Grund wird es immer aufwändiger, wichtige von unwichtigen Daten zu trennen um diese dann zu analysieren. Im Hinblick auf die zurückliegende Revolution im Performance Measurement und die notwendige Aktualität von Daten aus Performance Measurement-Systemen[2] ist ein Instrument gefragt, das diese „Datenexplosion“ unter Kontrolle bekommt ohne „einen Zusatzaufwand für die Mitarbeiter zu verursachen“[3].

Im Rahmen des so genannten Customer Relationship Management[4] findet ein Instrument namens Data Mining[5] Verwendung, das systematisch versucht, „unbekannte, nicht triviale und wichtige Informationen aus großen Mengen von Daten“[6] zu ziehen. Das interdisziplinäre Feld der Verbindung von Data Mining und Performance Measurement ist bisher wenig diskutiert, könnte aber eine Lösungsmöglichkeit im Hinblick auf die vorliegende Informationsflut bieten.

In der vorliegenden Arbeit werden die Anwendungsmöglichkeiten des so genannten Data Mining im weiteren Sinne (oder auch Knowledge Discovery in Databases) mit dessen Instrument Data Mining im engeren Sinne als Grundlage für Performance Measurement-Systeme (vor allem in Logistiknetzwerken) untersucht und ausgewertet. Abschnitt 2 definiert vorab den für die Arbeit zweckdienlichen Begriff des Data Warehouses und nennt Anwendungsbeispiele aus der Wirtschaft. Daran anschließend stellt Abschnitt 3 den Prozess des Knowledge Discovery in Databases vor und erläutert ihn im Allgemeinen. Zur Anwendung im Rahmen eines Performance Measurement-Systems in Logistiknetzwerken sollen in Abschnitt 4 entsprechende Beispiele die Eignung des Prozesses untersuchen, bevor in Abschnitt 4.4 Vorschläge zur Anwendung in Logistiknetzwerken gemacht werden.

Eine kritische Würdigung des Data Mining-Konzeptes als Grundlage für Performance Measurement-Systeme in Logistiknetzwerken erfolgt in Abschnitt 4.5, bevor in Abschnitt 5 die finale Betrachtung des vorgestellten Instrumentariums Data Mining allgemein und speziell hinsichtlich seines Einsatzpotentials in Logistiknetzwerken erfolgt.

2 Data Warehouse

2.1 Definition

In jeder Firma existieren unzählige[7] so genannte On Line Transactional Processing-Datenbanken für den täglichen Betriebsablauf, wie z.B. Scannerkassen,- Kunden-, Auftrags- oder Reklamationsdatenbanken.[8] Sie alle haben gemeinsam, dass ihr primärer Verwendungszweck nicht die Datenanalyse mit komplexen ad-hoc Abfragen, sondern die Unterstützung des operativen Betriebes ist, für den sie erstellt werden oder aus dem sie hervorgehen. Nur wenige dieser Daten sind als interessant und nutzbar zu klassifizieren.

Im Rahmen einer Data Warehousing-Technologie werden folgende wichtige Punkte zur Erstellung eines zentralen Data Warehouse genannt:

Die relevanten Daten bestehender Datenbanken werden ständig automatisch in abfrageorientierter Form in das Data Warehouse übernommen, wo „durch Selektion, Projektion, Gruppierung usw. Überblicksdaten gebildet werden“[9]. Als relevant erachtete Daten werden in geeigneter Form (grafisch oder nicht-grafisch) aufbereitet. Aus Platzgründen werden alte Daten nur noch in verkürzter Form beibehalten, die ausführliche Variante wird archiviert.

2.2 Data Warehouses in der Logistik

Logistik-relevante Daten verteilen sich üblicherweise über unzählige operative Datenbanken eines Unternehmens (In Logistik-Unternehmen dagegen sind logischerweise alle Informationen logistik-relevant.). Die gespeicherten Informationen sind so groß, dass einfache manuelle Datenzusammenstellungen sehr lange dauern. Es kann z.B. passieren, dass die Regale einer Filiale einer großen Supermarktkette nicht rechtzeitig aufgefüllt werden, bis die entsprechenden Informationen aus den Datenbanken zusammengetragen, verarbeitet und an die Transport-Abteilung weitergeleitet wurden. Abhilfe schafft ein Data Warehouse, in dem für relevant und interessant erachtete Informationen aus dem operativen Betrieb abfrage- und damit auch laufzeitorientiert zusammengefasst werden.

Unternehmen, die seit einigen Jahren erfolgreich eine Data-Warehousing-Technologie anwenden, sind z.B. die Sinn-Leffers-WHG oder auch Wal-Mart. Das Data Warehouse der Sinn-Leffers-WHG erbrachte 1997 alleine durch seine Einführung schon eine signifikante Bestandsreduzierung, verkürzte Lieferzeiten sowie eine günstigere Kostensituation.[10]

Das US-Unternehmen Wal-Mart Stores Inc. erhöhte Ende 1999 die Größe seines Data-Warehouses von bisher 44 auf dann 101 Terabyte – das entspricht über 25 Milliarden Seiten Text oder mehr als 1000 derzeit oftmals standardmäßig verbauten Festplatten mit einer Kapazität von jeweils 100GB.[11] Dieses gigantische Datenvolumen lässt erahnen, welche Datenmengen in den operativen Datenbanken von Wal-Mart zu finden sind und wie wichtig ein Data-Warehouse mittlerweile ist. Allerdings muss ein Data-Warehouse (besonders eines dieser Größenordnung) abfrageorientiert strukturiert sein, um eine vernünftige Performanz[12] zu gewährleisten und einen Vorteil gegenüber den operativen Datenbanken zu erzielen. Berücksichtigt man die eingangs erwähnte Informations-Verdopplung alle 20 Monate, müsste das Data-Warehouse von Wal-Mart Anfang 2004 bereits mehr als 400 Terabyte erreicht haben, unter der einschränkenden Bedingung, dass auch die relevante und interessante Informationsmenge in der gleichen Geschwindigkeit wächst. Eine Suche auf der Webseite von Wal-Mart (http://www.walmartstores.com) verrät die heutige Größe des Data-Warehouses in Höhe von mehr als 240 Terabyte.[13]

3 Knowledge Discovery in Databases oder Data Mining im weiteren Sinne

3.1 Definition

Knowledge Discovery in Databases oder auch Data Mining im weiteren Sinne bezeichnet „den gesamten Prozess von der Bereitstellung der Daten bis zur Anwendung der (gewonnenen) Erkenntnisse“[14] und wird in der Praxis hauptsächlich im Rahmen des so genannten Customer Relationship Management verwendet, um automatisiert Informationen über die eigenen Kunden zu gewinnen. Dieser Prozess lässt sich in die vier wesentlichen Schritte Planung, Vorbereitung, Mining und Auswertung aufteilen.[15]

Der Fall von Wal-Mart macht klar, dass die manuelle Datenanalyse bei großen Informationsmengen und deren Wachstumsraten immer schwieriger und lückenhafter wird, selbst wenn man das Data-Warehouse bei Wal-Mart als außergewöhnlich groß klassifizieren kann (Im Vergleich: Das Data Warehouse der Neckermann Versand AG hatte 1999 eine Größe von „nur“ 0,6 Terabyte.[16] ).

Die aufwändige manuelle Analyse großer Datenmengen lässt sich durch den so genannten Knowledge Discovery in Databases-Prozess umgehen. Bei diesem Prozess handelt es sich um einen größtenteils selbständig ablaufenden Prozess, der vorhandene Daten analysiert sowie automatisch Hypothesen generiert und testet.

3.2 Der Prozess des Data Mining im weiteren Sinne

3.2.1 Planung

Im ersten Schritt geht es um die Planung [17] des anstehenden Data Mining-Prozesses mit den Fragen nach verfolgten Zielen und erwarteten Ergebnissen unter Auswahl geeigneter prozesssteuernder Personen, denn zur erfolgreichen Durchführung ist zu beachten, dass neben Data Mining-Spezialisten auch Sachexperten einbezogen werden müssen.[18]

In der Logistik stellt sich bei dem Planungs-Schritt primär die Frage nach den mit der Analyse verfolgten Zielen und Zielvorgaben (Soll-Werte). Im Rahmen des Performance Measurement in Logistiknetzwerken sind die möglichen Ziele aus der Menge der Sach- und Formalziele der logistischen Leistungserstellung abzuleiten.

Das Sachziel der logistischen Leistungserstellung lässt sich mit den sechs „r“ beschreiben: richtiges Produkt, richtige Menge, richtige Qualität, richtiger Ort, richtige Zeit und richtiger Kunde.[19] Als Formalziele gelten z.B. Gewinnmaximierung, Kostenminimierung und langfristige Zahlungsfähigkeit (wirtschaftlich), aber auch Emissionsminimierung (ökologisch) und das Ziel, in einem bestimmten Zeitraum keine Arbeitskräfte zu entlassen (sozial).[20]

3.2.2 Vorbereitung

Nach der Festlegung der zu untersuchenden Ziele werden die dafür notwendigen Daten bzw. Informationen[21], aus Performanz-Gründen im Idealfall aus einem Data-Warehouse, bestimmt. Ist kein Data Warehouse vorhanden oder sind die dort vorhandenen Daten für die Problemstellung unzureichend, werden die fehlenden Informationen gesammelt und in die Mining Base transformiert oder mit ihr verknüpft. Die für die jeweilige untersuchte Fragestellung relevanten Daten müssen – sofern sie nicht bereits in der Mining Base vorhanden sind – nacherhoben werden und Fehler in den Daten müssen im Rahmen des so genannten Data Cleaning berichtigt werden.

3.2.3 Mining

Im so genannten Mining-Schritt des Data Mining wird zunächst die Prozessgrundlage, die Mining Base bzw. das Data Warehouse, herangezogen und z.B. aus Gründen der Performanz oder der Redundanzanalyse im so genannten Subsampling auf einige wenige Datensätze verkleinert. Weiterhin sollen nur für die Analyse relevante Daten herangezogen werden, was im Rahmen des Teilschrittes Feature Selection erfolgt. Das Resultat aus Subsampling und Feature Selection ist dann die Input-Database, auf deren Basis die Algorithmen des Data Mining arbeiten.

Als nächstes erfolgt die Auswahl, welche Art von Mustern gesucht werden soll. Die verschiedenen Musterarten werden im Folgenden aufgeführt:[22]

- Klassifikationsregeln ordnen im Sinne einer Wenn/Dann-Entscheidung einer Variablen in Abhängigkeit von mehreren anderen Variablen eine Klasse zu. Diese Vorgehensweise entspricht der logistischen Regression, bei der (stark vereinfacht dargestellt) aus einer Menge von unabhängigen Variablen der Wert einer abhängigen bestimmt wird, mit der Einschränkung, dass dieser Wert ganzzahlig (meistens binär) ist. Dadurch kann man jedem Satz von unabhängigen Variablen eine Klasse zuordnen.
- Charakteristische Regeln schreiben Objekten einer Gruppe anhand von Klassifikationsvariablen bestimmte Eigenschaften, d.h. bestimmte Werte eines Variablensatzes, zu.
- Regressionsregeln sind wie Klassifikationsregeln, nur wird keine Klassenzugehörigkeit bestimmt, sondern ein konkreter numerischer Wert der abhängigen Variablen.
- Bei Clusterregeln werden wiederum Objekte in Klassen eingeteilt. Im Gegensatz zu den Klassifikationsregeln sind die Klassen aber vorher nicht bekannt, sondern werden erst im Laufe der Clusterung ermittelt. Die klassischen Ansätze basieren auf den Abständen zwischen Objekten in einem Koordinatensystem der unabhängigen Variablen. Neuere Ansätze verwenden u.a. wahrscheinlichkeitstheoretische Ideen.
- Abhängigkeitsmuster beschreiben, welche Merkmalsausprägungen häufig zur gleichen Zeit auftreten (Assoziationsregeln) bzw. ob die Ausprägungen eines Merkmals funktional aus anderen hergeleitet werden können (funktionale Abhängigkeiten).
- Verbindungsmuster decken Regelmäßigkeiten zwischen Merkmalen auf, allerdings auch zwischen Datenbanken.
- Zeitliche Muster in zusammenhängenden Datensätzen beschreiben oftmals in einer bestimmten Reihenfolge beobachtete Merkmalsausprägungen verschiedener Merkmale.
- Abweichungen treten auf, wenn bei einem Teil der Daten andere Merkmalsausprägungen als der Erwartungswert des Merkmals in der Grundgesamtheit vorkommen.
- Mathematische Gesetzmäßigkeiten zwischen numerischen Daten konkret als Formel aufzudecken (vgl. funktionale Abhängigkeiten), ist in vielen Fällen von besonderem Interesse.

Nach der Auswahl der Muster werden für das Problem geeignete Algorithmen ausgesucht. Aufgrund der Algorithmen- und Musterauswahl kann es vorkommen, dass die Kodierung einzelner Informationen in der Input-Database angepasst werden muss, z.B. müssen stetige numerische Daten evtl. klassiert werden oder der Wertebereich einer Variablen wird durch Normalisierung auf beispielsweise [0; 1] gebracht.

Einige Algorithmen benötigen Parameter, die im Sinne der Problemstellung festgesetzt oder in einem vorherigen Prozess determiniert werden müssen.

Die nun folgende Analyse ist der Kernschritt des Knowledge Discovery in Databases und wird auch als Data Mining im engeren Sinne bezeichnet. Darunter versteht man kurz gesagt die computergestützten Techniken zur Untersuchung vorhandener Daten auf interessante Muster anhand von vordefinierten Algorithmen. Es wird versucht, automatisiert Hypothesen zu generieren um sie dann zu testen (Discovery Model). Im Gegensatz dazu basieren die meisten klassischen Analyseverfahren auf dem so genannten Verification Model: Hypothesen werden manuell formuliert und anhand eines Datensatzes getestet.

Das Ergebnis des gesamten Mining-Schritts ist „meist eine große Anzahl komplexer Musterbeschreibungen“[23].

3.2.4 Auswertung

Im letzten Schritt des Knowledge Discovery in Databases-Prozesses werden die gewonnen Muster auf Relevanz im Sinne der Problemstellung sowie statistische Signifikanz untersucht und gegebenenfalls auch für Nichtexperten verständlich aufbereitet. Sollten die Ergebnisse nicht den Erwartungen entsprechen, werden die Ursachen hierfür gesucht und man kehrt bei Bedarf zu einem früheren Punkt in der Prozesskette zurück, um von da ab noch einmal unter Berücksichtigung der Ursachen der unerwarteten Ergebnisse mittels Variation der Daten, Algorithmen, Muster oder Parameter von neuem zu beginnen.

Ziel des Knowledge Discovery in Databases ist durch die Anwendung des gewonnenen Wissens allgemein eine Verbesserung gegenüber dem Ausgangszustand herzustellen. Bezogen z.B. auf das Formalziel der Kostenminimierung eines Unternehmens ist das Ziel folglich die Kostenreduktion einzelner Prozesse. Gewonnenes Wissen anzuwenden bedeutet, Entscheidungen zu fällen, die sich auf die Struktur von Prozessen auswirken. Aus diesem Grunde ist Knowledge Discovery in Databases ein so genannter Decision Support Process.[24]

4 Integration in Konzepte des Performance Measurement

4.1 Definition des Performance Measurement

Performance wird vielfältig definiert, exemplarisch soll an dieser Stelle nur eine davon aufgezeigt werden: Lebas definiert Performance als das Potential, zukünftig erfolgreich zu agieren um die gesetzten Ziele zu erreichen.[25] In Bezug auf die Logistik sei angeführt, dass die logistischen Kernleistungen Transport, Umschlag, Lagerung sowie die ergänzenden Leistungen wie z.B. Kommissionieren und Verpacken[26] die Grundlage für ein Performance Measurement in Logistiknetzwerken bilden.

Kennzahlensysteme für das Performance Measurement einer Unternehmung haben in den letzten Jahren einen stetigen Wandel vollzogen. Ausgangsbasis dafür ist der Beitrag von Eccles, der die Abwendung von rein finanzbasierten Kennzahlensystemen fordert. Stattdessen soll der Fokus auf ein breiteres Spektrum von Kennzahlen ausgerichtet werden, das neben den bisher betrachteten Finanzkennzahlen hauptsächlich nichtfinanzielle Größen berücksichtigt.[27]

Wissenschaft, Beratungs- und Unternehmenspraxis haben verschiedene Konzepte entwickelt, mit denen die Leistung eines Unternehmens oder von Teilen eines Unternehmens gemessen werden kann.[28] Beispielhaft und vor allem in Hinblick auf die Anwendbarkeit des Data Mining seien hier nur die Data Envelopment Analysis[29] (kurz: DEA-Analyse) und die Balanced Scorecard[30] angeführt. Außerdem sollen zwei Kennzahlen unabhängig vom verwendeten Performance Measurement-System ausführlicher vorgestellt werden.

4.2 DEA-Analyse und Data Mining in der Logistik

Bei der DEA-Analyse[31] werden homogene Objekte anhand ihrer Effizienz im Vergleich zueinander bewertet und verglichen. Die mathematisch-orientierte Vorgehensweise sei anhand eines Beispiels erklärt, in dem es um die Bewertung der Effizienz von Mitarbeitern einer Versandabteilung geht[32].

Die Versandabteilung eines Unternehmens habe drei Mitarbeiter, deren Aufgabe darin besteht, einerseits Positionen eines Auftrags im Lager anzufordern und andererseits sie zu verpacken. Kennzahlen hierfür seien Teileanforderungen sowie Anzahl verpackter Aufträge pro Mitarbeiter und Stunde auf Basis von Durchschnittswerten.

Tabelle 1 gibt die genannten Kennzahlen (Output) für die drei Mitarbeiter (Je „ein Mitarbeiter“ gilt als Input) wieder.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Teileanforderungen und Verpackte Aufträge pro Stunde

Quelle: Eigene Darstellung

In diesem Beispiel ist nun Mitarbeiter 1 der effizienteste bei den Teileanforderungen und Mitarbeiter 3 ist der effizienteste bei den verpackten Aufträgen. Die Effizienz dieser beiden Mitarbeiter wird als 100% festgelegt und die von Mitarbeiter 2 wird nun mit Hilfe des Abstandes zu der Linearkombination aus Mitarbeiter 1 und 3 gemessen. Die Linearkombination[33] entspricht dem effizienten Rand, auf dem alle Mitarbeiter mit 100% Effizienz liegen. Die Effizienz von Mitarbeiter 2 (als Summe aus x1 und x3) lässt sich in diesem Beispiel mit folgenden Gleichungen als 89% berechnen, wobei x1 und x3 die Anteile der Mitarbeiter 1 und 3 sind, die man bräuchte um Mitarbeiter 2 zu reproduzieren:

Abbildung in dieser Leseprobe nicht enthalten

Im Rahmen des Data Mining lässt sich die DEA-Analyse direkt in den Miningschritt integrieren, d.h. die Bewertung der Effizienz von bspw. Mitarbeitern einer Versandabteilung könnte auf dem für das Data Mining prozesstypischen Wege erfolgen z.B. über die oben genannten Informationen.

4.3 Balanced Scorecard und Data Mining in der Logistik

Die Balanced Scorecard[34] dient der überblicksartigen Zusammenfassung der wichtigsten Kennzahlen eines Unternehmens, wobei sie per Definition die Gesamtsituation aus verschiedenen Perspektiven zu betrachten und sowohl Vergangenheit als auch Gegenwart und Zukunft abzudecken versucht.

Im Gegensatz zur mathematisch-orientierten DEA-Analyse muss man die Balanced Scorecard, für deren Aufstellung man unter anderem auch die DEA-Analyse als Instrument verwenden kann, breiter gefächert sehen.

Die vor der Balanced Scorecard entwickelten Kennzahlensysteme sind i.d.R. sehr finanzlastig, d.h. es wird meist ausschließlich Wert auf die Finanzleistung des Unternehmens gelegt.

Ein einfaches Beispiel verdeutlicht, dass diese Vorgehensweise rein vergangenheitsorientierte Informationen liefert und keine Aussagen über die zukünftige Leistungsfähigkeit macht:

Man Betrachte zwei Ein-Produkt-Unternehmen, die in jeglicher Hinsicht identisch sind, also auch die gleichen finanziellen Kennzahlen errechnet haben. Fallen bei der einen Unternehmung durch ein auslaufendes Patent nach der Kennzahlenbestimmung die zukünftigen Verkaufspotentiale weg, kann man sich verdeutlichen, dass in den Finanzkennzahlen ein solcher Umstand keine Berücksichtigung findet, obwohl er schon mit Erteilung des Patentes bekannt sein sollte.

Dieser Problematik wird in der Balanced Scorecard mehr Sorge getragen[35], denn dort betrachtet man zusätzlich zur finanziellen noch die Kundenperspektive, die interne Geschäftsperspektive sowie die Innovations und Lernen-Perspektive und hat somit einen Ausblick auf zukünftige Potenziale. Das Problem des auslaufenden Patentes wird dann anhand geeigneter Kennzahlen der internen Geschäfts-Perspektive und/oder der Innovations und Lernen-Perspektive frühzeitig erkannt, bspw. anhand einer Kennzahl „durchschnittliche Patent-Restlaufzeit“.

Die Kennzahlen der verschiedenen Perspektiven lassen sich durch den Data Mining-Prozess bestimmen. Beispielhaft für die Integration von Data Mining in die Balanced Scorecard sei für die vier Perspektiven jeweils eine Kennzahl vorgeschlagen und im Hinblick auf die Anwendbarkeit von Data Mining untersucht.

In der Kundenperspektive bietet sich als Maßzahl für die Akzeptanz neuer Produkte bzw. Dienstleistungen die Messung ihres jeweiligen Anteils am Gesamtumsatz an[36]. Hierzu benötigt das Data Mining zusätzlich zu den einzelnen Umsatzpositionen der betrachteten Periode lediglich eine Art „Artikel-Nummer“ sowie ein Maß für das Alter eines Produktes sowie eine Definition, wann ein Produkt als „neu“ gilt. Das Alter integriert man am besten für alle Artikel in das Data Warehouse über das Datum des ersten Verkaufs.

Die durchschnittliche Auslastung des Fuhrparks lässt sich der internen Geschäftsperspektive zurechnen. Diese Kennzahl als gemittelter Quotient aus im Einsatz befindlichen Fahrzeugen und Gesamtgröße des Fuhrparks sollte wegen der Genauigkeit der Ergebnisse wenigstens täglich ermittelt werden. Im Hinblick auf die Möglichkeiten des Data Mining bietet sich die Variante Quotient der Fahrtzeiten durch Standzeiten bei Beachtung der Personalauslastung an. Fahrt- sowie Standzeiten lassen sich z.B. über Ortungsdatenbanken bestimmen, wobei Standzeiten diejenigen Zeiten wären, die das jeweils betrachtete Fahrzeug an einem Unternehmensstandort verbringt.

Betrachtet man die Innovations und Lernen-Perspektive, kann man z.B. Verbesserungen einzelner Prozesse entweder als die Prozesslaufzeit nach der Verbesserung geteilt durch die Zeit vor der Verbesserung oder als die Ausbringungsmenge bei einmaliger Prozessdurchführung nach der Verbesserung geteilt durch das Äquivalent vor der Verbesserung messen. Die Ermittlung von Prozesslaufzeiten oder -ausbringungsmengen zu allen mit der Datenbank abgedeckten Zeitpunkten stellt das Data Mining vor keine Probleme.

Zuletzt sei mit dem so genannten ROI (Return on Investment) eine Kennzahl der Finanz-Perspektive erwähnt, die für jede einzelne Investition bestimmt werden kann. Im Rahmen der Ermittlung einzelner ROI kann sich das Problem ergeben, dass die anteilige Zurechnung von Gemeinkosten auf das betrachtete Projekt durch das Data Mining nicht ohne Mithilfe von Prozesskostensätzen[37] vorgenommen werden kann. Sind für das jeweilige Projekt die einzelnen Prozesskostensätze bekannt, kann das Data Mining anhand der Prozess-Intensitäten die ROI berechnen.

Es lässt sich festhalten, dass Data Mining mit vereinzelten Einschränkungen prinzipiell in der Lage ist, jede vorstellbare Kennzahl zu ermitteln, sofern die notwendigen Daten verfügbar sind.

4.4 Weitere konzeptunabhängige Anwendungsvorschläge für die Logistik

4.4.1 Lieferanten-Bewertung

Die Zuverlässigkeit der Lieferanten[38] in einer Wertschöpfungskette ist für das Performance Measurement ein elementarer Faktor, der Einfluss auf die Kundenzufriedenheit und auf die eigene Leistungsfähigkeit hat. Das beste Unternehmen kann ohne zuverlässige Lieferanten sein Potential nicht vollständig entfalten.

Zur Bewertung seiner Lieferanten anhand des Data Mining ermittelt das Unternehmen im Vorbereitungsschritt den Speicherort der relevanten Informationen, die in elektronischer Form vorliegen müssen, um automatisiert Rückschlüsse auf die Zuverlässigkeit zuzulassen. Ein Lieferant ist dann zuverlässig, wenn er innerhalb einer festzulegenden Zeit[39] nach Auftragsabsendung eine Bestellbestätigung und/oder eine Rechnung verschickt. Stattdessen ist es auch möglich, die Zeit zwischen Auftragsabsendung und Zustellung zu ermitteln, allerdings beinhaltet diese auch die Zuverlässigkeit eines zwischengeschalteten Transportdienstleisters.

Viele Unternehmen teilen sich ein so genanntes Extra-Net, in dem Abnehmer ihre Bestellungen und Lieferanten Bestätigungen sowie Rechnungen in elektronischer Form direkt übermitteln können.[40] Im angeführten Beispiel muss der Abnehmer sich mit allen (zu bewertenden) Lieferanten zumindest jeweils ein Extra-Net teilen um die Funktionalität des Data Mining-Prozesses zu gewährleisten.

Sind alle Eingangsvoraussetzungen erfüllt, ist es möglich, im Miningschritt die Antwortzeit für jede Bestellung und jeden Lieferanten zu ermitteln als Zeit zwischen Auftragserteilung und Auftragsbestätigung.

Die durchschnittliche Antwortzeit μn+1 und die zugehörige Varianz σ2n+1 nach n+1 Transaktionen ergeben sich als[41]

Abbildung in dieser Leseprobe nicht enthalten

Diese Formeln sind eine Vereinfachung und dienen der Rechenzeitminimierung und somit der Steigerung der Performanz.[42] Die zweite Formel ist allerdings nur eine Approximation der Varianz, da in beiden Teilen der Summe ein allgemeines und ungenaues μ unterstellt werden muss. Hierzu sollte in regelmäßigen Abständen μ durch die aktuelle durchschnittliche Antwortzeit μn ersetzt und die Varianz σ2n neu berechnet werden, um den resultierenden Fehler in Grenzen zu halten.

Für den Auswertungsschritt und die Aufbereitung der Daten legt man entweder Grenzwerte von Hand fest oder lässt im Rahmen des Miningschrittes eine Clusteranalyse durchführen, die die Lieferanten hinsichtlich ihrer durchschnittlichen Antwortzeiten und Varianzen in ähnliche Gruppen einteilt, deren Beurteilung dem Anwender überlassen bleibt.

Eine Möglichkeit, manuell Grenzwerte vorzugeben ist in Tabelle 2 zu finden.[43]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Lieferantenklassifikation

Quelle: Pham, Trung T. (2003), S. 4.

4.4.2 Bewertung der Qualität von Routen

Transportdienstleister sehen sich regelmäßig mit dem Problem konfrontiert, verschiedene Auslieferungs- oder Sammeltouren möglichst zeitnah zu planen. Die Kunden-Standorte und die gefahrenen Routen sind dabei sicherlich in den operativen Datenbanken vorhanden.

Da bei gegebener Menge der Kundenstandorte eine vollständige Enumeration über alle möglichen Routen schon ab verhältnismäßig wenigen Standorten sehr laufzeitintensiv ist, plant man Routen für gewöhnlich anhand verschiedener Heuristiken[44] bzw. exakter Algorithmen.

Integriert man diese Algorithmen bzw. Heuristiken in den Data Mining-Prozess, kann man automatisiert Effizienzmaße produzieren, die bspw. die gefahrene mit der (im Falle einer Heuristik) vermeintlich optimalen Strecke in Verhältnis setzen:

Abbildung in dieser Leseprobe nicht enthalten.

Im Falle einer Heuristik kann die Effizienz auch Werte über 100% annehmen, im Falle eines exakten Algorithmus wäre der Wertebereich auf (0%; 100%] beschränkt.

Diese Bewertung macht nur Sinn, wenn man ausschließlich auf Heuristiken zurückgreifen kann, denn ist das exakte Optimum berechenbar, sollte es auch verwendet werden.

4.5 Kritische Würdigung

Mit dem Instrumentarium Data Mining ist man in der Lage, Daten regelmäßig automatisiert in Echtzeit analysieren zu lassen. Es stellt sich die Frage, wann der Einsatz einer solchen Analyse sinnvoll erscheint. Allgemein kann man festhalten, dass eine Analyse mit Data Mining

1. wiederkehrende, nicht-triviale Muster in Daten erkennen,
2. Hypothesen über Zusammenhänge in den Daten aufstellen und testen,
3. die Informationsflut in den Griff bekommen sowie
4. Ergebnisse in Echtzeit liefern soll.

Im Hinblick auf den Gegenstand der vorliegenden Arbeit ist anzumerken, dass man im Rahmen des Performance Measurement weniger nicht-triviale Datenmuster und Zusammenhangs-Hypothesen als vielmehr Kennzahlen in Form von funktionalen und somit trivialen Resultaten bekannter Formeln sucht. Diese lassen sich auch mit weniger aufwändigen Instrumenten als dem Data Mining bestimmen.

Um die Informationsflut in den Griff zu bekommen, bedient sich das Data Mining einem dem Data Warehouse vergleichbaren Konzept zur Ermittlung der so genannten Mining Base. Es ist ersichtlich, dass ein vorliegendes Data Warehouse Redundanzen schafft, insofern, als dass eine Datentransformation in eine Mining Base und somit der Data Mining- bzw. der Knowledge Discovery in Databases-Prozess an dieser Stelle nicht mehr zwingend notwendig wäre.

Je nach Vorgaben des Performance Management und des verwendeten Performance Measurement-Systems ist zunächst zu bestimmen, in welchen Intervallen die Kennzahlenberichte produziert werden sollen. Nur für den Fall, dass Kennzahlen in Echtzeit vorliegen sollen, erscheint die Anwendung eines Data Mining-Systems sinnvoll. Andernfalls lassen sich auch an dieser Stelle Kennzahlensysteme sicherlich einfacher produzieren als mit Data Mining.

Als Zwischenfazit ist festzuhalten, dass Data Mining als Grundlage für Performance Measurement-Systeme grundsätzlich nur empfehlenswert erscheint, wenn Data Mining in anderen Unternehmensbereichen bereits verwendet wird oder wenn Kennzahlen in Echtzeit einen strategischen Vorteil darstellen.

Die schwache Verbreitung von Data Mining in Kombination mit Performance Measurement in der Literatur spricht für diese Argumentation.

Eine Integration des Data Mining in vorhandene Performance Measurement-Systeme ist also prinzipiell möglich, scheinbar kann man sich jedoch auch einfacherer Mittel bedienen.

Müssen Kennzahlen in Echtzeit ermittelt werden oder ist im Unternehmen bereits ein Data Mining-System vorhanden, bietet sich für die Logistik unabhängig vom jeweils verwendeten Performance Measurement-Konzept trotzdem die Ermittlung verschiedener Kennzahlen mittels Data Mining an.

5 Zusammenfassung

Die vorliegende Arbeit beschreibt zunächst das Konstrukt des Data Warehouse sowie den Prozess des Data Mining (im weiteren Sinne) bzw. des Knowledge Discovery in Databases. Dabei wird sich auf die grundlegende Prozessstruktur konzentriert, ohne sich in tiefer gehenden Fragestellungen zu verlieren, die für die Anwendungen als Grundlage des Performance Measurement in Logistiknetzwerken zunächst irrelevant sind, wie z.B. die Integration neuronaler Netze.

Beispielhaft für Performance Measurement-Systeme werden die Data Envelopment Analysis (kurz: DEA-Analyse) sowie die Balanced Scorecard vorgestellt. Anhand von einfachen Kennzahlen wird jeweils für DEA-Analyse und Balanced Scorecard die Integrationsfähigkeit des Data Mining in bestehende Performance Measurement-Systeme aufgezeigt, bevor in einem Zwischenfazit die Notwendigkeit der vorgestellten Instrumente kritisch hinterfragt wird.

In Abschnitt 4.4 werden mit einem Lieferanten- und Tourenbewertungkonzept zwei mögliche Kennzahlen ausführlich erläutert, die im Hinblick auf Logistik-Unternehmen als interessant erscheinen.

Es lässt sich festhalten, dass die Existenz von Data Warehouses hinsichtlich der explosionsartigen Informationsvermehrung unbestritten von großem Vorteil ist, wohingegen der umfangreiche Einsatz von Data Mining wirkt, als wolle man „mit großen Kanonen auf Spatzen schießen“.

Literaturverzeichnis

1. Coenenberg, A (1992): Kostenrechnung und Kostenanalyse, Landsberg/Lech.
2. Eccles, Robert G. (1991): The Performance Measurement Manifesto, in: Harvard Business Review, January-February 1991, S. 131-137.
3. Frawley, William J. / Piatetsky-Shapiro, Gregory / Matheus, Christopher J. (1992): Knowledge Discovery in Databases - An Overview, in: AI Magazine, Vol. 13, S. 57-­70.
4. Gleich, R. (2001): Das System des Performance Measurement, München.
5. Isermann, Heinz (1998): Grundlagen eines systemorientierten Logistikmanagements, in: Isermann, Heinz (Hrsg.): Logistik – Gestaltung von Logistiksystemen, 2. Auflage, Landsberg/Lech, S. 21-60.
6. Isermann, Heinz (1999): Produktionstheoretische Fundierung logistischer Prozesse, in: ZfB – Zeitschrift für Betriebswirtschaft, Ergänzungsheft 4, S. 1-21.
7. Kaplan, R. / Norton, D. (1992): The Balanced Scorecard – Measures That Drive Performance, in: Harvard Business Review, January-February 1992, S. 71-79.
8. König, W. / Rommelfanger, H. / Ohse, D. / Wendt, O. / Hofmann, M. / Schwind, M. / Schäfer, K. / Kuhnle, H. / Pfeifer, A. (2003): Taschenbuch der Wirtschaftsinformatik und Wirtschaftsmathematik, 2., überarbeitete und erweiterte Auflage, Frankfurt am Main.
9. Kranke, Andre (1999): Data Warehouse – Wal-Mart erhöht auf 101 Terabyte, in: Logistik heute, Nr. 11 1999, S. 64.
10. Kueng, Peter / Krahn, Adrian (2001): Performance Measurement-Systeme im Dienstleistungssektor, in: io-management, Nr. 1/2 2001, S. 56-63.
11. Langen, Georg / Würmser, Anita (1997): Data Warehouse bei Sinn-Leffers – Renner und Penner im Visier, in: Logistik heute, Nr. 11 1997, S. 89-91.
12. Lebas, Michel J. (1995): Performance measurement and performance management, in: international journal of production economics, Vol. 41,
S. 23-35.
13. Petrak, Johann (1997): Data Mining – Methoden und Anwendungen, Technical Report TR-97-15 des Österreichischen Forschungsinstituts für Artificial Intelligence (ÖFAI), Wien.
14. Pfohl, H.-Chr. (1990): Logistiksysteme, Betriebswirtschaftliche Grundlagen, 4. Auflage, Berlin u.a.
15. Pham, Trung T. (2003): Mining of EDI Data for Performance Measurement of a Supply Chain, DICentral Corporation, Draft – to be submitted to the IEEE International Conference on Data Mining, Orlando, FL (November 19-22, 2003).
16. Walmart (1999): Expansion of Data Warehouse to 101 Terabytes Allows 104 Weeks of Sales History, http://www.walmartstores.com/wmstore/wmstores/Mainnews.jsp?BV_SessionID=@@@@1608315658.1087151538@@@@&BV_EngineID=ccceadcljlgfjghcfkfcfkjdgoodglg.0&pagetype=news&contentOID=9124&year=1999&prevPage=NewsShelf.jsp&template=NewsArticle.jsp&categoryOID=-8300&catID=-8248, Stand: 13.6.2004.
17. Walmart (2004): Information Systems Division, http://www.walmartstores.com/wmstore/wmstores/Maincareers.jsp?BV_SessionID=@@@@1608315658.1087151538@@@@&BV_EngineID=ccceadcljlgfjghcfkfcfkjdgoodglg.0&pagetype=careers&template=Careers.jsp&categoryOID=-8247&catID=-8247&subCatOID=-8340&subtemplate=CareersContent.jsp, Stand: 13.6.2004
18. Wikipedia (2004): Customer Relationship Management, http://de.wikipedia.org/wiki/Customer_Relationship_Management, Stand: 13.6.2004.
19. Wikipedia (2004b): Data Mining, http://de.wikipedia.org/wiki/Data_Mining, Stand: 13.6.2004.

[...]


[1] Vgl. Frawley, William J. / Piatetsky-Shapiro, Gregory / Matheus, Christopher J. (1992), S. 57.

[2] Vgl. Kueng, Peter / Krahn, Adrian (2001), S. 58.

[3] Kueng, Peter / Krahn, Adrian (2001), S. 59.

[4] CRM dient der Organisation der Kundenbeziehung und basiert auf den vier Säulen Philosophie, Vision, Strategie / Organisation / Menschen / Technik (Vgl. Wikipedia (2004)), Stand: 13.6.2004.

[5] In der vorliegenden Arbeit werden die Begriffe „Data Mining (im weiteren Sinne)“ und „Knowledge Discovery in Databases“ synonym verwendet.

[6] Wikipedia (2004b), Stand: 13.6.2004.

[7] Vgl. für den folgenden Abschnitt: Petrak, Johann (1997), S. 3-4.

[8] Vgl. Petrak, Johann (1997), S. 2.

[9] Petrak, Johann (1997), S. 3.

[10] Vgl.Langen, Georg / Würmser, Anita (1997), S. 89.

[11] Vgl. Walmart (1999) und Kranke, Andre (1999), S. 64: Das Data-Warehouse fasst die (weltweiten) Verkaufszahlen der letzten zwei Jahre.

[12] Der Begriff „Performanz“ wird in der vorliegenden Arbeit im Sinne der Programmlaufzeit eines entsprechenden Softwareproduktes verwendet, um eine Abgrenzung gegenüber dem Begriff Performance im Rahmen des „Performance Measurement“ zu schaffen.

[13] Vgl. Walmart (2004), Stand: 25.5.2004.

[14] Petrak, Johann (1997), S. 4: Petrak verwendet allerdings nur den Begriff Data Mining für den Gesamtprozess.

[15] Vgl. Petrak, Johann (1997), S. 4-8.

[16] Vgl. Kranke, Andre (1999), S. 64.

[17] Vgl. für den folgenden Abschnitt: Petrak, Johann (1997), S. 4-8.

[18] Vgl. Petrak, Johann (1997), S. 5.

[19] Vgl. Isermann, Heinz (1998), S. 23.

[20] Vgl. Isermann, Heinz (1998), S. 23.

[21] Der Zielerreichungsgrad des logistischen Sachziels lässt sich für jeden einzelnen Auftrag z.B. aus den Zeitpunkten der Auftragsannahme und des Auftragsabschlusses, aus Track&Trace- und aus Lagerbestandsdaten sowie aus Stücklisten bestimmen.

[22] Vgl. für die folgende Aufzählung: Petrak, Johann (1997), S. 10-15.

[23] Vgl. Petrak, Johann (1997), S. 7.

[24] Vgl. Petrak, Johann (1997), S. 7.

[25] Vgl. Lebas, Michel J. (1995), S. 23.

[26] Vgl. Pfohl, H.-Chr. (1990), S. 8 und Isermann, Heinz (1999), S. 2.

[27] Vgl. Eccles, Robert G. (1991), S. 131.

[28] Vgl. Gleich, R. (2001), S. 45-76, von den weiteren Konzepten wird aus Komplexitätsgründen abstrahiert.

[29] Vgl. bspw. König, W. / Rommelfanger, H. / Ohse, D. / Wendt, O. / Hofmann, M. / Schwind, M. / Schäfer, K. / Kuhnle, H. / Pfeifer, A. (2003), S. 258-259.

[30] Vgl. Kaplan, R. / Norton, D. (1992).

[31] Vgl. für den folgenden Abschnitt: König, W. / Rommelfanger, H. / Ohse, D. / Wendt, O. / Hofmann, M. / Schwind, M. / Schäfer, K. / Kuhnle, H. / Pfeifer, A. (2003), S. 258-259.

[32] Das Beispiel ist eine eigene Darstellung.

[33] Streng genommen sollte man die Konvexkombination verwenden, also die Strecke zwischen den Punkten der beiden Mitarbeiter.

[34] Vgl. für den folgenden Abschnitt: Kaplan, R. / Norton, D. (1992), S. 71-79.

[35] An dieser Stelle soll auf eine kritische Würdigung der Balanced Scorecard verzichtet werden.

[36] Vgl. Kaplan, R. / Norton, D. (1992), S. 76.

[37] Vgl. Coenenberg, A (1992), S. 204-209.

[38] Vgl. für den folgenden Abschnitt: Pham, Trung T. (2003).

[39] Es ist offensichtlich, dass der Bestandteil „pünktliche Lieferung“ des Sachziels untersucht wird.

[40] Eine Möglichkeit für ein Extra-Net ist eine vernetzte SAP-Umgebung.

[41] Pham, Trung T. (2003), S. 4.

[42] Für die eigentliche Mittelwert-Formel ergeben sich n + 1, in dieser aktualisierenden Form ergeben sich dagegen 7 Basisrechenschritte. Die Berechnung der Varianz erfordert bei gegebenem μ 2n + 1, in der aktualisierenden Form 8 Basisrechenschritte. Die aktualisierende Form ist somit bei n = 7 bzw. bei n = 4 erstmals vorteilhaft.

[43] Pham, Trung T. (2003), S. 4.

[44] Unter einer Heuristik versteht man allgemein ein Verfahren, mit der für gewöhnlich ein gutes aber nicht zwingend optimales Ergebnis gefunden wird. Als nicht näher erläutertes heuristisches Verfahren sei hier das Gradientenverfahren namentlich erwähnt.

Details

Seiten
20
Jahr
2004
Dateigröße
530 KB
Sprache
Deutsch
Katalognummer
v108921
Institution / Hochschule
Johann Wolfgang Goethe-Universität Frankfurt am Main
Note
2,3
Schlagworte
Data Mining Grundlage Einsatz Performance Measurement Systemen Logistiknetzwerken Seminar Systeme Logistik

Autor

Teilen

Zurück

Titel: Data Mining als Grundlage für den Einsatz von Performance Measurement Systemen in Logistiknetzwerken