Lade Inhalt...

Werkzeuge zur Realisierung des Business Intelligence

Seminararbeit 2004 32 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Grundlagen
1.2 Zielsetzungen und Anforderungen

2 Methoden und Werkzeuge
2.1 Datensammlung
2.1.1 Datenintegration
2.1.2 Datenspeicherung
2.2 Datenaufbereitung
2.2.1 OLAP
2.2.2 Data Mining
2.3 Informationsdarstellung

3 Architektur
3.1 Allgemeine Architektur
3.2 Anbieterarchitekturen

4 Schlußwort

Abbildungsverzeichnis

Abbildung 1:

Systor AG: Data Warehousing mit ETL-Tools - http://www.olap-competence-center.de/bisysteme.nsf/f1b7ca69b19cbb26c12569180032a5cc/ 51ba58ccd922d027c1256c22004e3cc5!OpenDocument, abgerufen am 27.05

Abbildung 2:

in Anlehnung an: Mucksch, Behme: Das Data Warehouse-Konzept, 4. Auflage, Wiesbaden 2000

Abbildung 3:

Mucksch, Behme: Das Data Warehouse-Konzept, 4. Auflage, Wiesbaden 2000

Abbildung 4:

in Anlehnung an: Sattler, K.-U.; Conrad, S.: Vorlesung Data Warehouse Technologien, Kapitel 2 - http://www.iti.cs.uni-magdeburg.de/~sattler/hal/dw02.pdf, abgerufen am 27.05.2004

Abbildung 5:

Schweinsberg, K.; Messerschmidt, H.: OLAP - Gut gewürfelt ist halb entschieden! - www.db.informatik.uni-kassel.de/~ks/OLAP-Poster.pdf, abgerufen am 27.05.2004

Abbildung 6:

Vorlesung zu Knowledge Discovery, AIFB Uni Karlsruhe http://www.aifb.uni-karlsruhe.de/Lehrangebot/Winter2001-02/kdd01_02/scripte/3_Vertrautmachen.pdf, abgerufen am 27.05.2004

Abbildung 7:

Vorlesung zu Knowledge Discovery, AIFB Uni Karlsruhe http://www.aifb.uni-karlsruhe.de/Lehrangebot/Winter2001-02/kdd01_02/scripte/3_Vertrautmachen.pdf, abgerufen am 27.05.2004

Abbildung 8:

Wiedmann, K.-P.; Buckler, F.: Auszug aus: Neuronale Netze im Marketing-Management -Praxisorientierte Einführung in modernes Data Mining http://www.olap-competence-center.de/bisysteme.nsf/f1b7ca69b19cbb26c12569180032a5cc/ 2134e576d3f5a4e3c1256a41005fd470!OpenDocument, abgerufen am 27.05.2004

Abbildung 9:

Wiedmann, K.-P.; Buckler, F.: Auszug aus: Neuronale Netze im Marketing-Management -Praxisorientierte Einführung in modernes Data Mining http://www.olap-competence-center.de/bisysteme.nsf/ f1b7ca69b19cbb26c12569180032a5cc/ 2134e576d3f5a4e3c1256a41005fd470!OpenDocument, abgerufen am 27.05.2004

Abbildung 10:

Informatica Corporation: http://www.informatica.com//products/poweranalyzer/ default.htm, abgerufen am 27.05.2004

Abbildung 11:

Informatica Corporation: http://www.informatica.com//products/poweranalyzer/ default.htm, abgerufen am 27.05.2004

Abbildung 12:

Informatica Corporation: http://www.informatica.com//products/poweranalyzer/ default.htm, abgerufen am 27.05.2004

Abbildung 13:

BusinessObjects http://www.businessobjects.com/products/ abgerufen am 27.05.2004

Abbildung 14:

Softlab www.softlab.de/ sixcms/media.php/93/20040212_SCM%20BW%20Pr%E4sentation_ext.pdf, abgerufen am 27.05.2004

1 Einleitung

1.1 Grundlagen

Diese Seminararbeit setzt sich im Folgenden mit Werkzeugen zur Realisierung von Business Intelligence auseinander. Der Begriff Business Intelligence (BI) wird in der letzten Zeit immer mehr zum Schlagwort. Kaum eine Ausgabe aktueller IT-Zeitschriften, in denen man nicht wenigstens einen Artikel zum Thema Business Intelligence findet. Marktforschungsunternehmen, wie die Meta Group oder BARC überbieten sich in der Durchführung immer neuer Studien zum Thema. Immer mehr Anbieter sprießen hervor und auch große Unternehmen, wie Microsoft, Oracle oder Intel propagieren ihre Produkte neuerdings als „besonders geeignet“ für Business Intelligence.

Dabei ist der Begriff zwar neu, das Konzept aber nicht: „Bereits in den 60er Jahren tüftelten IT-Hersteller jeglicher Coleur an Ansätzen, Führungskräfte bei ihren Entscheidungen durch zielgerichtete Informationsverarbeitung zu unterstützen – alleine die technisch limitierten Möglichkeiten ließen jegliches Engagement im Sande verlaufen.“ [IT-Fokus, S. 24] Diese frühen Informationssysteme wurden als Management Informationssysteme (MIS) bezeichnet. Im Laufe der Jahre prägten sich verschiedene Bezeichnungen für ähnliche Systeme, wie z.B. Führungsinformationssystem (FIS), Vorstandsinformationssystem (VIS), betriebliches Navigationssystem (BNS), Decision Support System (DSS), Executive Information System (EIS). [Fank] Die bekanntesten Bezeichnungen sind DSS, FIS und EIS. Bei näherer Betrachtung zeigen sich unterschiedliche Schwerpunkte dieser drei Systeme. EIS haben die Hauptaufgabe vorhandene Informationen verdichtet aufzubereiten, während FIS bereits mit analytischen Funktionalitäten ausgestattet sind. Den Höhepunkt, bezogen auf den Funktionalitätsumfang, erreichen diese Systeme in den DSS, welche höhere Anforderungen an den Anwender stellten. [Fank] Nach dieser Einteilung kann man Business Intelligence in den Bereich der FIS bzw. DSS einordnen. Wenn im Folgenden von entscheidungsunterstützenden Systemen gesprochen wird, ist also auch das Konzept des Business Intelligence gemeint.

In der Literatur und im Internet findet man die verschiedensten Definitionen für den Begriff Business Intelligence. Das Business Application Research Center (BARC) definiert BI „als die entscheidungsorientierte Sammlung und Aufbereitung von Daten zur Darstellung geschäftsrelevanter Information“ und bezeugt, dass es eine „immer stärkere strategische Bedeutung für Unternehmen“ erlangt. [BARC] Das [Net-Lexikon] trifft den Punkt, indem es schreibt „Business Intelligence ist ein verhältnismäßig junger und uneinheitlich verwendeter Begriff. Allgemein umfasst der Begriff die analytischen Prozesse und Werkzeuge, um Unternehmens- und Wettbewerbsdaten in handlungsgerichtetes Wissen zu transformieren. Es werden unternehmensinterne und -externe Daten als Quellen herangezogen.“ Die Gartner Group, welche den Begriff 1989 prägte, definiert: „Business Intelligence ist the process of transforming data into information and, through discovery into knowledge“ [Gartner]. Martin Köster formuliert eine gängige Definition, wie folgt: „Business Intelligence beschreibt analytische Prozesse, die sowohl die Bereitstellung quantitativer und qualitativer Daten als auch die Aufdeckung relevanter Zusammenhänge und die Kommunikation der gewonnenen Erkenntnisse zur Entscheidungsunterstützung umfassen. Vorhandene Unternehmens- und Geschäftsdaten werden also in handlungsanleitendes Wissen umgeformt.“ [Köster] Eine weitgehend anerkannte und oft zitierte Definition stammt von [Grothe/Gentsch] und lautet, wie folgt: „Business Intelligence bezeichnet den analytischen Prozess, der – fragmentierte – Unternehmens- und Wettbewerbsdaten in handlungsgerichtetes Wissen über die Fähigkeiten, Positionen und Ziele der betrachteten internen oder externen Handlungsfelder (Akteure und Prozesse) transformiert.“

Durch die immer schneller fortschreitende Veränderung der Marktsituation werden Unternehmen gezwungen, ihre Entscheidungsprozesse mit ebenso großer Geschwindigkeit durchzuführen. Diese müssen auf soliden und präzisen Analysen aller Unternehmensdaten aufsetzen. Besonders große Konzerne können diese ohne technische Unterstützung kaum noch bewältigen. An diesem Punkt setzt Business Intelligence an. [IT-Fokus, S. 25] Mit Hilfe einer zielgerichteten und im allgemeinen mehrdimensionalen Analyse der -meist fragmentiert - vorliegenden Datenmengen aus unterschiedlichsten unternehmensinternen und -externen Quellen und ihrer Auswertung lässt sich eine Strategie ableiten, die einen Wettbewerbsvorteil gegenüber Konkurrenten einbringt. [IT-Fokus, S. 25]

BI-Marktbeobachter unterscheiden laut [IT-Fokus, S. 25] drei unterschiedliche Adressaten für Business Intelligence-Systeme: den Informationskonsumenten, der eher grobgranulare Informationen, wie z. B. monatliche Berichte für seinen Aufgabenbereich, benötigt, den Knowledge-Worker, der tiefergehende Informationen, wie z. B. Zahlen zum Umsatz oder Verkauf in einem bestimmten Land oder einer Region, benötigt und den Analysten, der die intensivsten Auswertungen benötigt. Ursprünglich als Führungs- (FIS) oder Managementinformationssystem (MIS) eingeordnet, adressiert Business Intelligence nicht mehr nur das Management eines Unternehmens. Nutzer sind vielmehr „alle Personen, die einen Informationsbedarf zu Geschäftsprozessen, Marktgeschehen oder anderen entscheidungsrelevanten Sachverhalten haben. Dies schließt auch andere Beteiligte in der Prozesskette ein, wie beispielsweise Kunden oder Lieferanten, die mit relevanten Daten versorgt werden. [BARC]

Im Einzelnen wird Business Intelligence in drei Prozessphasen untergliedert, die in den Daten der Unternehmung verborgene Zusammenhänge finden, daraus Wissen entwickeln und die Ergebnisse an die entsprechenden Quellen weitergeben sollen:

- Bereitstellungquantitativer und qualitativer, strukturierter oder unstrukturierter Basisdaten
- Entdeckungrelevanter Zusammenhänge, Muster und Musterbrüche oder Diskontinuitäten gemäß vorbestimmter Hypothesen oder hypothesenfrei
- Teilung und Nutzung der gewonnenen Erkenntnisse zur Stützung von Maßnahmen und Entscheidungen (Kommunikation) [sapbwst]

Business Intelligence kommt beispielsweise zu Leistungsmessung interner Geschäftsprozesse zum Einsatz und ist dadurch ein wichtiges Instrument für das Controlling (z. B. in einem Balanced-Scorecard-Ansatz). Weiterhin kann es das Management der Kundenbeziehungen (CRM) unterstützen, z. B. durch die Identifizierung von Kundensegmenten. Die Identifizierung von Einsparpotentialen im Einkauf anhand der Analyse von Lieferantenbeziehungen oder die Informationsbereitstellung in Lieferketten im Rahmen des Supply-Chain-Management (SCM) sind ebenfalls Einsatzbereiche des Busines Intelligence. [BARC]

Business Intelligence ist ein umfassendes Konzept, das unterschiedlichste Aufgaben für unterschiedliche Benutzer erfüllen soll. Jede Lösung muss speziell auf das Unternehmen und die zu erfüllenden Aufgaben angepasst werden. Dabei kommen je nach Anforderung unterschiedliche Komponenten zum Einsatz.

Die Seminararbeit gibt einen einführenden Überblick über Werkzeuge und Methoden des Business Intelligence. Weiterführende Informationen bietet die im Literaturverzeichnis aufgeführte Fachliteratur.

1.2 Zielsetzungen und Anforderungen

„Im Grunde genommen verfolgt BI stets das Ziel, Perspektiven und Erkenntnisse zu sammeln, um anschließend geschäftskritische Entscheidungen schneller und effizienter treffen zu können“, fasst Dr. Heinz Häfner, Vice President für die Produktlinie Business Intelligence bei SAP zusammen [IT-Fokus, S. 25].

Dabei müssen die entscheidungsunterstützenden Systeme nach [BARC] besondere Anforderungen erfüllen:

- Daten müssen aus heterogenen, unternehmensinternen sowie –externen Daten integriert werden, um eine Verknüpfung von Informationen zu ermöglichen.
- Daten müssen über einen langen Zeitraum gespeichert werden, um Trends erkennen und Vorhersagen berechnen zu können.
- Daten sollen in verschiedenen Verdichtungsstufen in einem Informationsmodell zur Verfügung stehen, welches Entscheidungsrelevante Sachverhalte in Ihrem Kontext darstellen kann.
- Anwenderwerkzeuge müssen intuitiv bedienbar sein und kurze Antwortzeiten auch bei komplizierten Anfragen bieten.
- Es müssen sowohl verschiedene Aufgabenbereiche als auch unterschiedliche Anwenderkreise abgedeckt werden.

2 Methoden und Werkzeuge

Analog der Einteilung in die drei Prozessphasen, kann man die an BI beteiligten Komponenten auch nach Ihren Aufgaben unterteilen. Die erste Aufgabe ist die Datensammlung. Darauf folgt die Datenaufbereitung und als dritte die Informationsdarstellung.

2.1 Datensammlung

Als Datensammlung bezeichnet man im Zusammenhang mit BI eine Sammlung von Daten, die in Entscheidungssituationen zur Verfügung stehen soll. [BARC] Diese unterteilt sich in die Bereiche Datenintegration und Datenspeicherung. Bei beiden müssen die Aufgaben des Metadatenmanagements (Datendokumentation) und der Qualitätssicherung berücksichtigt werden.

Metadaten dienen der semantischen und strukturellen Beschreibung der Daten. Dabei werden die Informationsobjekte beispielsweise hinsichtlich ihrer Speicherparamter, Herkunft, Struktur, Zusammensetzung und Inhalt dokumentiert. Dies ist unerlässlich für eine schnelle und effiziente Verwaltung, Ordnung, Suche und das Wiederfinden der Daten. Eine ausführliche Beschreibung des Metadatenmanagements erfolgt unter Punkt 2.1.2.1. [BARC]

Die Datenqualität ist ebenfalls ein wichtiger Aspekt, insbesondere hinsichtlich der in der Regel qualitativ schlechten Daten, die operative Systeme liefern. Qualitätsmängel sind z. B. fehlende, redundante, falsch verknüpfte oder definierte sowie inhaltlich falsche Daten. Diese Mängel treten wegen der höheren Anforderungen meist erst in Business-Intelligence-Systemen zu Tage. Deshalb ist eine Überprüfung der Daten in den Vorsystemen (Data Profiling) und während der Datenintegrationsprozesse besonders wichtig. [BARC]

2.1.1 Datenintegration

Die Datenintegration beinhaltet die Überführung von Daten aus Vorsystemen in die Systeme zur Datenspeicherung, z. B. ein Data Warehouse, des Business-Intelligence-Systems. Dieser wichtige Prozesschritt ist sehr aufwändig, da Datenquellen und –strukturen im Allgemeinen in heterogener Form vorliegen. Damit sind viele unterschiedliche Dateiformate und andere Inkonsistenzen gemeint. Vor der Überführung in ein Data Warehouse müssen die Daten zuerst in einen homogenen und konsistenten Zustand überführt werden. Die Datenintegration gliedert sich in drei Schritte: die Extraktion der Daten aus den Vorsystemen, ihrer Transformation sowie das Laden der Daten in ein Data Warehouse. Analog dazu werden die Werkzeuge, die diese Schritte ausführen, ETL-Tools genannt. [BARC]

2.1.1.1 ETL

ETL bedeutet: Extraktion, Transformation und Laden. So genannte OLTP-Systeme (On-Line Transaction Processing) bzw. operationale DV-Systeme dienen neben externen Quellen als Datenbasis für das Data Warehouse (DW). Mit Hilfe von ETL-Tools werden diese Daten extrahiert und in das Data Warehouse bzw. in Operational Data Stores (ODS) geladen. Um ein oder mehrere Data Marts (vgl. Punkt 2.1.2) mit Daten zu füllen, wird anschließend ebenfalls ein ETL-Tool benutzt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Funktionsbereiche eines ETL-Tools

Abbildung 1 zeigt die Funktionsbereiche eines ETL-Tools, wobei der Block in der Mitte den eigentlichen ETL-Prozess beinhaltet.

Im Rahmen der Datenselektion und –extraktion werden die Daten aus den Quellsystemen auf die Zielplattform übertragen. Dies kann zunächst eine Data Staging Area – ein Realzeit Data Mart -, ein Data Mart oder das Data Warehouse sein. Dabei unterstützt das ETL-Tool die unterschiedlichen Quellstrukturen, Plattformen und Datenbanksysteme der Unternehmen. [Systor] Die Quelldaten werden in ein einheitliches, für das Data Warehouse verständliches Format gebracht.

Die Datenqualität spielt dabei eine sehr wichtige Rolle, denn die unzureichende Qualität der Quelldaten ist eine der Hauptursachen für Misserfolge bei der Umsetzung von Data Warehouse-Projekten. „Datenmüll, sowie unsaubere und inkonsistente Daten ergeben falsche Informationen, diese wiederum führen zu Fehlentscheidungen aufgrund nicht verifizierter und in sich unstimmiger Daten. Die Datenqualität ist folglich auch ein entscheidender Faktor dafür, ob sich ein Unternehmen am Markt behaupten kann. Nach Schätzungen des US-amerikanischen Data Warehousing Institute liegt der durch mangelhafte Datenqualität verursachte jährliche Schaden allein in den USA bei über 600 Milliarden Euro.“ [IT-Fokus, S. 17] Das Data Warehousing Institute hat sieben Attribute identifiziert, die „die Qualität von Daten charakterisieren:

1.Genauigkeit:Repräsentieren die Daten exakt die Realität oder eine verifizierbare Quelle?
2.Integrität:Ist die Struktur der Daten und die Beziehungen zwischen ihren Inhalten und Attributen konsistent?
3.Konsistenz:Stimmen die Definitionen der Datenelemente überein und liegt ein einheitliches Verständnis zugrunde?
4.Vollständigkeit:Sind alle notwendigen Daten verfügbar?
5.Validität:Liegen die Datenwerte innerhalb eines akzeptablen Wertebereichs, der vom Unternehmen definiert wird?
6.Zeitgenauigkeit:Liegen die Daten genau dann vor, wenn sie gebraucht werden?
7.Zugriffsmöglichkeit:Kann auf die Daten einfach zugegriffen werden? Sind sie verständlich und nutzbar?“ [IT-Fokus, S. 17]

Um die Datenqualität zu gewährleisten, integrieren spezielle Lösungen, wie die SAS Data Quality Solution eine Datenqualitätskomponente in den ETL-Prozess. [IT-Fokus S. 17]

„Im Rahmen des Datentransformationsprozesses werden die Quelldaten in das Zieldatenmodell überführt. Neben einer einfachen Zuordnung von Datenelementen der Quellsysteme in das entsprechende Feld des Zielmodells werden auch Berechnungen oder Aggregationen durchgeführt. Des Weiteren können Filter appliziert werden, damit nur Daten mit bestimmten Werten weiterverarbeitet werden.“ Dabei werden in einem Data Warehouse in der Regel nicht die Schlüsselfelder der Quellsysteme verwendet, sondern künstliche Schlüssel – Surrogate Keys – gebildet. Diese können Zeitstempel oder einfach eine fortlaufende Zahl sein. Damit soll vermieden werden, dass Daten zusammengeführt werden, die logisch nicht zusammengehören. Die Schlüsselgenerierung wird genau so wie eine Historisierung der Daten von ETL-Tools unterstützt. [Systor]

[...]

Details

Seiten
32
Jahr
2004
ISBN (eBook)
9783638365345
ISBN (Buch)
9783638724067
Dateigröße
897 KB
Sprache
Deutsch
Katalognummer
v37086
Institution / Hochschule
Martin-Luther-Universität Halle-Wittenberg – Institut für Wirtschaftsinformatik und Operations Research
Note
1.3
Schlagworte
Werkzeuge Realisierung Business Intelligence

Autor

Teilen

Zurück

Titel: Werkzeuge zur Realisierung des Business Intelligence