Lade Inhalt...

Methoden und betriebswirtschaftliche Anwendungsbereiche der Prognoserechnung

Lizentiatsarbeit 2004 87 Seiten

BWL - Unternehmensführung, Management, Organisation

Leseprobe

Inhaltsverzeichnis

Vorwort

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1. Einleitung
1.1 Problemstellung und Begriffsdefinition
1.2 Forschungsziel der Studie
1.3 Methodisches Vorgehen
1.3.1 Literaturanalyse
1.3.2 Umsetzung
1.4 Aufbau der Arbeit

2. Prognoseverfahren
2.1 Ablauf des Prognoseprozesses
2.2 Arten von Prognoseverfahren
2.3 Qualitative Prognoseverfahren
2.3.1 Szenario-Technik
2.3.2 Delphi-Methode
2.4 Quantitative Prognoseverfahren
2.4.1 Zeitreihenverfahren
2.4.1.1 Verfahren des geleitenden Durchschnitts
2.4.1.2 Verfahren der exponentiellen Glättung
2.4.1.3 Box-Jenkins-Verfahren
2.4.1.4 Trendextrapolation
2.4.2 Kausalverfahren
2.4.2.1 Multiple Regressionsanalyse
2.4.2.2 Leitindikatormethode
2.4.3 Neuronale Netze

3. Betriebswirtschaftliche Anwendungsbereiche der Prognoserechnung
3.1 Systematisierungsversuche der Prognosemethoden
3.1.1 Systematisierung aufgrund quantitativer und qualitativer sowie normativer und explorativer Ausrichtung
3.1.2 Systematisierung aufgrund explorativer, projektiver, rekursiver und intuitiver Ausrichtung
3.1.3 Systematisierung nach konjekturalen, strukturmodellgestützten und zeitreihengestützten Verfahren
3.1.4 Implikation
3.2 Charakterisierungsversuche der Prognosemethoden durch Attribute
3.2.1 Charakterisierung nach Gestaltungsaspekten
3.2.2 Charakterisierung nach Anwendungsmerkmalen
3.2.3 Implikation
3.3 Betriebswirtschaftliche Anwendungsbereiche
3.3.1 Prognosen der strategischen Unternehmensplanung
3.3.2 Prognosen im Bereich Marketing
3.3.3 Prognosen im Bereich Finanzierung
3.3.4 Prognosen im Bereich Produktion und Logistik
3.4 Stand des Einsatzes der Prognoserechnung in der Praxis
3.4.1 Betrachtung von zwei empirischen Erhebungen im deutschsprachigen Raum
3.4.2 Erkenntnisse aus den beiden betrachteten Erhebungen

4. Schlussbetrachtung
4.1 Zentrale Ergebnisse
4.2 Weiterleitende Forschungsfragen
4.3 Schlusswort

Literaturverzeichnis

Vorwort

Ganz herzlich möchte ich mich bei all denen bedanken, die das Entstehen dieser Arbeit unterstützt und gefördert haben

Dabei gilt mein besonderer Dank Herrn Prof. Dr. Udo Bankhofer für sein Interesse am Thema sowie für seine Unterstützung, Hinweise und Ermutigungen

Ein ganz besonderer Dank gebührt meiner Freundin Manuela Schären und meinem Vater Lothar Gafner für ihren grossen Einsatz und die wertvollen und geistreichen Anmerkungen

Ich danke auch meinen Vorgesetzten und all meinen Kunden, die mir während der Entstehung dieser Arbeit mit sehr viel Geduld und Verständnis begegnet sind

Bern, 13. Mai 2004 Martin Gafner

Abbildungs- / Tabellenverzeichnis

Abbildung 1: Ablaufschema des Prognoseprozesses

Abbildung 2: Überblick der Prognoseverfahren

Abbildung 3: Der Trichter zur Charakterisierung von Szenarien

Abbildung 4: Die acht Schritte der Szenario-Technik

Abbildung 5: Mögliche Zukunftsbilder

Abbildung 6: Das univariate stochastische Modell

Abbildung 7: Informationsverarbeitung in künstlichen Neuronen bzw. Units

Abbildung 8: Struktur eines fünfschichtigen Feed Forward Netzes

Abbildung 9: Vor- und Nachteile einer Befragung

Abbildung 10: Grundkonzeption eines AP-Softwaresystems

Tabelle 1: Konstantes Modell der exponentiellen Glättung

Tabelle 2: Reaktion von AR(p)-Modellen auf einen Impuls

Tabelle 3: Trendextrapolation mit linearer Funktion

Tabelle 4: Jahresumsatz, Verkaufsfläche und tägliche Passantenfrequenz

Tabelle 5: Ergebnisse einer multiplen Regression

Tabelle 6: Systematisierung von Prognosemethoden aufgrund quantitativer und qualitativer sowie normativer und explorativer Ausrichtung

Tabelle 7: Systematisierung von Prognosemethoden aufgrund explorativer, projektiver, rekursiver und intuitiver Ausrichtung

Tabelle 8: Systematisierung von Prognosemethoden nach Weber

Tabelle 9: Einsatzmöglichkeiten der Prognosemethoden

Tabelle 10: Zuordnung von Prognoseverfahren zu methodischen Kategorien

Tabelle 11: Anwendungsgesichtspunkte der Prognosemethoden

Tabelle 12: Anwendungsbeispiele der Indikatorprognose

Tabelle 13: Prognosepraxis im (nord)deutschen Raum

Tabelle 14: Prognosepraxis in der Bundesrepublik Deutschland und in der Schweiz

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

1.1 Problemstellung und Begriffsdefinition

In der zu erstellenden Studie geht es um die Verfahren der Prognoserechnung. Schwerpunktmässig wird einerseits ein grundlegender Überblick über die verschiedenen Verfahren der Prognoserechung aufgezeigt, andererseits werden die wesentlichen betriebswirtschaftlichen Anwendungsbereiche erläutert.

Prognosen sind Ausdruck einer rationalen Beschäftigung mit der Zukunft. „Nicht zuletzt ist es die verstärkte Notwendigkeit einer strategischen Unternehmensführung bzw. eines strategi- schen Marketing, die Prognosen immer unverzichtbarer werden lässt.“ (Raffée 1989: 143). Die Bedeutung möglichst zuverlässiger Prognosen wächst ständig. „Die Gründe hierfür liegen nicht nur in der zunehmenden Komplexität des wirtschaftlichen Geschehens, sondern insbe- sondere auch darin, daßdie Zeit immerwährenden Wachstums offenbar vorbei ist.“ (Hüttner 1986 :1).

Der Begriff der Prognose umfasst in weiter Sichtweise allgemeine Aussagen über die Zukunft (vgl. Weber 1990: 1), wobei diese sehr allgemeine Definition ein für die weitere Problemana- lyse nicht hinreichend scharf umrissenes Werkzeug darstellt. Den folgenden Ausführungen soll daher die nachstehende Definition zugrunde gelegt werden: „Eine Prognose ist eine Aus- sage über ein oder mehrere zukünftige Ereignisse, die auf Beobachtungen und auf einer Theo- rie beruht.“ (Hansmann 1993: Sp. 3546). Die erste Bedingung stellt sicher, „daßjede Progno- se auf der Analyse der Vergangenheit basiert, d. h. empirisch fundiert sein muss und kein blosses „Tippen“ sein darf. Die zweite Bedingung erfordert eine sachlogische Begründung der Prognose und die Angabe von Prämissen, unter denen sie abgegeben wird.“ (Hansmann 1983: 11). Die zugrunde liegende Theorie muss nicht unbedingt umfangreich oder detailliert ausge- arbeitet sein. Sie dient jedoch als Abgrenzungskriterium der wissenschaftlichen Prognose von der irrationalen Prophetie (vgl. Hansmann 1993: Sp. 3546; Brockhoff 1977: 17).

Prognosen liefern Angaben über voraussichtliche Wirkungen und Entwicklungen. „Entspre- chen die Ergebnisse der Prognose nicht den gesetzten Zielen bzw. einer für wünschenswert gehaltenen Entwicklung, so bedarf es weiterer Entscheidungen.“ (Hüttner 1986: 1). Progno- sen liefern also, in dieser hier vertretenen Sicht des Zusammenhangs zwischen Prognose, Pla- nung und Entscheidung nur die Informationen für das Treffen von Entscheidungen. Demnach ist „ein Prognosemodell [..] ein System, das die beobachteten Werte der zu prognostizieren- den Variablen und evtl. anderer Variablen als Elemente enthält und nach bestimmten Regeln miteinander verknüpft, um als Ergebnis der Verknüpfung Prognosewerte zu erhalten.“ (Hansmann 1983: 12).

1.2 Forschungsziel der Studie

Im Rahmen dieser Lizentiatsarbeit soll zunächst ein grundlegender Überblick über die ver- schiedenen Verfahren der Prognoserechnung gegeben werden. Dabei sollen insbesondere die Szenario-Technik, die Methoden der Zeitreihenanalyse und der Regressionsanalyse sowie der Ansatz der Neuronalen Netze ausführlicher vorgestellt und anhand von Beispielen illustriert werden. Abschliessend sollen die wesentlichen betriebswirtschaftlichen Anwendungsbereiche der Prognoserechnung systematisiert werden. Neben einer Darstellung der einzelnen Anwen- dungsbereiche soll eine kritische Diskussion hinsichtlich des jeweils geeigneten Methoden- einsatzes erfolgen.

1.3 Methodisches Vorgehen

Die erstellte Arbeit besteht aus zwei Hauptteilen. Der erste Hauptteil umfasst die Literaturana- lyse, während sich der zweite Hauptteil mit der Implikation, der in der Literaturanalyse eruier- ten Erkenntnisse, auf die betriebswirtschaftlichen Anwendungsbereiche der Prognoserech- nung beschäftigt.

1.3.1 Literaturanalyse

Im ersten Hauptteil werden mit einer sachlich-analytischen Forschungsstrategie (vgl. Grochla 1978: 72 ff.) die theoretischen Grundlagen der Thematik aufgezeigt. Ziel des ersten Teils ist es, einen Überblick über die Thematik der Prognoserechung zu schaffen. Dieser soll Elemente und deren Zusammenhänge aufzeigen und den Forschungsgegenstand konkretisieren.

1.3.2 Umsetzung

Im zweiten Hauptteil der Arbeit wird anhand des geschaffenen Überblicks aus der Literaturanalyse versucht, die Methodenvielfalt zu systematisieren und zu charakterisieren. Danach wird auf wesentliche betriebswirtschaftliche Anwendungsbereiche eingegangen.

Eine Zusammenfassung der wichtigsten Ergebnisse wird in Form einer Schlussfolgerung die Studie abrunden.

1.4 Aufbau der Arbeit

Im ersten Kapitel wird der Leser in die Problemstellung und die Vorgehensweise der Studie eingeführt.

Im zweiten Kapitel erfolgt zunächst eine Beschreibung des allgemeinen Ablaufs von Prognoseprozessen. Anschliessend wird dem Leser ein umfassender Überblick über die Vielfalt der in der Literatur vorhanden Prognosemethoden gegeben, bevor ausgewählte Prognoseverfahren näher vorgestellt werden.

Das dritte Kapitel widmet sich den Systematisierungs- und Charakterisierungsversuchen. Neben einem Einblick in die Prognosepraxis wendet es sich den Anwendungsbereichen der Prognoserechnung zu.

Das vierte Kapitel fasst abschliessend die wichtigsten Ergebnisse der Arbeit zusammen und formuliert weiterleitende Forschungsfragen.

2. Prognoseverfahren

2.1 Ablauf des Prognoseprozesses

Unabhängig vom gewählten Prognoseverfahren ist die Prognoseerstellung kein einzelner Arbeitsschritt, sondern eine Tätigkeit, die sich aus vielen Teilaktivitäten und einzelnenVorgehensschritten zusammensetzt. Das Ablaufschema in Abbildung 1 gibt, in Anlehnung an Weber (1990: 8), Brockhoff (1977: 49) und Lewandowski (1980: 23 ff.) einen pragmatischen Überblick über die einzelnen Handlungsschritte, welche bei der Durchführung eines Prognoseverfahrens immer zu vollziehen sind:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Ablaufschema des Prognoseprozesses (vgl. Weber 1990: 8)

In der Vorbereitungsphase werden zunächst das Prognoseproblem möglichst genau identifi- ziert, die zu prognostizierenden Variablen definiert und der Prognosehorizont, d. h. den Zeit- raum, für welchen die Prognose abgegeben werden soll, bestimmt. Ziel ist es, „[…] durch sukzessive Annäherungen zu einem Verständnis der essentiellen Mechanismen des zu analy- sierenden Prozesses zugelangen.“ (Lewandowski 1980: 24). Den gesetzten Aufgaben ent- sprechend hat eine Ressourcenallokation zu erfolgen. Bezüglich der Personalmittel ist zu be- achten, dass Prognosen zwar grundsätzlich von Einzelpersonen erarbeitet werden können, vorzugsweise aber interdisziplinär aufgebaute Teams mit Prognoseaufgaben betraut werden sollten (vgl. Weber 1990: 7). Die Praxis hat gezeigt, dass bei interdisziplinär aufgebauten Teams mit qualitativ besseren Prognoseergebnissen gerechnet werden kann. Neben benötig- tem Personal sind auch die erforderlichen Sach- und Finanzmittel aufgabenspezifisch bereit- zustellen. Dabei ist mitzuberücksichtigen, dass die zur Prognoseerstellung benötigten EDV- Programme selektioniert und evaluiert, möglicherweise aber auch neu entwickelt werden müssen (vgl. Weber 1990: 8). Nun folgt die Formulierung eines Erklärungsmodells des Prog- nosegegenstandes. Darin werden die exogenen und die verzögert endogenen Variablen, die Art der Beziehung zwischen ihnen und die Stärke dieser Beziehung bestimmt (vgl. Brockhoff 1991: 560). In einem nächsten Schritt wird die Zeitstabilitätshypothese untersucht. „Dabei ist die Frage zu beantworten, ob sich das Erklärungsmodell als Prognosemodell eignet und die beobachtbaren Gesetzmässigkeiten der Vergangenheit in Zukunft ebenso gelten werden.“ (Hansmann 1993: Sp. 3547). „Diese Prämisse wird Zeitstabilitätshypothese [im Original in Grossbuchstaben] genannt. Streng genommen ist sie in derökonomischen Realität nie voll- ständig erfüllt, was eigentlich jede Prognose verbietet. Da aberökonomische Prognosen als Grundlage für unternehmenspolitische und wirtschaftliche Entscheidungen notwendig sind, hilft nur der pragmatische Standpunkt weiter, Prognosen dann zu erstellen, wenn man Grund zu der Annahme hat, die Zeitstabilitätshypothese sei im wesentlichen [im Original kursiv] erfüllt.“ (Hansmann 1983: 11 f.). „Stehen mehrere zur Prognose geeignete Methoden zur Verfügung, so ist unter ihnen eine problemadäquate Wahl (Selektion) zu treffen.“ (Weber 1990: 9). Für die Bewertung von Prognoseverfahren sind Kriterien wie Genauigkeit, Daten- bedarf, Komplexität, Kosten, Zeitbedarf, u. a. von Bedeutung (vgl. Hüttner 1986: 279 f.).

„Die sich an die Vorbereitungsphase anschliessende Ausführungsphase stellt den Kernbe- reich der Prognostik dar.“ (Weber 1990: 9). Die eigentliche Prognosephase wird mit der Be- schaffung und Untersuchung der für die Prognose notwendigen Daten begonnen. „Üblicher- weise differenziert man zwischen Primär - und Sekundär material.“ (Hüttner 1986: 304). Während die Daten im Rahmen einer Primärforschung eigens erhoben werden, wird in der Sekundärforschung auf bereits vorliegendes Datenmaterial zurückgegriffen. Da Datenerhe- bungen zeit- und kostenintensiv sind, ist eine auf Sekundärmaterial basierende Erhebung meist erheblich billiger (vgl. Hüttner 1986: 304). Qualität und Leistungsfähigkeit von Prog- nosen hängen wesentlich vom Umfang und der Qualität der zur Verfügung stehenden Infor- mationen ab. Daher ist auf die Datengewinnung und -aufbereitung ein besonderes Augen- merk zu richten (vgl. Raffée 1989: 146). Nach der Durchführung von Tests zur Überprüfung des Erklärungsmodells sowie des ausgewählten Prognoseverfahrens werden auf dessen Grundlage Prognosen erstellt. „Wenn die verschiedenen Entwicklungen einmal prognostiziert sind, dann müssen alle Entwicklungsalternativen so verarbeitet werden, daßsie sich auf eine geringe Zahl von grundlegenden konsistenten Szenarien beschränken.“ (Lewandowski 1980: 29). Neben der eigentlichen Prognoseerstellung ist insbesondere auf eine adäquate, d. h. eine dem Fachwissen der Berichtsempfänger entsprechende Resultatdarstellung zu achten. Schliesslich sind die so aufbereiteten Prognoseergebnisse den Endnutzern verfügbar zu ma- chen (vgl. Weber 1990: 9 f.).

In der abschliessenden Kontrollphase wird der Prognoseprozess kritisch auf Schwachstellen hin überprüft. Zusätzlich werden die Prognoseergebnisse auf Abweichungen bezüglich der Realität untersucht. „Derartige Evaluationen sind insbesondere auch prospektiv vorzuneh- men. Sie sollen dazu führen, daßseitens der Prognostiker jene Methoden eingesetzt werden, welche situationsbezogen die Erreichung insgesamt zufriedenstellender Prognoseergebnisse erwarten lassen [...].“ (Weber 1990: 11). „Die Kontrolle von Prognosen ist [also] von vorran- giger Bedeutung, da sie die Basis jeder Verbesserung bzw. Validierung des Prognosemodells darstellt.“ (Lewandowski 1980: 30).

2.2 Arten von Prognoseverfahren

In der Literatur finden sich zahlreiche Klassifizierungsmöglichkeiten für die systematische Untergliederung der verschiedenen Prognoseverfahren. Solche „[...] Klasseneinteilungen sind oft dichotomisch [...].“ (Emde 1989: Sp. 1646). Um dem Leser eine Vorstellung über die Vielfalt der Klassifizierungsmöglichkeiten zu vermitteln, sind nachfolgend aus Sicht des Ver- fassers deren wichtigsten Unterscheidungsmerkmale kurz aufgelistet: qualitativ bzw. quanti- tativ, univariat bzw. multivariat, kurzfristig bzw. langfristig, einfach bzw. komplex, linear bzw. nichtlinear (vgl. Hansmann 1983: 12 f.). Solche groben Klassifizierungen sind in der Regel aber nicht ausreichend, um für bestimmte Prognosesituationen die richtige Prognose- technik auszuwählen. Daher muss die Klassifizierung von Prognosetechniken differenzierter vorgenommen werden (vgl. Emde 1989: Sp. 1646).

Ausgehend von einer Grobeinteilung in qualitative und quantitative Prognoseverfahren soll dem Leser ein umfassender Überblick über die Vielfalt von Prognosemethoden gegeben werden. Abbildung 2 zeigt in Anlehnung an Winand (1990: Sp. 959 f.) und ohne Anspruch auf Vollständigkeit eine Darstellung der bekanntesten Methoden:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Überblick der Prognoseverfahren (vgl. Winand 1990: Sp. 959 f.)

Im Rahmen der vorliegenden Arbeit ist es nicht möglich auf alle Techniken, Methoden, Ver- fahren und dergleichen einzugehen. Es wird deshalb an dieser Stelle eine Auswahl von Ver- fahren getroffen, welche für die vorliegende Thematik als relevant betrachtet werden oder in der Literatur häufig referenziert sind. Diese sind in vorstehender Abbildung 2 fett markiert.

In Kapitel 2.3 wird zuerst die Gruppe der qualitativen Prognoseverfahren näher vorgestellt, bevor in Kapitel 2.3.1 die Szenario-Technik ausführlich behandelt wird. Anschliessend wird in Kapitel 2.3.2 die Delphi-Methode kurz diskutiert. Kapitel 2.4 widmet sich den quantitativen Prognoseverfahren und charakterisiert umrissartig Zeitreihen- und Kausalverfahren, sowie die Neuronalen Netze. In Kapitel 2.4.1 werden dann die Zeitreihenverfahren und deren Methoden, welche in Abbildung 2 mit fetter Schrift gekennzeichneten sind, detailliert beschrieben. Teilweise sind die einzelnen Methoden zum besseren Verständnis mit Beispielen ergänzt. In analoger Weise befasst sich Kapitel 2.4.2 mit der Gruppe der Kausalverfahren. Mit einer Beschreibung der Neuronalen Netze in Kapitel 2.4.3 wird die Vorstellung der quantitativen Prognoseverfahren abgeschlossen.

2.3 Qualitative Prognoseverfahren

„Unter qualitativen Prognosetechniken werden [..] Techniken verstanden, die überwiegend auf menschlicher Urteilsfähigkeit beruhen, auch wenn die Prozesse, die zu Prognoseergebnis- sen führen, recht formal und/oder mit mathematischen Hilfsmitteln oder sogar mit Compu- terunterstützung ablaufen.“ (Emde 1989: Sp. 1646). Einschätzungen über zukünftige Ent- wicklungen werden aus den Erfahrungen und Kenntnissen von Experten abgeleitet (vgl. Homburg 2000: 103 f.). Die der Prognose zugrunde liegende Theorie ist also nur schwach ausgebildet und die statistisch-mathematischen Instrumente treten in ihrer Bedeutung für die Prognose zurück (vgl. Hansmann 1983: 18). Qualitative Prognosetechniken basieren in wei- testgehendem Masse auf subjektiven Erfahrungen und werden daher u. a. auch als subjektive, intuitive, intuitiv-kreative oder heuristische Prognosemethoden bezeichnet (vgl. Hansmann 1983: 18; Hüttner 1986: 4; Weber 1990: 4).

Die qualitativen Prognoseverfahren lassen sich nach dem Grad der Formalisierung in struktu- rierte und unstrukturierte Prognoseverfahren unterteilen. Als unstrukturierte Prognoseverfah- ren werden Expertenbefragungen von Einzelpersonen oder Personengruppen bezeichnet. Da- bei gilt: „The expert [does] not being obligated to restrict himself to a particular method ba- sed concept for the generation of his forecast.“ (Winand 1990: Sp. 961). Fasst man den Beg- riff des Experten etwas weiter, so können auch Verbraucher als Experten angesehen werden. In diesem Zusammenhang ist z. B. an die Befragung von Autobesitzern zu denken, welche die Zukunftschancen eines mit Elektromotor betriebenen Kraftfahrzeuges beurteilen (vgl. Hüttner 1982: 27). Insofern sind auch Verbraucherbefragungen zu den unstrukturierten quali- tativen Prognoseverfahren zu zählen.

Die strukturierten Prognoseverfahren basieren dagegen auf (einfachen) Grundregeln. Zu die- sen Verfahren zählen neben Brainstorming und Synektik die Standardverfahren Szenario- Technik und Delphi-Methode. Etwas umfassender und systematischer sind die Verfahren des Morphologischen Kastens und der Cross-Impact-Analyse. Weber (1990: 140) macht darauf aufmerksam, dass Brainstorming, Synektik und Morphologischer Kasten von den eigentli- chen Prognoseverfahren abzugrenzen sind. Sie sind geeignet, um zu intuitivem Denken und Spontaneität bei der Problembearbeitung anzuregen und haben daher nur als Prognoseunter- stützungsverfahren zu gelten.

Nachfolgend wird die Szenario-Technik, welche neben der Delphi-Methode zu den bekanntesten strukturierten qualitativen Prognosemethoden zählt, betrachtet. Die Szenario-Technik versucht, im Gegensatz zu den anderen qualitativen und quantitativen Prognoseverfahren, nicht nur eine einzige Zukunftsentwicklung, sondern eben mehrere mögliche Szenarien aufzuzeigen (vgl. Homburg 2000: 110).

2.3.1 Szenario-Technik

In der deutschen Literatur dominiert die folgende Begriffsfestlegung der Mitarbeiter des Battelle-Instituts: „Unter einem Szenario versteht man sowohl die Beschreibung einer möglichen zukünftigen Situation als auch das Aufzeigen des Entwicklungsverlaufs, der zu dieser zukünftigen Situation hinführt“ (Geschka/von Reibnitz 1983: 128). „Szenarien [..] sind [also] systematisch und nachvollziehbar aus der gegenwärtigen Situation heraus entwickelte, mögliche Zukunftsbilder.“ (Geschka 1999: 521).

Die Entwicklung der nahen Zukunft ist, abgesehen von unvorhersehbaren Ereignissen, in starkem Masse durch die gegenwärtigen Gegebenheiten (politisches System, Infrastruktureinrichtungen, Normen, Gesetze, Strukturen, Vernetzungen, Verhaltensmuster, etc.) bestimmt. Mit zunehmender Reichweite der Zukunftsbetrachtung, sinkt jedoch der Einfluss der Gegenwart und der Bereich möglicher Entwicklungenöffnet sich gleichsam wie ein Trichter (vgl. Götze/Rudolph 1994: 21 f.; Geschka 1999: 521 f.). Mit zunehmendem Prognosehorizont nehmen daher Unsicherheit und die Möglichkeit verschiedenartiger Entwicklungen zu (vgl. von Reibnitz 1989: Sp. 1984). Abbildung 3 veranschaulicht „[...] den Weg in die Zukunft in Form eines Trichters [..].“ (von Reibnitz 1989: Sp. 1984):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Der Trichter zur Charakterisierung von Szenarien (vgl. Geschka/von Reibnitz 1983: 129; Göt- ze/Rudolph 1994: 21)

Auf der Schnittfläche des Trichters befinden sich die verschiedenen Zukunftsbilder. Die Randpunkte der Schnittfläche widerspiegeln Extremszenarien. Eine mittlere trendmässige Entwicklung umfasst aufgrund der vorhanden Einflussfaktoren und ihrer Entwicklung bei- spielsweise das Trendszenario A, eine andere Entwicklung das Trendszenario B. Wirkt ein Störereignis auf den Entwicklungspfad von Szenario B ein, lenkt dieses aufgrund seiner Auswirkungen die Entwicklung auf eine andere Bahn. Wie in Abbildung 3 illustriert, entsteht so ein völlig neues Zukunftsbild xD. Werden geeignete Gegensteuerungsmassnahmen einge- leitet, kann die in eine andere Richtung abgelenkte Entwicklungslinie zwar noch abgefangen werden, aufgrund des Störeinflusses entsteht aber ein vom ursprünglichen Szenario abwei- chendes Zukunftsbild xC (vgl. Geschka/von Reibnitz 1983: 129; Götze/Rudolph 1994: 22). „Der Trichter verdeutlicht, daßman nicht von einer einzigen Zukunftsentwicklung ausgehen kann, sondern [dass] aufgrund der Variationsbreite der Einflussfaktoren viele unterschiedli- che Zukunftsbilder denkbar sind. Durch das Erarbeiten alternativer Zukunftsbilder soll die Spannweite der „möglichen Zukünfte“ aufgezeigt werden.“ (Geschka 1999: 522). Zukunfts- bilder, oder eben Szenarien, sind jedoch immer nur Abbilder dessen, was sein könnte. „Sie sind weder Wunsch noch Realität, sondern nur Möglichkeiten, ohne jede Bewertung hinsicht- lich der Wahrscheinlichkeit des Eintretens.“ (von Ilsemann 1980: 119).

In der Praxis haben sich zwei typische Verhaltensweisen in der Anwendung der Szenario- Technik herauskristallisiert. „Entweder man […] bleibt bei den bisherigen vertrauten Extra- polationen, die trotz bekannten Unzulänglichkeiten eine Pseudosicherheit bieten, oder aber man stellt sich ganz bewusst den Unsicherheiten der Zukunft und erarbeitet für alle Entwicklungen, die aus heutiger Sicht unsicher sind, verschiedene alternative Wege.“ (von Reibnitz 1991: 27). Aus Effizienz- und Kostengründen ist die Analyse aller möglichen Szenarien nicht durchführbar. Zudem würde diese Informationsfülle die Denk- und Entscheidungskapazität von uns Menschen überfordern (vgl. Geschka/von Reibnitz 1983: 130). Es würde jedoch der Grundidee der Szenario-Technik zuwiderlaufen, zunächst mehrere Szenarien zu entwickeln, um sich anschliessend, aus oben aufgeführten Gründen, auf ein oder zwei wahrscheinliche Szenarien zu beschränken. Daher muss die Möglichkeit bestehen, jeden Plan und jede Strategie gegen alle Szenarien zu testen, um so deren Stärken und Schwächen festzustellen. Die Entwicklung und Auswahl der relevanten Szenarien sind für eine erfolgreiche Planung also eine wesentliche Voraussetzung (vgl. von Ilsemann 1980: 119).

Die Firma Shell, welche Pionier der Szenario-Anwendung ist, hat schon in den frühen 70er Jahren gezeigt, dass es für die Unternehmensplanung völlig ausreicht, sich auf zwei Szena- rien zu konzentrieren. Jedoch müssen diese in sich stimmig, konsistent und widerspruchsfrei sein, eine grösstmögliche Stabilität aufweisen und sich voneinander möglichst stark unter- scheiden (vgl. von Reibnitz 1991: 28). Einige Unternehmen arbeiten dagegen mit drei Szena- rien. Dabei existieren zwei Alternativszenarien und ein Trendszenario, wobei das Trendsze- nario eine Fortschreibung der heutigen Situation in die Zukunft darstellt (vgl. von Reibnitz 1991: 28). In der Planungspraxis hat sich herausgestellt, dass mit Vorteil zwei konträre Sze- narien bearbeitet werden. Auf diese Weise werden die Entscheidungsträger zum Denken in Alternativen gezwungen und können nicht den Weg des geringsten Widerstandes beschreiten, indem sie auf das mittlere bzw. trendmässige Szenario ausweichen (vgl. Geschka 1999: 522). So wird zum Mindesten der Gefahr entgegengewirkt, dass Entscheidungsgrundlagen entste- hen, die auf einem Szenario basieren, dessen Rahmenbedingungen eventuell veränderten Umfeldbedingungen nicht entsprechen.

Vorgehen

Um durch den Trichter hindurch in die Zukunft und wieder zur Gegenwart zurückzukommen, hat sich ein Vorgehen in acht Schritten bewährt. Abbildung 4 zeigt in Anlehnung an Geschka (1999: 524 ff.) und von Reibnitz (1991: 30 ff.) ein Ablaufschema mit diesen acht Stufen des Szenario-Prozesses, welche im Folgenden kurz beschrieben werden:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Die acht Schritte der Szenario-Technik (vgl. von Reibnitz 1991: 30 ff.; Geschka 1999: 524)

Ziel der Aufgabenanalyse ist es, die Struktur, die vorhandenen Ziele und Strategien sowie die Stärken und Schwächen eines Untersuchungsthemas zu analysieren. In der Folge geht es dar- um, die externen Einflussbereiche und die in ihnen wirkenden Einflussfaktoren zu erfassen und deren Vernetzungen und Systemverhalten zu erkennen. Im dritten Schritt werden Zu- kunftsentwicklungen der im vorhergehenden Schritt eruierten Einflussfaktoren vorgedacht. Überall dort, wo aus heutiger Sicht Unsicherheit über die Zukunft besteht, müssen Alternati- ven erarbeitet werden. Mit der Alternativenbündelung sollen die verschiedenen Alternativen- entwicklungen, die in Schritt 3 identifiziert wurden, entsprechend ihrer Konsistenz zu logi- schen und plausiblen zukünftigen Szenario-Strukturen zusammengefügt werden. Anschlies- send sollen die unterschiedlichen Szenarien, ihre Dynamik und ihre Veränderung in der Zu- kunft so beschrieben werden, dass jeder der Beteiligten sich diese vorstellen und damit arbei- ten kann. In der Konsequenzanalyse werden die zukünftigen Chancen und Risiken der (bei- den) Szenarien analysiert. Darauf aufbauend werden geeignete Strategien entwickelt, um Chancen so früh und so gut wie möglich zu nutzen und Risiken soweit wie möglich zu mini- mieren, zu vermeiden oder in Chancen umzuwandeln. Im vorletzten Schritt werden mögliche Störeinflüsse gesammelt, ihre Auswirkungen analysiert und geeignete Präventiv- und Reaktivmassnahmen entwickelt. Im letzten Schritt wird auf der Basis der in der Störereignisanalyse erarbeiteten Aktivitäten zu Chancen und Risiken eine Leitstrategie formuliert. Zudem sind Alternativstrategien festzulegen und ein Umweltbeobachtungssystem zu etablieren (vgl. von Reibnitz 1996: 748; von Reibnitz 1989: Sp. 1985 ff.).

Anwendung

Wie bereits erwähnt, gilt die Firma Shell als Pionier der Szenario-Entwicklung. Auf dieser Tatsache beruhend hat sich der Verfasser entschieden, den Einsatz der Szenario-Technik an- hand der Deutschen Shell AG zu illustrieren. Der Shell-Vorstandsvorsitzende, Dr. Wilhelm von Ilsemann, schilderte 1980 in einem Beitrag für die Zeitschrift Manager Magazin, wie sein Unternehmen Entscheidungen in einer extrem schwierigen Branche absichert (vgl. von Ilsemann 1980: 115 ff.):

Dieölversorgung stand in den 70er Jahren wiederholt am Rande einer Krise. So entstand ei- nerseits innerhalb kurzer Zeit aus einer Überschusssituation eine Mangellage. Andererseits waren die Rohölpreise explodiert und dieölversorgung war zunehmend ein politisches The- ma geworden. „Angesichts dieser krisenhaften Erscheinungen in der Vergangenheit und der großen Unsicherheit über die zukünftige Entwicklung unserer Energieversorgung, [..] [ist die] Frage nach Wert und Nutzen der Planung verständlich und auch berechtigt.“ (von Ilsemann 1980: 115). Insbesondere gilt dieses Infragestellen für die langfristig angelegte strategische Unternehmensplanung, welche den Zeithorizont der nächsten zehn bis zwanzig Jahre abde- cken soll. Langfristplanung als wertlos zu klassieren wäre jedoch falsch, verbessert eine Pla- nung doch die Entscheidungsgrundlagen und damit auch die Sicherheit einer Entscheidung. In Theorie und Praxis besteht auch Einigkeit darüber, dass die strategische Planung die lang- fristige Überlebensfähigkeit eines Unternehmens sichern soll. Es existieren jedoch sehr unter- schiedliche Meinungen über Wege und Methoden zur praktischen Durchführung von strate- gischen Planungen. Dies ist durchaus nachvollziehbar, da jede Planung den spezifischen Ge- gebenheiten der jeweiligen Branche Rechnung tragen muss. Entsprechend muss die Energie- wirtschaft neben einigen Besonderheiten, die einen langen Planungszeitraum notwendig ma- chen, die Ungewissheit und Unsicherheit, welche politischer, gesellschaftlicher oder wirt- schaftlicher Natur sein können, als wesentliche Planungsfaktoren berücksichtigen. „Für die Planung gibt sich hieraus die Notwendigkeit, Strategien zu entwickeln, die eine bestimmte Bindung mit einer gewissen Flexibilität koppeln. Um sich bei gravierenden Änderungen an- passen zu können, müssen die Pläne so viel Flexibilität besitzen, daßbestimmte Chancen ge- nutzt, entstehende Risiken mit schwerwiegenden Verlusten in möglichst allen Fällen jedoch vermieden werden können. [...] Die Planung in Szenarien eröffnet den Vorteil, daßgeprüft werden kann, ob eine Strategie auch unter verschiedenen möglichen Entwicklungen durch- führbar ist beziehungsweise wie sie modifiziert werden müßte, falls die äußeren Gegebenhei- ten sich ändern.“ (von Ilsemann 1980: 118 f.). Die Deutsche Shell AG ging 1980 in ihrer Langfristplanung 2000 von den beiden Szenarien „Lethargie“ und „Strukturwandel“ aus. Die Planung und die Energieprognose basierten also nicht auf einer einzigen Entwicklungslinie, sondern auf einer Bandbreite möglicher Entwicklungen, die durch die beiden Szenarien ver- körpert wurden. Dies soll beispielhaft in Abbildung 5 visualisiert werden:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Mögliche Zukunftsbilder (vgl. von Ilsemann 1980: 116)

Diese Szenarien bildeten die Basis für die langfristige Energieprognose und die strategische Planung der Deutschen Shell AG. Anhand der für jedes Szenario erarbeiteten volkswirt- schaftlichen Prognosedaten erfolgte die Ausarbeitung und Analyse alternativer Unterneh- mensstrategien, sowie deren qualitative und quantitative Bewertung. Für die strategische Langfristplanung ist dabei insbesondere die qualitative Bewertung der Möglichkeiten, Chan- cen und Risiken zukünftiger Strategien bedeutsam (vgl. von Ilsemann 1980: 115 ff.).

Fazit

Die Szenario-Technik regt also die Auseinandersetzung mit der Unsicherheit der Zukunft sowie die Untersuchung der alternativen Entwicklungstendenzen der Elemente des Umwelt- systems an. Dies erlaubt die Identifikation möglicher Strukturbrüche. Durch die systemati- sche und für alle nachvollziehbare Vorgehensweise lässt der Einsatz der Szenario-Technik erwarten, dass bei den Beteiligten die Motivation, die Kommunikation untereinander, sowie das Verständnis für die möglichen Entwicklungen des untersuchten Systems verbessert wer- den. Die oben angedeuteten Vorteile weisen allerdings lediglich den Charakter von Potentia- len auf, hängt die Güte der erstellten Szenarien doch von vielen Faktoren, vor allem aber von den beteiligten Personen und deren subjektiven Einschätzungen ab (vgl. Hansmann 1983: 21; Götze/Rudolph 1994: 24 f.).

2.3.2 Delphi-Methode

Wie bereits erwähnt, ist auch die Delphi-Methode eine bekannte strukturierte qualitative Prognosemethode. Sie wird im Folgenden kurz beschrieben:

Die Delphi-Methode stellt eine spezifische Form der Expertenbefragung dar und ist durch die, von einer Monitorengruppe gesteuerte, anonyme Befragung von Experten mittels eines Fragebogens charakterisiert. Die Befragung vollzieht sich in mehreren Runden (Iterationen) mit informeller Rückkopplung bei jedem Durchgang. Die Ergebnisse jeder Befragungsrunde werden statistisch ausgewertet und den Experten dargelegt (vgl. Götze/Rudolph 1994: 17 f.). „Ziel der Delphi-Methode ist es, während mehrerer Befragungsrunden eine Konvergenz der Einzelprognosen zu erreichen, ohne daßsich die Experten in Gruppendiskussionen gegenseitig beeinflussen.“ (Hansmann 1993: Sp. 3551).

Die Delphi-Methode erfreut sich gemäss der Literaturanalyse des Verfassers einer grossen Beliebtheit. Dies wohl nicht zuletzt deshalb, weil sie versucht, die Nachteile einer offenen Gruppenbefragung zu minimieren bzw. zu vermeiden. Mit der Delphi-Methoden können also Kommunikationsbarrieren, Konkurrenzdenken zwischen Experten, Verharren auf einer einmalöffentlich geäusserten Meinung, u. a. vermieden werden.

2.4 Quantitative Prognoseverfahren

Zu den quantitativen Prognosetechniken zählen im Unterschied zu den qualitativen Prognose- techniken all jene Ansätze, welche einen eindeutigen und nachvollziehbaren Erstellungsweg auf mathematisch-statistischer Grundlage haben (vgl. Emde 1989: Sp. 1647). Für diese Gruppe von Prognosemethoden ist charakteristisch, dass sie die Erstellung grundsätzlich re- produzierbarer Daten ermöglichen (vgl. Weber 1990: 4). Daher werden diese auch als mo- dellgestützte oder objektive Verfahren bezeichnet (vgl. Hüttner 1986: 4; Weber 1990: 4). Nach Art der Beziehung zwischen den unabhängigen und den abhängigen, zu prognostizie- renden Variablen, lassen sich die quantitativen Prognosetechniken in Zeitreihen- und Kausal- verfahren unterteilen. Die Zeitreihenverfahren werden in der Literatur auch als univariate oder formale, die Kausalverfahren als multivariate Prognoseverfahren bezeichnet.

Univariate Prognoseverfahren

Univariate Prognoseverfahren sind dadurch gekennzeichnet, dass sie nur die Zeitreihe der zu prognostizierenden Variable in die Untersuchung einbeziehen (vgl. Hansmann 1993: Sp. 3547). „Aus der Analyse der Verteilung des interessierenden Merkmales bezüglich der Ge- samtheit der Elemente ergeben sich z. B. Aussagen über Häufigkeiten, Parameter und Vertei- lungstyp.“ (Uebele 1989: Sp. 1851). „Bei formalen Prognoseverfahren [im Original fett] ver- zichtet man auf die Einbeziehung echter erklärender Grössen und leitet den Prognosewert ausschließlich aus den vorhergehenden Werten der zu prognostizierenden Größe ab.“ (Hom- burg 2000: 104). „Sie [..] unterstellen, daßdie in den Vergangenheitswerten der Zeitreihe vorgefundenen Strukturen ohne weiteres auf die zukünftige Entwicklung übertragbar sind.“ (Homburg 2000: 109).

Multivariate Prognoseverfahren

Im Gegensatz dazu wollen die multivariaten Prognoseverfahren die zu prognostizierende Va- riable auf andere erklärende (kausale) Verfahren zurückführen (vgl. Hansmann 1993: Sp. 3547). Es wird „[...] versucht, das Verhalten einer Zeitreihe auf das Verhalten anderer, sog. exogener [im Original kursiv] Zeitreihen zurückzuführen und eine solche Kausalbeziehung zur Prognose auszunutzen.“ (Hansmann 1983: 125). Existieren also Einflussfaktoren, deren Ausprägungen die Werte der zu prognostizierenden Zeitreihe stark beeinflussen, sind kausale Prognoseverfahren anzuwenden (vgl. Homburg 2000: 109). Auf dieser Grundlage lassen sich Stärke und Zusammenhang zwischen abhängigen und unabhängigen Variablen aufdecken (vgl. Uebele 1989: Sp. 1851).

Zusammenfassend lässt sich sagen, dass Zeitreihenverfahren basierend auf ihren eigenen Vergangenheitswerten künftiges Verhalten prognostizieren, während Kausalverfahren versuchen, kausal-analytische Beziehungen zwischen mehreren Zeitreihen zu identifizieren und für die Prognose zu nutzen.

Die bisher noch nicht besprochenen Neuronalen Netze (NN) basieren ebenfalls auf der An- nahme der Extrapolationsfähigkeit der in den Beobachtungsdaten enthaltenen Informationen und gehören demnach ebenfalls in die Gruppe der quantitativen Prognoseverfahren. „NN fol- gen neurophysiologischen Erkenntnissen, wonach die Informationsverarbeitung im Nerven- system im wesentlichen auf der Übertragung von „ Erregungen “ zwischen Neuronen beruht.“ (Mertens 1993: Sp. 2494). Neuronale Netze zeichnen sich insbesondere durch ihre Lernfä- higkeit aus, mit der sie auch nicht exakt beschreibbare Problemstrukturen auf der Basis empi- rischer Beobachtungen erlernen und somit auch komplexe Ursache- Wirkungszusammenhänge berücksichtigen können. So erlauben die Neuronalen Netze im Gegensatz zu den meisten herkömmlichen statistischen Verfahren auch nichtlineare Struktu- ren zu extrahieren, was als Vorzug dieses Verfahrens zu werten ist (vgl. Rehkugler/Kerling 1995: 307).

2.4.1 Zeitreihenverfahren

„Zeitreihen sind zeitlich geordnete Beobachtungswerte des jeweils gleichen Sachverhaltes.“ (Schlittgen 2001: 1). „Für jeden Zeitpunkt t einer Menge T von Beobachtungszeitpunkten liegt dabei genau eine Beobachtung vor.“ (Schlittgen/Streitberg 2001: 1). Dabei sind die Beobachtungszeitpunkte zumeist äquidistant, d. h. der zeitliche Abstand zwischen zwei auf- einander folgenden Perioden ist konstant (vgl. Leiner 1998: 3). In der Zeitreihenanalyse ver- sucht man aus n Beobachtungen (xt, xt-1, xt-2, xt-(n-1)) eine Prognose ^t+1 abzuleiten. Dabei gilt folgende funktionale Beziehung ^t+1 = f(xt, xt-1, xt-2, xt-(n-1)) mit n > 0 (vgl. Brockhoff 1991: 577). Im Gegensatz zu anderen Prognoseverfahren, insbesondere den Kausalverfahren, wer- den die künftigen Werte einer Zeitreihe also einzig aus der Zeitreihe heraus ohne Beachtung anderer (kausaler) Einflussfaktoren prognostiziert (vgl. Hansmann 1983: 27).

Zeitreihen lassen sich in die Trendkomponente, die zyklische Komponente, die Saisonkom- ponente und die irreguläre Komponente zerlegen. Die Trendkomponente beschreibt die Ent- wicklungsrichtung einer Zeitreihe. Die Zeitreihe hat entweder ansteigende Tendenzen, ab- steigende Tendenzen oder bewegt sich um ein konstantes Niveau. Unter die zyklische Kom- ponente fallen kurz- und mittelfristige Konjunkturschwankungen um den Trend mit einer Periode von zwei bis zehn Jahren. Saisonale Schwankungen, deren Periode zwischen zwei Monaten und einem Jahr liegt, werden als Saisonkomponente bezeichnet. Der durch diese drei Komponenten nicht zu erklärende Rest wird durch die irreguläre Komponente beschrieben. Sie steht für den Einfluss von Störfaktoren und umfasst einmalige deterministische Störungen und zufällige Störungen stochastischer Natur. Die irreguläre Komponente hat den Status einer Zufallsvariablen (vgl. Hüttner 1986: 11 f.; Leiner 1998: 6 f.).

„Hat man eine Zerlegung der Zeitreihe in diese Komponenten gefunden, so können jeder Zeitperiode Werte bzgl. jeder Komponente zugeordnet werden, so daßletztlich die Zeit die einzige erklärende Variable ist.“ (Homburg 2000: 105). Eine sinnvolle Auswahl der adäquaten Prognosemethoden hängt also von der Identifikation der zugrunde liegenden Strukturen einer Zeitreihe ab (vgl. Homburg 2000: 104).

In Anlehnung an Homburg (2000: 104) werden im Folgenden stellvertretend für die Prognoseverfahren der Zeitreihenanalyse die Methode des geleitenden Durchschnitts, das exponentielle Glätten, das Box-Jenkins-Verfahren und die Trendextrapolation vorgestellt.

2.4.1.1 Verfahren des geleitenden Durchschnitts

Es liegt nahe, als Prognosewert der nächsten Periode das arithmetische Mittel der bisherigen Beobachtungswerte zu verwenden (vgl. Hüttner 1986: 13). Beim Verfahren des gleitenden Durchschnitts geht man daher davon aus, dass die zu prognostizierende Grösse über die Zeit hinweg im Wesentlichen konstant bleibt. Die Zeit ist für die zu prognostizierende Zeitreihe die einzige erklärende Variable. Zudem gilt die Zeitstabilitätshypothese, wonach in diesem stationären Modell (zumindest annäherungsweise) weder Trends, noch Zyklen, noch saisona- le Effekte auftreten. Damit besteht die wesentliche Aufgabe dieses Prognoseverfahrens in der Ermittlung des von Zufallsschwankungen bereinigten Basiswertes der Zeitreihe (vgl. Hans- mann 1980: 17 f.; Homburg 2000: 105). Der geleitende Durchschnitt berechnet sich aus dem arithmetischen Mittel der n letzten Zeitreihenwerte (vgl. Hansmann 1995: 273):

Abbildung in dieser Leseprobe nicht enthalten

Es mag sein, dass dieses Verfahren durchaus zu befriedigenden Prognosen führt. Das Verfahren birgt jedoch die Gefahr in sich, dass sich bei kurzen Periodenlängen (kleines n) Zufallschwankungen zu stark auswirken, während bei langen Periodenlängen (grosses n) die Reaktion auf Strukturbrüche zu langsam erfolgt.

In der Realität gilt die Zeitstabilitätshypothese oft nicht streng und die Struktur der Zeitreihe ändert sich allmählich im Zeitablauf. Dieser Umstand führt gewissermassen zwangsläufig zur Idee, viele Werte in die Prognose einzubeziehen und die Flexibilität des Verfahrens durch eine stärkere Gewichtung der „jüngeren“ Zeitwerte, welche die gegenwärtige Zeitreihen- struktur besser widerspiegeln, zu gewährleisten. Dies entspricht der Grundidee des Verfah- rens der exponentiellen Glättung (vgl. Hansmann 1980: 18; Hansmann 1983: 27 f.; Homburg 2000: 105).

2.4.1.2 Verfahren der exponentiellen Glättung

Das Verfahren der exponentiellen Glättung stellt weniger nur ein Verfahren als vielmehr ein Prinzip dar, welches für viele spezielle Vorhersagemodelle von grundlegender Bedeutung ist (vgl. Schröder 1994: 19). „Dazu kommt noch, daßsich alle Autoren über das Grundprinzip des exponentiellen Glättens einig sind, wenn wir auch über die verschiedenen Erweiterungen, Verallgemeinerungen und speziellen Verfahren in der Literatur sehr verschiedene Ansichten finden.“ (Schröder 1994: 19).

Die exponentielle Glättung basiert auf dem Verfahren des gleitenden Durchschnitts und wur- de 1959 von Brown entwickelt, indem er zwei verschiedene Überlegungen kombinierte (vgl. Hansmann 1980: 17 f.): Einerseits sollen vergangene Zeitreihenwerte gemäss ihrem „Alter“ ein abnehmendes Gewicht für die Prognose erhalten, andererseits soll der aktuelle Prognose- fehler (et) bei der folgenden Prognose berücksichtigt werden (vgl. Hansmann 1995: 273). Aus beiden Überlegungen lässt sich, wie im Folgenden gezeigt wird, das Verfahren der exponen- tiellen Glättung für Zeitreihen ohne Trend- und Saisonkomponenten herleiten (vgl. Hans- mann 1980: 18).

Nach der zweiten vorgenannten Überlegung setzt sich der Prognosewert für die nächste Periode [Abbildung in dieser Leseprobe nicht enthalten] aus dem alten Prognosewert und einem Bruchteil des Prognosefehlers [Abbildung in dieser Leseprobe nicht enthalten] zusammen (vgl. Hansmann 1995: 273):

Abbildung in dieser Leseprobe nicht enthalten

Durch eine einfache Umformulierung erhält man die Grundformel der exponentiellen

Glättung:

Abbildung in dieser Leseprobe nicht enthalten

[...]

Details

Seiten
87
Jahr
2004
ISBN (eBook)
9783638329866
Dateigröße
716 KB
Sprache
Deutsch
Katalognummer
v32209
Institution / Hochschule
Universität Bern – Institut für Innovationsmanagement
Note
1.5 (Schweiz: 5.5)
Schlagworte
Methoden Anwendungsbereiche Prognoserechnung Universitätsabschluss

Autor

Teilen

Zurück

Titel: Methoden und betriebswirtschaftliche Anwendungsbereiche der Prognoserechnung