Lade Inhalt...

Instrumente zur Zielkostenerreichung im Target Costing

Diplomarbeit 2001 66 Seiten

BWL - Controlling

Leseprobe

INHALTSVERZEICHNIS

Abbildungsverzeichnis

Einleitung
I. Ursprung, Grundidee und Zielsetzung des Target Costing
II. Anwendungsbereiche des Target Costing

Hauptteil
I. Ermittlung der Zielkosten im Target Costing
1. Marktforschung und Conjoint-Analyse
2. Subtraktionsmethoden
3. Additionsmethoden
4. Gegenstromverfahren
II. Methoden zur Zielkostenspaltung
1. Die Funktionskostenmatrix
2. Die Zielkostenmatrix
3. Zielkostenkontrolldiagramme
4. Kostentableaus
III. Instrumente zur Zielkostenerreichung
1. technologieorientierte Ansätze
2. organisatorische Ansätze
3. produkt- und prozessorientierte Ansätze
4. der ebenenübergreifende Ansatz
IV. Einsatz der Managementsysteme im Verlauf des Produktlebenszyklus

Schluss
I. Generelle Implementierungsprobleme in der Praxis
II. Zusammenfassung und kritische Würdigung

Anhang

Literaturverzeichnis

Sonstige Quellen

Eidesstattliche Versicherung

ABBILDUNGSVERZEICHNIS

Abbildung 1: Möglichkeiten zur Informationsgewinnung

Abbildung 2: Verfahren der Conjoint-Analyse

Abbildung 3: Beispiel einer Trade-off-Matrix

Abbildung 4: Market-into-company-Methode

Abbildung 5: Market-out-of-competitor-Methode

Abbildung 6: Into-and-out-of-company-Methode

Abbildung 7: Funktionsgewichtungen aus Kundensicht

Abbildung 8: Ermittlung komponentenbezogener Standardkosten

Abbildung 9: Technische Funktionsgewichtungen

Abbildung 10: Anteil der Komponenten am gesamten Produktnutzen

Abbildung 11: Ermittlung der Abweichungen zw. Ziel- & Standardkosten

Abbildung 12: Ermittlung des Zielkostenindex

Abbildung 13: Zielkostenkontrolldiagramm

Abbildung 14: Zielkostenkontrolldiagramm als Balkendiagramm

EINLEITUNG

I. Ursprung, Grundidee und Zielsetzung des Target Costing

Ursprung aller Überlegungen, die letztlich zum System des Target Costing führten war der Gewinneinbruch japanischer Unternehmen in den 70er Jahren. Dieser konnte letztlich auf die fehlende Marktorientierung vieler Unternehmen zurückgeführt werden.[1]

Um nun die Stückkosten der Produkte drastisch senken zu können und so die Gewinnsituation zu verbessern, entwickelte die Firma Toyota 1965 ein strategisches Kostenmanagement namens Target Costing (auf japanisch: „genka kikaku“). Dieses basierte auf bereits bekannten Ansätzen, wie beispielsweise dem Value Engineering.[2]

Das Target Costing ist in Europa seit den 90er Jahren im Einsatz und in Deutschland unter dem Namen „Zielkostenmanagement“ bekannt. Es sollte durch den konsequenten Einsatz verschiedener Instrumente die Marktorientierung der Unternehmen wieder herstellen, indem sämtliche Unternehmensbereiche und -prozesse konsequent auf die Erfordernisse des Absatzmarktes abgestimmt und auf permanente Kostensenkung ausgerichtet werden.[3] Dabei stehen langfristige Gewinnziele der Unternehmung im Vordergrund.

Da bisherige Methoden der Kostenrechnung auf die Kontrolle und Steuerung der Kosten während der Produktionsphase ausgelegt waren, integriert das Target Costing erstmals die möglichst frühzeitige Abstimmung der Produkte auf die Kundenwünsche. Die marktorientierte Kostenplanung, -steuerung und -kontrolle erfolgt hier bereits während der Entwicklungsphase des Produktes.[4]

Um eine zielgerichtete Beeinflussung von Kosten, Qualität und Zeit zu erreichen stehen folgende Grundideen des Target Costing im Vordergrund:[5]

- Marktorientierung des gesamten Systems
- Einsatz in frühen Phasen des Produktlebenszyklus
- Ständige Überprüfung der Zielerreichungsgrade
- Verhaltensbeeinflussung der Mitarbeiter

Somit beinhaltet das Zielkostenmanagement auch die ständige Begleitung sämtlicher Prozesse der Unternehmung. Ein permanentes Kostencontrolling und die ständige Überwachung der erzielten Kosten unter Beachtung der gewünschten Produktqualität ist zwingende Voraussetzung für die erfolgreiche Implementierung in die Praxis.

Die zentrale Fragestellung lautet nicht: „Was wird uns das Produkt kosten?“, sondern vielmehr: „Was darf uns das Produkt kosten?“.[6] Die Grundlage für den Absatzpreis liegt somit in dem am Markt erzielbaren Preis. Aus diesem können nun die absatzpolitisch vertretbaren Stückkosten ermittelt werden. Sie bilden die sog. Zielkosten („target costs“) also die vorgegebene Kostenobergrenze eines Produktes. Das wesentliche Merkmal und Grundlage aller Überlegungen im Rahmen des Target Costing ist die Marktforschung, die aus diesem Grunde im Folgenden noch ausführlich behandelt werden soll.

Konkrete Maßnahmen im Rahmen des Target Costing werden nach Ermittlung der Zielkosten in Form der Zielkostenerreichung eingeleitet. Dies setzt die Verhaltensbeeinflussung aller im Prozess beteiligten Mitarbeiter voraus, denn nur mit Hilfe von motivierten Mitarbeitern kann ein optimales Ergebnis erzielt werden. Weitere Ausführungen hierzu finden sich an späterer Stelle.

II. Anwendungsbereiche des Target Costing

Auf Grund der strengen Ausrichtung auf die Markterfordernisse wird das Target Costing hauptsächlich auf wettbewerbsintensiven Märkten mit hohem Innovationsdruck angewandt.[7] Vor allem im High-Tech-Bereich, wie der Automobil- und Elektroindustrie sowie dem Maschinenbau und der Feinmechanik wird Target Costing häufig eingesetzt. Der Anteil der Unternehmen verschiedener Branchen, die Target Costing nutzen ist in Anhang A dargestellt.

Dabei ist festzustellen, dass das System des Target Costing bei nahezu allen Unternehmen der Automobilindustrie zur Anwendung kommt. Nicht zuletzt deshalb, weil der Ursprung des Zielkostenmanagements in dieser Branche zu finden ist. Aber auch die dort häufig anzufindende Organisationsform der Fließfertigung hat sich als ideal zur Einführung eines Zielkostenmanagements erwiesen.[8]

Ursprünglich war das Target Costing auf die Neuproduktentwicklung ausgerichtet, ist aber auch zur Rationalisierung von bereits bestehenden Produkten anwendbar.[9]

Dabei ist zu beobachten, dass Target Costing tendenziell bei Produkten mit kurzem Lebenszyklus anzufinden ist, wie z. B. Autos, Computern oder Geräten der Unterhaltungselektronik, da der Innovationsdruck der Unternehmen dort sehr hoch ist.

Als Teil des unternehmensweiten Gewinnmanagements beinhaltet das Target Costing folgende Anwendungsbereiche:

- Kundengerechte Planung der Produkte
- Ermittlung der Zielkosten, sowie
- als Managementansatz zur Zielkostenerreichung

Dabei müssen die Produkte so geplant werden, dass sie den Anforderungen der Nachfrager bezüglich Qualität, Lieferzeit und Preis entsprechen.[10]

Bei der Ermittlung der Zielkosten können mehrere Ansätze gewählt werden, jedoch steht die Markt- oder Konkurrenzorientierung bei der Ermittlung im Vordergrund. Dabei muss dieser Ermittlung ein langfristig akzeptabler Marktpreis als Ausgangspunkt und strategischer Aspekt zugrunde liegen.

Letztlich bieten die verschiedenen Instrumente im Rahmen des Target Costing Ansatzpunkte, um die festgelegten Zielgrößen zu erreichen. Die Erreichung dieser Zielgrößen kann jedoch nicht als abschließende Soll-Ist-Analyse angesehen werden, sondern muss im Laufe des Produktlebenszyklus permanent überwacht und ggf. neu ausgerichtet werden.

Die vorliegende Arbeit stellt zunächst die absatzorientierten Grundlagen dar, die zur Ermittlung der Zielkosten beitragen. Hierzu gehören sowohl Ausgangspunkte der Marktforschung, als auch verschiedene Ermittlungsmethoden aus der Praxis.

Danach wird auf die Methode der Zielkostenspaltung detailliert eingegangen, da dies in der Literatur häufig als der zentrale Bestandteil des Zielkostenmanagements angesehen wird.

Letztlich werden einige der wichtigsten Managementinstrumente vorgestellt, die durch übergreifenden Einsatz konsequent auf die Erreichung der festgelegten Zielkosten einwirken.

HAUPTTEIL

I. Ermittlung der Zielkosten im Target Costing

Die traditionelle Selbstkostenermittlung in Form der Zuschlagskalkulation setzt voraus, daß die so ermittelten Absatzpreise vom Markt auch akzeptiert werden. Ist dies nicht der Fall kommt es vor, daß die Absatzpreise mancher Unternehmen auf die langfristige, unter Umständen sogar auf die kurzfristige Preisuntergrenze gesenkt werden müssen, um konkurrenzfähig zu bleiben bzw. zu werden. Des Weiteren werden die Kosten sowie die Marktpreise bei dieser Kalkulationsmethode als gegebene Größen betrachtet, da den anfallenden Einzelkosten lediglich die Gemeinkosten sowie der Gewinnaufschlag prozentual zugeschlagen werden. („cost-plus-Kalkulation“) Die Unternehmung handelt dabei meist ohne Berücksichtigung der Kundenanforderungen.[11]

Das System des Target Costing soll diese Situationen vermeiden, indem im Voraus die Kosten auf die vom Markt vorgegebenen Kosten begrenzt werden und somit die Kalkulation auf alle Marktanforderungen abgestimmt werden kann.[12] Die Ermittlung dieser sog. „allowable costs“ erfolgt durch Wettbewerbs- und Produktanalysen sowie durch die Analyse des Absatzmarktes.

Dabei ist zunächst der Zielverkaufspreis in Abstimmung auf den Produktlebenszyklus als langfristiger und somit „strategischer Preis“ zu ermitteln.

Die Einflussgrößen bei der Ermittlung des geplanten Absatzpreises sind:

- Die aktuelle Marktsituation
- Das Verhalten der Konkurrenz
- Das Verhalten der Käufer
- Die Qualitätsanforderungen der Käufer
- Der Zielmarkt

Vor dem Hintergrund der aktuellen Marktsituation ist es hilfreich die eigene Preis-Absatz-Funktion möglichst genau zu kennen, um den gesamten potentiellen Umsatz im betrachteten Zielmarkt planen zu können.

Wird ein hoher Preis gefordert, steht diesem eine eher geringe Absatzmenge gegenüber, während bei geringeren Preisen eine höhere Menge abgesetzt werden kann. Auch die Preiselastizität der Nachfrage für das entsprechende Produkt spielt in diesem Zusammenhang eine entscheidende Rolle.

Es muss jedoch zunächst eine preispolitische Strategie festgelegt werden, wobei das Problem besteht, dass man die Reaktionen des Marktes in der Praxis nicht immer genau prognostizieren kann.[13]

In Abhängigkeit der Art des Produktes und der verfolgten Ziele muss entschieden werden, ob man beispielsweise mit einem hohen Preis in den Markt eintritt, somit eine geringere Menge absetzen kann und die hohen Stückkosten akzeptieren muss. Bei dieser Strategie werden zunächst die kaufkräftigen Nachfrager durch den hohen Einführungspreis „abgeschöpft“. In späteren Phasen des Produktlebenszyklus werden dann die Preise allmählich gesenkt um weitere Käuferschichten zu erschließen. Man nennt diese Strategie daher „Abschöpfungspreisstrategie“ oder auch „Skimming-Strategie“.

Andererseits kann eine extrem hohe Menge aufgrund eines zunächst niedrigen Preises und daraus resultierenden geringen Stückkosten abgesetzt werden. Es wird dabei angestrebt, in der Phase der Markteinführung schnelle Marktdurchdringung zu erreichen.[14] Durch die geringen Stückgewinne, die durch die hohe Produktionsmenge jedoch relativiert werden, werden potentielle Konkurrenten abgewehrt. Zum späteren Zeitpunkt werden die Preise dann gesteigert um die Stückgewinne bei gefestigtem Absatzmarkt zu erhöhen.

Da diese dynamischen Preisstrategien von sich ändernden Preisen im Verlaufe des Produktlebenszyklus ausgehen, wird die Ermittlung der Zielkosten enorm erschwert. Ein Grund dafür ist, dass der Zielpreis als „Fixpunkt“ des Zielkostenmanagements angesehen wird, da die Ermittlung des Zielgewinnes sowie der Zielkosten auf dem erwarteten Absatzpreis basiert. Daher wird in der Praxis in der Regel auf eine Preisdynamik verzichtet und durch die Ermittlung des Durchschnittspreises ersetzt, um die weitere Kalkulation zu erleichtern.[15]

Viele andere Aspekte wie zum Beispiel die Preiskonstanz entsprechender Produkte oder die generelle Aufnahmefähigkeit der (Teil-)Märkte spielen bei der Festlegung des strategischen Verkaufspreises eine nicht unerhebliche Rolle. So ist zum Beispiel in der Computerindustrie eine so starke Preisdynamik zu verzeichnen, dass der ermittelte Zielpreis bei Markteintritt sehr schnell nach unten korrigiert werden muss, um die Gewinnmarge durch die fallenden Absatzpreise nicht zu gefährden. Dies führte beispielsweise bei IBM in den 70er Jahren zu einer „Mischstrategie“ namens „Penetration-Skimming-Strategie“. Absolut gesehen blieben die Preise für Hardwarekomponenten konstant, sodass keine laufenden Kostenreduzierungen notwendig waren. Da aber im Zeitablauf die Konkurrenzpreise stark sanken, nahm der relative Preis für IBM-Produkte ständig zu. Eine Nominalkonstanz der Verkaufspreise ist unter der heutigen Situation der Wettbewerbsverschärfung jedoch nicht mehr durchzusetzen und führt daher zur Verpflichtung zur ständigen Kostenreduktion im Verlauf des Produktlebenszyklus.[16]

Wie auch am obigen Beispiel deutlich wird, muss das Verhalten der Konkurrenten sowie deren Strategie genau beobachtet werden und in die Überlegungen für die eigene Strategie einbezogen werden. Dies gilt sowohl für die Preis-, Konditionen-, Distributions- als auch für die Produktpolitik.

Auch die Konsumgewohnheiten und das Verhalten der Käufer im Zielmarkt müssen ihren Niederschlag in den angestrebten Verkaufspreisen finden. Die Ansprüche der Nachfrager betreffend der Lebensdauer eines Produktes sowie deren Folgekosten sind zu berücksichtigen.

Die Qualität bzw. die Nutzenanforderungen, die die Käufer an das Produkt stellen werden, müssen analysiert werden. Die erforderlichen Untersuchungen müssen zeigen, welche Nutzenerwartungen die Nachfrager an das Produkt stellen und welchen Preis sie dafür zu zahlen bereit sind.

Um Produkteigenschaften und deren Nutzenbedeutung genauer analysieren zu können, bedient man sich der Einteilung der Produkteigenschaften in „Characteristics“, „Benefits“ sowie „Imageries“.

Characteristics sind objektiv wahrnehmbare, technische und mechanische Produkteigenschaften, während Imageries psychologische Nutzenerwartungen auf Grund eines erhofften Images darstellen. Auch die für die Kaufentscheidung wichtigen Benefits, die den Gebrauchsnutzen der Produkte beim Kunden ausdrücken, stellen subjektiv wahrnehmbare Produkteigenschaften dar.[17]

Zur Analyse des Zielmarktes wird als Ort der Marktforschungsaktivitäten sowie der Ermittlung der vom Nachfrager gewünschten Produktfunktionen und letztlich der Preise der „Zielmarkt“ gewählt. Der Zielmarkt ist ein Segment (Cluster) des Absatzmarktes, der die höchsten Umsatzaussichten aufweist. Die Einteilung erfolgt hinsichtlich Kaufverhalten, Bedürfnissen sowie des Kaufmotivs der Nachfrager.

1. Marktforschung

Ziel der Marktforschung ist die Bereitstellung von quantitativ und qualitativ ausreichenden Marktinformationen, insbesondere über Marktteilnehmer und die Wirkung der eingesetzten absatzpolitischen Instrumente.[18] Dabei werden vergangenheits-, gegenwarts- und zukunftsbezogene Daten beschafft und ausgewertet. Sinn und Zweck ist es, möglichst vollständige und qualitativ hochwertige Daten zu erhalten um die absatzpolitischen Instrumente gewinnmaximierend einsetzten zu können.

Die in der Marktforschung enthaltene Betrachtung der Beschaffungsmärkte wird nicht weiter ausgeführt, da es ausschließlich um die Analyse des Absatzmarktes speziell zur Ermittlung des geplanten Absatzpreises sowie die marktkonforme Gewichtung der Produktmerkmale im Rahmen des Target Costing geht.

Generell hat die Marktforschung mehrere Grundfunktionen, die der Unternehmung einige Vorteile auch gegenüber der Konkurrenz verschaffen können. So können zum Beispiel Bedürfnis- oder Verhaltensänderungen der Nachfrager, die durch Marktforschungsaktivitäten deutlich werden, die Risiken der Unternehmung reduzieren. Der Marktforschung kommt somit eine Frühwarnfunktion zu, die Risiken frühzeitig erkennen lässt und der Unternehmung rechtzeitig Handlungsspielräume öffnet um das drohende Risiko zu minimieren oder diesem ganz aus dem Wege zu gehen. Gerade bei Produktfeldern, bei denen kurze Produktlebenszyklen üblich sind oder sich das Marktumfeld schnell ändert, birgt die Marktforschung einen besonderen Vorteil für die Planung und Steuerung.[19]

Da durch die Marktforschung Änderungen der Nachfragerwünsche schnell deutlich werden, kommt dieser auch eine Innovationsfunktion zu, denn es gilt die Änderungen in den Kundenwünschen rasch in die Produkte einfließen zu lassen und somit in die Praxis umzusetzen. Gerade in diesem Bereich kann durch schnelle und flexible Reaktionsweise des Unternehmens ein entscheidender Vorsprung gegenüber den Konkurrenten erreicht werden, der dem Unternehmen mehr Marktanteil verschafft und somit seine Marktposition verstärkt.

Da es eine Aufgabe der Marktforschung ist, die gewonnen Erkenntnisse in wichtige und unwichtige Informationen aufzuteilen, kommt dieser eine Selektionsfunktion zu, nicht alle durch Marktforschungsaktivitäten gewonnen Erkenntnisse sind für die Situation des einzelnen Unternehmens von Wichtigkeit. Es ist daher auf den richtigen Einsatz der verschiedenen Marktforschungsmethoden zu achten um das Gesamtziel derer nicht aus den Augen zu verlieren. Gerade bei der Ermittlung des erwarteten Absatzpreises im Rahmen des Target Costing ist die zielgerichtete Steuerung des Unternehmens von besonderer Wichtigkeit.

Generell wird im Rahmen der Methoden zur Informationsgewinnung unterschieden zwischen Primärforschung („field research“) und Sekundärforschung („desk research“). Kennzeichnend für die Sekundärforschung ist die Auswertung bereits vorhandenen Materials in Form von betriebsinternen oder -externen Quellen. Als Möglichkeiten zur Beschaffung der notwendigen Informationen stehen einerseits innerbetriebliche Quellen wie frühere Marktforschungen, Absatzstatistiken oder Berichte von Außendienstmitarbeitern zur Verfügung, andererseits lassen sich auch durch außerbetriebliche Quellen wie Statistiken oder Marketinginformationsdiensten wichtige Informationen gewinnen.

Sollen im Rahmen der Marktforschung Motive von Käufern oder deren Ansprüche an das Produkt erkennbar werden, helfen Sekundärquellen nicht. Auch bei neu zu erschließenden Teilmärkten, worüber bisher keine Primärdaten existieren hilft die Sekundärforschung nur teilweise oder gar nicht. Auch hier muss auf neue Primärquellen zurückgegriffen werden.

Abbildung in dieser Leseprobe nicht enthalten

Diese aus der Primärforschung gewonnenen Daten können durch Befragungen, seltener durch Beobachtungen oder Experimente ermittelt werden. Sekundärforschung wird daher ausschließlich angewandt, wenn die bereits vorliegenden Primärdaten nicht ausreichen um den Informationsbedarf der Unternehmung zu decken.[20]

Die Befragung ist die am häufigsten gebräuchlichste Methode der Informationsgewinnung. Vor allem in der später beschriebenen Conjoint-Analyse stellt die Befragung einen wichtigen Bestandteil dar. Dabei können Befragungen mündlich, schriftlich, telefonisch oder auch online erfolgen.

Mündliche Befragungen (Interviews) können mit Hilfe von mehr oder weniger standardisierten Fragebögen durchgeführt werden, die dem Interviewer zur Gestaltung des Interviews zu Verfügung stehen.[21]

Die nicht standardisierte Befragungsstrategie wird hauptsächlich im Business-to-business-Bereich angewandt, da die Meinungen und Einschätzungen von Fachleuten ausschließlich durch individuelle Gespräche durch sachkundige Interviewer erfasst werden können. Die Anwendung des standardisierten Verfahrens erfolgt hingegen häufig im Business-to-consumer-Bereich vor allem in der Konsumgüterbranche.

Schriftliche Befragung erfolgt hauptsächlich auf Grund der geringen Kosten gegenüber der Befragung. Auch der geringere Zeitaufwand und die Unabhängigkeit von der räumlichen Entfernung zur gewünschten Befragtengruppe führen dazu, dass die schriftliche auch die am weitesten verbreitete Methode zur Informations-gewinnung im Rahmen der Marktforschung ist.

Auch bei der schriftlichen Befragung ist letztlich der Umfang der Fragen beschränkt, denn bei Erhalt des Fragebogens erfolgt sofortige Konfrontation mit sämtlichen Fragen. So sinkt die Rücklaufquote mit steigender Anzahl an Fragen wahrscheinlich erheblich.

Telefonische Befragungen bieten den Vorteil, dass auch Rückfragen der interviewten Person möglich sind und somit ein Dialog zustande kommt ähnlich wie bei der nicht standardisierten mündlichen Befragung. Dabei sind telefonische Befragungen schnell durchzuführen und relativ kostengünstig.

Die Mehrthemenbefragung ist jedoch durch die begrenzte Zeit des Anrufes gar nicht oder nur sehr eingeschränkt möglich. Auch ist die Situation in der sich der Befragte gerade befindet ist im Gegensatz zur mündlichen Befragung nicht ersichtlich, sodass Verzerrungen der Befragungsergebnisse wahrscheinlich sind.

Online-Befragungen gewinnen im Zeitalter des Internet zunehmend an Bedeutung, da die Verbreitung des Internet gemessen an der Zahl der Anschlüsse in den letzten Jahren enorm angestiegen ist.

Unternehmen die Online-Befragungen durchführen, stellen den Nutzern des Internet eine Homepage zur Verfügung, auf der die Befragung durchgeführt werden kann. Die Antworten können durch einfaches Anklicken eines entsprechenden Buttons erfasst werden. Die Rücksendung des Fragebogens kann danach auf die gleiche Weise zeit- und kostensparend erfolgen.

Nachteilig zu werten ist die Beschränkung der Zielgruppe auf diejenigen, die über einen Internetzugang verfügen. Es kann somit nie ein repräsentatives Ergebnis erzielt werden, welches sich auf den Rest der Bevölkerung hochrechnen lässt. Weiterhin ist der Aufbau der Internetseite von entscheidender Bedeutung für den Erfolg dieser Marktforschungsmethode, denn auch hier zählt der erste Eindruck den das Design beim Internetnutzer hinterlässt. Ist der Aufbau wiederum zu überladen mit Video- und Soundsequenzen, werden die Nutzer mit geringen Übertragungsgeschwindigkeiten ausgeschlossen. Auch werden Sicherheitsmängel bei der Übertragung anonymer Daten immer wieder als negativer Punkt angeführt. So ist es zumindest technisch jederzeit möglich, dass sich die Konkurrenz der hart erarbeiteten Fragebögen und deren Beantwortungen bedient um den eigenen Informationsbedarf zu decken.

Die Beobachtung als weitere Erhebungsmethode in der Primärforschung dient hauptsächlich dazu, spezielle Aspekte der Marktsituation sowie Verhaltensweisen der Nachfrager zu analysieren, indem man diese in bestimmten Situationen beobachtet und ihre Verhaltensweisen auswertet.

Die reine Beobachtung liefert jedoch keine Aufschlüsse über Motive und Meinungen der Nachfrager. Die Methoden der Beobachtung werden daher vorzugsweise genutzt, um bisherige Marktstudien zu ergänzen oder diese zu kontrollieren.[22]

Der hohe Aufwand und die damit verbundenen Kosten sowie das begrenzte Einsatzspektrum dieser Beobachtungsmethoden führen zu einer eher geringeren Relevanz, vor allem zur Ermittlung eines geplanten durchsetzbaren Absatzpreises.

Experimente werden häufig als Teilinstrument der Beobachtung gesehen. Auch diese Methode zur Informationsgewinnung ist für die Zwecke des Target Costing von nachrangiger Bedeutung. Ziel der Experimente im Rahmen der Marktforschung ist die Erlangung von Informationen über die Ursachen der beobachteten oder erfragten Verhaltensmuster der Nachfrager. Diese setzen sich aus umweltbedingtem und persönlichkeitsbedingtem Verhalten zusammen, die die Ermittlung einer genauen Ursache zunehmend schwierig macht.[23]

Letztlich ist das Experiment eine Cetris-Paribus-Analyse. Aus mehreren Experimenten, bei denen jeweils nur eine oder wenige Bedingungen verändert werden, lassen sich die Ursachen für die daraus resultierenden Verhaltensänderungen erkennen oder zumindest vermuten.

Einteilen lassen sich die Experimente in Labor- und Feldexperimente, je nach dem wo die Marktforschungsaktivitäten stattfinden. Auf diese Methoden wird jedoch an dieser Stelle nicht weiter eingegangen, da sie kaum Relevanz im Hinblick auf das zu behandelnde Thema haben.

An die Phase der Informationsgewinnung schließt sich die Phase der Informationsauswertung an. Diese Auswertung der erforschten Informationen kann entweder auf der Analyse von einzelnen Variablen (Merkmalen) in Form von univariaten Verfahren oder auf der Analyse von Abhängigkeiten zwischen mehreren Variablen in Form der multivariaten Analyseverfahren basieren.

Da bei den univariaten Analyseverfahren nur eine Variable untersucht wird, ist die Aussagekraft dieser Methode eingeschränkt und die weiteren Überlegungen beziehen sich daher auf die multivariaten Verfahren.

Ein multivariates Verfahren bildet die sog. multivariate Dependenzanalyse. Diese stellt einseitige Abhängigkeitsverhältnisse zwischen abhängigen und unabhängigen Variablen dar.[24] So lässt sich ein vermuteter Ursache-Wirkungs-Zusammenhang zwischen mehreren Variablen ermitteln. Beispielsweise das bei einem gegebenen Werbebudget (unabhängige Variable) erzielbare Absatzvolumen (abhängige Variable) kann mit Hilfe der Dependenzanalyse genauer dargestellt werden. Die multivariate Dependenzanalyse bietet zahlreiche Verfahren zur Ermittlung dieser Zusammenhänge, z. B. die Kontingenz-, Regressions-, Varianz- oder Diskriminanzanalyse.[25]

Im Unterschied zu dem genannten Analyseverfahren beginnt die multivariate Interdependenzanalyse mit der Erforschung von bisher nicht vermuteten Zusammenhängen zwischen mehreren Variablen. Die Einteilung in abhängige und unabhängige Variablen entfällt daher. Es werden vielmehr große Datenmengen aus verschiedenen Variablen, wie zum Beispiel die Altersstruktur der Zielgruppe oder die durchschnittlichen Konsumgewohnheiten zusammengeführt und aggregiert. Dazu helfen Methoden wie die Korrelations-, die Faktoren- oder die Clusteranalyse sowie die Multidimensionale Skalierung. Bei diesen Methoden werden die statistischen Daten verdichtet und die Auswertung dieser somit erleichtert.[26]

Die Conjoint-Analyse stellt ebenfalls eine Methode der multivariaten Analysen dar, welches als das wichtigste Verfahren im Rahmen der Marktforschung angesehen wird um preispolitische Entscheidungen treffen zu können.[27]

Ziel der Conjoint-Analyse ist es, in Form einer Präferenzmessung den Gesamtproduktnutzen in einzelne Teilnutzen der Produktkomponenten zu zerlegen. Auf Grund der gewonnenen Erkenntnisse lassen sich Kaufentscheidungen simulieren, erklären und beeinflussen.

Die Conjoint-Analyse wird sowohl bei Neuproduktentscheidungen, Produkt-innovationen als auch zunehmend bei der Ermittlung des Zielpreises und letztlich der Zielkosten im Target Costing angewandt.

Der Ablauf der Maßnahmen im Rahmen der Conjoint-Analyse lässt sich in sechs Schritte unterteilen.[28]

1. Schritt: Bestimmung der Eigenschaften und Eigenschaftsausprägungen

Im Rahmen der Vorbereitung zur Durchführung einer Conjoint-Analyse ist es zwingend notwendig, die Eigenschaften des Produktes auszuwählen, die bei der Analyse betrachtet und ausgewertet werden sollen.

Die Eigenschaft eines Produktes kann beispielsweise die Leistung eines Aggregates sein, während die Eigenschaftsausprägungen etwas genauere Einteilungen zum Beispiel nach kW vornehmen.

Wichtig in diesem Zusammenhang ist jedoch die Relevanz der Eigenschaften für den potenziellen Nachfrager. Unrelevante Eigenschaften und Ausprägungen sollten in jedem Falle von der weiteren Analyse ausgeschlossen werden, da diese zur Verzerrung der Ergebnisse führen können und den Aufwand unverhältnismäßig zum Ergebnis erhöhen.

Auch dieser Aspekt führt dazu, dass die Zahl der Eigenschaften und Ausprägungen auf ein Minimum reduziert wird, da dem Befragungsumfang - wie oben beschrieben -enge Grenzen gesetzt sind. Üblich sind daher etwa drei bis fünf Merkmale, welche in Abhängigkeit von der Art und dem Umfang des zu analysierenden Produktes individuell festgelegt werden müssen.

Die Beeinflussbarkeit sowie die Realisierbarkeit der Eigenschaftsausprägungen sind weitere Voraussetzungen für Produktgestaltungsmöglichkeiten mit dem Ziel die Kosten und damit die Preise aktiv zu senken.

Voraussetzung für die Überlegungen im Rahmen der Conjoint-Analyse ist auch die Addierbarkeit der Teilnutzen zum gesamten Produktnutzen. Es darf daher zwischen den zu analysierenden Eigenschaften keinerlei Abhängigkeit bestehen, sodass die Variation der einen Ausprägung zwangsläufig zu einer Beeinflussung einer anderen Ausprägung führen würde. Eine solche Abhängigkeit besteht beispielsweise bei dem Produkt „Motor“ und den Eigenschaften „Leistung“ und „Geschwindigkeit“. Die Variation der Ausprägung einer Eigenschaft hätte hier die Änderung der Anderen zur Folge und würde das Ergebnis der Analyse verzerren bzw. deren Auswertungsmöglichkeiten einschränken.

2. Schritt: Festlegung des Präferenzmodells

Die Teilnutzeneinschätzung der Nachfrager lässt sich im Verhältnis zur Ausprägung eines Merkmals betrachten. Man geht davon aus, dass der Nachfrager bei der Bewertung der einzelnen Merkmalsausprägungen auf sog. Nutzenfunktionen zurückgreift, die die Merkmalsausprägungen in Abhängigkeit zum subjektiv eingeschätzten Nutzen zeigen.

Stellt man die Nutzeneinschätzung eines Merkmals der Ausprägung in einem Koordinatensystem gegenüber, so erhält man eine Nutzenfunktion. Generell werden in der Literatur mehrere verschiedene Nutzenfunktionen diskutiert, die in Anhang B abgebildet sind.

Das gebräuchlichste Modell ist das sog. Idealvektormodell, bei dem die Proportionalität der Veränderung des Nutzens sowie der Merkmalsausprägung vorausgesetzt wird. Man erhält somit positiv oder negativ steigende Vektoren. Bei der Eigenschaft „Leistung“ eines Aggregates ist die Nutzenänderung bei Änderung der Ausprägung positiv, denn ein leistungsstärkeres Aggregat hat einen höheren Nutzen für den Nachfrager als ein Leistungsschwaches.

Anders verhält sich die Nutzeneinschätzung bei dem Merkmal Preis, denn jeder Nachfrager ist daran interessiert einen möglichst geringen Preis zu erhalten. In diesem Fall hat der Vektor eine negative Steigung.

Das Idealpunktmodell dagegen geht nicht von linearen Beziehungen zwischen Nutzeneinschätzung und Merkmalsausprägung aus, sondern vielmehr von zunächst steigenden Nutzeneinschätzungen im Verlaufe einer Erhöhung der Merkmalsausprägung. An einem Punkt, den der Nachfrager möglichst genau kennen sollte, an dem die Grenznutzenfunktion null beträgt und somit die Nutzenfunktion ihr Maximum hat, liegt der Idealpunkt zur Bestimmung der optimalen Ausprägung des entsprechenden Merkmals. Beispiele für eine solche Beziehung sind die Größe des Drehzahlmessers oder die Lautstärke der Hupe.

Seltener zu beobachten ist der entgegengesetzte Fall, bei dem ein Minimum in der Nutzenfunktion zu beobachten ist.

Letztlich ist beim sog. Teilnutzenwertmodell keinerlei funktionales Verhältnis im Gegensatz zu den drei zuvor behandelten Modellen zu beobachten. Vielmehr wird dieses Modell angewendet, wenn für jede Merkmalsausprägung eine subjektive und individuelle Nutzeneinschätzung erfolgt, die keinen linearen oder quadratischen Zusammenhang aufweist.

Auch die linearen und quadratischen Modelle lassen sich mit Hilfe des Teilnutzenwertmodells abbilden, jedoch nur durch einen höheren Aufwand. Während bei dem linearen Funktionsverlauf lediglich zwei Nutzen-Ausprägungs-Verhältnisse bekannt sein müssen, um einen Vektor zu konkretisieren müssen bei Anwendung des Teilnutzenwertmodells sehr viel mehr Verhältnisse ermittelt werden, um einen Verlauf zu verdeutlichen. Auch bei dem Idealpunkt- bzw. Anti-Ideal-Punkt-Modell müssen zumindest zwei Verhältnisse bekannt sein, um einen annähernd realistischen Verlauf zu erhalten.

3. Schritt: Auswahl der Erhebungsverfahren

Generell ist zwischen traditionellen und neueren Ansätzen der Conjoint-Analyse zu unterscheiden, wobei die Conjoint-Analyse nicht als Verfahren sondern vielmehr als Oberbegriff für verschiedene Analyseansätze zu betrachten ist.[29]

Abbildung in dieser Leseprobe nicht enthalten

Bei dem auch unter dem Namen „Zwei-Faktor-Methode“ bekannten Trade-off-Ansatz der traditionellen Conjoint-Analyse werden nur zwei Merkmale und deren Ausprägungen des Produktes in einer Matrix zusammengefasst. Der Befragte hat nun die Aufgabe die Merkmalsausprägungen in eine Rangordnung zu bringen. Man führt beispielsweise zu einem neuen Auto speziell über die Merkmale „Leistung“ und „Preis“ schriftliche Befragung oder Interviews durch, bei denen die Befragten den folgenden Ausprägungs-Merkmal-Kombinationen eine Rangfolge von eins bis drei zuordnen sollen:

A: Leistung: 70 kW - Preis: € 20.000

B: Leistung: 90 kW - Preis: € 24.000

C: Leistung: 112 kW - Preis: € 26.000

Trägt man die Ergebnisse der Befragung oder des Interviews in eine Matrix ein, so ergibt sich folgendes Bild:

Abbildung in dieser Leseprobe nicht enthalten

Es wurde eine individuelle Rangordnung durch einen einzigen Befragten gebildet. Diese ist abhängig von den Erwartungen und Ansprüchen an das Produkt sowie den Bedürfnissen des Einzelnen. Nach der Befragung muss nun jede Trade-off-Matrix zu einer gesamten Matrix zusammengefasst werden, in der die Rangordnung, die am häufigsten angegeben wurde deutlich wird.

Der Vorteil dieser Methode ist die einfache Abwicklung der Befragungsaktion, denn durch die Bildung einer Rangordnung für nur zwei Merkmale und deren Ausprägungsvarianten ist sowohl der Umfang der Befragungsaktion als auch der Aufwand der Auswertung relativ gering. Jedoch kann man bei zunehmender Anzahl von Merkmalen, die zueinander in Relation gebracht werden sollen, eine progressiv steigende Anzahl von Matrizen und somit einen enormen Befragungs- und Auswertungsaufwand feststellen. Der Grund dafür ist die Tatsache, dass jedes Merkmal mit sämtlichen anderen Merkmalen jeweils in eine Rangordnung zu bringen ist und die Zahl der Matrizen bei vier Merkmalen bereits auf 96 Stück ansteigen würde und somit eine Befragungsaktion auf Grund ihres Umfanges undenkbar wäre. Da aus diesem Grund nur zwei Merkmale gegenübergestellt werden, ist die Relevanz dieser Methode in der Praxis etwas eingeschränkt.

Beim Profil-Ansatz werden meist fiktive Beispielprodukte vorgestellt, die sich jeweils vom nächsten in nur einem Merkmal unterscheiden (Stimuli). Diese Stimuli stellen sämtliche denkbare Kombinationen der Ausprägungen einzelner Merkmale dar, die meist auf einzelnen Kärtchen notiert werden. Die Bewertung des Nachfragers erfolgt dann für alle Merkmale gleichzeitig, indem er die ihm präsentierten Stimuli in eine Rangordnung bringt, sortiert nach dem individuell empfundenen Gesamtnutzen des jeweiligen fiktiven Produktes.[30]

Der hier notwendige Vergleich von mehreren Merkmalen gleichzeitig dürfte den Befragten jedoch erhebliche Schwierigkeiten bereiten, sodass auch diese Methode nur bei einer relativ geringen Anzahl von Merkmalen und Ausprägungen durchführbar ist.

Hier ist jedoch auf Grund der Menge unterschiedlicher Kombinationsmöglichkeiten eine Verringerung der Alternativenzahl denkbar.[31]

Die Verringerung des Befragungsumfanges ist mit Hilfe verschiedener Methoden zu erreichen. Auch die sog. „symmetrischen und asymmetrischen Designs“ werden in der Literatur häufig aufgeführt, auf die jedoch nicht weiter eingegangen werden soll.

Werden die beiden Methoden des Trade-off- bzw. des Profil-Ansatzes mit Hilfe von computergestützten Lösungen weiterentwickelt, auch um die Alternativenzahl zu reduzieren, erhält man Konzepte wie die adaptive bzw. die Hybrid-Conjoint-Analyse. Hier wird unter anderem die Auswahl der relevantesten Stimuli durch computerunterstützte Systeme durchgeführt. Methodisch entspricht der Trade-off-Ansatz der adaptiven und der Profil-Ansatz der Hybrid-Conjoint-Analyse.

Die Befragung zu den Stimuli sollte möglichst mit Hilfe visueller dreidimensionaler Gestaltungsbeispiele in Form von Mustern stattfinden, da so eine Erleichterung bei der Beantwortung und eventuell das Interesses der Befragten gesteigert werden kann. Auch verbale oder visuelle Gestaltungsformen sind bei der Befragung denkbar. Die Wahl der optimalen Gestaltung hängt jedoch maßgeblich von der Art des Produktes ab. Bei der Analyse von verschiedenen Automodellen und deren Farbgebungen wäre eine dreidimensionale Präsentation kaum möglich. Hier bietet sich die Möglichkeit der visuellen Präsentation in Form von Prospekten und Fotos an, wobei Befragungen zu Leistung, Verbrauch oder Hubraum nicht visuell sondern ausschließlich verbal stattfinden können. Hier muss daher mit Tabellen und schriftlichen Informationen gearbeitet werden.

Es muss aus diesem Grund für jedes Produkt und für jedes zu untersuchende Merkmal in deren Ausprägungen individuell über die Form der Präsentation entschieden werden.

4. Schritt: Bewertung der Stimuli

Die Bewertung der Stimuli und deren Auswertung ist mit metrischen oder nicht-metrischen Verfahren durchführbar. Zu den nicht-metrischen Verfahren zählt das sog. Rangreihen-Verfahren. Wie bereits im 3. Schritt angesprochen, müssen die verschiedenen Stimuli vom Befragten in eine Rangfolge gebracht werden. Diese muss nach dem individuell eingeschätzten Gesamtnutzen gebildet werden. Das Problem ist auch hier der umfangreiche Befragungsaufwand.

Ein weiteres nicht-metrisches Verfahren stellt der sog. Paarvergleich dar. Hier werden dem Befragten immer jeweils zwei Produktvarianten präsentiert, von der er eine Bevorzugte auswählen muss. Auch hier beschränkt der Umfang der zu tätigen Vergleiche den Einsatz in der Praxis, denn bei 9 Stimuli werden bereits 36 Paarvergleiche notwendig um eine vollständige Auswertungsmöglichkeit zu erhalten. („vollständiges Design“)

Als mögliches metrisches Verfahren bietet sich das Ratingverfahren an, bei dem sämtliche Produktvarianten mit einem Rating (einem Punkt- oder Prozentwert) versehen werden. Im Vergleich zu den zu vor genannten Verfahren ist daher auch eine Gleichbewertung zweier Varianten denkbar.

Die sog. Dollarmetrik lehnt sich stark an das Verfahren des Paarvergleiches an, mit dem Unterschied, dass hier zusätzlich der Vorteil des bevorzugten Stimuli im Vergleich zum nicht Ausgewählten in einem Betrag (z. B. in €) ausgedrückt werden soll. Dies führt dazu, dass der Preis der Produktvarianten nicht als Merkmal in verschiedenen Ausprägungen in die Analyse integriert werden darf.

Bei der sog. Konstant-Summen-Regel müssen genau 100 Punkte (oder Prozent) auf sämtliche vorgestellte Produktvarianten gemäß dem empfundenen Gesamtnutzen aufgeteilt werden. Die bevorzugten Varianten erhalten entsprechend mehr Punkte (Prozent) als die weniger Bevorzugten.

5. Schritt: Schätzung und Interpretation der Nutzenparameter

Nachdem die Befragten die verschiedenen Produktvarianten beurteilt haben, schließt sich die Phase der Schätzung der Nutzenparameter also der Teilnutzenwerte an. Als Voraussetzung für diese Überlegungen gilt daher ebenfalls der Grundsatz des additiven Teilnutzenmodells. Sämtliche Teilnutzenwerte müssen in der Summe als Gesamtproduktnutzen der gesamten Bewertung der Stimuli entsprechen.[32]

Diese Parameterschätzung hängt maßgeblich von der Auswahl der in Schritt 4 gewählten Verfahren zur Bewertung der Stimuli ab.

Auf Basis der nicht-metrischen Verfahren werden Schätzalgorithmen mit den Bezeichnungen „MONANOVA“ (Monotone Analysis of Variance) oder „LINMAP“ (Linear Programming Techniques for Multidimensional Analysis of Preference) angewendet. Bei diesen Methoden erfolgt die Schätzung der Teilnutzenwerte, indem man die diese mit Hilfe der Rangwerte in eine Reihenfolge bringt.

Auf der Basis metrischer Verfahren dagegen werden Schätzungen namens „OLS“ (Ordinary Least Squares) oder „ANOVA“ (Analysis of Variance) bevorzugt. Hier basieren die Schätzüberlegungen auf der Ratingmethode. Die Teilnutzenwerte werden dabei mit Hilfe von sog. Regressionsgleichungen ermittelt.[33]

Als Ergebnis dieser Schätzmethoden erhält man die am meisten bevorzugte Produktvariante. Dessen einzelne Teilnutzenwerte lassen erkennen, welche Auswirkung die Variation einer Merkmalsausprägung auf die Präferenzen dieses Nachfragers hat.

[...]


[1] Vgl. Kremin-Buch, Beate: „Strategisches Kostenmanagement“ 1998, Seite 106

[2] Vgl. Monden, Yasuhiro: „Wege zur Kostensenkung“ 1999, Seite XIII

[3] Vgl. Hardt, Rosemarie: „Kostenmanagement“ 1998, Seite 108

[4] Vgl. Hardt, Rosemarie, a. a. O., Seite 107

[5] Vgl. Steinle, Claus; Eggers, Bernd; Lawa, Dieter (Hrsg.): „Zukunftsgerichtetes Controlling“ 1998, Seite 347

[6] Vgl. Preißler, Peter: „Entscheidungsorientierte Kosten- und Leistungsrechnung“ 1995, Seite 215

[7] Vgl. Kremin-Buch, Beate, a. a. O., Seite 106

[8] Vgl. Horváth, Péter (Hrsg.): „Effektives und schlankes Controlling“ 1992, Seite 240

[9] Vgl. Horváth, Péter (Hrsg.): „Target Costing“ 1993, Seite 5

[10] Vgl. Monden, Yasuhiro, a. a. O., Seite 12

[11] Vgl. Wöhe, Günter: „Einführung in die Allgemeine Betriebswirtschaftslehre“ 1996, Seite 682 ff.

[12] Vgl. Seidenschwarz, Werner: „Nie wieder zu teuer“ 1997, Seite 35

[13] Vgl. Wöhe, Günter, a. a. O., Seite 681

[14] Vgl. Burger, Anton: „Kostenmanagement“ 1995, Seite 42

[15] Vgl. Fischer, Thomas M.: „Kosten-Controlling“ 2000, Seite 240 f.

[16] Vgl. Horváth, Péter: „Target Costing“ 1993, Seite 202 f.

[17] Vgl. Burger, Anton, a. a. O., Seite 51

[18] Vgl. Wöhe, Günter, a. a. O., Seite 608

[19] Vgl. Pepels, Werner (Hrsg.): „Moderne Marktforschungspraxis“ 1999, Seite 8

[20] Vgl. Kiss, Thomas; Tesch, Helmuth: „Einsatz und Instrumente der Marktforschung“ 1995, Seite 13 f.

Grafik entnommen aus: Pepels, Werner (Hrsg.), a. a. O., Seite 130

[21] Vgl. Pepels, Werner (Hrsg.), a. a. O., Seite 132 ff.

[22] Vgl. Kühn, Richard; Fankhauser, Kathrin: „Marktforschung“ 1996, Seite 81

[23] Vgl. Pepels, Werner (Hrsg.), a. a. O., Seite 247

[24] Vgl. Wöhe, Günter, a. a. O., Seite 620

[25] Vgl. Pepels, Werner (Hrsg.), a. a. O., Seite 340 ff.

[26] Vgl. Pepels, Werner (Hrsg.), a. a. O., Seite 356

[27] Vgl. Reichmann, Thomas; Palloks. Monika (Hrsg.): „Kostenmanagement und Controlling“ 1998, Seite 179

[28] Vgl. Hahn, Christian: „Conjoint- und Discrete Choice-Analyse…“ 1997, Seite 43 f.

[29] Grafik aus: Burger, Anton, a. a. O., Seite 58

[30] Genauere Methoden werden in Schritt 4 erläutert!

[31] Vgl. Hahn, Christian. A. a. O., Seite 44 ff. sowie Burger, Anton, a. a. O., Seite 57 ff.

[32] Vgl. Hahn, Christian, a. a. O., Seite 69

[33] Vgl. Hahn, Christian, a. a. O., Seite 70 f. sowie: Tscheulin, Dieter: „Optimale Produktgestaltung“ 1992, S. 118 f.

Details

Seiten
66
Jahr
2001
ISBN (eBook)
9783638121088
Dateigröße
652 KB
Sprache
Deutsch
Katalognummer
v3436
Institution / Hochschule
Technische Akademie Wuppertal e.V. – Dipl.-Studiengang Betriebswirt VWA
Note
1,3
Schlagworte
Instrumente Zielkostenerreichung Target Costing

Autor

Teilen

Zurück

Titel: Instrumente zur Zielkostenerreichung im Target Costing