Lade Inhalt...

Die Publikationspraxis der Psychologie auf dem Prüfstand

Bachelorarbeit 2016 40 Seiten

Psychologie - Sonstiges

Leseprobe

Inhaltsverzeichnis

Zusammenfassung

Abstract

Einleitung

Wissenschaft als normativer Prozess

Notwendigkeit der Bibliometrie

Der Journal-Artikel

Kritik des Journal Impact Factor

Kritik desPeer Review

Diskussion

Literatur

Danksagung

An dieser Stelle möchte ich mich bei den Personen bedanken, die mich bei der Verwirklichung dieser Abschlussarbeit unterstützt haben.

Mein besonderer Dank gilt Herrn Prof. Dr. Rindermann, welcher meine Abschlussarbeit als Erstkorrektor begutachtet sowie Herrn Dr. habil. Schäfer, welcher sich als Zweitkorrektor zur Verfügung gestellt hat.

Ebenso möchte ich mich bei den Mitarbeitern des Lehrstuhls für Pädagogische Psychologie und Entwicklungspsychologie der TU Chemnitz bedanken. Dabei gilt mein besonderer Dank meiner Betreuerin Caroline Tost für ihre fortwährende fachliche Unterstützung sowie ihr Engagement mir mit Rat und Tat zur Seite zu stehen.

Zusammenfassung

In der vorliegenden Arbeit wurde das Publikationsverhalten in den Wissenschaften, speziell der Psychologie, untersucht und mit einer allgemeinen Norm, der Autonomie der Wissenschaften, kontrastiert. Um dies zu leisten, erfolgte zunächst eine kurze Einführung in die Charakteristika eines autonomen Subsystems Wissenschaft, um sodann in ein Teilgebiet der Wissenschaftsforschung, der Bibliometrie, einzuführen. Dadurch sollte die Publikationspraxis als Kernelement im wissenschaftlichen Prozess herausgearbeitet und verdeutlicht werden. In dessen Verlauf wurde deutlich, daß Wissenschaftler im Kontext des Publizierens häufig quantitative Kriterien zur Maxime des Handelns erheben. Ein zentrales Kriterium, der sogenannteJournal Impact Factor, wurde alsdann ausführlich und exemplarisch für etwaige andere Kriterien diskutiert, um schließlich eine allgemeine Theorie auszuführen, welche die Beliebtheit quantitativer Kriterien hinreichend gut zu erklären vermochte. Als weiteren Schwerpunkt der Arbeit wurde die Institution desPeer Review, aufgrund dessen zentraler Bedeutung sowohl für die Autonomie der Wissenschaften als auch der Publikationen, ausführlich analysiert. Diesbezüglich ergab sich nach Sichtung der Literatur ein äußerst heterogenes Bild, sodaß kein abschließendes Urteil möglich war. Abschließend wurde erneut auf den für die Wissenschaft konstituierenden Wert der Autonomie Bezug genommen und im Lichte der in der Arbeit sichtbar gewordenen kritischen Punkte, respektive der Ansprüche vonseiten der Öffentlichkeit, diskutiert.

Abstract

In this bachelorthesis, the publication behaviour of the sciences, especially psychology, has been investigated and afterwards contrasted with the general scientific norm of autonomy. To conduct this, it was given a short introduction into the characteristics of the autonomous subsystem of science and following, an introduction in bibliometrics, a subject of general scientific research. Thereby it should pointed out that publication practice is a core item of the scientific process. It becames apparent, that scientists often use quantitative criteria as a maxim of act. A central criterion, theJournal Impact Factor, was discussed detailed as an example for other criteria. Then a general theory was elucidated which seems to be a good explanation for popularity of quantitative criteria. The next focus of work was the institution ofpeer review, which was analysed because of their central importance for scientific autonomy and also for publications, too. In this regard, it was a very heterogenous field in this area, therefore no terminal appraisal was possible. Concluding, it was reminding of autonomy of science whom was considering with the critical points of this work, respectively the requirements of the public.

Einleitung

Die Publikationspraxis der verschiedenen wissenschaftlichen Disziplinen unterscheidet sich je nach Fachgebiet: Laut Ball (2014) sind in den Naturwissenschaften Zeitschriftenartikel respektive Mehrautorenpublikationen die verbreitetste Form des wissenschaftlichen Austausches. Die Zielgruppe dieser Artikel ist ein internationales Fachpublikum, daher werden die Artikel zumeist in englischer Sprache verfasst. Demgegenüber stehen die Geisteswissenschaften, die vorwiegend mittels Monografien, Sammel- und Konferenzbänden sowie Einzelautorenwerken den wissenschaftlichen Diskurs gestalten. Zudem wird in den Geisteswissenschaften vorwiegend in der Landessprache publiziert.

Gemäß Ball (2014) steht die Psychologie in naturwissenschaftlicher Tradition. Dies impliziert, daß überwiegend in Fachzeitschriften publiziert wird sowie das – in Übereinstimmung mit dem Vorgehen der Naturwissenschaftler – ein zunehmender Anteil an englischsprachigen Publikationen angenommen werden kann.

Die steigende Präferenz für den Journal-Artikel als Publikationsmedium zeigt sich ebenso sehr gut im Phänomen der quantitativen Kumulation der vorhandenen Journale: Die bibliografische DatenbankSocial Sciences Citation Indexlistet über 1800 Zeitschriften aus den Sozial- und Geisteswissenschaften; zum engeren psychologischen Umfeld können etwa 500 Journale gezählt werden (Schui & Krampen, 2006). Diese bereits unüberschaubaren Ausmaße geben jedoch nur einen Bruchteil des tatsächlichen weltweiten Zeitschriftenaufkommens wieder, da in dieser Datenbank nur 24 deutsche Zeitschriftentitel geführt werden (Schui & Krampen, 2006) und gemäß einer Schätzung von Ball (2014) derzeit weltweit etwa 200.000 verschiedene wissenschaftliche Zeitschriftentitel verfügbar sind.

Die zunehmende Publikation in Journalen hat – neben dem unterstellten Selbstverständnis der Fachwissenschaft – vielfältige mögliche Gründe und selbstredend auch mannigfaltige Auswirkungen auf die Arbeit der Wissenschaftler. In dieser Arbeit soll dementsprechend eine differenzierte Kritik der heutigen Publikationspraxis der Wissenschaften, insbesondere der Psychologie, vorgenommen werden. Es wird hier aus Zeitgründen sowie inhaltlichen Erwägungen um die zunehmend dominierende und populärste Praxis, die Publikation von Journal-Artikeln, gehen.

Es soll gezeigt werden, daß die (psychologische) Wissenschaft durch die aktuelle Publikationskultur in ein rigides Normenkorsett gezwängt ist. Dies allein wäre vielleicht keine Erwähnung wert, da Wissenschaft zumeist kein anarchischer sondern ein normativer Prozeß sein sollte (z.B. Merton, 1973b). Die These besteht jedoch vielmehr darin, daß die aktuellen (mehr oder weniger expliziten) Publikationsnormen häufig eher außer-wissenschaftlichen Kriterien genügen und die Wissenschaft somit in diesem zentralen Bereich wissenschaftlicher Tätigkeit ihre eigenen normativen Maßstäbe der Rationalität und insbesondere, als ein Schwerpunkt der Arbeit, der Autonomie (Wilholt, 2012) verfehlt.

Zur Untersuchung dieser These werden – nach einer kurzen Darstellung allgemeiner wissenschaftlicher Normen sowie einer Erörterung der Notwendigkeit von Wissenschaftsforschung (hier liegt aus Zeitgründen der Schwerpunkt auf der Bibliometrie) – wichtige Facetten der aktuell dominierenden Publikationskultur exemplarisch herausgegriffen und kritisch diskutiert. Anschließend sollen diese Aspekte unter Einbeziehung der eingangs genannten grundlegenden wissenschaftlichen Ideen einer kritischen Beurteilung ausgesetzt werden.

Wissenschaft als normativer Prozess

Weingart (2001) gibt einen historischen Überblick über die Entstehung der Wissenschaft zu einem eigenständigem Subsystem der Gesellschaft. Durch die Entkopplung der Wissenschaft von anderen gesellschaftlichen Bereichen wird der „Prozeß der Wissensproduktion und -kumulation nicht durch moralische, politische, religiöse und andere Zielsetzungen gesteuert, sondern aus sich selbst heraus, aufgrund eines kontinuierenden Prozesses von Fragen, Antworten und durch diese sich neu stellenden Fragen.“ Bis in die siebziger Jahre des letzten Jahrhunderts gab es eine mehr oder weniger informelle Übereinkunft, gemäß der die Politik der Wissenschaft größtmögliche Autonomie gewährt sowie finanzielle Mittel für ihre Forschung zur Verfügung stellt. Es sei angemerkt, daß diese Übereinkunft bzw. die Autonomie des wissenschaftlichen Subsystems schon damals nicht uneingeschrännkt anerkannt war, sondern an die Bedingung einer gewissen Produktivität der Wissenschaft gebunden war (Reinhart, 2012). Dies ist historisch nicht immer so gewesen: die humboldtsche Universität des frühen 19. Jahrhunderts zeichnete sich gerade durch ihren Anti-Utilitarismus und die Förderung einerreinen Wissenschaftaus (Weingart, 2001).

Notwendigkeit der Bibliometrie

Die Bibliometrie ist ein Teilgebiet der Szientometrie („Messen der Wissenschaft“) – welche wiederum Teildisziplin der Wissenschaftsforschung ist – und handelt von der Messung und Interpretation des wissenschaftlichen Outputs. Wörtlich übersetzt heißt Bibliometrie „Messen der Bücher“, also die quantitative Erfassung der schriftlichen Wissenschaftskommunikation (Ball, 2014). Der Output beschränkt sich im Rahmen dieser Arbeit auf wissenschaftliche Publikationen. Eine wichtige Prämisse der Bibliometrie besteht darin, daß nicht unmittelbar die Qualität der wissenschaftlichen Publikationen gemessen wird. Vielmehr liegt die Annahme zugrunde, daß „ein oft zitierter wissenschaftlicher Beitrag in den allermeisten Fällen wichtiger und damit besser ist als ein selten zitierter Beitrag“ (Ball, 2014).

Ball (2014) konstatiert, daß öffentlich finanzierte Forschung eine grundsätzliche Notwendigkeit zum Publizieren mit sich bringt. Schließlich habe die Öffentlichkeit ein Interesse daran, die Gelder sinnvoll investiert zu wissen. Zudem ist der Forscher auf Publikationen seiner Arbeiten angewiesen; insofern sollte er daran interessiert sein, zu publizieren, damit seine Forschung in derscientific communitybekannt wird. Wer seine Ergebnisse nicht in irgendeiner Form kommuniziert und darstellt, existiert in der Wissenschaftsgemeinde logischerweise auch nicht. Die Wissenschaftler bewegen sich bei ihren Publikationen dabei in einem bestimmten normativen Rahmen. Das impliziert, daß sie nur sehr bedingt über die Form – und letztlich auch den Inhalt – bestimmen können. Verschiedene Wissenschaftsindikatoren und Kennzahlen, die heute verwendet werden, haben oft sehr weitgehende Konsequenzen für die wissenschaftliche Arbeit der entsprechenden Professionen (und damit letztlich auch wieder für die Öffentlichkeit, die von der Arbeit der Wissenschaftler profitieren sollte!): sie sind maßgebliche Entscheidungsgrundlage für Besetzungen von Lehrstühlen, Einstellung von wissenschaftlichen Mitarbeitern, Vergabe von Forschungsmitteln bis hin zur Bewertung und zum Vergleich von Universitäten sowie sogar des wissenschaftlichen Entwicklungsstandes von gesamten Nationen (z.B. Schui & Krampen, 2006). Auf einige dieser Indikatoren, die eine wichtige und teils verbindliche Orientierungsnorm für Wissenschaftler darstellen, soll im Laufe dieser Arbeit eingegangen werden.

An dieser Stelle muss bereits konstatiert werden, daß die Bibliometrie (und generell die Szientometrie) keineswegs zu den „nicht-reaktiven Meßverfahren“ gehört. Das bedeutet, daß die „Meß-Vorgänge in Interaktion mit dem antizipierten Verhalten der Betroffenen das Gemessene verändern, sie bringen letztlich das hervor, was sie zu messen vorgeben. Sie produzieren mithin Artefakte, d.h. Kunstprodukte und Ergebnisverzerrungen“ (Fröhlich, 1999). Das Ziel, den wissenschaftlichen Prozess objektiv zu bewerten oder zu messen, ist also im Ergebnis nicht nur verzerrend oder subjektiv, sondern bringt geradezu eine spezifische Wissenschaftswirklichkeit hervor, die durch die Zwecke und Ziele der Bewertung und Messung überhaupt erst entsteht. Eine „objektive“ Messung oder Bewertung „der Wissenschaft“ (die es im Singular ohnehin nicht gibt) ist somit prinzipiell unmöglich. Es läßt sich also der Grundsatz der empirischen Psychologie, gemäß dem eine Beobachtung (Bewertung) das Verhalten der „Messobjekte“ (z.B. die Arbeiter im Hawthorne-Experiment; Nerdinger et alii, 2014, S. 22) verändern kann, grundsätzlich auch auf das „Messobjekt Wissenschaft“ übertragen. Dieses vorweggenommene Fazit dient als Schwerpunkt der vorliegenden Arbeit und soll daher im weiteren Verlauf anhand einiger Beispiele und Analysen verdeutlicht werden.

Zudem deutet dieser erste Überblick (über die Bibliometrie) schon an, daß die weitreichende Normierung des Forschungsprozesses nicht durch inner-wissenschaftliche Gründe legitimiert scheint, sondern vielmehr externen Kriterien und Maßstäben, die an die Wissenschaft von außen herangetragen werden, zu genügen hat. Sobald die für Forscher relevanten Faktoren wie beispielsweise Mittelzuteilungen, Stellenbesetzungen, Karriere, Renommee (symbolisches Kapital im Sinne Bourdieus) oder auch („über-individuell“) der Weiterbestand von ganzen Forschungseinrichtungen (Fröhlich, 1999) an (externe) Kriterien gekoppelt sind, steht zu erwarten, daß die Wissenschaftler ihr Publikationsverhalten an die entsprechenden Kriterien und deren Funktionslogik anpassen; dies scheint letztlich notwendig, um erfolgreiches Mitglied der Scientific Community zu sein oder zu werden (Groeben, 2006). Ob und inwiefern sich eine Anpassung an die vom aktuellen Zeitgeist präferierten Normen bzw. Kriterien bestätigen läßt, wird weiter unten aufgezeigt. Zwei wichtige Indikatoren bzw. Kriterien sollen bezüglich der Begründung dieser These skizziert werden: zum einen die Bereitschaft und (geforderte) Kompetenz der Forscher, möglichst viele Artikel in möglichst angesehenen Journalen unterzubringen. Dieser „akademische Imperativ“ ist inzwischen weit verbreitet und wird umgangssprachlich auch alspublish or perishbezeichnet (Ball, 2014). Das zweite, für heutige Forscher (leider) immer noch wichtige Kriterium ist die Orientierung am populärenJournal Impact Factor, auf den weiter unten ausführlich eingegangen wird.

Der Journal-Artikel

Zunächst soll jedoch die Publikationsform des Journal-Artikel kurz charakterisiert und bewertet werden, da die (psychologische) Wissenschaft vorzugsweise (und zunehmend) Journal-Artikel als Publikationsmedium nutzt (z.B. Ball, 2014 & Groeben, 2006) und dieses Medium daher für diese Arbeit von zentraler Bedeutung ist. Groeben (2006) skizziert die Genese des wissenschaftlichen Zeitschriftenaufsatzes und verweist darauf, daß etwa ab dem 19. Jahrhundert die Texte weitgehend standardisiert sind und alsIMRAD-Format bezeichnet werden können (Introduction, Methods, Results and Discussion) bzw. entsprechend das deutsche AkronymEMED(Einleitung, Methoden, Ergebnisse, Diskussion). Auch diese einzelnen Artikelbereiche werden in aller Regel noch weiter aufgefächert (z.B. wird in der Einleitung das Forschungsfeld abgegrenzt oder Forschungsbedarf konstatiert), wobei sich auch hier ein zumeist recht standardisiertes Vorgehen etabliert hat („Dreischritt in der Einleitung“, Groeben, 2006). Der Methodenteil wird beispielsweise häufiger in kleiner Schriftgröße publiziert und im Ergebnisteil sollen keine Rohdaten mehr berichtet werden, was Groeben (2006) mit dem Ziel einer möglichst hohen Informationsdichte erklärt. Die wissenschaftstheoretische Legitimation für eine derart weitreichende Standardisierung der Textstruktur ist nach Groeben (2006) auf dasKommunikationsobligatder Wissenschaften zurückzuführen: „wissenschaftliche Erkenntnis ist nur aufgrund eines möglichst optimalen Kommunikationsprozesses zu erreichen, in dem Aussagen maximal präzise dargeboten werden, damit sie optimal überprüft, kritisiert werden können. Dabei ist durchaus festzustellen, daß wissenschaftliche Texte zu denpersuasiven Textengehören, d.h. eine Textsorte darstellen, durch die andere Mitglieder der Scientific Community von den in einem Beitrag vertretenen Positionen, Ergebnissen, Interpretationen etc. überzeugt werden sollen“ (Groeben, 2006). Des Weiteren wird beobachtet, daß eine vermehrte Anzahl an Passiv-Formulierungen (zwecks einer möglichst hohen Intersubjektivität bzw. Objektivität) sowie eine ausgeprägte Verwendung von Wissenschaftsjargon besteht (Groeben, 2006). Hier muß jedoch unterstellt werden, daß diese Sprachkritik nicht auf den wissenschaftlichen Zeitschriftenartikel beschränkt sein dürfte. Aus der neopositivistischen Tradition kommt gar die Forderung, daß rhetorische Figuren wie Metaphern aus der wissenschaftlichen Sprache auszuschließen sind, weil diese die Aufmerksamkeit vom Inhalt auf den Stil verschiebe (Groeben, 2006). Diese Forderung geht davon aus, daß wissenschaftliche und literarische Sprache klar voneinander abgegrenzt werden können bzw. sollten; dieser wissenschaftstheoretische Purismus verkennt jedoch die modellbildende Funktion von Metaphern – wie die bekannten „Zeitgeist-Metaphern“ aus der Theorieentwicklung der Psychologie (siehe Groeben, 2006). Zudem muß kritisch gefragt werden, ob durch eine zu starre Struktur der Publikationsform des wissenschaftlichen Artikels die Forschungs- (und Darstellungs-)freiheit womöglich zu stark eingeschränkt wird. Nach Groeben (2006) verfehlt der wissenschaftliche Zeitschriftenaufsatz durch seine Standardisierungsdynamik und damit einhergehende Verluste bezüglich Kreativität und Innovation (darauf wird unten noch näher eingegangen) die ideale Sprechsituation bzw. das wissenschaftstheoretische Kommunikationsobligat.

Kritik des Journal Impact Factor

Nun soll, exemplarisch für die Beliebtheit von quantitativen Kriterien in der heutigen Wissenschaftslandschaft, der äußerst populäreJournal Impact Factoreingehend besprochen werden. Der Indikator soll die Qualität und Bedeutung von Zeitschriften messen (Ball, 2014) und viele Forscher beziehen sich bei ihrer Entscheidung, welches Journal für eine Publikation am vielversprechendsten scheint, häufig auf diesen Faktor. Dieses Verhalten scheint vordergründig auch verständlich zu sein, da Publikationen in einer impact-starken Zeitschrift mit einem hohen Zugewinn an Reputation verbunden sind (Schui & Krampen, 2006). Der Indikator scheint von den Wissenschaftlern geradezu als „Wunderindex“ und „Alleskönner“ (Ball, 2014) betrachtet zu werden. Zudem ist er bei der Einstellung von akademischem Personal der wichtigste Bewertungsmaßstab sowie dient in Spanien und Finnland gar als offizieller Indikator hinsichtlich der Bewertung der nationalen wissenschaftlichen Produktion (Ball, 2014), mit der Folge, daß teilweise sogar Bonuszahlungen auf Publikationen in besonders impact-starken Zeitschriften ausgelobt werden (Ball, 2014). Zudem bestätigte eine Umfrage zu den Publikationspräferenzen unter den Mitgliedern derDeutschen Gesellschaft für Psychologie, daß derJournal Impact Factor„bei Publikationsabwägungen für die Mehrheit der Befragten „sehr wichtig“ (29%) bzw. „wichtig“ (33%) ist“ (Krampen et alii, 2012).

Wie ist es nun aber mit einer kritischen Bewertung desJournal Impact Factor? Dazu soll kurz auf die historische Entstehung dieses Kriteriums sowie seine Eigenschaften eingegangen werden. DerJournal Impact Factorgeht zurück auf Garfield, den Begründer der modernen Bibliometrie, der nach Unterscheidungsmerkmalen zwischen guten und schlechten Zeitschriften suchte (Ball, 2014). Seine ursprüngliche Intention war die Beratung von Bibliothekaren bei der Beschaffung von Literatur. Garfield selbst lehnt die Anwendung von Indikatoren, speziell desJournal Impact Factoreiner wissenschaftlichen Zeitschrift, zur Bewertung von Personen und Institutionen bis heute ab. Ironischerweise ist jedoch gerade der von ihm initiierteScience Citation Indexim Laufe der Zeit zu einer der international wichtigsten Datenbanken für die Wissenschaftsevaluation bzw. zum Prototypen eines Standardwerks für die quantitative Bewertung des Wissenschaftsoutputs geworden (Ball, 2014).

DerJIFist definiert durch die Anzahl der Artikel in einer Zeitschrift und der Anzahl der Zitate, die jeder Artikel bekommen hat. Dabei wird die Summe der Zitierungen durch die Zahl der Artikel geteilt. Da Zitierungen immer erst mit einer zeitlichen Verzögerung von rund 2 Jahren messbar seien, definiert Garfield denJournal Impact Factorals die „Summe der Zitierungen geteilt durch alle Artikel einer Zeitschrift der vergangenen zwei Jahre“ (Ball, 2014). Man geht also von der Prämisse aus, daß eine Zeitschrift mit höheremJournal Impact Factoreine bessere, weil häufiger zitierte Zeitschrift ist (Ball, 2014). Aus der Anzahl der Zitierungen wird damit auf die Qualität des Journals konkludiert – was schon einen ersten Kritikpunkt nach sich zieht: wenig zitierte Arbeiten müssen nicht von minderer Qualität sein und im Umkehrschluss hat eine doppelt so häufig zitierte Arbeit zwar auch doppelt so viel Aufmerksamkeit (wobei auch dieses Konstrukt differenziert bzw. operationalisiert werden könnte) auf sich gezogen, daß sie aber auch doppelt so wichtig für den Fortschritt in der Disziplin ist, läßt sich daraus nicht ableiten (Havemann, 2009). Auch der zugrunde gelegte Zeitraum von zwei Jahren, aus denen die zitierten Artikel stammen dürfen, ist Gegenstand von Kritik (Hornbostel et alii, 2009): es ist zunächst unmittelbar einsichtig, daß Zitate einem zeitlichen Verlauf folgen. Direkt nach einer Publikation sind nur wenige Zitate zu verzeichnen, dies wird als Kurzzeiteffekt bezeichnet. Nach einigen Jahren wird dann irgendwann ein Maximum der Zitierungshäufigkeit erreicht, bevor diese für gewöhnlich alsbald wieder abnimmt. Die Zeitpunkte für die Maxima der Zitierungshäufigkeit sind dabei äußerst unterschiedlich. In den Naturwissenschaften etwa wird das Maximum häufig schon nach zwei bis drei Jahren erreicht, während es beispielsweise in der Mathematik vier bis fünf Jahre dauern kann, bis ein angemessener Teil der zu erwartenden Zitate beobachtet werden können. Ein – wie bei der Berechnung des Journal Impact Factor – solches, relativ kurzes Zitierungszeitfenster hat damit zur Folge, daß „Fachgebiete mit kurzlebigeren Wissenszyklen generell höhereJIFerzielen als solche, in denen die Halbwertszeit des Wissens höher liegt“ (Hornbostel et alii, 2009). Fröhlich (2003) fasst zusammen, daß „die Begrenzung auf die Resonanznur in den ersten zwei Jahrennach Erscheinen rasante Disziplinen wie HIV-, Krebsforschung, Gentechnologie begünstigt; es bestraft systematisch nachhaltigere Disziplinen (wie die Sozial- oder Geschichtswissenschaften), deren Artikel noch nach Jahrzehnten zitiert werden.“ Zudem wurde gezeigt, daß „Journale, die einen hohen Anteil an Review-Artikeln veröffentlichen, einen höherenJIFerzielen, da Reviews i.d.R. häufiger zitiert werden“ (Hornbostel et alii, 2009).

DerJournal Impact Factorhängt damit stark von den Zitations- und Publikationsgewohnheiten der jeweiligen Fachdisziplin ab. Es ist daher unredlich, Zeitschriften verschiedener Disziplinen miteinander zu vergleichen (Havemann, 2009). Häufig ist sogar der Vergleich zwischen Subdisziplinen eines Faches nicht sinnvoll, wie durch ein Beispiel aus der Biologie belegt wird: der durchschnittlicheJournal Impact Factorfür Biologie im Jahre 2011 liegt bei 1,5. In der Zoologie, also einem Teilgebiet der Biologie, jedoch nur bei 1,0 und in der Zellbiologie dagegen bei 3,2 (Ball, 2014). Ein weiterer problematischer Punkt besteht darin, daß gemäß einer Studie von Krampen et alii (2007) in deutsch- und englischsprachigen Fachpublikationen ca. 25% der Zitationen allgemeine Verweise ohne Bezug auf die inhaltliche Substanz der Quelle (so genannte „Nennzitationen“) sind.

Zudem kann vomJournal Impact Factoreiner Zeitschrift nicht auf einzelne Wissenschaftler oder Beiträge zurückgeschlossen werden, da der Faktor ein Mittelwert ist und dessen Höhe daher von einzelnen, sehr häufig zitierten Beiträgen unverhältnismäßig nach oben verzerrt werden kann. Ball (2014) gibt daher zu bedenken, daß eine Zeitschrift mit hohemJournal Impact Factor(und somit ihr hohes Renommee) allein aufgrund einiger sehr häufig zitierter Artikel zustande kommt, während die übrigen Artikel weniger (oder häufig auch überhaupt nicht) wahrgenommen werden. Damit ist die oben bereits erwähnte Praxis in der Wissenschafts(-politik), die Bewertung von individuellen wissenschaftlichen Leistungen einzelner Personen anhand desJournal Impact Factor, völlig ungeeignet. Ball (2014) fügt hinzu, daß dennoch „die Anwendung dieses Indikators als Bewertungsmaßstab von Einzelpersonen nicht klein zu kriegen ist, obwohl mit demh-Indexinzwischen ein weit besserer Indikator vorliegt.“ Derh-Index(auch Hirschfaktor, benannt nach dem Entwickler Jorge E. Hirsch), der hier kurz vorgestellt werden soll, ermöglicht eine „genauere, objektivere und besser vergleichbare Bewertungsgrundlage für die wissenschaftliche Bedeutung von Einzelpersonen“ (Ball, 2014). Man berechnet ihn, indem zunächst alle „Publikationen einer Person in der Reihenfolge ihrer Zitierhäufigkeit abnehmend sortiert werden. Derjenige Wert, bei dem die laufende Nummer der Publikation mindestens so groß ist, wie die Zahl der Zitierhäufigkeit, bezeichnet den Hirschfaktor“ (Ball, 2014). Er hat den Vorteil, das er robuster gegenüber Ausreißern, d.h. überdurchschnittlich häufig oder selten zitierten Publikationen, ist. Dies ist jedoch zugleich seine größte Schwäche, weil ein Wissenschaftler mit einigen durchschnittlich häufig zitierten Publikationen möglicherweise denselbenh-Indexwie ein Wissenschaftler mit einigen sehr häufig zitierten Publikationen haben kann (Hornbostel et alii, 2009). Auch derh-Indexist daher mitnichten ein „Superindikator“.

[...]

Details

Seiten
40
Jahr
2016
ISBN (eBook)
9783668671300
ISBN (Buch)
9783668671317
Dateigröße
581 KB
Sprache
Deutsch
Katalognummer
v418147
Institution / Hochschule
Technische Universität Chemnitz
Note
1,7
Schlagworte
Publish or Perish Impact Factor Peer Review Bibliometrie

Autor

Teilen

Zurück

Titel: Die Publikationspraxis der Psychologie auf dem Prüfstand