Lade Inhalt...

Das Nichtwissen der Wissenschaft am Beispiel Glyphosat

Zum Nichtwissen in der wissenschaftlichen und politischen Bewertung von Stoffen

Bachelorarbeit 2017 97 Seiten

Umweltwissenschaften

Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

1) Einleitung

2) Nichtwissen in der wissenschaftlichen Risikobewertung von Umwelt- und Gesundheitsthemen
2.1) Sozialwissenschaftliche Risikoforschung
2.1.1) Die Anfänge der Risikoforschung
2.1.2) Becks Risikogesellschaft
2.1.2) Risikoabschätzung und Risikopolitik
2.2) Soziologie des Nichtwissens
2.2.1) Historische Entwicklung
2.2.2) Soziologie des wissenschaftlichen Nichtwissens
2.2.3) Politisierung/Governance des Nichtwissens

3) Fallbeispiel Glyphosat
3.1) Aktueller Forschungsstand
3.2) Analyse der divergierenden wissenschaftlichen Risk Assessments
3.3) Einfluss des öffentlichen Diskurses

4) Diskussion
4.1) Nichtwissen in der Risikobewertung
4.2) Wie können Alternativen aussehen?
4.2.1) Folgenverantwortung /Perspektiven aus der Wissenschaftsforschung
4.2.2) Politische Nachhaltigkeitssteuerung
4.2.2.1) Risikowahrnehmung
4.2.2.2) Partizipation

5) Fazit

6) Ausblick

7) Literaturverzeichnis
7.1) Internetquellen

8) Anhang
8.1) Thematisierung von Nichtwissen

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1) Einleitung

Niklas Luhmann hat bereits 1992 die damals eher ungewöhnliche These formuliert, „daß die ökologische Kommunikation ihre Intensität dem Nichtwissen verdankt“.[1] Dass Wissen teilweise auf ungesicherten Annahmen beruhe, verrate der oft verständnislose und forsche Stil öffentlicher Kontroversen.[2] Auch nach Stefan Böschen und Peter Wehling beziehen sich die Auseinandersetzungen um technisch-wissenschaftliche Innovationen und ihre ökologischen und sozialen Konsequenzen weniger auf wissenschaftlich festgestellte Risiken, als vielmehr auf das Nichtwissen.[3]

Ein aktuelles Beispiel für die Divergenz regulatorisch-wissenschaftlicher Risikobewertung und öffentlicher Risikowahrnehmung stellt das Zulassungsverfahren und die Bewertung des Pflanzenschutzmittels Glyphosat dar. Anhand dieses Fallbeispiels soll analysiert werden, wie sowohl wissenschaftliches als auch gesellschaftliches Nichtwissen entsteht und wie diese wiederum mit sozialen Konflikten in Zusammenhang stehen.

Einerseits wird ein sachlicher Diskurs durch das Vorhandensein unterschiedlicher Weltbilder und das Hervorheben von Aspekten aus ökologischer, ökonomischer, ethischer oder politischer Perspektive als Grundlage der jeweiligen Risikowahrnehmung erheblich erschwert. Auf der anderen Seite wurde in den Medien vermehrt darüber berichtet, dass die wissenschaftliche Risikobewertung von Glyphosat durch partikuläre Interessen von Unternehmen beeinflusst wurde, z.B. wurden einem Artikel der New York Times zufolge Studien von Monsanto ohne Hinweis auf Interessenskonflikte in Fachzeitschriften publiziert.[4] Auf Grund solcher Ereignisse kommt der medialen Berichterstattung eine äußerst bedeutende Rolle zu. Aber auch Kampagnen und Berichte von NGOs, sowie Bürgerbewegungen üben gleichermaßen wie die Industrie Druck auf die Politik aus, welche in ihrer Risiko-Governance letztlich auf beide Seiten Rücksicht nehmen muss.

Um das vorliegende Thema umfassender betrachten zu können, müssen auch die gesellschaftlichen Aspekte mit einbezogen werden. Im Anschluss an die Analyse der Thematisierung von wissenschaftlichem Nichtwissen werden daher relevante Positionen und Ereignisse des aktuellen öffentlichen Diskurses zusammenfassend dargestellt. Dies bietet die Möglichkeit, die gesellschaftliche Risikowahrnehmung nachvollziehen zu können und daraus Ansätze für eine demokratischere Gestaltung der Risiko-Governance ableiten zu können.

Die Forschungsfrage lautet:

Wie wird in der wissenschaftlichen Risikobewertung von Glyphosat Nichtwissen thematisiert, welche Bedeutung hat dies für die öffentliche Risikowahrnehmung und wie kann die europäische Risiko-Governance demokratischer gestaltet werden?

Um diese theoretisch fundiert beantworten zu können, wird zu Beginn der Arbeit sowohl auf die Risikoforschung, als auch auf die Soziologie des Nichtwissens eingegangen. Um den Risikobegriff einordnen zu können, werden zunächst die Anfänge der Risikoforschung beschrieben und eine für den Diskurs prägende Veröffentlichung zu dieser Thematik behandelt. Diese ist das Werk „Risikogesellschaft“ des Soziologen Ulrich Beck, der darin mit seiner Kritik an der gesellschaftlichen Produktion von Modernisierungsrisiken und wegen der zeitlich unmittelbar auf die Nuklearkatastrophe von Tschernobyl folgenden Veröffentlichung eine erhöhte öffentliche Aufmerksamkeit erfuhr. Das verkaufsstarke und oft von anderen Autoren zitierte Buch wurde von der International Sociological Association (ISA ) als eines der zwanzig bedeutendsten soziologischen Werke des 20. Jahrhunderts ausgezeichnet.[5] In dem darauf folgenden Kapitel werden einige aktuelle Ansätze und Positionen zur Risikoabschätzung bzw. Risikopolitik dargestellt.

Anschließend folgt mit dem Thema „Soziologie des Nichtwissens“ der zweite theoretische Schwerpunkt. Da der Begriff des Nichtwissens erst aus der Risikoforschung entstanden ist, soll die historische Entwicklung des Begriffs und dessen Folgen für die Wissenschaft beschrieben werden. Hauptsächlich basierend auf Werken von Peter Wehling und Stefan Böschen zum Thema Nichtwissen soll die Entstehung und Relevanz von, sowie auch der Umgang mit Nichtwissen thematisiert werden. Abschließend wird auf die Politisierung bzw. Governance des Nichtwissens eingegangen.

Der Hauptteil der Arbeit widmet sich dem Fallbeispiel Glyphosat. Hierfür wird nach einer Einführung zuerst ein Bezug zur aktuellen politisch-rechtlichen Situation in der EU aufgenommen und der aktuelle Forschungsstand zusammenfassend dargestellt. Anschließend werden in chronologischer Reihenfolge die verschiedenen Risikobewertungen von drei staatlichen Zulassungsbehörden aus der EU (BfR, EFSA, ECHA) und zwei der WHO angehörenden Organisationen (IARC, JMPR) dahingehend analysiert, ob Nichtwissen in der wissenschaftliche Bewertung aufgetreten ist und auf welche Weise dieses in den Berichten thematisiert wurde. Da die Risikobewertung in der Öffentlichkeit kontrovers diskutiert wurden, soll im nachfolgenden Kapitel der öffentliche Diskurs in Auszügen dargestellt werden. An dieser Stelle sind der öffentliche wissenschaftliche Diskurs, Medienberichte, politische Positionen, die Rolle von Umweltorganisationen und Industrieverbänden, sowie Bürgerbewegungen von Relevanz.

In der darauffolgenden Diskussion sollen dann die in dieser Arbeit vorgestellten theoretischen Ansätze und Positionen auf das Fallbeispiel Glyphosat bezogen werden. Nachdem das Nichtwissen in der Risikobewertung vorwiegend im Rekurs auf Böschen und Wehling behandelt wurde, sollen anschließend alternative Vorschläge zur politischen Gestaltung institutioneller Strukturen diskutiert werden. Dabei wird in einem ersten Schritt das Wissenschaftssystem betrachtet und erörtert, wie mit dessen Transformation, dem Verlust von Legitimität und weiteren Problemen der wissenschaftlichen Risikobewertung umgegangen werden kann. Hiernach wird im Kapitel zur politischen Nachhaltigkeitssteuerung der Einfluss des Nichtwissens, aber auch anderer Faktoren auf die gesellschaftliche Risikowahrnehmung thematisiert. Ergänzend wird auf das Konzept der Transparenz eingegangen, um anschließend im Fazit beurteilen zu können, wie die europäische Risiko-Governance demokratischer gestaltet werden kann.

2) Nichtwissen in der wissenschaftlichen Risikobewertung von Umwelt- und Gesundheitsthemen

In der Öffentlichkeit erfahren das Nichtwissen und die aus der technischen Innovation entstehenden Risiken eine vergrößerte Wahrnehmung.[6] Nach Jobst Conrad wurden Risiken in den früheren Phasen des industriellen Zeitalters im Zuge des technischen Fortschritts noch eher als schicksalhaft gesehen, wohingegen diese zur heutigen Zeit von gesellschaftlichen Interessengruppen verstärkt wahrgenommen und kritisiert werden.[7] Obwohl in einem mehr als hundertjährigen Prozess eine hochentwickelte Sicherheitspolitik entstanden ist, können Risiken teilweise nicht mehr mit der klassischen isolierten Betrachtung von Einzelproblemen beherrscht werden.[8] Im Jahr 1983 begründete Conrad dies mit der „Vielfalt und Menge […] der verwendeten Stoffe, die für den Menschen und die Natur gefährlich werden können, sowie [der] Größe und Komplexität technischer Anlagen und Systeme“, die eine präzise wissenschaftliche Folgenbestimmung erheblich erschweren.[9] Während die Gültigkeit dieser Aussage bis heute weiter besteht, haben die Wissenschaft und andere gesellschaftliche Systeme sich jedoch in einem erheblichen Umfang weiterentwickeln können. Obwohl der global ansteigende Einsatz von Großtechnologien kombiniert mit dem stetig wachsenden Nichtwissen der Wissenschaft in neue Risikodimensionen geführt hat kann davon ausgegangen werden, dass die Risikobewertung einen entscheidenden Beitrag zum Schutz der Gesellschaft vor schweren Schäden leisten konnte. Zu dieser Entwicklung beigetragen haben könnte nicht zuletzt die Veröffentlichung Becks, deren überaus kritische Perspektive in Kombination mit einer realweltlichen Demonstration von unterschätzten Modernisierungsrisiken das gesellschaftliche und politische Risikoverständnis sensibilisiert haben könnte.

2.1) Sozialwissenschaftliche Risikoforschung

Während der Begriff Risiko in Diskussionen oft mit Gefahr gleichgesetzt wird, liegen die wissenschaftlichen Definitionen nicht sehr nah beieinander. Beschreibt die Gefahr das Potential, Mensch und Umwelt zu gefährden, wird mit dem Risiko die Wahrscheinlichkeit ausgedrückt, dass ein solcher Schaden entsteht. Kates et al. definieren diesen Begriff als unsichere Folgen eines Ereignisses oder einer Aktivität in Bezug auf etwas, das Menschen als wertvoll erachten.[10] Solche Folgen können positiv oder negativ sein, abhängig von den mit ihnen assoziierten Werten. Die gesellschaftliche Zuschreibung spielt also eine wichtige Rolle für den Risikobegriff, denn „nur etwas, das auch wertgeschätzt wird - sei es ökonomisch, gesellschaftlich oder ökologisch - kann einen Verlust ausmachen“.[11] Aufgrund der Vielzahl von gesellschaftlichen Akteuren entstehen bereits an dieser Stelle die ersten Konflikte, da die Wertschätzung für die betreffende Thematik zwischen den einzelnen Akteuren stark variiert.[12]

Die Einschätzung des Risikos erfolgt durch das Risk Assessment,[13] bei dem Risiken auf wissenschaftlicher Grundlage identifiziert und bewertet werden. Nach Conrad passten diese gut in das Wechselspiel eines wachsenden öffentlichen Besorgnisses auf der einen Seite und den auf Experten vertrauenden, technokratischen und nach Konsens strebenden Antworten von den gesellschaftlich führenden Institutionen auf der anderen Seite.[14]

Trotz der hohen wissenschaftlichen Expertise zur Bewertung stellen Risiken Gesellschaften vor eine Konfliktsituation. Wie kann bestimmt werden, ob ein Risiko akzeptabel ist? Auf welche Art und Weise können Risiken minimiert werden und welcher Aufwand ist dabei nötig? Wie kann so verantwortungsvoll mit einem Risiko umgegangen werden, dass eine Mehrheit der Stakeholder sogar gut damit leben kann? Auf diese Fragen gibt es in pluralistischen Gesellschaften typischerweise viele verschiedene Antworten, deren einzige Gemeinsamkeit oftmals ihr Anspruch auf die Richtigkeit bzw. Wahrheit der Herangehensweise oder des Lösungsansatzes ist. Zudem gehen im Zuge der Globalisierung immer mehr Risiken über die regionale und auch nationale Ebene hinaus und können in einer Gesellschaft alleine nicht mehr gelöst werden. Als prominentestes Beispiel hierfür ist der Klimawandel zu nennen, doch auch die Schweinegrippe oder Schadstoffeinträge in verschiedenen Umweltmedien machen vor Staatsgrenzen keinen Halt. Ein weiteres Problem das hieraus entsteht, ist nach Ortwin Renn die wachsende Schwierigkeit, Risiken durch „technische Überlegungen“ zu lösen.[15]

Da Risikobewertungen auf schwer zu modellierenden und komplexen Zusammenhängen basieren, wachsen auch die Herausforderungen aus der technischen Perspektive stetig an. Ein umfassender Ansatz, der bei einer solchen Herausforderung vonnöten ist müsse zum einen praktikabel und umsetzbar sein, gleichzeitig aber auch eine Fülle an „notwendigen Wissensgrundlagen und gesellschaftlichen Erfordernisse[n]“ mit einbeziehen.[16]

2.1.1) Die Anfänge der Risikoforschung

„Der Risikodiskurs beginnt, wo das ungebrochene Vertrauen in die Sicherheit („den Fortschritt“) endet und gilt, solange die Katastrophe (noch) nicht eingetreten ist“.[17]

Nach Conrad et al. sind Einflussfaktoren die zur Entwicklung der Risikoforschung beigetragen haben vor allem der Ausbau von Großtechnologien an denen vermehrt eine öffentliche Kritik aufkam, sowie die Internalisierung externer Kosten und das wachsende wissenschaftliche Potential. Aber auch die Verlagerung von Risikoproblemen auf früher nicht betroffene Gebiete oder Personen und das Eintreten dramatischer Ereignisse stärkte die Forderungen nach Folgenabschätzungen und vergrößerte den Bedarf an rationalen Planungsverfahren. Ein zusätzlicher Aspekt kann in dem Beschäftigungsaspekt für Risikoforscher gesehen werden, da für eine „Reihe von Beratern sehr passable Arbeitsmöglichkeiten“ geschaffen wurden.[18]

Die Risikoforschung wurde zu Beginn hauptsächlich von der formal-normativen Betrachtungsweise dominiert.[19] Das erklärte Ziel dieser Forschung war die Entwicklung eines universell gültigen Risikomaßes, mit dessen Hilfe man die unterschiedlichsten Risikoarten vergleichbar machen konnte. Den Kern bildete eine ursprünglich aus der Versicherungswirtschaft stammende Formel zur Berechnung des Risikos, wonach das Risiko gleich dem Produkt aus der Wahrscheinlichkeit des Eintritts des Schadens und der Schadenserwartung ist (R = S x W).[20] Zum anderen sah man die Möglichkeit, Schadens- und Nutzenaspekte gleichzeitig zu berücksichtigen. Die Wahrscheinlichkeitsschätzung dieses Modells ging jedoch von einer homogenen Grundgesamtheit der für die Statistik beobachteten Fälle aus. Im Falle fehlender oder zu geringer Stichproben wurden häufig auch hypothetische Wahrscheinlichkeiten angenommen. Beispielsweise wurde im sog. Rasmussen-Report von 1979 die Wahrscheinlichkeit für eine Dampfexplosion durch ein Kernschmelzen im Reaktor auf 0.1 geschätzt, da es hierüber keine Erfahrungswerte gab.[21] Die Wahrscheinlichkeit, dass dies den Sicherheitsbehälter sprengen würde, wurde ebenfalls auf 0,1 geschätzt, was miteinander multipliziert für das Ereignis ein äußerst kleines Risiko von 0,01 ergibt.[22] Die Willkürlichkeit dieses Verfahrens führte „im Hinblick auf die Bedeutung der daraus abgeleiteten Risikoaussagen zu starker Kritik“.[23] Auch im Allgemeinen zeigte sich, dass der bisherige Ansatz der Risikoforschung nicht zeitgemäß war, weil es sich weder abschließend über Risikodimensionen geeinigt werden konnte die es zu berücksichtigen galt, noch ein einheitliches Maß für die Schadens- sowie Nutzenaspekte gefunden werden konnte.[24]

Bei einem internationalen Workshop mit dem Titel „Gesellschaft, Technologie und Risk Assessment“, der vom Batelle-Institut e.V. im Auftrag des Bundesministeriums für Forschung und Technologie (BMFT) vom 5. bis 8. Juni 1979 veranstaltet wurde, äußerten sich die Teilnehmer zudem überwiegend kritisch zur gesellschaftspolitischen Rolle der Risikobewertung und skeptisch gegenüber einem zu großen Vertrauen in die technisch-wissenschaftliche Risikoabschätzung.[25] In der Zusammenfassung der Workshop-Diskussionen wurde beispielsweise mit weitgehender Übereinstimmung festgehalten, dass „Risikoforschung […] Legitimationszwecke[n] zur Verschleierung der dominierenden politischen und ökonomischen Interessen, denen technisch-wirtschaftliche Entwicklungen und Entscheidungen zugrunde liegen, dienen kann; ihr Zustand mangelnder Reife trägt dann noch dazu bei, daß Risk Assessment einer der »Chips« wird, mit dem Politiker öffentlichen Konsens erkaufen wollen“.[26]

Von Allan Mazur wurde zudem die Objektivität in der Risikobewertung bezweifelt: Es werde „vermehrt der Versuch unternommen, Risiken in Situationen zu bewerten, in denen es nur wenig auf tatsächlichen Erfahrungen begründete Daten über Versagen gibt“.[27] Ausgeglichen werde dieser Mangel mit hypothetischen Modellen, die jedoch durch „die vom Analytiker gemachten Annahmen beeinflußt“ werden, infolgedessen die Ergebnisse dann „unweigerlich die Voreingenommenheiten des Analytikers“ widerspiegelten.[28] Diese Annahme verleitet ihn zu der Feststellung, dass „Risikobewertungen […] nicht mehr die Politik, sondern politische Präferenzen […] das Ergebnis der Bewertung“ bestimmen.[29]

Auch durch die ersten Reaktorunfälle in der Mitte des zwanzigsten Jahrhunderts setzte sich in der öffentlichen Diskussion schnell die Meinung durch, dass die Risikostudien auf verhältnismäßig schwachen Füßen standen, wodurch Rothmann & Lichter und Nowotny zufolge auch die Kompetenz der Experten „in starken Mißkredit geraten“ war.[30],[31]

Der psychologisch-kognitive Ansatz macht diese Problematik zum Ausgangspunkt der Forschung und untersucht unter anderem, wie Menschen das Risiko in einer bestimmten Situation bewerten. Bisher wurde auf die subjektive Schätzung von Experten zurückgegriffen, wenn keine empirischen Daten zur Risikobewertung vorlagen. Die Unterscheidung von objektivem und subjektivem Risiko „schrumpft auf die Differenz zweier subjektiver Abschätzungen zusammen, nämlich die von Experten und Laien“.[32] Deshalb wurden eine Vielzahl von Faktoren analysiert, welche die Risikowahrnehmung und Risikobewertung beeinflussen. Es stellte sich beispielsweise heraus, dass freiwillige eher als unfreiwillige, bzw. kontrollierbare eher als unkontrollierbare Risiken akzeptiert werden. Zudem werden die Risiken neuer Technologien höher eingeschätzt als die Risiken bekannter Techniken. Risiken, deren Folgen zeitlich verzögert auftreten oder deren Schäden potentiell reparabel sind, werden eher akzeptiert. Es zeigte sich eine generelle Tendenz, das Schadensausmaß vorrangig zu berücksichtigen und die Eintrittswahrscheinlichkeit eher zu vernachlässigen Die durch Expertenwissen manifestierte Sichtweise sollte also durch die subjektive Sichtweise der Bevölkerung erweitert werden. Da man sich zugunsten vieler Risikofaktoren und akzeptanzrelevanten Aspekten immer weiter von einem einheitlichen Risikomaß entfernte blieb die Frage, wie man eine durch den Konsens der Bevölkerung getragene Risikobewertung erreichen kann, unbeantwortet.[33]

Im Gegensatz dazu interessiert sich die soziologische Forschung bei dem Thema Akzeptanz weniger für das Ergebnis der subjektiven Entscheidungsfällung, sondern fragt nach den Faktoren, wegen denen bestimmte Meinungen zu einem expliziten Risiko innerhalb bestimmter sozialer Einheiten dominanter werden bzw. wodurch gesellschaftliche Kontroversen oder Polarisierungen entstehen. Die Identifikation von Einstellungen und Meinungen in der Bevölkerung dient bei diesem Ansatz also zur Deskription von Konflikten und Konfliktpotentialen. Da die öffentliche Meinung sowohl eine normative (Erwartungsdruck auf dem Einzelnen, sich mit seiner Meinung anzupassen) als auch eine kognitive Funktion hat, wird ihr ein großer Wert beigemessen. Außerdem können viele moderne Gefahren und Risiken nur selten individuell erfahren werden, weswegen der Öffentlichkeit eine erhöhte Wahrnehmungs- und Bewertungsfunktion zukommt. Weil die Wahrnehmung in einer modernen Gesellschaft informationsvermittelt ist, hängt sie in einem erheblichen Umfang von der Informationsauswahl und der Informationsdarstellung ab. Auch mögliche Dramatisierungen oder falsche Informationen haben eine große Auswirkung. Ferner ist eine wichtige Erkenntnis des kulturell-soziologischen Ansatzes, dass die gesellschaftliche Akzeptanz von politischen und gesellschaftlichen Werten abhängt, einschließlich der Bewertung von politischen Entscheidungsprozessen, wie z.B. der Glaubwürdigkeit von Institutionen, Leitbildern für die Zukunft der Gesellschaft oder der Weitergabe von Informationen. Da nun jede Risikowahrnehmung und Risikoentscheidung als kontextgebunden eingestuft wurde, musste die Hoffnung auf eine einzige Risikopräferenz, sei sie soziologisch oder psychologisch begründbar, oder sogar ein universelles Risikomaß aufgegeben werden.[34]

Mit der Auflösung des Bundesgesundheitsamtes (BGA)[35] im Jahr 1994 wurde das Bundesinstitut für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV) zur Risikobewertung gegründet,[36] das sich u.a. mit Toxikologie, Chemie und Hygiene bezogen auf Lebensmittel und Bedarfsgegenstände, bakteriellen Tierseuchen, Epidimiologie, Tierarzneimittelzulassung, Pflanzenschutz- und Schädlingsbekämpfungsmitteln und Chemikalienbewertung befasste.[37] Nach dem BSE-Skandal wurde das BgVV im November 2002 als eigenständige Behörde aufgelöst und in das Bundesinstitut für Risikobewertung (BfR) und das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) überführt bzw. integriert.[38] Auf europäischer Ebene sind die Europäischen Behörde für Lebensmittelsicherheit (EFSA), die Europäische Lebensmittelsicherheitsbehörde (ECHA) und die Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz (EU-OSHA) für die Risikobewertung zuständig.[39],[40],[41]

2.1.2) Becks Risikogesellschaft

Ein prägendes Werk, das dem wissenschaftlichen Risikodiskurs eine andere Wendung und der Forschung neue Impulse gab, ist das Buch „Risikogesellschaft“ von Ulrich Beck.[42] Es wurde im Jahr 1986 kurze Zeit nach der Nuklearkatastrophe von Tschernobyl veröffentlicht. Circa ein Jahr zuvor begann Beck seine Kritik an dem großindustriellen Risiko gegen „viel Widerstand innerer und äußerer Stimmen“ zu verschriftlichen und „erkämpfte“ sich dabei Themen, wie unter anderem „die Nichtwahrnehmbarkeit der Gefahren, ihre Wissensabhängigkeit, ihre Übernationalität, die „ökologische Enteignung [und den] Umschlag von Normalität in Absurdität“, auf argumentativer Basis.[43] Beck sieht den Übergang von der Industriegesellschaft in die Risikogesellschaft durch eine „selbstreferentiell[e]“ Wirtschaft begründet, weil Zivilisationsrisiken „unabschließbar, unendlich, selbstherstellbar“ sind.[44] Das bedeutet, dass die moderne Industriegesellschaft mit der wirtschaftlichen Ausschlachtung der von ihr freigesetzten Risiken die Gefährdungslage und das politische Potential für die Risikogesellschaft produziert.[45] Gesellschaftliche Konflikte seien nicht mehr Klassenkonflikte, sondern entstünden durch die Globalisierung von Modernisierungsrisiken. Dies betreffend wurde Becks Formel „Not ist hierarchisch, Smog ist demokratisch“ oft zitiert.[46] Die gesellschaftliche Produktion von Reichtum gehe mit der gesellschaftlichen Produktion von Risiken einher.[47] Die Vergesellschaftung von Naturzerstörungen kann als die Kehrseite der vergesellschafteten Natur betrachtet werden.[48] Infolgedessen wird das „Schreckenspanorama einer sich selbst gefährdenden Zivilisation“ festgestellt, da die Nebenwirkungen des technisch-ökonomischen Fortschritts sich „nur in einem frühen Stadium als »latente Nebenwirkungen« legitimieren“ lassen.[49] Mit einem anwachsenden Risiko entstünden infolgedessen auch gesellschaftliche „Gefährdungsgemeinsamkeiten“, die „letztendlich nur im Rahmen der Weltgemeinschaft aufgefangen werden können“.[50]

Das Paradigma der Risikogesellschaft ziele jedoch nicht auf die Vermeidung von Risiken, sondern auf wissenschaftliche Sicherheitsversprechen und die Eingrenzung und Wegverteilung der „latenten Nebenwirkungen“, sodass diese weder die Grenzen des ökologisch, sozial und medizinisch Zumutbaren überschreiten, noch ein Hindernis für den Modernisierungsprozess sind.[51] Diejenigen, die sich an den öffentlichen Pranger der Risikoproduktion gestellt sehen, widerlegen mit „allmählich betrieblich institutionalisierter »Gegenwissenschaft« argumentativ die Vorwürfe und bringen gleichzeitig „andere Ursachen und damit Urheber ins Spiel“.[52] Zugleich würden die Instrumente zur definitorischen Risikobewältigung verbessert, um diejenigen, die Risiken aufzeigen, als „Miesmacher und Risikoproduzenten zu diffamieren“ und deren Darstellung als „nicht erwiesen“ zu kennzeichnen bzw. mehr Forschung für ein abschließendes Urteil zu fordern.[53] In der Risikogesellschaft entstehe durch die hochdifferenzierte Arbeitsteilung eine allgemeine Verantwortungslosigkeit, bei der jeder „Ursache und Wirkung und damit Nicht ursache“ ist.[54] Die modernen Risiken seien also ein „Gefährdungsschicksal, aus dem es bei aller Leistung kein Entrinnen gibt“.[55]

Beck unterscheidet zudem den Begriff ‘Katastrophe‘ von der ‘Gefahr‘. Katastrophen entstehen nicht durch ein einzelnes Versagen, sondern durch Systeme, „die die Humanität des Irrtums in unbegreifliche Zerstörungskräfte verwandeln“.[56]

In der Risikogesellschaft werden andere bzw. zusätzliche Fähigkeiten als in der Industriegesellschaft lebensnotwendig. Beispielsweise die Fähigkeit, Gefahren zu antizipieren, zu ertragen, mit ihnen politisch und biographisch umzugehen.[57] So wie die Menschen im 19. Jahrhundert lernen mussten, sich z.B. der Lohnarbeit zu unterwerfen, müssen sie heute lernen, „sich an einen Tisch zu setzen und über alle Grenzen hinweg Lösungen für die selbstverschuldeten Gefahren zu finden und durchzusetzen“.[58] Gerade „technik interessierte junge Menschen“ haben eine wachsende Sensibilität für Zivilisationsgefährdungen.[59] Das gesellschaftliche Risikobewusstsein sei gegen „die wissenschaftliche Dauerleugnung“ [des Risikos] entstanden und „wird von ihr nach wie vor unterdrückt“.[60] Während die Wissenschaft Risiken feststellt, nehme die Bevölkerung diese lediglich subjektiv wahr.[61] Die dabei entstehenden Abweichungen zeigten das Maß „der Irrationalität“ und der „Technikfeindlichkeit“ und offenbarten eine Zweiteilung der Welt nach Kundigen und Unkundigen, in der zugleich ein bestimmtes Bild der Öffentlichkeit enthalten sei.[62]

Demgegenüber wachsen und gedeihen Risiken und Gefährdungen auf dem politischen und kulturellen Boden, der durch das Ignorieren von nicht wahrnehmbaren Risiken entsteht.[63] Das Vorherrschen der Logik und Konflikte der Reichtumsproduktion seien ein Motor für die Entstehung der Risikogesellschaft, auch weil „geleugnete Risiken […] besonders gut und schnell [gedeihen]“.[64]

Die gefällten Entscheidungen, die im Rahmen der Wissensproduktion über Risiken und Zivilisationsgefährdungen gefällt werden, seien laut Beck niemals nur über die Wissensinhalte, wie Hypothesen, Fragestellungen, Methoden, Messverfahren oder im Endeffekt auch Grenzwerte, sondern gleichzeitig auch über die „Betroffenheiten: über Reichweite und Art der Gefährdung, Bedrohungsgehalt, Personenkreis, Spätfolgen, Maßnahmen, Verantwortliche, Entschädigungsansprüche“.[65] Dies habe zur Folge, dass mit dem ansteigenden Bedrohungspotential der Produktivkräfte der Spielraum für wissenschaftliche Forschung immer enger wird.[66]

Die Wissenschaftler aber „schwingen sich auf diesem wackligen Thron zum Richter über die »Irrationalität« der Bevölkerung auf, deren Vorstellung sie eigentlich erfragen und zur Grundlage ihrer Arbeit machen müssten“.[67] Aufgrund ihrer „überspezialisierten Arbeitsteiligkeit“, dem Methoden- und Theorieverständnis und der „fremdbestimmten Praxisabstinenz“ seien die Wissenschaften in ihrer Verfassung „nicht in der Lage, auf die Zivilisationsrisiken angemessen zu reagieren“.[68]

Die Geschichte der sozialen Anerkennung von Risiken und ihrer Bewusstwerdung falle zusammen mit „der Geschichte der Demystifizierung der Wissenschaften“ und einer „ Widerlegung des wissenschaftlichen »Sehe-Nichts-Höre-Nichts-Rieche-Nichts-Weiß-Nichts«“.[69] Außerdem wird betont, dass ein Fehler in der Grenzwertbestimmung z.T. irreversible Schäden bedeutet, dem Wissenschaftler hingegen, dem der Fehler unterlaufen ist, „kratzt das schlimmstenfalls an dem Lack seiner Reputation (wenn der »Fehler« in den Kram paßt, kann es ihm sogar eine Beförderung bescheren)“.[70] Wissenschaftler bestünden auf der Güte ihrer Arbeit und „halten die theoretisch-methodischen Standarts hoch, um ihre Karriere und materielle Existenz zu sichern“.[71] Das Bestehen auf ungesicherten Zusammenhängen potenziere jedoch das Risiko.[72] Wenn beispielsweise durch einen unklaren Kenntnisstand notwendiger Handlungsbedarf unterbliebe, wachse damit zugleich die Gefahr.[73]

2.1.2) Risikoabschätzung und Risikopolitik

Nach der Nuklearkatastrophe von Tschernobyl und dem Werk Becks führte die Auseinandersetzung mit den Folgen von Risikotechnologien wie der Kernenergie, aber auch anderen, wie beispielsweise gentechnisch veränderten Organismen, zu heftigen Kontroversen in der Öffentlichkeit.[74] Die zunehmende Kritik durch neue soziale Bewegungen oder Interessengruppen auf der einen, sowie einander widersprechende wissenschaftliche Gutachten auf der anderen Seite ließen die Legitimität einer vollkommen auf Expertenrationalität basierenden Entscheidungsfindung erodieren. In einigen Fällen wurde ein Zusammenhang mit auftretenden Schäden erst festgestellt, als die Schäden unübersehbar waren und es für effektive Gegenmaßnahmen zu spät war.[75] Während die Folgen den Auslösern oftmals erst mit einer erheblichen zeitlichen Verzögerung zugeordnet werden konnten, postulierten die Risikoforscher in anderen Fällen Effekte, die nicht oder in einer anderen Form eintraten. Daher wurden Policy Instrumente an der Schnittstelle von Politik und Wirtschaft gesucht, die neue Rationalitäts- und auch Legitimitätsansprüche glaubhaft vermitteln konnten.[76]

Das im Jahre 1971 eingeführte Vorsorgeprinzip beanspruchte, diese Lücke zu schließen. Zusammengefasst kann damit ein präventives Handeln von dem wissenschaftlichen Beweis eines Zusammenhangs zwischen einer Aktivität und ihren möglichen Schäden entkoppelt werden, solange jene möglichen Schäden als erheblich eingestuft werden können.[77] Wenn keine Einigkeit über die Ursache-Wirkungskette besteht, kann mit dem Vorsorgeprinzip dennoch eine gewisse politische Handlungsfreiheit erreicht werden. Solange die Wissenschaft nicht schlüssig zeigen kann, dass potentielle Auswirkungen ein erhebliches Schadensmaß beinhalten, überwiegt dennoch das Recht desjenigen, der ein unter Umständen strittiges Vorhaben zu seinem eigenen Vorteil betreiben will, weswegen in diesem Fall eine Implementierung zuzulassen wäre.[78] Ob das jeweilige Schadensmaß als erheblich anzusehen ist, wird dann im Vergleich zu ähnlichen, akzeptierten Risiken festgestellt. So soll verhindert werden, dass die Schwelle für die Anwendbarkeit des Vorsorgeprinzips durch eine Eingrenzung des Prinzips der Verhältnismäßigkeit allzu niedrig wird.[79] Daraus folgt, dass durch das Vorsorgeprinzip zwar die Rolle von Unsicherheit als Auslöser für präventives Handeln anerkannt wird, die Interpretation und Auslegung dieses Instruments jedoch einem eher traditionellen Verständnis entspricht, nach dem die Unsicherheiten definiert bzw. nachgewiesen werden müssen und die Entscheidungsfindung somit konsequent an die wissenschaftliche Expertise gebunden bleibt.[80]

Nach Harald Heinrichs ist der gesellschaftlich-politische Umgang mit Expertisen zudem stark von dem jeweiligen politik- und beratungskulturellen Kontext abhängig.[81] In den USA ist der Umgang mit Expertise beispielsweise vor allem wettbewerblich organisiert, in Japan konsensuell und in Südeuropa treuhänderisch.[82] Da die west- und nordeuropäischen Länder stärker parteipolitisch und korporatistisch organisiert sind, haben sich hier andere Beratungstraditionen entwickelt. Sie zeichnen sich häufig durch eine Zusammenbringung von Experten und Interessengruppen des Establishments aus, während öffentliche Beteiligungs- und Kontrollmöglichkeiten eher schwach entwickelt sind.[83] Zusätzlich wird von neutralen Wissenschaftlern eine politikbezogene Urteilskraft erwartet, die teils weit über die Darstellung von Sachwissen hinausgeht.[84] Verglichen mit dem amerikanischen Beratungswesen seien die Gremien vor allem auf eine Produktion von gesellschaftlichem Vertrauen in das korporatistische Entscheidungsfindungssystem hin orientiert. Dieses sei auf die Anforderungen einer pluralistischen Wissensgesellschaft bezogen als zu paternalistisch und insgesamt als reformbedürftig anzusehen.[85] Deshalb könne eine größere Nachvollziehbarkeit und eine funktionsspezifische Integration divergierender Wissensansprüche, Interessen und Wertevorstellungen, sowie eine klarere Strukturierung angemessen sein, um „den erhöhten Anforderungen einer Demokratisierung von Expertise für politische Entscheidungsprozesse“ gerecht zu werden.[86]

Auch Brian Wynne sieht in dem Verhalten, der Erfolgsbilanz und der Vertrauenswürdigkeit der zuständigen Institutionen einen wichtigen Aspekt für die öffentliche Risikowahrnehmung.[87] Neben der wissenschaftlichen Suche nach den Risiken müsse anerkannt werden, dass die wissenschaftlich festgestellten Risiken die Kategorie der unbekannten und unerwarteten Auswirkungen einer Technologie nicht beinhalten. Historische Erfahrungen zeigten jedoch, dass diese Kategorie von höherer Wichtigkeit sein kann, als die Einschätzung bekannter Risiken.[88] Die Befürworter von Großtechnologien seien lange davon überzeugt gewesen, dass die mangelnde Zustimmung der Öffentlichkeit für die wissenschaftliche Risikoeinordnung hauptsächlich durch „Unwissen der Öffentlichkeit und eine Verantwortungslosigkeit der Medien“ begründet ist.[89] Auch die sozialwissenschaftliche Forschung nehme an[90], dass sich die öffentliche Besorgnis auf das von Wissenschaftlern definierte Risiko beziehe und jeglicher Widerspruch gegen diese Einschätzung auf „Missverständnissen, Unwissenheit und Emotionen“ basiere.[91] Wynne hingegen sieht in dem öffentlichen Meinungsbild eine „intellektuelle Substanz“, welche zwar fehlbar oder streitig sein kann, aber dennoch viel tiefer gehe als „nur der Sichtweise der Experten zu widersprechen oder sie abzulehnen“.[92] Die öffentliche Wahrnehmung sei sogar „diametral entgegengesetzt“: „that the public sees science expressing only denial of its intrinsic lack of control as manifested in the endemic predicament of unanticipated consequences“.[93] Als Konsequenz sollten öffentliche Bedenken weder versachlicht und erforscht werden, noch sollten sie getrennt von dem Verhalten der wichtigen wissenschaftlichen und politischen Institutionen betrachtet werden.[94] Ferner müsse öffentlich diskutiert werden, ob neue Technologien eine ausreichende Relevanz besitzt, um unvorhersehbare mögliche Folgen zu rechtfertigen und ob die Formen der Technologie sowie deren Förderung und Regulation ausreichend vertrauenswürdig sind, um dem öffentlichen Interesse entsprechend zu dienen.[95]

Auf der anderen Seite setzt man, Wehling zufolge, bei einer Verwendung des Risikobegriffs stillschweigend voraus, dass das Spektrum möglicher Schadensereignisse antizipierbar ist, obwohl man das genaue Ausmaß natürlicherweise nicht bestimmen kann.[96] Nach Lemke seien Risiken das Resultat einer Technologie, welche die Realität „vorhersehbar und beherrschbar […] machen. Insofern macht hier die Unterscheidung zwischen kalkulierbaren und unkalkulierbaren Risiken keinen Sinn“.[97] Demnach ist ein Risiko, solange es nicht kalkulierbar gemacht werden kann, nicht als ein solches einzustufen.[98]

Auch Luhmann differenziert zwischen den Begriffen Risiko und Gefahr, jedoch unter der Voraussetzung, dass eine Unsicherheit in Bezug auf künftige Schäden bestehe.[99] Gefahren sei man ausgesetzt und das eigene Verhalten spiele nur dann eine Rolle, solange es „jemanden in eine Situation führt, in der dann der Schaden eintritt“.[100] Im Falle eines Risikos hingegen „führt die Zurechnung auf Entscheidungen zu einer Anzahl von Folgeunterscheidungen, zu einer Serie (oder einem Entscheidungsbaum) von Bifurkationen, die je für sich dann wieder riskante Entscheidungsmöglichkeiten anbieten“.[101] Daraus ergibt sich dann eine Unterscheidung zwischen einem Schaden, der in den üblichen Kostenrahmen fällt und die Kosten in einem annehmbaren Maße erhöht, oder ob der Schaden „eine Situation herbeiführt, in der man im Rückblick die Entscheidung bedauert“.[102] Nur für diesen Fall sei der gesamte Apparat der Risikokalkulation entwickelt worden und diese Form der Rationalität diene der „Entfaltung einer Paradoxie, nämlich dem Nachweis, daß eine falsche Entscheidung trotzdem richtig gewesen ist“.[103] An die Unterscheidung von Risiko und Gefahr angelehnt stellt Luhmann Entscheider und Betroffene einander gegenüber.[104] Was für den einen Akteur ein gegen die zu erwartenden Vorteile abzuwägendes und kalkulierbares Risiko ist, erscheint für andere als eine von außen, durch Entscheidungen anderer, zugemutete Gefahr, der man sich weder entziehen, noch die Vorteile dieser Risikoentscheidung für sich nutzen kann.[105]

Wie bereits angedeutet wurde ist es für die gesellschaftliche Wahrnehmung eines Risikos weniger entscheidend wie gefährlich jenes tatsächlich ist, während die Perspektiven der unterschiedlichen Akteure oftmals einen höheren Effekt haben können. Hierbei spielen vor allem ethische, ökologische, politische, ökonomische, ideologische und gesundheitliche Aspekte eine Rolle für die Gefahrenwahrnehmung. Selbst wenn ein Risiko statistisch nicht relevant ist, wird es von betroffenen Akteuren, beispielsweise wenn der Verlust von etwas Wertgeschätztem auf dem Spiel steht, als ein akutes Risiko angesehen. Deshalb ist das Bestehen von unterschiedlichen Wertschätzungen der verschiedenen Akteure in einer pluralistischen Gesellschaft ein wichtiges Konfliktfeld.[106]

Ein möglicher Ansatz, der zur Konfliktlösung beitragen könnte, ist der integrative Risiko-Governance Prozess, welcher von der International Risk Governance Council (IRGC) entwickelt wurde.[107] Dabei wird Sellke und Renn zufolge der Umgang mit Risiken gesamtgesellschaftlich betrachtet, was eine bessere Balance zwischen der technischen Analyse und der Abschätzung gesellschaftlicher Risikowahrnehmungen und Bedenken bedeute. Ferner werden Verfahren für die Beteiligung von relevanten Akteuren vorgeschlagen, die „mit den spezifischen Charakteristika des Risikos und seines Kontextes zielführend sind“.[108]

2.2) Soziologie des Nichtwissens

Der Begriff Nichtwissen ist nach Wehling als Ergänzung, aber auch als Kontrast zum Risikobegriff zu sehen.[109] Die Wahrnehmung und Diskussion von Nichtwissen ging erst im späten 20. Jahrhundert aus der Terminologie der Risikoforschung hervor. Sowohl Luhmann als auch Beck haben die Selektivität und Begrenztheit des Risikobegriffs für die Analyse ökologischer Probleme beschrieben und sich, allerdings ohne die Risikoterminologie vollständig aufzugeben, jener ökologischen Problematik in den 1990er Jahren unter dem Aspekt des Nichtwissens genähert.[110] Nach Wynne würde sich die Soziologie mit einem Perspektivwechsel vom Risiko zum Nichtwissen die Möglichkeit eröffnen, nicht nur die Versachlichung des Risikobegriffs kritisch zu hinterfragen, sondern die Bearbeitung bzw. die gesellschaftliche Wahrnehmung von Umweltgefährdungen differenzierter zu analysieren.[111]

Nach wie vor besteht eine allgemeine Erwartungshaltung an die Wissenschaft, dass sie wahres und objektives Wissen bereitstellt, woraus ihre zwar durchaus kritisierte, im Wesentlichen aber unangefochtene Stellung als Legitimations- und Begründungsressource für politische oder auch wirtschaftliche Entscheidungen resultiert.[112]

Andererseits wird die Gesellschaft jedoch immer stärker mit den Risiken, Unsicherheiten und potentiellen Folgen wissenschaftlicher Expertise und ihrer technischen Nutzung konfrontiert.[113] Je mehr die Gesellschaft „zum Labor“ wird, indem sie unausweichlich auf Grund von wissenschaftlichem Nichtwissen oder Unsicherheiten die Risiken von Großtechnologien mittragen muss, gewinnt im gesellschaftlichen Diskurs die Forderung nach mehr Beteiligungs- und Mitspracherechten an den technologie- und forschungspolitischen Entscheidungsprozessen an Kraft.[114] Formen der partizipativen Technikfolgenabschätzung und „ technological oder scientific citizenship “ erfreuen sich einer wachsenden Bedeutung.[115]

Böschen und Wehling vermuten, dass diese Umbrüche im Wesentlichen in der Veränderung der Wissenschaft selbst, im Sinne des institutionellen Zusammenhangs und der Form bzw. Praxis der Wissenserzeugung, begründet sind.[116] Zudem spreche vieles dafür, dass es sich dabei weniger um vorübergehende Turbulenzen handele, sondern vielmehr um eine tiefgreifende Erosion und Transformation der institutionellen und kognitiven wissenschaftlichen Charakteristika.[117] Dabei sind es vor allem vier grundlegende Unterscheidungen, nämlich zwischen „Fakten und Werten, zwischen Wissen und Nichtwissen, zwischen Experten und Laien sowie zwischen wissenschaftlichem und nicht-wissenschaftlichem Wissen“, die „unter Druck geraten und zu verschwimmen drohen“.[118]

Die Unterscheidung zwischen Fakten und Werten gilt nicht nur als elementar für die neuzeitliche Wissenschaft, sondern auch für ihre gesellschaftliche Legitimation und die erfolgreiche, rationale Naturbeherrschung.[119] Die bedeutendste Aufgabe der Wissenschaft ist die Feststellung von Fakten der wirklichen Welt „und nicht, wie sie sich darstellt oder wünschenswert, wäre, wenn man bestimmte normative, religiöse oder politische Maßstäbe und Perspektiven an sie herantragt“.[120] Die Tatsachenfeststellung der Wissenschaft solle von jeglichen normativen Bewertungen oder Schlussfolgerungen scharf getrennt werden. Doch auch ohne zu - wie auch immer begründeten - Werturteilen überzugehen, wird der starke Anspruch auf eine aperspektivische Objektivität brüchig, da auch Faktenaussagen „unvermeidlich ein sozial geprägtes, interpretatives und konstruktives Element enthalten (etwa die Wahl bestimmter Theorien, Paradigmen, Metaphern, Messapparaturen, Darstellungstechniken etc.)“.[121]

Zudem lässt sich eine eindeutige Trennung zwischen Wissen und Nichtwissen immer weniger aufrechterhalten, da die „Zahl von Konstellationen negativer Evidenz“ stetig wächst.[122] Eine negative Evidenz ist durch „das Fehlen von empirischen Belegen und Indizien für bestimmte Effekte“ charakterisiert, beispielsweise in Fällen von Arzneimitteln, Umweltchemikalien oder genetisch manipulierten Pflanzen.[123] Auf diese Problematik soll in den nachfolgenden Kapiteln detaillierter eingegangen werden.

Die Erosion zwischen Experten und Laien wird durch das Nichtwissen begünstigt, weil diese Entwicklung mit einem „Bedeutungsgewinn und einer Aufwertung lokalen Kontext- und Erfahrungswissens“ einhergeht.[124]

Das damit verknüpfte Verschwimmen der vierten Unterscheidung zwischen wissenschaftlichem und nicht-wissenschaftlichem Wissen ist in der Entwicklung begründet, dass auch andere (gesellschaftliche) Instanzen und Akteure in Praxiskontexten anwendbares und tragfähiges Wissen erzeugen.[125] Ein Großteil des wissenschaftlichen Wissens werde „nicht mehr in den klassischen Einrichtungen der akademischen Grundlagenforschung gewonnen, sondern in den Forschungsabteilungen von Wirtschaftsunternehmen oder in »hybriden« Kooperationsformen zwischen öffentlich und privat finanzierter Forschung“.[126]

2.2.1) Historische Entwicklung

Im 17. Jahrhundert entstand die experimentelle Philosophie im Zuge der gezielten Untersuchung der Natur durch einzelne Versuche und der Deutung von den so erhaltenen Einsichten als Naturgesetze.[127] Die Ergebnisse wurden interessierten Zeugen vorgeführt und zur Beglaubigung vorgelegt, damit ausgelotet werden konnte, was als Faktum anzusehen war.[128] Möglich wurde diese Vorgehensweise durch die Forschungsfreiheit, welche der neuzeitlichen Wissenschaft gewährt wurde. Im Gegenzug wurde jedoch eine vollkommene Enthaltung in politischen und moralischen Fragen gefordert. Auf diese Weise konnte das methodisch gesicherte Wissen als „Schiedsinstanz in allen gesellschaftlichen Wissenskonflikten dienen“.[129] Die Wissenschaft kann somit als wohl bedeutendster Motor der gesellschaftlichen Entwicklung gesehen werden und steigerte nicht nur die Wohlfahrt der Gesellschaft, sondern manifestierte auch eine wachsende Unabhängigkeit von Naturprozessen. Als Grundlage und institutionelle Voraussetzung hierfür galt die Grundunterscheidung zwischen Werten und Tatsachen oder auch zwischen Laien und Experten.[130]

Böschen und Wehling unterteilen die Entwicklung der Wissenschaft, ihre Ausprägung und die Art der Wissensgenerierung (etwas vereinfacht) in drei Phasen.[131] Anfänglich grenzte sich die Wissenschaft noch strikt von jeglicher externer, allen voran der politischen und religiösen Einflussnahme ab, woraus sich im Wesentlichen ihr Objektivitätsanspruch und ihre Autonomie begründete.[132] Die in der Mitte des 18. Jahrhunderts beginnende zweite Phase war von einer wahrheitsorientierten Grundlagenforschung geprägt, aus welcher sich spezialisierte Disziplinen differenzierten.[133] Im Zuge der Humboldtschen Reform wurden beispielsweise einzelne Naturwissenschaften ausgegliedert. Erst im frühen 20. Jahrhundert begann mit der Etablierung der aperspektivischen Objektivität, sowie der Negation jeglicher subjektiver Eigenheiten, die dritte Phase.[134] Simultan setzte sich die experimentelle Naturphilosophie endgültig gegenüber der Naturgeschichte durch und die Forderung nach einer Vereinheitlichung aller wissenschaftlichen Disziplinen unter dem Leitstern der Physik gewann an Bedeutung.[135] Der Typus der akademisch-disziplinären Wissenschaft, der zwar auch heute noch existiert, wurde jedoch nach dem zweiten Weltkrieg von einer sowohl industriell als auch staatlich betriebenen Großforschung „überlagert und zurückgedrängt“, welche vor allem an wirtschaftlichen und politischen Zielsetzungen orientiert war.[136] Beginnend mit dem Bau der Atombombe breitete sich nun die betriebsförmige Organisation von Forschung aus, was den Autoren zufolge als „einen deutlichen Einschnitt hinsichtlich der Legitimation von Forschung“ gesehen werden kann.[137] Neben dem Wahrheitsdiskurs wurde die Forschung zunehmend vom Nützlichkeitsdiskurs bestimmt, wobei vor allem der finanziellen Förderung eine wesentliche Rolle für die Auswahl und Relevanz der Forschungsprojekte zukam.[138] Eine weitere Folge war die Verwissenschaftlichung verschiedenster Lebensbereiche, aber auch, dass technologische Innovationen keine unzumutbaren Risiken für Mensch und Natur mit sich bringen durften.[139] Das hiermit wachsende Konfliktpotential bzw. Dissensrisiko in Wissensfragen entstand vor allem in der jüngeren Vergangenheit durch eine Pluralisierung der Auseinandersetzung mit der Einbringung von (natur-) wissenschaftlich ausgebildeten Akteuren in den wissenschaftlichen Diskurs, die sich in sozialen Bewegungen und Bürgerinitiativen engagieren.[140]

[...]


[1] Luhmann 1992, S. 154

[2] Vgl. ebd.

[3] Vgl. Böschen & Wehling, 2004, S. 35

[4] Vgl. Hakim, Danny (New York Times) (2017): Monsanto Weed Killer Roundup Faces New Doubts on Safety in Unsealed Documents

[5] Vgl. International Sociological Association (2016): Books of the XX Century. Ranking order

[6] Vgl. Conrad 1983, S. V

[7] Vgl. ebd.

[8] Vgl. ebd.

[9] Ebd.

[10] Vgl. Kates et al. 1985, S. 21, zit. in Sellke & Renn 2011, S. 504

[11] Sellke & Renn 2011, S. 504

[12] Vgl. zu diesem Absatz ebd. f.

[13] In dieser Arbeit wird synonym der Begriff Risikobewertung verwendet

[14] Vgl. zu diesem Absatz Conrad 1983, S. 1 ff.

[15] Sellke & Renn 2011, S. 503; Vgl. zu diesem Absatz ebd. f.

[16] Vgl. zu diesem Absatz ebd.

[17] Beck 1999, S. 310 (Hervorhebung im Original)

[18] Conrad 1983, S. 257; Vgl. zu diesem Absatz ebd.

[19] Bechmann 1993, S. IX

[20] Vgl. ebd.

[21] Vgl. Rasmussen 1979 (WASH-1400 Studie), zit. in Bechmann 1993, S. X

[22] Vgl. Bechmann 1993, S. X

[23] Ebd.

[24] Vgl. zu diesem Absatz ebd. S. IX f.

[25] Conrad 1983, S. 258

[26] Ebd. S. 259

[27] Mazur 1983, S. 146

[28] Ebd.

[29] Ebd.

[30] Vgl. Rothmann & Lichter 1982, zit. in Bechmann, 1993, S. XII

[31] Vgl. Nowotny 1980, zit. in Bechmann 1993, S. XII

[32] Bechmann, 1993 S. XIII

[33] Vgl. zu diesem Absatz ebd.

[34] Vgl. zu diesem Abschnitt ebd. S. XIII-XVII

[35] Vgl. BfR (2017): BgVV Schriften

[36] Vgl. Gabler Wirtschaftslexikon (2017): Bundesinstitut für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV)

[37] Vgl. BfR (1994): Aufgaben des Bundesinstituts für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), Stand März 1996

[38] Vgl. BfR (2017): BgVV Schriften

[39] Vgl. EFSA (2017): Über die EFSA

[40] Vgl. ECHA (2017): EU-Organe und –Einrichtungen

[41] Vgl. EU-OSHA (2017): Über die EU-OSHA

[42] Bechmann 1993, S. XIII

[43] Beck 1986, S. 10

[44] Ebd. S. 30

[45] Vgl. ebd.

[46] Ebd. S. 48

[47] Vgl. ebd. S. 25

[48] Vgl. ebd. S. 10

[49] Ebd. S. 13, 17

[50] Ebd. S. 62f

[51] Ebd. S. 26

[52] Ebd. S. 42

[53] Ebd. S. 60

[54] Ebd. S. 53 (Hervorhebungen im Original)

[55] Ebd. S. 8

[56] Ebd. S. 8

[57] Vgl. ebd. S. 101

[58] Ebd. S. 63

[59] Ebd. S. 73 (Hervorhebungen im Original)

[60] Ebd. S. 93

[61] Vlg. ebd. S. 76

[62] Ebd.

[63] Vgl. ebd. S. 59

[64] Ebd. S. 60

[65] Ebd. S. 71

[66] Vgl. ebd

[67] Ebd. S. 77

[68] Ebd. S. 78

[69] Ebd. S. 79 (Hervorhebungen im Original)

[70] Ebd. S. 82

[71] Ebd.

[72] Vgl. ebd.

[73] Vgl. ebd.

[74] Vgl. Torgersen 2005, S. 67

[75] Vgl. ebd.

[76] Vgl. zu diesem Absatz ebd.

[77] Vgl. ebd. S. 68

[78] Vgl. ebd.

[79] Vgl. ebd. S. 73

[80] Vgl. zu diesem Absatz ebd.

[81] Vgl. Heinrichs 2005, S. 308

[82] Renn 1995, zit. in Heinrichs 2005, S. 291

[83] Heinrichs 2005, S. 308

[84] Vgl. ebd.

[85] Vgl. ebd.

[86] Ebd. S. 309; Vgl. zu diesem Absatz ebd.

[87] Vgl. Wynne 2001, S. 455

[88] Vgl. ebd.

[89] Ebd.

[90] in diesem Fall bezogen auf genetisch veränderte Organismen

[91] Ebd. S. 455

[92] Ebd. S. 445

[93] Ebd. S. 478

[94] Vgl. ebd. S. 479

[95] Vgl. ebd. S. 456; Vgl. zu diesem Absatz ebd. S. 455-479

[96] Vgl. Wehling 2011, S. 533

[97] Lemke 2007, S. 52, zit. in Wehling 2011, S. 533

[98] Vgl. Wehling 2011, S. 533

[99] Vgl. Luhmann 1991, S. 30

[100] Ebd. S. 32

[101] Ebd.

[102] Ebd.

[103] Ebd. S. 33

[104] Vgl. Luhmann 1991, S. 111

[105] Vgl. ebd. S. 112 ff.

[106] Vgl. zu diesem Absatz Renn & Sellke, 2011, S. 503

[107] Vgl. IRGC 2005, S. 11 f.

[108] Sellke & Renn 2011, S. 504

[109] Vgl. Wehling, 2011, S. 529

[110] Ebd. S. 535

[111] Vgl. Wynne 2002, S. 468, zit. in Wehling, 2011, S. 535

[112] Vgl. Böschen & Wehling 2004, S. 18

[113] Vgl. ebd. S. 9

[114] Ebd.

[115] Ebd. (Hervorhebungen im Original)

[116] Vgl. ebd. S. 10

[117] Vgl. ebd

[118] Böschen & Wehling 2004, S. 10

[119] Vgl. ebd. S. 14

[120] Ebd. S. 14

[121] Ebd.

[122] Ebd. S. 16

[123] Ebd.

[124] Ebd.

[125] Vgl. Böschen & Wehling 2004, S. 17

[126] Ebd. S. 17 f.

[127] Vgl. ebd. S.10

[128] Vgl. ebd

[129] Böschen 2003, S. 21-25, zit. in Böschen & Wehling, 2004, S. 11

[130] Vgl. Böschen & Wehling, 2004, S. 11; Vgl. zu diesem Absatz ebd. S. 10 f.

[131] Vgl. ebd.

[132] Vgl. ebd.

[133] Vgl. ebd.

[134] Vgl. ebd. S. 12

[135] Vgl. ebd.

[136] Ebd.

[137] Ebd.

[138] Vgl. ebd.

[139] Vgl. ebd. S. 13

[140] Vgl. zu diesem Absatz ebd. S. 11-13

Details

Seiten
97
Jahr
2017
ISBN (eBook)
9783668606012
ISBN (Buch)
9783668606029
Dateigröße
1.5 MB
Sprache
Deutsch
Katalognummer
v385015
Institution / Hochschule
Leuphana Universität Lüneburg – Nachhaltigkeitssteuerung
Note
1,7
Schlagworte
Nichtwissen Glyphosat Risikobewertung Wissenschaft

Autor

Zurück

Titel: Das Nichtwissen der Wissenschaft am Beispiel Glyphosat