Lade Inhalt...

Die Kernfusion: Nach Fukushima ein Ausweg aus der Energiekrise?

Seminararbeit 2012 52 Seiten

Physik - Kernphysik, Teilchenphysik, Molekularphysik, Festkörperphysik

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Kernfusion
2.1 Die Grundlagen
2.2 Die Reaktoren
2.2.1 Der Tokamak
2.2.2 Der Stellarator
2.2.3 Die Technik

3. Der Ausweg aus der Energiekrise
3.1 Alternativen
3.2 Die Probleme
3.3 Gefahren

4. Fazit

Anhang

Endnoten

Bildmaterial
Abbildung 1
Abbildung 2
Abbildung 3
Abbildung 4
Abbildung 5
Abbildung 6
Abbildung 7
Abbildung 8
Abbildung 9
Abbildung 10
Abbildung 11
Abbildung 12
Abbildung 13
Abbildung 14
Abbildung 15
Abbildung 16
Abbildung 17
Abbildung 18
Abbildung 19
Abbildung 20
Abbildung 21
Abbildung 22
Abbildung 23

Literaturverzeichnis

Abkürzungsverzeichnis

1. Einleitung

11. März 2011, 14 Uhr 26 Minuten und 23 Sekunden: Eines der verheerendsten Unterwasserbeben in der Geschichte der Menschheit wütet 32 km unter der Wasseroberfläche und in 154,228 km Entfernung zum Kernkraftwerk Fukushima I (Daiichi) mit einer Stärke von 9 auf der Momenten-Magnituden-Skala.

Die ersten Wellen des Bebens erreichen das KKW bereits 23 Sekunden später, sie sind bis zu sieben Meter hoch. Die ersten Sicherheitsmechanismen setzen sich in Gang: Drei der sechs Reaktorblöcke initiieren die Abschaltung, die restlichen sind schon aufgrund von Wartungsarbeiten außer Betrieb. Jedoch ist die Energie der Wellen so groß, dass mehrere wasserführende Leitungen brechen und Notkühlsysteme nicht mehr arbeiten können. In den folgenden zwei Minuten bricht auch das an das Kraftwerk angebundene Stromnetz zusammen, nun halten nur noch die zwölf Dieselgeneratoren das Kraftwerk betriebsfähig. Zum Glück hält ein zusätzlicher Kühlmechanismus dem Beben stand, heißer Dampf aus den Siedewasserreaktoren kann in sog. Kondensationskammern geführt werden. Kurz darauf treffen bis zu 15 Meter hohe Wellen das Kraftwerk, die Dämme brechen, die Gebäude samt den Reaktorgebäuden werden in den unteren Etagen geflutet. Da dort jedoch die zentrale Stromversorgung liegt, bricht das interne Stromnetz nun vollends zusammen. Eine Kühlung der noch extrem heißen Reaktoren ist ab diesem Zeitpunkt nicht mehr möglich. Um 19 Uhr und drei Minuten setzt die Kernschmelze im Reaktorblock 1 ein. Am folgenden Tag sprengt eine Wasserstoffexplosion die Sicherheitshüllen und das Dach des Reaktorgebäudes weg. Am 13. März setzt auch in Reaktorblock 3 eine Kernschmelze ein, dem Kühlwasser wird wie beim Block 1 ein neutronenabsorbierende Borsäure beigefügt. Auch hier reißt eine Wasserstoffexplosion wie bei Block 1 am folgenden Tag die komplette Sicherheitshülle weg. Ebenfalls an diesem Tag um ca. 19 Uhr und 30 Minuten setzt auch die Kernschmelze im Reaktorblock 2 ein.[1][2][3][4]

Es mag den einen oder anderen an die Katastrophe von Tschernobyl[5] erinnern und die meisten haben nach „Fukushima“ ihre Meinung zur Atomkraft überdacht. Am 30. Juni 2011[6] verabschiedete der Bundestag der Bundesrepublik Deutschland den endgültigen Atomausstieg[7]. Auch viele andere Länder, planen, die Atomkraft in Zukunft zu ersetzen[8][9] [10]. Doch wie soll es weitergehen? Viele Kritiker sind der Meinung, dass man mit Wind- und Solarkraft kaum den gesamten Energiebedarf der Industrieländer decken könne. Doch die Lösung scheint näher, als man denkt: Es ist diese Atomkraft, die mit ihren Pannen in der

Vergangenheit und dem Problem des radioaktiven Mülls die meisten ihrer Unterstützer verloren hat[11]. Wenn man „Atomkraft“ oder „Kernkraft“ sagt, dann ist dieser Begriff jedem klar, obwohl er in Wirklichkeit sehr schwammig ist: Die Kernphysiker unterscheiden nämlich zwischen der Kernspaltung und der Kernfusion. Die Kernspaltung feierte ihren Siegeszug mit der Entdeckung durch Otto Hahn im Jahre 1938. Bereits vier Jahre später wurde der erste Kernspaltungsreaktor in Betrieb genommen.[12] Nun scheint sie jedoch an das Ende ihrer Karriere angekommen zu sein. Die Kernfusion jedoch hat ihren Siegeszug vermutlich erst noch vor sich. Wobei man schon seit ihrer Entdeckung durch Ernest Rutherford 1919 durchgehend forscht und ebenfalls schon mehrere Versuchsreaktoren in Betrieb genommen hat. Das Militär war schneller: Mit der ersten gezündeten Wasserstoffbombe 1952 war klar, welche Kraft hinter dieser Kerntechnik stecken müsse. Wie jedoch diese Kraft kontrolliert und zu friedlichem Energiezwecke eingesetzt werden soll, ist nur schemenhaft aus den Aussagen der Wissenschaftler zu erkennen. „Die Lösung ist da, wir wissen nur noch nicht, wie sie aussieht.“ könnte eine mögliche Zusammenfassung der meisten Kommentare lauten. Aber warum ist es bei der Kernfusion so schwierig geeignete Konzepte auszuarbeiten, wohingegen die Ära der Kernspaltung schon fast wieder vorbei ist? Dafür gibt es viele Gründe. In dieser Arbeit werden einige davon aufgegriffen, später auch kritisch betrachtet und die Kernfusion mit anderen Energiegewinnungsmöglichkeiten verglichen. Doch zunächst muss geklärt wer- den, was die Kernfusion überhaupt ist.

2. Kernfusion

2.1 Die Grundlagen

Die Sonne zum Vorbild genommen, konzentrieren sich Wissenschaftler darauf, die physikalisch-chemischen Reaktionen der Sonne annähernd nachzuahmen und dadurch Energie zu gewinnen. Erst im 20. Jahrhundert fand man heraus, dass die von Ernest Rutherford entdeckte Kernfusion der Schlüssel zur Kraft der Sonne ist[13]. Dort läuft nämlich folgende Reaktion ab:

Ausgangsstoffe. Wo ist die Masse hin? Auch wenn man die weiterhin entstehenden Elementarteilchen ansieht, bleibt immer noch ein Defizit, man kann es jedoch auf Einsteins berühmte Formel zurückführen:

E = mc2 [15]. Diese beschreibt die Äquivalenz von Masse und Energie. Die Masse, die verloren geht, im obigen Beispiel sind es 0,635%[16], wird in Form von Energie frei, in diesem Fall (Proton-Proton-Reaktion) konkret durch Ȗ-Strahlen und Neutrinos. Diese werden von anderen Teilchen aufgenommen und in Licht und Wärme umgewandelt. Zunächst werden absolut gesehen 6,932 MeV umgesetzt, durch die weitere Reaktion zu Helium-4 kommen noch 12,86 MeV hinzu. Die beiden entstehenden Protonen können dann wieder eine Anfangsreaktion starten. Doch es gibt noch weitere Reaktionen, die sich aus diesen Startreaktionen ergeben, dort fusionieren dann Heliumkerne miteinander und bilden Zwischenprodukte wie etwa Lithium oder Beryllium. Aus diesem Grund gibt es auch alle Ele- mente, denn nach dem Urknall gab es vorwiegend Wasserstoff und Helium, dies waren die einfachsten Stoffe, die sich aus der freien Energie zusammensetzen konnten, als das Universum anfing, sich abzukühlen. Durch verschiedene Wechselwirkungen, u.a. der Gravitation verdichteten sich einige Bereiche des Universums und die ersten Kernfusionen starteten. Protonen und Neutronen wurden miteinander verschmolzen und nach und nach entstanden die Elemente bis zum Element Eisen. Dies ist kernphysikalisch betrachtet das stabilste Element[17], da die relativen Bindungskräfte aller Nukleonen am größten sind, vor allem die starke Wechselwirkung hat hier großen Einfluss auf die Stabilität[18]. Wenn Eisen fusioniert wird, dann sind diese Reaktionen immer endergon, es muss also Energie hin- zugefügt werden. Dies äußert sich in der Instabilität der Kerne, die an sich mehr Energie tragen und damit der starken Wechselwirkung entgegenwirken[19]. Technetium ausgenommen, beginnt die Reihe der radioaktiven Elemente mit Polonium, hier gibt es kein Isotop mehr, bei dem die Bindungsenergie groß genug ist, um den Kern dauerhaft zusammen zu halten.

Diese Mehr-Energie wird bei der Kernspaltung dann freigesetzt.

Ein weiteres Verfahren, dass in (größeren) Sternen stattfindet ist der sog. Bethe-Weizsäcker- Zyklus, bei dem verschiedene Sauerstoff-, Kohlenstoff- und Stickstoffisotope beteiligt sind, ineinander übergeführt werden und dabei zwischen den Schritten Positronen, Neutrinos und Gamma-Photonen freisetzen. Die Energie wird dem Zyklus durch das Fusionieren mit Protonen gegeben.

Um diese Reaktionen künstlich auf der Erde durchzuführen, werden Temperaturen von ungefähr 100 Millionen Kelvin benötigt, dabei muss der Druck allerdings ausreichend hoch sein. Für die Sonnen-Reaktionen beträgt die Masse ca. 142 Quadrilliarden Kilogramm, das sind 7% der Sonnenmasse. Im Vergleich dazu: Die Deuteriumfusion benötigt „nur“ noch 24 Quadrillionen Kilogramm zur Zündung[20].

Die heutige Technik beschäftigt sich mit der Deuterium-Tritium-Fusion[21], da diese nahezu optimale Voraussetzungen besitzt: Niedriger Druck, moderate Temperaturen, kurze Einschlusszeiten und größter Wirkungsquerschnitt aller Deuterium-Fusionen. Also gibt diese Reaktion bei geringem Volumen und damit Teilchenzahl die größte Menge an Energie ab (ca.17,6 MeV[22]). Auf der anderen Seite muss wenig Energie in das System geführt werden, denn die Coulombbarriere liegt für Ionen mit geringer Elementarladung höher, also ist sie für Wasserstoffisotope am geringsten. Denn aufgrund der positiven Ladung der Atomkerne stoßen diese sich bei einer Annäherung sofort wieder ab. Weniger Ladung bedeutet weniger Abstoßung, also benötigen die Teilchen weniger Energie. Ein weiterer wichtiger Effekt im Aspekt der Coulombbarriere ist der Tunneleffekt, der es Teilchen mit zu geringer (kinetischer) Energie ermöglicht, trotzdem nahe genug an einen anderen Kern heranzukommen, um mit ihm zu fusionieren. Denn wenn der Abstand auf unter einem Femtometer fällt, bindet die starke Wechselwirkung die Nukleonen aneinander. Dazu ein Modell: Ein Ball liegt in einer Dachrinne. Um ihn auf den Boden zu bekommen, muss man ihn erst ein Stückchen anheben, bevor die Gravitation ihn anziehen und beschleunigen kann. Auch bei 5 Millionen Bällen wird keiner durch die Dachrinne hindurch fallen, jedes Mal muss der Ball ein Stückchen höher ge- hoben werden. Da kleinste Teilchen nach der Quantenphysik jedoch auch einen Wellencharakter haben, ist es für sie möglich in einem geringen Maße diese Potentialbarriere zu durchbrechen. Wenn es diesen Effekt nicht geben würde, wäre es so gut wie unmöglich, genug Energie in das System zu führen, damit genügend Teilchen eine ausreichend hohe Geschwindigkeit haben.

Wenn man nun ein Deuterium-Tritium-Gemisch auf ca. 100 Mio. °C aufheizt, dann bleibt hauptsächlich nur noch ein Problem übrig: Es gibt keinen Stoff der bei einer Berührung mit einem so heißem Gemisch die Wärme nicht sofort aufnehmen würde, man muss dieses Gemisch also von den Wänden des Reaktors fernhalten. Dies ist ein Problem, mit dem sich die Wissenschaft schon lange beschäftigt. Es haben sich zwei Prinzipien herausgestellt die relativ kostengünstig umgesetzt werden könnten. Diese sollen im Folgenden genauer erläutert werden.

2.2 Die Reaktoren

2.2.1 Der Tokamak

Der Name kommt aus den Russischen und bedeutet so viel wie „toroidale Kammer in Magnetspulen“[23]. 1952 wurde das Prinzip von zwei russischen Physikern entwickelt[24].

Will man ein Deuterium-Tritium-Gemisch (DT-Gemisch) zünden, so muss man es erhitzen. Dabei wird den Elektronen so viel Energie hinzugefügt, dass diese sich aus der Atomhülle lösen und sich frei herum bewegen. Da es von diesem Zeitpunkt an keine Atome sondern nur noch Ionen und Elektronen gibt, nennt man das Gemisch Plasma. Doch selbst wenn man den Plasma-Zustand erreicht hat, so zündet dieses noch nicht automatisch. Zunächst einmal muss es „in der Luft“ festgehalten werden. Hier setzt das Prinzip des Tokamaks an: Da in dem Plasma nur noch geladene Teilchen vorhanden sind, kann man die Lorentz-Kraft mithilfe von Magnetspulen sinnvoll einsetzen[25]. Dabei wird über äußere Magnete ein elektromagnetisches Feld induziert, welches eine Kraft auf die Elektronen bzw. Atomkerne ausübt. Die „torusförmig“ angeordneten Magnetspulen halten die Teilchen auf den Bahnen der Magnetfeldlinien, die toroidal verlaufen. Jedoch würden die äußeren Teilchen mit der Zeit einen nach außen gerichteten Drift bekommen, da die Feldstärke antiproportional zum Radius ist, weshalb man auch ein poloidales Feld erzeugen muss, das diese Teilchen spiralförmig zurück in das Innere des Plasmas zieht[26]. Wegen der Orthogonalität eines elektromagnetischen Feldes muss der Strom also parallel zum Plasma laufen. Der Einfachheit halber wird der Strom direkt durch das Plasma geleitet. Natürlich kann man keine Leitungen in das Plasma führen, es würde das Plasma sofort auskühlen, daher nutzt man den Induktiv- Effekt eines Transformators[27]. Mehrere Leitungen bzw. Spulen werden torusförmig um den Reaktor gelegt. Im Zentrum befindet sich die stärkste Spule. Das Reaktorgehäuse wirkt als Metallkern, das Plasma ist in diesem Sinne die Sekundärspule in die die Spannung induziert wird. Da die Spannung bzw. der Strom nur in eine Richtung orientiert sein darf, muss man den Strom an den Primärspulen kontinuierlich erhöhen (bzw. senken). Denn nur bei einer Ä nderung der magnetischen Flussdichte wird auch an der Sekundärspule eine Spannung/ ein Strom induziert. D.h., dass ein poloidales Feld nur endlich lang aufrechterhalten werden kann. Danach muss die Spannung wieder auf 0 gesenkt werden. In dieser Zeit kann keine Fusion stattfinden. Hier findet sich auch die Schwachstelle des Tokamaks: Er kann nur einen pulsierenden Betrieb führen[28].

2.2.2 Der Stellarator

1951 wurde dieser Reaktortyp von Lymann Spitzer entwickelt[29]. Obwohl Spitzer unabhängig von den Forschungen des Tokamaks sein Reaktorprinzip erfand, scheint es als versuche der Stellarator genau das Hauptproblem des Tokamaks zu umgehen[30]. Das Grundprinzip ist ähnlich dem des Tokamaks und auch die Form ist torusförmig. Der Unterschied besteht in dem magnetischen Feld, mit dem das Plasma eingeschlossen wird.

Doch ganz genau so wie beim Tokamak ist der Aufbau nicht, denn der axialsymmetrische Torus würde bei den toroidalen (also toroidal induzierenden) Magnetspulen trotzdem ein Magnetfeld besitzen, das einen Teilchen-Drift nach außen zulässt. Deshalb hat jede Magnetspule eine spezielle Form[31] und was auf dem ersten Blick wie eine wild zusammengestellte Form aussieht[32], unterliegt einer höchst präzisen und auf mathematischer und physikalischer Grundlage berechneten Symmetrie. Denn zum Ausgleich der ungleichen Feldstärken müssen andere Felder induziert werden, so dass das eine Magnetfeld in das andere übergreift. Auch hier werden die nach außen gerichteten Kräfte durch nach innen gerichtete Felder ausgeglichen. Dies war jahrelang das Problem des Stellarators: Die große Genauigkeit, die dabei erforderlich ist. Selbst bei genausten Vorgaben entstehen trotzdem chaotische Bereiche im Plasma, bei denen man keine Vorhersage auf ihre Interaktionen machen kann und die man auch nicht beseitigen kann, lediglich ihren Raum kann man auf ein Minimum senken. In modernen Stellaratoren verwendet man eine periodisch wiederkehrende Anordnung einer bestimmten Spulen-Folge. Dabei gilt im Allgemeinen die Deckung bei einer Drehung[33], F gibt die Anzahl der Perioden wieder. Neben diesen werden auch ebene Spulen (wie beim Tokamak) und helixförmige Leiter eingesetzt, die ein weiteres poloidales Feld aufbauen. Mittlerweile kann man mit Computerprogrammen die Form des Plasmas und damit die Anordnung der Spulen genau berechnen. Auch die Genauigkeit der Produktion nimmt zu und man hat entdeckt, dass Fehler im Feld schnell durch andere Spulen ausgeglichen werden können. Man kann also nach eigenem Belieben und unter Effizienz- Aspekten verschiedenste Bauformen nutzen, deshalb werden diese auch „Optimierte Stellaratoren“ genannt.[34][35]

2.2.3 Die Technik

Beide Reaktortypen funktionieren auf Basis von Magnetspulen. Würde man diese standardmäßig aus Kupfer herstellen, läge der Stromverbrauch bei über 700 Megawattstunden[36]. Aus diesem Grund werden zukünftige Reaktoren aus Supraleitern bestehen[37], also Metallen bzw. Legierungen, die bei Temperaturen von knapp über dem absoluten Nullpunkt einen Widerstand von fast 0 ȍ besitzen[38]. Mit dieser Methode senkt sich die benötigte Leistung auf ein Minimum. Denn um das nötige Magnetfeld von über 6 Tesla[39] zu erzeugen, muss ein Strom von über 17.600 Ampère angelegt werden[40]. Dafür werden die Niob-Zinn-Leitungen auf 4 Kelvin (-269,15 °C) abgekühlt. Eine Möglichkeit zur Realisierung ist, die Drähte mit Aluminium zu ummanteln und Hohlräume zwischen den Drähten zu lassen, durch welche später das flüssige Helium fließen kann. Dann werden diese Leitungen mit Glasfaser im Verbund zusammengehalten.

Ein weiteres Problem, das bis jetzt kaum angesprochen wurde, ist die Realisierung der Plasmaheizung, denn bevor überhaupt eine Zündung stattfinden kann, muss das Plasma eine bestimmte Temperatur erreichen.

In diesem Fall hat der Tokamak sogar schon eine eingebaute Heizung[41]: Das Plasma, denn es fungiert ja als Sekundärspule[42] des Transformators und leitet Strom. Da das Plasma aber einen Widerstand hat, fällt Spannung an ihm ab und wird in Wärmeenergie umgewandelt. Diese Wärmeenergie ist dann ein Teil der Startenergie für die Zündung. Das Problem ist nur, dass die Leitfähigkeit eines Plasmas mit steigender Temperatur zunimmt. Mathematisch lässt sich dieses Phänomen auch durch die Spitzer-Formel beschreiben:

Energie ist die Ablenkung jedoch geringer, da der Impuls der Anziehung entgegenwirkt. Um es einmal umgangssprachlich zu formulieren, haben die Elektronen „das Ziel fester vor Augen“[45]. Der Radius um die Elektronen herum, in dem sie mit anderen Teilchen wechselwirken, wird geringer und da der Coulomb-Logarithmus als Annäherung an diesen Radius verstanden wird, verringert sich dementsprechend der Nenner im zweiten Bruch, der Wert ist antiproportional zur Temperatur. Deshalb haben schon geringe Erwärmungen einen großen Einfluss auf die Leitfähigkeit des Plasmas[46].

Beim Stellarator fängt man sogar noch einen Schritt früher an: Man hat zu Anfang überhaupt gar keine Plasmaheizung. Jedoch werden auch hier die gleichen Techniken wie beim Tokamak verwendet, um das Plasma auf die benötigten 100 Millionen Grad zu erwärmen.

Eine Möglichkeit ist die Hochfrequenzheizung, bei der elektromagnetische Wellen in bestimmten Frequenzen auf das Plasma gerichtet werden. Dabei erfahren die Teilchen zusätzliche Energie und da sie in den elektromagnetischen Feldlinien gefangen sind, können sie nicht ausbrechen, sondern sich nur in Kreisbewegungen um diese Feldlinien herumbewegen. Trotzdem führt diese Bewegung entlang des elektrischen Feldes zu einer Erwärmung des Plasmas[47].

Eine andere Möglichkeit der Erwärmung ist die sog. Neutralteilcheninjektion[48]. Damit die Teilchen eine ausreichend große Bewegungsenergie besitzen, müssen sie zunächst als Ionen beschleunigt werden, dann neutralisiert werden und erst dann in das Plasma geleitet werden. Ansonsten würden die Ionen vom Magnetfeld beeinflusst und abgelenkt werden[49].

Eine weniger untersuchte Möglichkeit ist die Plasmakompression, bei der das Magnetfeld der toroidal induzierenden Spulen nach dem Einfüllen des Gases erhöht wird, das entstehende Plasma also eine stärkere Kraft in das Querschnitts-Zentrum erfährt und der Druck folglich steigt. Dabei nimmt nicht nur die Temperatur zu, sondern auch die Dichte, die für den Wirkungsquerschnitt der Reaktion von großer Bedeutung ist. Im Falle der Injektion und der Mikrowellenheizung werden Teilchen im Plasma in Bewegung gesetzt, wobei diese wiederum weitere Teilchen anstoßen und sich die Energie im gesamten Plasma verteilt[50].

3. Der Ausweg aus der Energiekrise

3.1 Alternativen

Neben den Forschungen an Stellarator und Tokamak wird auch noch die Trägheitsfusion untersucht. Bei dieser wird das Gas in einen kleinen Reaktorkessel mit stabiler Außenwand gefüllt und dann durch Strahlung soweit erhitzt, bis Druck und Hitze zur Expansion und folglich Implosion führen, dabei wird das Plasma so heiß, das es zündet und kurze Zeit lang Wärme abstrahlt. Diese kann dann wie bei den anderen Techniken dazu verwendet werden, Wasser zu erhitzen und Turbinen anzutreiben. Jedoch besteht bei dieser Technik das Problem, dass trotz einiger Tests keine nennenswerten Ergebnisse erzielt wurden, somit wird an keinem größeren oder gar internationalem Institut an dieser Technik geforscht. Dabei könnte diese Methode in naher Zukunft schon Energie liefern und sei es nur im Labor. Man müsste dafür lediglich die Bestrahlungsmethoden besser erforschen und da die Lasermethode aufgrund ihrer niedrigen Effizienz mittlerweile aufgegeben wurde, könnte man weitere Forschungen noch auf die Schwer- bzw. Leichtionenbestrahlung richten. Möglicherweise könnten dann erste dieser „Mini-Reaktoren“ hergestellt werden und kommerziell verwendet werden. Denn rein theoretisch liegen schon Ergebnisse vor: Es ist genau die Technik, die auch in Wasserstoffbomben verwendet wird. Man kann bis jetzt keine Aussagen auf zukünftige Ereignisse bezüglich der Erforschung dieser Technik machen, da kein Institut etwas entsprechendes bis zum Verfassen dieser Facharbeit in Aussicht stellt[51].

Eine andere Alternative ist die sog. „kalte Fusion“. Bis jetzt gab es keinen offiziellen, geprüften Versuch, mit dem bestätigt werden konnte, dass es die „kalte Fusion“ gibt. Diese wurde von Martin Fleischmann und Stanley Pons „erfunden“. Sie behaupteten 1989, eine Fusionsreaktion durchgeführt zu haben, ohne das Plasma komprimieren oder erhitzen zu müssen. Und obwohl ihre chemische Lösung nicht wiederholt werden konnte, wird der Begriff weiterhin für eine nicht-thermische Fusionsreaktion benutzt[52]. Heutzutage bezeichnet man mit diesem Begriff eine myonen-katalysierte Fusionsreaktion. Myonen sind Elementarteilchen, die dem Elektron sehr ähnlich sind, gleiche Ladung haben und zu den Leptonen gehören, jedoch eine deutlich höhere Masse als die Elektronen aufweisen[53]. Sie werden unter Energieaufwand erzeugt und in ein DT-Gemisch geschossen. Dabei ersetzen sie ein Elektron in einem Wasserstoffmolekül und verringern durch ihre hohe Masse die Größe der Elektronenhülle bzw. erhöhen die Bindung zwischen Deuterium und Tritium, welche daher leichter fusionieren. Diese anschließende Reaktion findet zwar auch bei „hohen“ Temperaturen statt, jedoch deutlich niedriger als bei „normalen“ Fusionsreaktionen, nämlich bei ungefähr 1000°C. Durch den Tunneleffekt würde es jedoch auch schon reichen, die Versuche bei Zimmertemperatur durchzuführen, jedoch mit deutlich geringerer Effizienz. Auch dieses Verfahren ist nicht erfolgversprechend, da die Myonen mit einer bestimmten Wahrscheinlichkeit im entstehenden Heliumkern bleiben und damit nicht die maximal 100 Reaktionen katalysiert, die rein theoretisch in der Lebenszeit eines Myons liegen. Obwohl diese Wahrscheinlichkeit sehr gering ist, reicht sie aus, um die „entstehende“ Gesamtenergie so weit zu senken, dass sie statistisch gesehen unter dem des Aufwandes zur Herstellung eines Myons liegt. Damit ist dieses Verfahren ineffizient.

Ein Verfahren, dass zur Zeit oft in den Medien auftaucht, ist die Sonofusion, bei der Schallwellen erzeugt und auf schweres Wasser (D2O) gerichtet werden. Durch die Wellen sollen bestimmte Bereiche den nötigen Druck und die Temperatur erreichen und dann fusionieren und Wärme abgeben. Allerdings fehlen auch hier ausreichend gesicherte wissenschaftliche Experimente und Nachforschungen.

Die meisten scheinbaren „kalten Fusionen“ haben schon in der Theorie keinen Anspruch auf Existenz, denn nach dem sog. Lawson-Kriterium muss ein Fusionsgemisch folgende Eigenschaften besitzen:

Abbildung in dieser Leseprobe nicht enthalten

n steht für die Teilchendichte, die in etwa proportional zu der Dichte des Plasmas beim magnetischen Einschluss ist. IJ ist die Einschlusszeit in Sekunden, die wiedergibt, wie lange das Plasma zusammengehalten wird. T ist die absolute Temperatur. Genauso wie die Teilchendichte steht dieser Faktor für die Wahrscheinlichkeit, dass zwei Kerne aufeinanderstoßen und dann auch fusionieren. In den momentan existierenden Reaktoren ist der Druck relativ gering. In der Sonne wird der hohe Druck durch die eigene Gravitation erzeugt, die Temperatur liegt bei solchen Drücken bei ca. 10 Millionen Grad, bei dem Druck in den Reaktoren ist eine Temperatur von 100 Millionen Grad notwendig. Der letzte wichtige Punkt ist die Frage: Wie lange kann man das Plasma einschließen, d.h. wie lange läuft die Re- aktion. Vor allem beim Tokamak-System ist dieser Faktor relevant[54].

3.2 Die Probleme

Gerade das Lawson-Kriterium zeigt die Probleme in der heutigen Forschung auf. In erster Linie kann die Einschlusszeit bei kaum einem Reaktor lange genug gehalten werden, um effizient zu arbeiten. Genau genommen hat bis heute kein Versuchsreaktor eine Zündung von Wasserstoffplasma verzeichnet. Mit Zündung ist jedoch nicht nur das Brennen des Plasmas, sondern auch die kontinuierliche Fortführung der Fusion gemeint, d.h., dass der Prozess wie in der Sonne in einer Kettenreaktion verläuft. Mit dem Tokamak ITER[55] soll dies aber erstmals gelingen[56]. Es ist geplant, dass dieser 2019 beginnt, Wasserstoff-Plasmen zu zünden und mehr Energie zu gewinnen als in das System gesteckt wird. Sollte dies nachgewiesen werden, wird das Projekt DEMO genauer ausgearbeitet werden. DEMO ist ein zukünftiges Fusionskraftwerk, dass erstmals Energie für kommerzielle Zwecke erzeugen soll. Sollte DEMO wirklich gebaut werden, ist die Ära der Kernfusion eingeleitet. Doch Wissenschaftler setzen den Anfang dieser Ära auf das Jahr 2050. Die benötigte Energie wird voraussichtlich 70-80 Megawatt betragen, die Fusion soll jedoch 500 Megawatt Energie erbringen, das ist mehr als das sechsfache des „Stromverbrauchs“[57].

Ein anderes Problem sind die Baukosten. ITER soll zum Beispiel schon mehrere Milliarden Euro gekostet haben und der Unmut wächst, denn die Anlage befindet sich gerade mal im Anfangsstadium des Baus. Denn nicht nur die Fusions-Technik[58][59] muss dafür entwickelt und realisiert werden, sondern auch die weiteren Gebäudekomplexe, wie Steuerungsräume, Diagnoseräume, Forschungs- und Verarbeitungsgebäude. Das Gesamtgelände wird eine Größe von über 180 Hektar besitzen[60][61].

In den Medien wird oft die Frage gestellt: Wo soll man die Rohstoffe für das Plasma hernehmen? Bei den meisten Menschen herrscht noch die Meinung vor, dass auch die Kernfusion mit Uran arbeitet, doch wird, wie oben erwähnt, die Energie mit Deuterium- Tritium-Plasmen erzeugt[62]. Wie man Protium technisch herstellt ist gar keine Frage, doch beim Deuterium wird es etwas komplexer. Man muss Meerwasser in große Anlagen überführen, die nach dem sog. „schweren Wasser“ Ausschau halten, das sind Wassermoleküle, die statt Protium Deuterium-Atome besitzen. Diese müssen extrahiert und über weitere Verfahren, beispielsweise Elektrolyse, in Deuteriumgas umgewandelt werden[63]. Zwar ist dieser technische Aufwand unumgänglich, jedoch arbeitet er sehr effektiv und kann unbegrenzt Deuterium bereitstellen. Das größte Problem bildet die Bereitstellung von genü- gend Tritium. Tritium ist ein kaum natürlich vorkommendes Isotop und muss deswegen künstlich erzeugt werden. In den meisten Fällen ist der Energieaufwand hierfür sehr hoch. Eine Extraktion aus der Atmosphäre wäre zu ineffizient, da der Anteil von Tritiumverbindungen relativ gering ist, zumal dieses Isotop eine Halbwertzeit von gerade mal 12 Jahren besitzt. Ein technisches Verfahren ist die Fission von Lithium-7, wobei neben Helium-4 auch ein Tritium-Atom entsteht[64]. Es gibt zwei Möglichkeiten dieses Verfahren zu realisieren: Einmal kann man Tritium in einem speziell dafür angelegten Brutreaktor herstellen und anreichern.

[...]

Details

Seiten
52
Jahr
2012
ISBN (eBook)
9783656349617
ISBN (Buch)
9783656349952
Dateigröße
2.7 MB
Sprache
Deutsch
Katalognummer
v206320
Note
12 Punkte
Schlagworte
Teilchenphysik Fukushima Plasmaphysik Kernspaltung Stellarartor Tokamak

Autor

Teilen

Zurück

Titel: Die Kernfusion: Nach Fukushima ein Ausweg aus der Energiekrise?