Samstag, 13. Dezember 2014

E.ON - Ein Stromkonzern zerlegt sich selbst

Der deutsche Stromversorger E.ON gehört zu den größten Industriekonzernen weltweit. Die US-Wirtschaftszeitschrift "Fortune" listet ihn im Jahr 2014 mit 162,5 Milliarden Dollar Umsatz als zweitgrößtes deutsches Unternehmen, nur noch übertroffen von Volkswagen (261,5 Mrd.). Renommierte Firmen wie Daimler (156,6), Siemens (106,1), BMW (100,3) und BASF (98,2) stellt E.ON weit in den Schatten.

Wenn ein solches Unternehmen "freiwillig" - und mit voller Unterstützung des Aufsichtsrats - beschließt, seine Geschäftstätigkeit und Kernkompetenz drastisch zu verringern, dann muss etwas Einschneidendes passiert sein. In der Tat: E.ON glaubt mit den Randbedingungen der politisch verordneten "Energiewende" nicht zurecht zu kommen und hat deshalb die "Notbremse" gezogen. Ab 2016 möchte das Unternehmen risikoreiche Geschäftsfelder auslagern und in einer neuen, von E.ON unabhängigen Firma, an die Börse bringen.

Die Risiken der Energiewende

Seit die Bundeskanzlerin vor dreieinhalb Jahren, fast im Alleingang, den Atomausstieg und die Energiewende durchboxte, hat sich die Welt für die deutschen Stromkonzerne radikal verändert. Das Erneuerbare Energien Gesetz (EEG) verschaffte den regenerativen Energieträgern einen steilen Aufschwung. Durch eine üppige Subventionierung sind inzwischen 82.000 Megawatt (MW) Erzeugungskapazität am Netz: Solar 38.750 MW, Wind 35.600 MW und Biomasse 8.100 MW. Daneben fordert das EEG die unbedingte und vorrangige Einspeisung dieser zumeist volatilen Elektrizität, was bei entsprechender Wetterlage die Strompreise an der Börse kontinuierlich fallen lässt. Derzeit beträgt die sog. EEG-Umlage ca. 25 Milliarden Euro jährlich; dem steht für den erzeugten Strom ein Börsenwert von lediglich 2 Milliarden gegenüber. Ein Großteil des Stroms wird exportiert und verramscht, gelegentlich sogar unter hohen Geldzuzahlungen.

E.ON hat die Politik frühzeitig darüber informiert, dass unter diesen Umständen die konventionellen Kraftwerke (Steinkohle, Braunkohle, Gas, zum Teil auch Atom) nicht mehr rentabel betrieben werden können. Das Unternehmen forderte, zusammen mit RWE, einen sogenannten Kapazitätsmarkt. Dies ist, in praxi, eine staatliche Unterstützung für konventionelle Kraftwerke, wenn sie nicht am Netz sind, aber in Bereitschaft stehen müssen. Als Beispiel wurde immer wieder die Feuerwehr herangezogen, die auch bezahlt werden muss, wenn keine Löscharbeiten anstehen. Die Politik hat diese Hilferufe überhört, ja sogar via Bundesnetzagentur verboten, unrentable Kraftwerke stillzulegen. Darüber hinaus hat sie von den EVU verlangt, die CO2-Emissionen bis 2020 um rd. 22 Millionen Tonnen zurückzufahren.

Bei der vieldiskutierten Entsorgung der Kernkraftwerke werden E.ON und die drei anderen großen Energieversorgungsunternehmen RWE, EnBW und Vattenfall zu Unrecht publizistisch in die Ecke gestellt. Die bisher zurückgelegten Finanzmittel von ca. 2 Milliarden pro Kernkraftwerk sind voll ausreichend, wie auch aus Rückbauerfahrungen beim früheren Kernforschungszentrums Karlsruhe hervor geht. Nicht bekannt sind allerdings die Kosten für die Endlagerung. Dafür zuständig ist per Atomgesetz die Bundesregierung. Seit das Salzlager Gorleben vor einigen Jahren, auf rot-grünem Zwang hin, leichtfertig aufgegeben wurde, fängt man mit der Suche nach einem Endlager wieder bei Null an. Dabei war nach allen vorliegenden Gutachten Gorleben sehr wohl als Endlager geeignet.  Die Bereitstellung eines neuen Endlagers kann bis zum Ende dieses Jahrhunderts dauern, denn "Gorleben ist überall". Dieser bedauernswerte Umstand ist allerdings nicht von den EVU zu vertreten. Da die staatlichen Spezifikationen zur Verpackung des Atommülls logischerweise erst nach genauer technischer Kenntnis des Endlagers bekannt gegeben werden können, ist es nicht ratsam, mit dem Abriss der Kernkraftwerke vorher zu beginnen. Die hoch strahlenden Teile, wie der Reaktortank, sind am besten geschützt durch die umgebenden Betonstrukturen des Kernkraftwerks und keinesfalls durch provisorische Zwischenläger, wie derzeit inmitten des KIT.

Die zentrale Frage:  Versorgungssicherheit

E.ON hat jetzt den Bettel hingeworfen. Unter den genannten Bedingungen (und vielen weiteren) sah sich das Unternehmen nicht mehr in der Lage, kostengerecht und rentabel Strom zu produzieren. Die Einschränkungen des EEG nahmen immer mehr planwirtschaftlichen Charakter an und benachteiligten den Konzern im europäischen Verbund der Wettbewerber. Trotz umfangreicher Stilllegungen von Kohlekraftwerken und (fast neuen) Gaskraftwerken waren die Kosten nicht mehr hereinzuholen. Schwindende Gewinne aber gefährden die künftig notwendigen Investitionen und drücken den Börsenwert des Unternehmens, sodass "feindliche" Übernahmen nicht auszuschließen sind. Sinnigerweise behält die zukünftige E.ON die hochsubventionierten Erneuerbaren Energien sowie die üppig geförderten Stromnetze im Portefeuille. Alle Kraftwerke müssen sich jedoch eine neue Firma suchen.

Was in der öffentlichen Diskussion darüber fast gänzlich untergeht, ist das Thema Versorgungssicherheit. Jedem EVU, insbesondere aber den Großen, ist die allzeit sichere Versorgung der Bevölkerung mit Strom vom Gesetzgeber auferlegt. Die deutschen Stromkonzerne haben in dieser Beziehung eine hervorragende Bilanz vorzuweisen: international stehen sie auf diesem Feld an der Spitze! Sogenannte Blackouts gab es bisher allenfalls kurzzeitig regional, nie aber über die ganze Republik hinweg. Künftig, ab 2016, wenn die neue Gesellschaft in den Markt entlassen wird, muss man sich in dieser Hinsicht Sorgen machen. Die wirtschaftlichen Randbedingungen werden sich bis dahin nicht verbessert haben - im Gegenteil. Es ist anzunehmen, dass die Börsenstrompreise weiterhin sinken werden und der Gesellschaft keine nennenswerten Finanzmittel für Neuinvestitionen zur Verfügung stehen werden. Das wird die neue Gesellschaft veranlassen, ihre ältesten Kohlekraftwerke bis zum Anschlag auszulasten. Abgesehen von der dann miesen CO2-Bilanz, könnte dies in absehbarer Zeit zum technischen Zusammenbruch des Kraftwerksparks führen. Das würde die Netzstabilität aus Äußerste gefährden, die nur von großen Dynamomaschinen gesichert werden kann. Größere Blackouts sind unter diesen Umständen nicht mehr auszuschließen, mit weitreichenden Folgen für das Industrieland Deutschland.

Auch um die Mittel für den oben genannten Rückbau der Atomkraftwerke muss man sich Sorgen machen. Sie sind ja - so vermute ich mal - nicht auf einem Sonderkonto in Festgeld geparkt, sondern werthaltig in Vermögensteilen, wie dem Kraftwerkspark. Wenn dieser aber aus technischen und marktwirtschaftlichen Gründen an Wert verliert, so vermindert sich ganz schnell auch die darin angesammelte atomare Rückbaureserve. Die Bundesregierung hat dieses Problem erkannt und will den Sachverhalt noch vor Weihnachten überprüfen lassen.

Vor einem Jahr

 In Zukunft werden also zwei Firmen den Strom ins E.ON-Verbreitungsgebiet einspeisen: die (abgemagerte) E.ON liefert Sonnen- und Windstrom, die neue (noch namenlose) Gesellschaft den konventionellen Strom aus Kohle- , Gas- und Kernkraftwerken etc. Wie dies in der Summe aussehen könnte, ist aus dem untenstehenden Diagramm entnehmen, welches die Situation vor ziemlich genau einem Jahr, nämlich in der 51. Kalenderwoche 2013 wiedergibt. (Daten von Leipziger Strombörse EEX und B. Burger, Fraunhofer ISE).


Deutsche Stromproduktion: 51. Woche,  16. bis 22. Dezember 2013

Wie man aus der Tabelle erkennen kann, benötigte Deutschland in dieser Vorweihnachtswoche im Schnitt 60.000 Megawatt an Stromleistung und knapp 10 Terawattstunden an elektrischer Energie. Zu ca. 80 Prozent wurden diese von den konventionellen Kraftwerken geliefert. Die ca. 20 Prozent an Sonnen- und Windstrom wurden nur fluktuierend dazu geliefert, mussten aber, wegen des EEG, bevorzugt eingespeist werden. Betrachtet man den grau angefärbten konventionellen Strom als "Grundwellen" in einem See, so erscheinen die gelben und grünen Beiträge von Sonne und Wind nur als stochastische "Schaumkronen" auf diesen Wellen. Hinzu kommt - ganz wichtig - dass die Lieferanten des konventionellen Stroms auch für die Netzstabilität zu sorgen haben. Wie beispielsweise gestern (am 12. 12. 2014) angesichts der Sturmfront "Billie"!

Es stellt sich die Frage, ob die neue E.ON nach 2016 in der Lage sein wird, diesen energiewirtschaftlichen Verpflichtungen nachzukommen. Und wer die Chefs dieser Gesellschaft sein werden. Möglicherweise Hedgefonds-Manager, die ihren Sitz auf den Cayman-Inseln haben und für die deutschen Behörden kaum greifbar wären? Finanzjongleure, die das neue E.ON-Unternehmen nur nach schnellem Profit steuern: ein Horrorgedanke.

Immer mehr drängt sich die Befürchtung auf, dass politische Zauberlehrlinge vor dreieinhalb Jahren mit klobiger Hand in das deutsche Stromsystem eingegriffen haben, das vorher mehr als hundert Jahre perfekt funktioniert hat. Inzwischen spürt diese Laienschar immer mehr, welchen energiewirtschaftlichen Schaden sie angerichtet hat und versucht hektisch gegenzusteuern. Hoffen wir, dass ihr dies gelingt. Andernfalls könnte die konventionelle Stromerzeugung in Deutschland in wenigen Jahren zusammenbrechen.

Freitag, 28. November 2014

ITER - Nachschlag: ein neuer Chef !

 Sage niemand, dass sich beim Riesenprojekt ITER im südfranzösischen Cadarache nichts tut. Kaum hatte ich vor zwei Wochen darüber einen Blog ins Netz gestellt - schon muss ich diesen, um aktuell zu bleiben, mit einem Addendum versehen. Vorige Woche tagte nämlich das ITER- Berufungskommittee  und es hat sich tatsächlich einen neuen Generaldirektor (GD)für dieses Projekt gefunden. Es ist der Franzose Monsieur Bernard Bigot, bislang Chef für French Alternative Energies and Atomic Energy Commission (CEA). Der 65-jährige M. Bigot ist Physikochemiker mit einem PhD in Chemie und lehrt an der Ecole normale supérieure in Lyon. Er war in verschiedenen hochrangigen staatlichen und ministeriellen Positionen in Frankreich tätig. Natürlich ist er auch Ritter der Ehrenlegion.

Ein Blick zurück

Der Wechsel auf dem Posten des Generaldirektors kam nicht wirklich unerwartet, eine Überraschung war jedoch die Bestellung eines Franzosen. Eigentlich ist für diese Position nämlich ein Japaner gesetzt - als Kompensation für den Umstand, dass Japan einst auf den Standort des ITER in Japan verzichtet hatte. Dementsprechend gab es bisher auch nur Japaner als ITER-Chefs, nämlich die Herren Kaname Ikeda und Osamu Motojima.

 General Director (GD) Ikeda trat sein Amt im Jahr 2005 an, als die Bauarbeiten in Cadarache begonnen wurden. Er war vorher Botschafter Japans in Kroatien und strahlte das typische Charisma japanischer Politiker aus. Seine holprigen, in broken-english vorgetragenen Projektpräsentationen verursachten beim Fachpublikum regelmässig Bauchgrimmen. Nicht zuletzt deswegen wurde ihm bald der Deutsche Norbert Holtkamp als Vertreter zur Seite gestellt wurde, was bei dessen Antritt die französische Zeitung La Provence zu der kecken Phrase veranlasste: "Nun ist der wahre Chef gekommen".

Im Juli 2010 war die Phase Ikeda zu Ende; die Japaner schlugen als Nachfolger Professor Motojima vor, welcher zeitweise in einem Fusionslabor seines Landes tätig war. Die erste Amtshandlung des neuen GD war, dass er seinen Vertreter Holtkamp feuerte, für den man fortan im sonnigen Kalifornien einen gutbezahlten Job fand. Deutschland verlor mit dem stellvertretenden GD zwar einen Top-Posten, aber den Politikern hierzulande war dies nicht unlieb, denn für die Kostenerhöhungen und Terminverzüge des Projekts stand man von da an nicht mehr im ersten Feuer. Motojima, der die meiste Zeit seines beruflichen Lebens Vorlesungen an verschiedenen Universitäten gehalten hatte, bekam das Projekt ITER nie in den Griff. Dafür sammelte er während seiner Amtszeit in der Provence reihenweise Ehrendoktorate renommierter Universitäten (Marseille 2011, Gent 2012, Sokendai 2013).

Blick in die Zukunft

Als die Amerikaner zu Anfang diesen Jahres damit drohten, das Projekt zu verlassen, war Panik angesagt. Ein neuer Generaldirektor musste her. Es traf sich gut, dass die Japaner nicht mehr auf ihr vertragliches Recht zur Besetzung dieser Position beharrten. Zwei eklatante Fehlbesetzungen innerhalb von zehn Jahren hatten bei den Asiaten einen solchen Gesichtsverlust hinterlassen, dass sie sich fortan mit der Benennung eines Franzosen einverstanden erklärte. Ob es irgendwelche Zugeständnisse des ITER-Councils gab, ist (noch) nicht bekannt. Alle Blicke wenden sich nun zu Bernard Bigot. Er soll es richten. Er soll das Projekt aus dem Loch holen - und vor allem die aufsässigen Amerikaner beruhigen. Es wird eine Premiere werden, denn Bigot hat bislang noch kein großes Projekt geleitet.


Bernard Bigot, der neue Chef bei ITER

Der nicht mehr allzu junge Hoffnungsträger steht vor einer schweren Aufgabe. Er will das Projekt restrukturieren und dem DG mehr Einfluss sichern. Das wird schwer genug sein, denn die sieben Vertragspartner Europäische Union, China, Indien, Japan, Südkorea und Russland waren bisher allesamt bestrebt, ihr eigenes Süppchen zu kochen. Zum Beispiel dadurch, dass sie sich nicht in die nationalen Karten gucken ließen. Wie man hört will Bigot das Projekt viel stärker zentralisieren, ähnlich wie das bei CERN in Genf der Fall ist. Ob es dafür nicht schon zu spät ist, wird sich bald herausstellen. Der neue GD arbeitet zur Zeit an einem entsprechenden Plan, welchen er in Februar 2015 dem ITER- Council vorlegen möchte. Wird dieser akzeptiert, so kann Bigot ab diesem Zeitpunkt als Generaldirektor agieren. Aber nur zusammen mit seinem Vorgänger Motojima, denn Japan hat sich ausbedungen, dass sein Landsmann noch bis zum formellen Vertragsende im Juli 2015 im Amt bleibt. (Seit Benedict XVI und Franziskus gibt es dafür ja hochrangige Vorbilder).

Inzwischen ist bekannt geworden, dass ITER, sofern er mal betriebsbereit sein sollte, zwischen 280 und 530 Millionen Euro Betriebskosten verursachen wird. Wohlgemerkt: pro Jahr. Entgegen allgemeiner Vermutung wird er keinen Strom produzieren, sondern lediglich 150 Grad heissen Wasserdampf. Und das auch nur gelegentlich, denn er arbeitet ja im Impuls-Regime.

99 Jahre Relativitätstheorie

Auf Hollywood ist Verlass. Pünktlich zum 99. "Geburtstag" von Albert Einsteins Allgemeiner Relativitätstheorie kommt die Traumfabrik mit einem dreistündigen Science-Fiction-Opus heraus, in dem Astrophysik und Erlebniskino in aufwendiger Weise miteinander vereint sind. Im Film "Interstellar" durchfliegt das Raumschiff "Endurance" das Universum in der Suche nach einen bewohnbaren Planeten. Auf der Erde war es wegen des Klimawandels inzwischen höllisch heiß und staubig geworden, sodass der Farmer und ex-Astronaut Cooper ein übrig gebliebenes Raumschiff der NASA griff und mit einer Handvoll Gefährten in den Weltraum düste. Über ein sogenanntes Wurmloch in der Nähe des Saturns gelangen sie zu einer anderen Galaxie außerhalb der Milchstraße, entkommen dabei mit knapper Mühe (durch Lastabwurf!) dem Schwarzen Loch "Gargantua" und finden tatsächlich bewohnbare Planeten. Die Gravitation spielt bei dieser Weltreise eine herausragende Rolle, weshalb immer wieder auf die Allgemeine Relativitätstheorie des bereits lange verstorbenen Wissenschaftlers Einstein verwiesen wird. Nach wenigen Stunden Reisezeit kommt die Besatzung (auf obskure Weise) wieder zurück auf die Erde und stellt fest, dass die Zurückgebliebenen inzwischen um mehrere Jahrzehnte gealtert sind. Die Spezielle Relativitätstheorie von Albert Einstein lässt grüßen.

Mit Geld hat man bei diesem Spektakel nicht gespart. Jede Minute soll eine Million Dollar verschlungen haben. und die Spezialeffekte - insbesondere beim Anflug auf das Schwarze Loch - sind beeindruckend. Der Drehbuchautor soll sich angeblich, zusammen mit dem US-Physiker und Bestseller-Autor Kip Thorne ("Gekrümmte Zeit und verbogener Raum"), ein volles Jahr in die beiden Relativitätstheorien vertieft haben. Die Freunde von "Enterprise" werden diesen Film, insbesondere in der Multiplexfassung, sicherlich genießen. Den wenigen Physikern im Zuschauerraum bleibt der Griff zur Pocorntüte und zur Colaflasche.

Genial - aber nicht nobelpreiswürdig

In gewisser Beziehung ist dieses Film-Epos von Regisseur Christopher Nolan eine Hommage an Einsteins größte wissenschaftliche Leistung: die Entdeckung der Allgemeinen Relativitätstheorie, abgekürzt ART. Vor fast genau 99 Jahren, am 25. November 1915, hielt er darüber erstmals einen Vortrag in Berlin bei der Preußischen Akademie der Wissenschaften. Die ART beschreibt die Wechselwirkung zwischen Materie einerseits sowie Raum und Zeit andererseits. Sie deutet die Schwerkraft (Gravitation) als geometrische Eigenschaft der gekrümmten vierdimensionalen Raumzeit. (Pardon, einfacher lässt sie sich nicht "erklären"). Die ART erweitert die ebenfalls von Einstein, aber schon zehn Jahre vorher entdeckte Spezielle Relativitätstheorie (SRT), und geht für hinreichend kleine Gebiete der Raumzeit in diese über.

Die wichtigsten Erkenntnisse der SRT sind, dass die Lichtgeschwindigkeit c in jedem Bezugssystem denselben Wert besitzt, also eine Konstante ist. Entfernungen und Zeiten hängen demnach vom Bewegungszustand des Betrachters ab, wodurch Zeitreisen im Universum - zumindest theoretisch - möglich sein sollten. Außerdem entdeckte Einstein, im Zusammenhang mit der SRT, die Äquivalenz von Masse und Energie, also die berühmte Gleichung E=mc2, worauf u. a. die Energieerzeugung in Kernreaktoren beruht. Materie ist gewissermaßen hochverdichtete Energie.

Einstein wurde zeitlebens zwar nur von wenigen wirklich verstanden, aber von den Menschen fast wie ein Popstar verehrt. Die Medien stürzten sich auf ihn und als er einmal einem Pulk von Pressefotografen mit knapper Mühe im Auto entkam, entstand das berühmte Bild mit der schadenfroh heraushängenden Zuge.

Es ist kaum zu glauben, dass Einstein für keine dieser beiden Relativitätstheorien den Nobelpreis der Physik erhielt. Der Mediziner Alivar Gullstrand, selbst Träger des Nobelpreises für Medizin im Jahr 1911, verhinderte dies erfolgreich. Gullstrand war als Jurymitglied des Nobelpreiskomitees nicht von der Richtigkeit beider Theorien überzeugt, wodurch er die Vergabe des Preises an Einstein verhindern konnte. Erst 1922 sorgte ein jüngeres Jurymitglied mit einem Trick dafür, dass Einstein endlich diese Trophäe erhielt. Der Physiker wurde für die Entdeckung des "photoelektrischen Effekts" ausgezeichnet, eine Entdeckung, die er bereits im Jahr 1905 gemacht hatte, welche aber - obschon nobelpreiswürdig - an den Rang der beiden Relativitätstheorien nicht heran kam.


                                                      Albert Einstein (1879 - 1955)

Auf der Suche nach der Weltformel

Die Allgemeine Relativitätstheorie wurde von den Astronomen immer wieder experimentell bestätigt. Das erste Mal geschah dies 1919, als man bei einer Sonnenfinsternis die Ablenkung (Aberration) des Sternenlichts durch die Schwerkraft der Sonne messen konnte. Zusammen mit der Quantentheorie stellt die ART die Krönung der theoretischen Physik dar. Viel Aufwand wurde seither damit betrieben, die "Weltformel" zu finden, den "heiligen Gral" der klassischen Physik. In dieser Weltformel sollten alle Kräfte der Physik vereint sein, also die Gravitation, die starke und schwache Kernkraft sowie die elektromagnetische Kraft. Trotz ungeheurer Anstrengungen ist es bis dato nicht gelungen, diese Weltformel zu entdecken.

Stattdessen zeigten sich immer mehr die Grenzen der Gültigkeit der Allgemeinen Relativitätstheorie. Ihre Anwendung versagt, wenn Raum und Zeit gegen Null und die Energiedichte sowie die Temperatur gegen Unendlich gehen. Diese sogenannten Singularitäten verhindern beispielsweise die Beschreibung des Urknalls sowie der Schwarzen Löcher. In das Standardmodell der Kosmologie mussten mindestens drei unbekannte Größen eingeführt werden, um irritierende astronomische Daten zu erklären. Dies sind die Dunkle Materie, welche die Dynamik der Galaxien erklärt, sowie die noch mysteriösere Dunkle Energie, welche die beschleunigte Ausdehnung des Weltalls antreibt. Schließlich benötigt man noch ein hypothetisches Feld, das Inflaton genannt wird und das unser Weltall Sekundenbruchteile nach dem Urknall überhaupt erst so groß gemacht hat, wie es jetzt ist. Ohne das Inflaton hätte das Weltall nur die Größe eines Fußballs.

Ganze Heerscharen der besten Physiker versuchen seit fast zwei Generationen diese Phänomene zu erklären und in eine schlüssige mathematische Theorie zu pressen. Die Stringtheorie ist dafür ein Beispiel. Leider ist die einheitliche Beschreibung der Kräfte und Felder bis dato nicht gelungen. Im Gegenteil: die Struktur des Mikrokosmos und des Makrokosmos wird immer verwirrender. Elf Raumzeitdimensionen benötigt die Stringtheorie, von Anschaulichkeit keine Spur. Inzwischen deutet manches darauf hin, dass die Raumzeit nicht fundamentaler Natur ist, sondern sich aus winzigen Mikrostrukturen aufbaut - ähnlich wie ein Foto, das sich bei näherer Beobachtung in einzelne Bildpunkte auflöst. Auch die Schwerkraft könnte nach Meinung mancher Physiker möglicherweise keine grundlegende Eigenschaft des Raumes sein, sondern lediglich eine abgeleitete Größe, ähnlich wie die Temperatur. All diese Spekulationen hätten zur Folge, dass Einsteins Allgemeine Relativitätstheorie zwar weiterhin gültig ist, aber nicht mehr in der allgemeinen Form, sondern eher als Sonderfall einer allumfassenden neuen Theorie, ähnlich wie Newtons klassische Mechanik ein Einzelfall im Rahmen der ART und SRT ist.

Einstein war zeitlebens von der Gültigkeit der Allgemeinen Relativitätstheorie überzeugt, arbeitete aber  dessen ungeachtet an ihrer "Revision", indem er immer wieder die Gültigkeitsgrenzen der ART auslotete. Er drückte es so aus: "Für eine physikalische Theorie kann es kein schöneres Schicksal geben, als dass sie in einer umfassenderen Theorie als Grenzfall weiter lebt". Bei dieser lebenslangen Suche war Einstein auf sich allein gestellt. Obschon vielfacher Professor, bildete er nicht einen einzigen Doktoranden aus. In seiner Wissenschaft wollte er Einzelgänger bleiben.

Einsteins Tod

Einstein starb am 18. April 1955 im Alter von 76 Jahren in Princeton, USA, an inneren Blutungen, die durch die Ruptur eines Aneurysmas im Bereich der Aorta verursacht wurde. Die Nachtschwester berichtete, dass er kurz vor seinem Tod etwas auf Deutsch gemurmelt habe. Er wurde noch an seinem Todestag verbrannt; seine Asche wurde, seinem Wunsch entsprechend, an einem unbekannten Ort verstreut. Gegen den Willen Einsteins erfolgte jedoch vorher eine Obduktion. Bei dieser Operation entwendete der Pathologe Thomas Harvey das Gehirn des toten Einsteins. Er wollte es - ob seiner möglicherweise einzigartigen Struktur - für weitere Untersuchungen der Nachwelt erhalten. Harvey verlor daraufhin die ärztliche Approbation und musste sich jahrelang als Fabrikarbeiter durchschlagen. Eine besonders auffällige Struktur der Gehirnwindungen konnte bei den medizinischen Untersuchungen allerdings nicht gefunden werden. 1997 übergab Harvey Einsteins Gehirn in zwei Einweckgläsern an dessen Enkelin in Kalifornien.

Sonntag, 23. November 2014

Mit heisser Nadel gestrickt

Der Atomausstieg ist fast schon Geschichte. Nicht aber seine juristische Aufarbeitung. Diese beginnt erst und kann (für die Steuerzahler) noch sehr teuer werden. Erinnern wir uns: wenige Tage nach den Vorfällen im japanischen Fukushima, am 11. März 2011, veranlasste die Bundeskanzlerin die sofortige Stilllegung von acht deutschen Kernkraftwerken (das sogenannte Moratorium) und die zeitlich gestufte Abschaltung von weiteren neun bis zum Jahr 2022. Sie begründete diese Maßnahme unter anderem mit dem erheblichen Restrisiko dieser Technologie, wie in Japan ersichtlich. Niemand argumentierte hörbar dagegen - auch nicht die Betreiber der genannten Atomkraftwerke. Dies geschieht erst jetzt und kulminiert in Schadensersatzklagen von hunderten von Millionen, ja sogar solchen in Milliardenhöhe. Wie ist dieses anfängliche Schweigen zu verstehen und welche Aussichten besitzen diese Klagen?

Schwache Argumentationsbasis der Kanzlerin

Wenige Tage nach Fukushima, am 15. März 2011, traf sich die Bundeskanzlerin mit den Ministerpräsidenten der Länder, in denen Kernkraftwerke aufgestellt waren. Sie erläuterte des Plan eines Moratoriums im Sinne einer vorsorglichen Gefahrenabwehr. Juristisch werde das Moratorium gestützt durch das Atomgesetz § 19 Absatz 3, wonach man Kernkraftwerke einstweilen oder gar endgültig abschalten könne, wenn Gefahr im Verzug sei. Die Ministerpräsidenten stimmten dem zu. Die Bundeskanzlerin kündigte zusätzlich an, dass die Reaktorsicherheitskommission (RSK) jedes Atomkraftwerk technisch überprüfen werde, mit dem Ziel, bisher nicht entdeckte Risiken zu ermitteln.

Die RSK legte etwa zwei Monate später einen 115-seitigen Bericht vor, der von über hundert ausgewiesenen Reaktorexperten verfasst war. Die eindeutige Aussage dieser Fachleute war, dass ein ähnlicher Unfall wie in Fukushima an deutschen Kraftwerken nicht passieren könne. Einerseits, weil die geologischen und meteorologischen Verhältnisse dies nicht zulassen und andererseits, weil die deutschen Anlagen gegen Störfälle dieser Art weitaus besser geschützt sind. Der damalige Bundesumweltminister Norbert Röttgen stellte deshalb auf einer Pressekonferenz folgerichtig fest: Unsere Anlagen in Deutschland weisen alle miteinander ein deutlich höheres Sicherheitsniveau und größere Reserven gegenüber solchen Ereignissen auf als die betroffenen Anlagen in Japan. Es gibt deshalb aus sicherheitstechnischer Sicht keine Notwendigkeit, Hals über Kopf aus der Kerntechnik auszusteigen

Späte Gegenwehr der Betreiber

Verwunderlich ist, dass die Betreiber der stillgelegten Kernkraftwerke - also RWE, Eon, EnBW und Vattenfall - diese argumentative Steilvorlage des obersten Aufsehers Röttgen nicht nutzten. Sie hätten lediglich eine Klage gegen die offensichtlich unbegründete Stilllegungsanordnung einreichen müssen, um ihre Anlagen weiterbetreiben zu dürfen. Röttgen hätte in diesem Fall seine Anordnung mit Sofortvollzug samt technischer Begründung ausstatten müssen. Das wäre ihm, angesichts des Votums der RSK, sicherlich schwer gefallen. De facto wäre es juristisch unmöglich gewesen. Aber offensichtlich getrauten sich die Betreiber in der damals aufgeheizten öffentlichen Stimmung gegen die Atomkraftwerke nicht, diesen Schritt zu gehen.

Das hat sich drei Jahre danach geändert. RWE verklagte im Sommer d. J. den Bund und das Land Hessen auf Schadensersatz für die Stilllegung seines Kraftwerks Biblis. In der Presse spekuliert man über einen Betrag von mehreren hundert Millionen Euro. Wenige Monate später verklagte Eon den Bund und mehrere Länder auf Schadensersatz in Höhe von 380 Millionen Euro wegen der dreimonatigen Stilllegung der Meiler Unterweser und Isar 1. Besonders teuer könnte der erzwungene Atomausstieg bei Vattenfall werden. Diese Firma klagt vor einem amerikanischen Gericht in Washington D. C. gegen die Abschaltung der Kernkraftwerke Krümmel und Brunsbüttel auf sage und schreibe 4,7 Milliarden Euro. Vattenfall ist dieser Gang nach USA möglich, da es ein schwedisches Unternehmen ist. Nach Einschätzung der juristischen Experten haben sämtliche Klagen durchaus Gewinnchancen für die Versorger.

Politisches Kalkül?

Es stellt sich die Frage, ob der Bundesregierung diese prozessualen Risiken nicht schon im Frühjahr 2011 bekannt waren. Immerhin kann sie auf eine Vielzahl höchstqualifizierter Juristen zurückgreifen. Über diese Frage wird derzeit immer mehr spekuliert. Nicht wenige sind der Meinung, dass die maßgebenden Regierungspolitiker damals bewusst dies Ausstiegsentscheidung getroffen haben, weil es die letzten Divergenzen mit der Partei der Grünen beseitigte und dies neue und zusätzliche Koalitionsoptionen eröffnete. Who knows?

Sonntag, 16. November 2014

Der Europäische Druckwasserreaktor EPR in Finnland - ein Albtraum

Der Europäische Druckwasserreaktor EPR wurde gemeinsam vom Siemens und Framatome entwickelt und stellt die sogenannte 3. Generation an Kernkraftwerken dar. In Bezug auf Sicherheit besitzt er u. a. eine hohe Resistenz gegen Kernschmelzen, gegen Erdbeben sowie Flugzeugabsturz und wird gerühmt für seine vorzügliche Nachwärmeabfuhr. Einige Details zu seinem Aufbau sind aus der nachstehenden Abbildung und Beschreibung ersichtlich, welche ich Wikipedia entnommen habe.




Das Reaktorgebäude besteht aus einem doppelschaligen Containment: einer inneren Hülle aus vorgespanntem Beton (2) und einer äußeren Stahlbetonhülle (1). Es umschließt das Hauptkühlmittelsystem mit dem Reaktordruckbehälter (3), den Dampferzeugern (4), dem Druckhalter (5) und den Hauptkühlmittelpumpen (6) als wichtigsten Komponenten. Innerhalb des Containments gibt es eine spezielle Ausbreitungsfläche (7), auf der bei einem extrem unwahrscheinlichen Kernschmelzunfall die Schmelze aufgefangen und gekühlt würde.
Das Maschinenhaus (8) enthält die gesamte „Dampfkraftanlage“, in der der erzeugte Dampf in elektrischen Strom umgewandelt wird: die Turbine, den Generator und den Blocktransformator, der an das öffentliche Versorgungsnetz angeschlossen ist.
Im Falle eines Stromausfalls stellen Notstromdiesel den zur Aufrechterhaltung der Sicherheitsfunktionen benötigten Strom bereit. Sie sind räumlich voneinander getrennt in zwei verschiedenen Gebäuden (9) untergebracht. 



 


Finnland bestellt den ersten EPR


Im Jahr 2003 bestellte das kleine Land Finnland den ersten EPR von der Firma AREVA, einem Konsortium aus Siemens und Framatome. Er sollte 3 Milliarden Euro kosten und im Jahr 2009 in Betrieb gehen. Als Standort für den 1.600 Megawatt Druckwasserreaktor war die Halbinsel Olkilouto vorgesehen, wo das finnischen Energieversorgungsunternehmen TVO bereits zwei kleinere Kernkraftwerke betrieb. Für den EPR bestand ein Vertrag, worin ein Festpreis und die schlüsselfertige Übergabe vereinbart war. Inzwischen sind die Kosten auf 8,5 Milliarden Euro aufgelaufen und mit der Übergabe wird nicht vor 2018 gerechnet. Das Konsortium Siemens/ Framatome hat sich vor Gericht im Streit getrennt und Siemens ist (im Gefolge von Fukushima) aus der Reaktortechnologie ausgestiegen.


Wie konnte es zu dieser katastrophalen Situation kommen? Nun, das Projekt stand von Beginn an unter keinem guten Stern. Es gab Probleme, wo man sie nicht erwarten konnte. So entsprach der Beton für die Grundplatte nicht den Spezifikationen und beim Schweißen der Rohrleitungen wurden erhebliche Mängel festgestellt. Zum weitaus überwiegenden Teil geschahen diese Fehlleistungen beim Firmenteil Framatome, welcher für den größeren nuklearen Bereich zuständig war, während Siemens im Wesentlichen nur den Turbogenerator (entsprechend 27 Prozent konventioneller Anteil) und Teile der Kraftwerkssteuerung zulieferte. Nicht ausreichend hatte man bei Areva auch das reduzierte Tageslicht im hohen Norden eingeschätzt, was unweigerlich zu geringerer Effektivität führt - auch wenn man den polnischen Tagelöhnern nur zwei Euro pro Stunde an Lohn ausbezahlte.


Im Jahr 2008 trafen sich Areva und TVO zum ersten Mal vor einem internationalen Schiedsgericht. Sie warfen sich gegenseitig vor, die Fertigstellung des Kernkraftwerks erheblich verzögert zu haben. Areva beschuldigte die Finnen, durch ständige Änderung der Auflagen und Bauausführung diese Situation hervorgerufen zu haben; TVO machte schwerwiegende Fehler der Gegenseite dafür geltend. Im Jahr 2011 beendete Siemens die Zusammenarbeit mit den Franzosen im Streit, wofür der damalige Konzern-Chef Peter Löscher  684 Millionen Euro berappen musste. Auf der Baustelle ist das frühere Konsortium aber weiterhin auf Gedeih und Verderb zur Zusammenarbeit gezwungen, denn der Liefervertrag muss abgewickelt werden.


An dem Kraftwerk wird keine Seite mehr Geld verdienen. Areva hat bislang 3,9 Milliarden Euro als Verluste zurückgestellt; Siemens hatte bisher Belastungen in der Höhe von 583 Millionen Euro zu verkraften. Auch die personellen Abgänge sind erheblich. Der Siemens-Vorstandsvorsitzende Peter Löscher musste inzwischen seinen Sessel räumen - nicht nur wegen Olkilouto, sondern auch wegen milliardenschwerer Verluste bei den Hochsee-Windprojekten. Sein Nachfolger Joe Kaeser wird das Finnlandprojekt weiter im Auge behalten müssen. Auf französischer Seite wurde 2011 die charismatische Anne Lauvergeon noch von Nicolas Sarkozy gefeuert und durch Luc Oursel ersetzt. Bei einer kürzlichen Sitzung des Areva-Aufsichtsrats warf auch Oursel (wegen Krankheit!) das Handtuch. Sein Interimsnachfolger wurde Philippe Knoche.


Vermutlich der richtige Mann für diesen Knochen-Job.



Sonntag, 9. November 2014

ITER: Steigen die Amerikaner aus?

Der Internationale Thermonukleare Experimentalreaktor, abgekürzt ITER, welcher derzeit im südfranzösischen Cadarache errichtet wird,  befindet sich in einer gefährlichen Projektphase. Seine Baukosten werden nunmehr auf ca. 50 Milliarden Dollar abgeschätzt, d. h. die Kosten haben sich im Vergleich zur ursprünglichen Planung fast um den Faktor 10 erhöht. Der Terminplan für den Betrieb dieser komplexen Fusionsmaschine hat sich vom Jahr 2020 auf mittlerweile bis 2033 verzögert. Kein Wunder, dass insbesondere in den USA überall Firmen auftreten, welche den Anspruch erheben, die Kernfusion billiger und schneller bewerkstelligen zu können.

Dubiose Alternativen

Die Suche nach Alternativen für das ITER-Prinzip begann bereits 1989, als die beiden US-Physikochemiker Stanley Pons und Martin Fleischmann ein Experiment unter der Bezeichnung "kalte Fusion" vorstellten. Sie behaupteten eine  Fusion bei Zimmertemperatur auf elektrochemischen Weg an einer Palladium-Elektrode durchgeführt zu haben. Die Labor-Ergebnisse von Pons und Fleischmann ließen sich jedoch nicht durch unabhängige Dritte bestätigen. Eine vom Energieministerium der USA eingesetzte Kommission kam zu dem Ergebnis, dass es sich um "pathologische Wissenschaft" handle.

Vor kurzem ist der US-Rüstungskonzern Lockheed Martin  mit dem Anspruch an die Öffentlichkeit getreten, nach nur vierjähriger Arbeit einen Fusionsreaktor mit einer Leistung von 100 Megawatt entwickelt zu haben. Das Kraftwerk soll die bescheidene Größe von nur 7 mal 13 Metern besitzen und könnte damit auf einem mittleren Lastwagen transportiert werden. Die Testversion des sogenannten Compact Fusion Reactor (CFR)  soll in einem Jahr betriebsbereit sein, in zehn Jahren möchte man sogar ein marktreifes Kraftwerk vorstellen. Hinter dem Projekt steht die Forschungsabteilung "Skunk Works", die immerhin den Tarnkappenbomber F-117 entwickelt hat. Statt einen Torus zu verwenden, wollen die Skunk-Works-Ingenieure mehrere Spulen hintereinander im Innern der Reaktorkammer platzieren, um ein Magnetfeld von anderer Geometrie zu erzeugen. Die Arbeiten sind, bis auf einige Patentanträge, noch sehr geheim, sodass sie nicht im Detail bewertet werden können.

Auswirkungen auf den US-Kongress

Im US-Kongress, also dem Senat und Repräsentantenhaus hat der ITER wenige Freunde. Insbesondere die Republikaner sind strikt gegen dieses Projekt eingestellt. Da nach der kürzlichen Wahl diese Partei in beiden Kammern jedoch die Mehrheit erringen konnte, wird die jährliche Mittelbewilligung für ITER sehr erschwert werden. Hinzu kommt die Kontroverse zwischen dem Energieministerium DOE und dem Government Accountability Office GAO, dem amerikanischen Bundesrechnungshof. Das DOE schätzt den erforderlichen Beitrag der USA zum ITER auf 3,9 Milliarden Dollar, der weitaus kritischere GAO hingegen auf satte 6,5 Milliarden. Der Senat hat für das Jahr 2015 bereits angekündigt, dass er nur noch 75 Millionen Dollar bewilligen werde; benötigt werden für die Projektabwicklung aber mindestens 225 Millionen, also drei mal so viel.

Vor diesem Hintergrund - und weil es vielleicht "billigere Wege" zur Kernfusion gibt - wird in den amerikanischen Regierungskreisen ganz offen über den Ausstieg aus dem ITER-Projekt geredet. Republikaner und Demokraten sind sich weitgehend einig darüber, dass die enormen Kostensteigerungen für den Steuerzahler nicht mehr tragbar sind. Vertraglich ist ein Ausstieg vor dem Jahr 2017 allerdings nicht möglich - außer man akzeptiert die festgelegten Strafzahlungen.

Die Kernfusion, so lästern manche Physiker gern, ist die meistversprechende Technologie der Zukunft - und wird es auch immer bleiben!

Sonntag, 26. Oktober 2014

Georges Vendryes décédé

Traduction française ci-dessous

---

Wie erst jetzt bekannt wurde, ist der französische Nuklearforscher und -manager, Dr. Georges Vendryes, am 16. September 2014 im Alter von 94 Jahren verstorben. Er wurde in Paris auf dem Friedhof Père Lachaise beerdigt.

Georges Vendryes gilt als der "Vater der französischen  Brüterentwicklung". Seine Ausbildung erhielt er an der Ecole Polytechnic, an der Universität Paris promovierte er im Fach Nuklearphysik. Im Jahr 1948 kam er zur französischen Atombehörde CEA. In der Folge widmete er sich der Entwicklung der Schnellen Brüter. Am natriumgekühlten Versuchsreaktor Rapsodie mit 24 Megawatt im Forschungszentrum Cadarache war er zuständig für die Gesamtplanung und insbesondere die Auslegung des Reaktorkerns. In der Folge leitete er mit großem Erfolg das 250 MWe Brüterkraftwerk Phénix in Marcoule, das 1973 in Betrieb ging. An den Planungen für den 1200 MWe Superphénix, einem Industrievorhaben, war er unter anderem als Berater für die Core-Physik tätig.



Georges Vendryes  (1920 - 2014)

Im Rahmen der deutsch-französischen Brüterkooperation war Georges Vendryes oftmals in Deutschland, insbesondere im Kernforschungszentrum Karlsruhe. Er unterstützte das deutsche Bestrahlungsprogramm an den französischen Reaktoren Rapsodie und Phénix, welches sich über viele Jahre erstreckte und die Basis für die Brennelemententwicklung beim Schnellen Brüter SNR 300 Kalkar bildete. Darüber hinaus beteiligte er sich an öffentlichen Diskussionen und Anhörungen zum Thema Brutrate, die in den 1970er Jahren sogar ein Medienthema waren.

Dr. Vendryes erhielt für sein Wirken im Brüterbereich hohe Ehrungen und Preise. Zu nennen sind die Auszeichnung zum Ritter der Ehrenlegion, die Verleihung des Großen Bundesverdienstkreuzes, der Enrico-Fermi-Preis, der Japan-Preis, der Indien-Preis und vieles mehr.

Unser Mitgefühl gilt den Hinterbliebenen, insbesondere seinen vier Söhnen und seiner (aus Karlsruhe stammenden) deutschen Ehefrau Inge Vendryes-Maisenbacher.

Dr. Willy Marth, Karlsruhe

---

Nous venons d’apprendre le décès du Docteur Georges Vendryes, ayant fait sa carrière au service du programme nucléaire français. Il est décédé le 16 Septembre 2014, à l'âge de 94 ans. Il a été enterré dans le cimetière du Père Lachaise à Paris.

Georges Vendryes est considéré comme le « père » du développement des surgénérateurs nucléaires français. Diplômé de l'École Polytechnique, à l'Université de Paris, il a reçu un doctorat en physique nucléaire. En 1948, il rejoint le commissariat à l'énergie atomique. Il se consacre à la mise au point du réacteur à neutrons rapides. Dans le cadre du projet expérimental Rapsodie de réacteur de 24 Mégawatt refroidi au sodium au Centre de Cadarache, il était responsable de la planification globale et en particulier de la conception du cœur du réacteur. Puis, il a dirigé avec succès la conception du réacteur Phénix de 250 Mégawatts à la centrale de Marcoule, qui a été mise en service en 1973. Il a ensuite travaillé comme consultant dans la conception du réacteur Superphénix de 1200 Mégawatts.

Dans le cadre de la coopération franco-allemande, Georges Vendryes était souvent en Allemagne, en particulier au Centre de recherche nucléaire de Karlsruhe. Il a soutenu le programme allemand sur les réacteurs Rapsodie et Phénix, qui s’est étendu sur plusieurs années, servant de base au développement des éléments de combustible des réacteurs à neutrons rapides SNR 300 Kalkar. En outre, il a participé à des discussions et des audiences publiques sur le sujet du « breeding », au cœur des conversations dans les médias, même dans les années 1970.

Le Docteur Vendryes a reçu les honneurs et les prix les plus élevés pour son travail dans son domaine, notamment le grade de Chevalier de la Légion d'honneur, la médaille de la Grand-Croix du Mérite, le prix Fermi Enrico, plusieurs distinctions au Japon et en Inde, et bien plus encore.

Notre sympathie va a sa famille, en particulier ses quatre fils et sa femme allemande Inge Vendryes-Maisenbacher (de la région de Karlsruhe) .

Dr. Willy Marth, Karlsruhe

Sonntag, 19. Oktober 2014

Die WAK: Deutschlands sicherster Arbeitsplatz

Die Lebenserfahrung zeigt: mit Superlativen sollte man vorsichtig sein. Aber diesmal fühle ich mich auf der sicheren Seite, denn wo gibt es eine Firma, die Arbeitsplätze bis zum Jahr 2063 anbietet und  die sogar noch aus der Staatskasse finanziert werden. Es ist die Wiederaufarbeitungsanlage Karlsruhe (WAK), welche ab 1960 geplant wurde, die etwa 20 Jahre im Betrieb war und erst im fernen Jahr 2063 wieder in eine grüne Wiese konvertiert sein soll. (Wobei ich mich u. a. auf Informationen des technischen Geschäftsführers Professor Manfred Urban berufe, die vor wenigen Monaten in der FAZ veröffentlicht wurden).

Elite-Personal gesucht

Der Personalstand der WAK wächst und wächst und als kürzlich die Zahl von 500 eigenen Mitarbeitern überschritten wurde, war auch die Zeit zur personellen Aufstockung des Aufsichtsrats gekommen.  Aber die Personaleinstellung wird weiterhin forciert. Zum Rückbau der WAK sucht man per Flyer Ingenieure in den Bereichen Verfahrenstechnik, Maschinenbau, Bautechnik, Elektrotechnik und Strahlenschutz. Gegebenenfalls sogar mit Promotion! Dafür werden die oben genannten langfristigen Unternehmensperspektiven geboten, sowie Vergütungen und Sozialleistungen nach dem bekannt spendablen Manteltarifvertrag der chemischen Industrie. Die Mitarbeiter des benachbarten KIT mit ihren Tarifvertrag öffentlicher Dienst können da wohl nur neidisch blicken. Aber das ist noch nicht alles. In Zusammenarbeit mit der Dualen Hochschule Karlsruhe werden auch Studienplätze zum Bachelor of Science angeboten und außerdem unterstützt die WAK die Bewerber bei Masterarbeiten und Promotionen. Wow!

Dabei war in den vergangenen eineinhalb Jahren bei der WAK gar nicht so arg viel zu tun. Die Geldgeber in Bund (91,8 Prozent) und im Land (8,2 Prozent) waren nämlich klamm und kürzten deshalb die jährlichen Mittelzuweisungen. So war das Jahr 2013 "verloren im Sinne eines technisch erreichbaren Projektfortschritts", was die Geschäftsführung in ihrem Bericht an die Mitarbeiter ganz freimütig zugab. "Design to Budget" war angesagt, d. h. es konnte nur bearbeitet werden, was auch finanziert wurde - die Leistungsdauer, sprich der Terminplan, war nachrangig. Die Fremdfirmenverträge wurden reihenweise gekündigt, das Eigenpersonal jedoch behalten und sogar noch aufgestockt. Im Jahr 2014 musste man endlos auf die Zuwendungsbescheide warten, die dann endlich im Juli - allerdings gekürzt um 18 Millionen Euro - bei der WAK eintrafen.

Lubmin im Blick.  Währenddessen versuchte man die Mannschaft bei Laune zu halten. Die geschah durch "virtuelle Gehwettbewerbe". Innerhalb von 60 Tagen sollte die Strecke von Karlsruhe nach Lubmin, dem Standort des Mutterkonzerns EWN (und Gottvaters Rittscher) zurückgelegt werden. Aber eben nur virtuell, denn jeder der 160 Teilnehmer hatte einen Schrittzähler, konnte seine tägliche Gehleistung selbst auf der Karte eintragen - und trotzdem im Raum Karlsruhe verbleiben. Für die erforderlichen Aufwärmübungen heuerte die WAK die frühere Olympiasiegerin Heike Drechsler an. Wer ko, der ko!

In Lubmin vertrieb sich die Mannschaft der dortigen Energiewerke Nord (EWN) die Zeit mit Paddelwettbewerben im Greifswalder Bodden, wobei man einen respektablen 21. Platz erreichte. Der EWN-Geschäftsführer Henry Cordes hatte mittlerweile alle Aktivitäten für ein GuD-Gaskraftwerk gestoppt, weil u. a. das hiesige Energieversorgungsunternehmen EnBW im Zuge der Energiewende inzwischen die Lust an diesem Projekt verloren hatte. Cordes setzt nun wieder auf das Geschäftsfeld nukleare Entsorgung, wo er seiner Firma praktischerweise gleich selbst "Exzellenz in der Stilllegung" bescheinigte.

Zwischenläger und Gesamtkosten

Selbst bei dem moderaten Abrisstempo der letzten Jahre, ist die Lagerung des rückgebauten radioaktiven Materials ein Riesenproblem. Das bestehende große Lager ist voll und der Neubau zweier weiterer Zwischenläger für schwach- und mittelaktive Materialien ist unausweichlich. Eigentlich sollten diese  Stoffe im Endlager "Konrad" (bei Gorleben) verstaut werden, aber dieses ist seit Jahren wegen vieler Einsprüche der Grünen in Verzug.

Seinen Teil dazu beigetragen hat auch der gegenwärtige baden-württembergische Umweltminister Franz Untersteller in seiner Eigenschaft als Chef des Freiburger Öko-Instituts, als Landtagsabgeordneter der Grünen und als Berater der Partei der Grünen seit den achtziger Jahren. Als Umweltminister muss der joviale  Endfünfziger (gelernter Landschaftsarchitekt) diese beiden Läger nun in seinem Ministerium genehmigen. Die Höchststrafe für einen Grünen! Widerstände sind dabei zu erwarten, denn der Standort dieser Läger ist inmitten des ehemaligen Kernforschungszentrums (jetzt KIT), wo sich täglich ca. 4.000 Personen in unmittelbarer Nähe bewegen.

Zusätzlich befindet sich, wie oben angesprochen, in diesem Bereich das größte deutsche ebenerdige Zwischenlager (Spitznamen: Wasteminster). Wenn die atomrechtlichen Anhörungen für die neuen Läger anlaufen, wird Untersteller zu erklären haben, weshalb diese ungeheure Menge an radioaktiven Stoffen den Mitarbeitern des KIT zugemutet werden kann. Und warum diese gefährlichen Materialien nicht längst im Endlager Konrad, tausend Meter unter der Erde, verstaut sind. Man darf gespannt sein über diese Diskussionen, der Slogan "Gorleben ist überall" wird dabei eine ganz neue Relevanz gewinnen. Derzeit redet man in euphemistischer Weise immer von "Lagerhallen"; klar muss den Ministerialbehörden jedoch sein, dass das Atomrecht für die Lagerung radioaktiver Stoffe "Bunker" verlangt, die gegen Erdbeben und Flugzeugabsturz gesichert sind.

Kosten und Projektstrategien.  Dies führt zu den Gesamtkosten des WAK-Abriss. Urban beziffert sie in dem genannten FAZ-Interview mit "deutlich über 5 Milliarden Euro". Zum angenommenen Projektende im Jahr 2063 könnten dies womöglich 10 Milliarden werden, womit sich die 1990 kalkulierten Rückbaukosten um den Faktor 10 (entsprechend 3 pi) erhöht hätten. Quasi zur Entschuldigung verweist der WAK-Chef darauf, dass die politische Entscheidung, den radioaktiven Abfall nicht im belgischen Mol verarbeiten zu lassen, das Projekt verzögert habe. Genau das Gegenteil ist richtig: die beiden SPD-Politiker Schäfer und Spöri wollten die sogenannte "Atomsuppe" nach Belgien schippern lassen. Es waren die beiden KfK-Manager H&M, welche dieses Wahnsinnsunternehmen gestoppt haben, zugunsten der Verglasung der plutoniumhaltigen Flüssigkeit vor Ort.

Die Möglichkeit, Einnahmen durch die weltweit einzigartige Entwicklung der Verglasungsanlage zu erzielen, wurde leider vertan. Die Chinesen interessierten sich für dieses Projekt und waren bereit, dafür Lizenzgebühren zu entrichten. Jahr um Jahr reisten Scharen von Karlsruher Forscher nach China, sodass schließlich dort ein (größeres) Abbild der hiesigen Verglasungsanlage entstand. Der Nettogewinn für die Karlsruher war leider Null. Wer dabei kaufmännisch versagt hat, ist öffentlich nicht bekannt. Schäuble hätte von einer "schwarzen Null" gesprochen.

Revirements

Einige Revirements sind noch zu vermelden.
Der Leiter der Betrieb für Dekontamination und Lagerung (HDB), Herr Olaf Oldiges, verließ die WAK GmbH bereits nach kurzer Zeit wieder, um extern in ein ähnliches Unternehmen einzusteigen.
Der kaufmännische und juristische Geschäftsführer der WAK GmbH, Herr Herbert Hollmann, wird in den nächsten Monaten diese Position aufgeben.
Und im benachbarten Institut für Transurane (ITU) wurde der Institutsleiter Professor Dr. Thomas Fanghänel vor wenigen Wochen eilends von seinem Posten entpflichtet und nach Brüssel geholt.
Als Berater.

Montag, 6. Oktober 2014

KIT: Wann kommt Katrin?

Im früheren Kernforschungszentrum Karlsruhe, das im August 2006 von einem ehemaligen Geschäftsführer (Popp) der Universität Karlsruhe - unter Umgehung wichtiger interner Gremien - zum KIT angedient wurde ("wir wollen heiraten"), gab es eine große Anzahl von Projekten, die entweder von dem KfK selbst, oder unter seiner maßgeblichen Mitwirkung, angegangen wurden. Stellvertretend dafür seien Folgende genannt: FR 2, MZFR, KKN, HDR, WAK, KNK I, KNK II, SNEAK, Beta, HZ, SNR 300, EFR, KASCADE, GALLEX, KARMEN, Pierre Auger, CREST, Edelweiß, GERDA, Cast, Lopes, AMS, H.E.S.S., MAGIC, Virgo, GLAST, AMANDA, ANTARES etc .etc. Sie bewegten sich allesamt im finanziellen Bereich von Millionen bis sogar Milliarden. Viele kleinere Vorhaben, deren Wertigkeit und Wichtigkeit ich keinesfalls gering schätzen möchte, sind in dieser Aufzählung noch gar nicht vorhanden.


Demgegenüber gibt es nunmehr in diesem Leopoldshafener Areal - KIT Campus Nord genannt - praktisch nur noch zwei Großprojekte: bioliq und KATRIN. Beide befinden sich, finanziell und terminlich gesehen, in beträchtlicher Schieflage. Über bioliq wurde bereits in einem früheren Blog berichtet. Auch bei KATRIN, dem Bereich der Astrophysik zugehörend, scheint es allerhand Probleme zu geben. Was diese beiden Projekte von den meisten oben genannten kerntechnischen Projekten unterscheidet ist, dass die Einflussnahme der Genehmigungsbehörden gering ist und, dass sie unter dem Wohlwollen der Bevölkerung abgewickelt werden können. Dementsprechend wären sie eigentlich viel einfacher abzuwickeln.










Das Hauptspektrometer für KATRIN beim Transport durch Leopoldshafen









Ein winziges Teilchen

Das "Karlsruhe Tritium Neutrino Experiment" - KATRIN - hat die direkte Bestimmung der Masse des sogenannten Elektron-Neutrino zum Ziel. Im Standardmodell der Elementarteilchenphysik wurden die drei bekannten Neutrino-Arten zunächst als masselos angenommen. Verschiedene frühere Experimente, wie Gallex und Super-Kamiokande, ließen jedoch vermuten, dass die Neutrino-Ruhemasse von Null verschieden sein könnte. Dem will man im KATRIN-Experiment nachgehen. KATRIN ist also, etwas platt gesprochen, eine Waage für ein wichtiges Kernteilchen.


Die beim Urknall erzeugten Neutrinos sind die häufigsten massebehafteten Teilchen im Universum: jeder Kubikzentimeter enthält (ungefähr) 336 Neutrinos. Als Teilchen der Heißen Dunklen Materie haben sie die Entstehung und Evolution großräumiger Strukturen im Universum mit beeinflusst. Eine Möglichkeit, die rätselhafte Rolle der Neutrinos in einer modellunabhängigen Weise zu bestimmen, ist die genaue Messung der Energieverteilung von Elektronen aus Betazerfällen. Beim Betazerfall wandelt sich ein Neutron in ein Proton, ein Elektron und ein elektronisches Anti-Neutrino um.

Aus Untersuchungen an atmosphärischen Neutrinos kann geschlossen werden, dass die Neutrinomasse mindestens 0,05 Elektronenvolt (eV) schwer sein muss. Dabei ist 1 eV die winzige Masse von 1,8 mal 10 hoch minus 36 Kilogramm! Denkbar ist aber auch, dass die gesuchte Masse des Neutrinos um mehrere Größenordnungen über dem genannten Wert liegt. Messungen in Mainz führten zu einer Obergrenze für die Ruhemasse des Neutrinos um 2,3 eV. Um in den kosmologisch interessanten Bereich unterhalb 1 eV vorzustoßen, ist ein neues Experiment erforderlich - eben KATRIN - das über eine hundertmal intensivere Tritiumquelle und eine fünfmal bessere Energieauflösung als die bisherigen Experimente verfügen muss.

Ein riesiges Experiment

Das insgesamt 75 Meter lange Experiment KATRIN gliedert sich in vier große funktionale Einheiten: eine hochintensive molekulare Tritiumquelle, die 10 hoch 11 Betazerfälle pro Sekunde liefert, eine Tritium-Pumpstrecke, in der die Moleküle aus der Strahlführung eliminiert werden, ein System aus zwei elektrostatischen Spektrometern zur Energieanalyse sowie einem Detektor zum Zählen der transmittierten Elektronen. Wesentliche technologische Herausforderungen sind das hohe Vakuum (10 hoch minus 11 Millibar!) und die Temperaturstabilität der Quelle. Eine der Tritiumquellen ist "fensterlos", was eine gesonderte Technologie erfordert. Sie ist gewissermaßen das Arbeitspferd des Experiments, da sie erlaubt, das Tritiumspektrum mit der höchstmöglichen Energieauflösung zu untersuchen und somit eine maximale Luminosität für die Beta- Zerfallselektronen bereitstellt.

Der 200 Tonnen schwere, 24 Meter lange Vakuumtank mit einem Durchmesser von 10 Metern für das KATRIN-Hauptspektrometer wurde von der Firma MAN in Deggendorf hergestellt. Der Tank war zu groß, um über Autobahnen transportiert zu werden. Er wurde deshalb über die Donau, durch das Schwarze Meer, das Mittelmeer, den Atlantik, den Ärmelkanal, die Nordsee und über den Rhein nach Leopoldshafen bei Karlsruhe per Schiff und am 25. November 2006 auf den letzten 6,8 km per Tieflader in viereinhalb Stunden durch den Ort Leopoldshafen zum Forschungszentrum gebracht. Dieser Umweg betrug ca. 8.600 km gegenüber der kürzeren Route mit 350 km auf dem Landweg.

Die Energieanalyse der Elektronen aus dem Betazerfall erfolgt bei KATRIN in zwei Schritten: Zunächst werden in einem kleinen Spektrometer alle Elektronen mit Energien unterhalb 18,4 eV aussortiert, da sie keine Informationen über die Neutrinomasse tragen. Im großen Hauptspektrometer wird dann die Energie nahe am Endpunkt präzise bestimmt. Dafür ist das oben genannte Ultrahochvakuum erforderlich und die Stabilität der Gegenspannung von 18,6 kV darf nur um weniger als ein Millionstel schwanken. Die transmittierten Elektronen werden schließlich in einem segmentierten untergrundarmen  Siliziumzähler nachgewiesen.

Ein langer Weg zum Ziel

Da KATRIN bei KIT Campus Nord als Projekt geführt wird, kann man ihm das technische Ziel sowie den finanziellen Aufwand und die erforderliche Zeitdauer zuordnen. Als Ziel für KATRIN wurde immer wieder benannt, die Ruhemasse des elektronischen Neutrinos um mindestens eine Größenordnung genauer als die früheren Messungen, zum Beispiel in Mainz und Russland, zu bestimmen. Inwieweit das zu erreichen ist, wird die Zukunft zeigen.

Über den finanziellen Aufwand für KATRIN ist in der zugänglichen Literatur nichts zu erfahren.  Weder die F&E-Berichte noch die jährlichen Budgetansätze sind für Außenstehende (und Steuerzahler) eruierbar. Das war früher anders. In der Zentralbibliothek des Zentrums bzw. bei den Projektleitungen waren diese Zahlen einsehbar. Trotzdem: In dem sogenannten "letter of intent", der immerhin 51 Seiten umfasst und der aus dem Jahr 2001 stammt, werden die Gesamtkosten des Projekts KATRIN auf 17 Millionen Euro beziffert; darin nicht eingeschlossen sind die Gehälter der Mitarbeiter.

Bleiben die Zeitdauer des Projekts und seine wichtigsten Etappen. Im letter of intent wird im Kapitel "Outlook and Conclusion" in Aussicht gestellt, dass der Bau des KATRIN im Jahr 2005 beendet sein soll, die Inbetriebnahme sowie die ersten Versuchsmessungen sollten 2006 erledigt werden und mit der Aufnahme der "long term data" sollte noch zum Ende des gleichen Jahres begonnen werden. Aus neueren Informationen im Internet kann man entnehmen, dass der Bau der Anlage erst im Jahr 2016 vollendet sein wird und der Versuchsbetrieb erst im Jahr 2022. Das sind Verzögerungen von 11 Jahren und mehr, die sicherlich auch von erheblichen Mehrkosten begleitet worden sind.

Der Projektleiter der KATRIN, Professor Dr. Guido Drexlin, könnte im Jahr 2022 bereits in den ehrenvollen Stand des "Emeritus" getreten sein.
Trotzdem:
ad multos annos, professore!

Montag, 29. September 2014

bioliq - wann gibts endlich Benzin aus Stroh?

Nie würde ich die Mitteilungen des "KIT Dialog" in Frage stellen. Dieses Mitarbeitermagazin des Karlsruher Instituts für Technologie (KIT) beschreibt in regelmäßigen Abständen mit einem guten Dutzend Redakteuren, Autoren, Cartoonisten, Gestaltern, Illustratoren, Layoutern und Fotografen was so am Campus Nord und am Campus Süd des KIT alles geschieht - oder auch nicht. So habe ich mich auch auf die Information im KIT Dialog 1.2013 (Seite 36 ff) verlassen, wo es gleich zu Beginn eines dreiseitigen Artikels über das Projekt "bioliq" markig heißt: "Mitte 2014 soll im KIT aus Stroh Benzin entstehen".

Also machte ich mich mit meinem nicht mehr ganz brandneuen Mercedes auf den Weg ins ehemalige Kernforschungszentrum (Spitzname: Dschungel Nord), grapschte auf dem Weg von einem Getreidefeld noch ein Büschel Stroh - der Bauer möge mir verzeihen - und stand auch sehr bald vor der imposanten bioliq-Chemiefabrik. Leider konnte ich auch nach dreimaligen Umrunden keine Benzintankstelle  entdecken, was mein Vertrauen in die Ankündigungen des KIT dialog künftig beeinträchtigen könnte. Auch die beiden Chefs, der im Mitarbeitermagazin in selbstbewusster Pose abgelichtete Betriebsleiter Dr. Bernd Zimmerlin und der Projektleiter Dahmen (ZEIT-Artikel vom 7. August: "Nicolaus Dahmen macht Stroh zu Benzin") waren nicht aufzufinden.


Hält die Fäden zusammen: Dr. Bernd Zimmerlin ist für den Betrieb der bioliq-Anlage zuständig  (aus: KIT Dialog 1.2013)

Ein langer Weg

Mittlerweile stellten sich einige Kleinforscher ein, die sich aber durchaus als projektkundig herausstellten und damit das Fehlen der genannten Großforscher einigermaßen kompensieren konnten. So erfuhr ich, dass das Projekt bioliq schon seit mehr als einem Dutzend Jahren betrieben wird, aber bis jetzt noch keinen Synthesekraftstoff in nennenswerter Menge erzeugt hat. Das Verfahrensprinzip ist, wie so häufig, relativ einfach. Im ersten Verfahrensteil, der Pyrolyse-Anlage, wird das Stroh durch thermochemische Spaltung in ein dickflüssiges, schwerölähnliches Produkt umgewandelt, dessen Energiedichte etwa zehnmal so hoch ist, wie die des Ausgangsmaterials. Dieses Stoffgemisch wird in einem Flugstromvergaser bei 80 bar Druck mithilfe von Sauerstoff und Dampf zu Synthesegas weiterverarbeitet. Dessen Hauptbestandteile, Kohlenmonoxid und Wasserstoff, dienen als Bausteine für die Kraftstoffsynthese. Zuvor müssen noch in einem weiteren Prozessschritt durch Heißgasreinigung die Störpartikel und Spurengase bei 800 Grad Celsius abgebaut werden. 

Das im vergangenen Jahr ausgerufene Projektziel war, Mitte 2014 mit einer durchgehenden Prozesskette im Vollbetrieb "aus Stroh Benzin zu erzeugen". Dafür war ein Vierschicht-Betrieb inklusive Wochenende vorgesehen, wofür das Betriebsteam auf 45 Mann aufgestockt werden musste. Dieses Ziel wurde offensichtlich bis zum genannten Zeitpunkt nicht erreicht. Die Errichtung der bioliq-Anlage war nicht wirklich billig; bisher wurden 60 Millionen Euro in die Pilotanlage investiert.

Viele Wettbewerber, fragliche Rentabilität

Das bioliq-Verfahren hat viel Konkurrenz. Allein in Deutschland gibt es 20 Vorhaben zur Erzeugung einer neuen Generation von Biokraftstoffen. Anders als bei Bioethanol (E 10-Benzin!) sollen keine Nahrungs- oder Futtermittel, wie Mais, Raps, Weizen oder Zuckerrohr mehr verwendet werden, wodurch das bekannte "Tank oder Teller"-Problem vermieden würde. Die neue Generation an Verfahren begnügt sich mit Abfällen aus der Getreideernte oder der Waldbewirtschaftung. Im Prinzip führen zwei Wege zu Biobenzin: der thermochemische und der biologische. Bei der thermochemischen Methode werden Pflanzenabfälle zu Pflanzenöl umgewandelt und in einem Chemiereaktor zu Synthesegas. Aus den Komponenten Kohlenstoff, Sauerstoff und Wasserstoff lassen sich dann die neuen Kraftstoffe zusammensetzen. Bei der biologischen Methode lösen spezielle Mikroben aus der pflanzlichen Rohmasse den darin enthaltenen Zucker heraus. Durch Gärung wird der Zucker in Ethanol und Biobenzin umgewandelt.

Zurück zum Karlsruher bioliq-Verfahren. Für das dafür erforderliche Stroh gibt es bereits eine Reihe traditioneller Konkurrenten. So verbleibt ein Teil des Strohs auf dem Getreideacker und trägt zur Düngung und Humusbildung bei. Ein anderer Teil wird als Einstreu in den Viehställen verwendet und gelangt als Mist wieder auf die Äcker. Wie viel Stroh die Bauern aus diesen Kreisläufen für das Verfahren bioliq abzweigen können oder wollen, ist schwer abzuschätzen. Wegen der geringen Energiedichte des Strohs müssen die Energieverluste beim Einsammeln des Strohs durch LKW-Transporte möglichst minimiert werden. Man stellt sich vor, dass in jedem Landkreis ein bis zwei Pyrolysereaktoren stehen, in denen das Stroh dieser Gegend zu Pflanzenöl verkocht wird. So verdichtet soll sich der Transport dieses Vorprodukts zur weiter entfernt liegenden Bioraffinerie lohnen, die das Synthesegas erzeugt.

Ob die strategische Entscheidung des KIT, alle Schritte des bioliq-Verfahrens am Standort Karlsruhe durchzuführen, richtig war, wird die Zukunft erweisen. Die bisherigen Terminverzögerungen und Mehrkosten sprechen dagegen. Ein weniger risikoreicher Weg wäre gewesen, nach der Etablierung der Pyrolyse nach erfahrenen Partnern außerhalb des Forschungszentrum zu suchen. Erste Schritte in dieser Richtung waren die Vergasungsversuche in Freiberg, wo von 2003 bis 2005 vier erfolgreiche Kampagnen mit auswärtigen Partnern durchgeführt wurden. Der unnötige Ehrgeiz, die Vergasung am Standort Karlsruhe mit eigener Mannschaft und eigenen Ressourcen quasi zu wiederholen, haben viel Geld und Zeit gekostet und ist eine Strategie, die möglicherweise nicht zum Erfolg führen wird.

Sonntag, 24. August 2014

Blackout gefällig?

Im Zusammenspiel der Kraftwerke, Stromnetze und Verbraucher sind regionale oder auch weiträumige Stromausfälle nicht auszuschließen. In Deutschland waren Blackouts in der Vergangenheit relativ selten; jeden Bürger trafen sie etwa eine Viertelstunde pro Jahr. Das wird in der Zukunft nicht so bleiben. Wegen der Einspeisung der volatilen Sonnen- und Windenergie werden die Stromnetze zwangsläufig immer instabiler, und Zusammenbrüche des Stromnetzes werden nicht ausbleiben. Schon jetzt sind fast tausend mal so viele korrigierende Eingriffe der Leitstellen pro Jahr erforderlich, als es vor der Ausrufung der Energiewende  im Jahr 2011 der Fall war. Das ist vergleichbar mit dem Autoverkehr: wer den Sicherheitsabstand beim Autofahren permanent nicht einhält, für den erhöht sich unweigerlich das Risiko eines Auffahrunfalls.

Münsterland als Vorbote

Der letzte größere Blackout in Deutschland geschah am 28. November 2005 im Münsterland. Ein heftiger Schneefall brach über diese Gegend herein, der nasse Schnee klebte an den Stromleitungen und Masten, bis diese schließlich unter diesem Gewicht zusammenkrachten. In der Folge knickten weitere Masten unter der Schneelast, sodass ein großer Landstrich mit 250.000 Bewohnern ohne Strom war. Der Verkehr kam sofort zum Erliegen, aber auch die vielen Kühe dieser ländlichen Gegend konnten nicht zur gewohnten Zeit gemolken werden, was einen besonderen Stress für diese Tiere bedeutete. Das Technische Hilfswerk musste mit Notstromaggregaten ausrücken, um die Melkmaschinen in Gang zu setzen.

Wegen der umfangreichen Störungen im Verteilnetz, dauerte es über eine Woche, bis die Gegend wieder vollständig mit Strom versorgt werden konnte. Für Deutschland war ein so langer Stromausfall über lange Zeit eine Ausnahme. Der Schaden hielt sich jedoch in Grenzen, weil viel nachbarschaftliche Hilfe gewährt wurde und die umliegenden größeren Städte von diesem Blackout verschont blieben.

Planspiele der Bundesregierung

Der Münsteraner Blackout war für die Bundesregierung der Anlass, ein Expertengremium darüber beraten zu lassen, was so alles bei einem wirklich großräumigen Stromausfall passieren könnte.
Im Folgenden werden die Erkenntnisse dieser Fachleute stichpunktartig zusammengefasst:

- Die Festnetztelefone fallen sofort aus, die Mobiltelefone einige Tage später.
- Fernseher und Radio fallen sofort aus, sofern nicht batteriebetrieben.
- Alle Internetverbindungen sind gestört, weil die Router ausfallen.
- Der Schienenverkehr bricht sofort zusammen; Passagiere müssen aus Tunnels geborgen werden.
- Die Schranken der Tiefgaragen blockieren.
- Die Tankstellen fallen aus, da Pumpen nicht betriebsbereit.
- Alle Fahrstühle und Rolltreppen kommen abrupt zum Stillstand.
- Die gesamte Beleuchtung einschließlich der nächtlichen Straßenlaternen fällt aus.
- Alle Heizungen und Klimaanlagen fallen aus.
- Alle Industrie- und Handwerksbetriebe müssen die Arbeit einstellen.
- Das Trinkwasser fällt aus, weil die Pumpen ohne Strom sind.
- Die Abwasseranlage- und Toiletten funktionieren nicht mehr.
- Milchvieh, Schweine und Geflügel sind schon nach wenigen Stunden extrem gefährdet.
- Die Geschäfte müssen schließen, da Ladenkassen nicht funktionieren.
- Die Lebensmittelversorgung bricht mangels Nachschub zusammen.
- Die Bankfilialen bleiben geschlossen, da die Geldautomaten nicht funktionieren.
- In den Krankenhäusern kommen die OP- und Dialysestationen in große Schwierigkeiten.
- Die Polizei kann mangels Mobilität ihre Aufgaben nicht mehr erledigen.
- Die Kriminalität nimmt rasch zu.
- etc. etc. etc.

Die oben genannten Experten haben auch die volkswirtschaftlichen Kosten eines Blackouts berechnet. Sie kommen auf 10 Euro pro nicht gelieferter Kilowattstunde. Dazu ein Rechenbeispiel:
Nehmen wir an, im Spätherbst passiere in Deutschland flächendeckender Stromausfall. Zu dieser Jahreszeit würden etwa 70 Gigawatt, entsprechend 70 Millionen Kilowatt Leistung ausfallen. Dann gilt für 1Stunde Stromausfall folgende Rechnung: 70 Millionen kWh mal 10 Euro = 700 Millionen Euro. Für 10 Stunden wären wir bereits bei 7 Milliarden Euro angelangt; in einer knappen Woche bei 70 Milliarden Euro. Wahnsinnige volkswirtschaftliche Kosten!

Ursachen und deren Behebung

Sieht man von menschlichem Versagen ab, so können Blackouts vor allem als Folge eines Spannungskollapses passieren oder aus Netzüberlastung. Ersteres ist denkbar, wenn große Energiemengen über weite Entfernungen transportiert werden müssen. Dabei kann die Spannung auf unzulässig niedrige Werte fallen, sofern nicht ausreichend Blindleistung vorhanden ist. Das Absinken der Spannung lässt bei unverminderten Leistungsbedarf den Strom weiter ansteigen, was zu einer Spirale nach unten führt, falls nicht umgehend Verbraucher abgeschaltet werden. Die Überlastung kann eintreten, wenn beispielsweise im Norden Deutschlands viel Windstrom eingespeist wird, bei insgesamt niedrigem Verbrauch.

Nach einem Blackout - sofern keine Leitungsschäden vorhanden sind - gibt es meist noch Netzteile die unter Spannung stehen. An sie wird, Stück für Stück, das restliche Netz vorsichtig zugeschaltet. Sollte kein Netzabschnitt mehr unter Spannung stehen, so müssen Kraftwerke für eine schnelle Stromproduktion in Anspruch genommen werden. Häufig benutzt man "schwarzstartfähige" Kraftwerke, das sind Gasturbinen oder Wasserkraftwerke, die besondere Ausrüstungen dafür besitzen.

Bei der Restrukturierung eines Stromnetzes sind die regenerativen Erzeugungseinheiten, also Wind- und Sonnenstrom meist nicht hilfreich. Wegen ihrer volatilen Einspeisung liefern sie keinen kalkulierbaren Beitrag zum Netzaufbau. Das unkontrollierte Zuschalten von Erzeugungsleistung kann die Frequenz in einer instabilen Netzinsel erheblich beeinflussen. Wenn die dadurch verursachte Erhöhung der Frequenz die zulässigen Grenzen überschreitet, so resultieren daraus wieder unkontrollierbare Abschaltungen.

Und so weiter, und so fort.

Sonntag, 17. August 2014

Hie Freileitung, hie Kabel

Bei den Informationsveranstaltungen der Übertragungsnetzbetreiber (also Tennet, Amprion, 50hertz und EnBW) fühlt man sich oft zurück versetzt in die Stauferzeit um 1140 n. Chr. Mit dem Schlachtruf "hie Welf, hie Waibling" kämpften damals die Anhänger der fränkischen Welfen gegen die staufischen Waiblinger von König Konrad III. um die Vorherrschaft im deutschen Reich. In ähnlicher Weise stehen sich heute - im Zeichen der Energiewende - die Anhänger der elektrischen Freileitungen und der unterirdischen elektrischen Kabel gegenüber.

Die unübersehbaren Freileitungen

Was stört das zumeist ländliche Publikum dieser Veranstaltungen an den Freileitungen? Möglicherweise sind es die unübersehbaren Stahlgittermaste, an denen die Leiterseile aufgehängt sind - obschon sie sich an dem ähnlich strukturierten Eiffelturm ergötzen, der sich drei Mal so hoch in den Pariser Himmel schwingt. Die Stromkonzerne haben (insgeheim) einiges Geld investiert, um diese Masten ansehnlicher zu machen. Im Internet (unter Google "Strommasten Design") kann man  sechs, zum Teil skurril-ästhetische, neuere Mastformen bewundern, die aber allesamt zwei bis drei Mal so teuer sind wie der gute alte Eisenmast.

Manche Menschen fürchten sich vor der magnetischen Strahlung, die von den Freileitungen ausgeht. In der Tat entstehen beim Wechselstrom Magnetfelder. In Deutschland sind 100 Mikrotesla zulässig und zwar einen Meter über dem Boden direkt unter der Spannfeldmitte. In ca. hundert Meter Abstand ist dieses Feld auf 1 Mikrotesla oder weniger abgesunken und - nach Aussagen der darauf spezialisierten Mediziner - völlig unschädlich. (Auch beim Betrieb der überaus beliebten Mobiltelefone entstehen hochfrequente Magnetfelder, bei denen man auch keine schädlichen Wirkungen auf den Organismus nachweisen konnte).

Das Erdmagnetfeld, welches ein Gleichfeld ist, hat offensichtlich keine Auswirkungen auf den menschlichen Körper, denn sonst würde es uns gar nicht geben. Womit wir bei den vieldiskutierten Hochspannungs-Gleichstrom-Übertragung (HGÜ) wären. Diese Leitungen sollen vor allem die elektrische Windenergie vom Norden Deutschlands zu den südlichen Verbrauchszentren in Bayern und Baden-Württemberg bringen. Die Gleichstromübertragung ist verlustärmer, wodurch die Leitungen "schlanker" ausfallen und deshalb auch billiger sind. Sie besitzen allerdings auch unübersehbare Nachteile. So ist jeweils am Anfang und am Ende der mehrere hundert Kilometer langen Strecken eine große und teure Konverterstation erforderlich, die den ursprünglichen Wechselstrom in Gleichstrom wandelt und umgekehrt. Darüber hinaus kann man mit der HGÜ-Technologie keine Netze aufbauen. Anzapfungen der Transportleitungen sind unterwegs nicht möglich, denn der Gleichstrom lässt sich nicht transformieren. Die HGÜ-Technologie ist also (auf weit entfernte) Punkt-zu-Punkt-Übertragungen begrenzt.

Die unsichtbaren Kabel

Über die 20 Meter breiten (deutlich sichtbaren) Kabeltrassen, die oberirdisch nicht bebaut werden dürfen, wurde bereits im letzten Post berichtet. Die Kosten bei ihrer Verlegung sind ein Mehrfaches höher als bei den Freileitungen. Auch die Kabel strahlen Magnetfelder ab, die sogar noch etwas höher sind als bei den Freileitungen. Per Gesetz sind die Netzbetreiber gebunden, die wirtschaftlichste Form des Stromnetzes zu wählen - und das ist in der Regel die Freileitung. Tun sie das nicht, so droht ihnen die Nichtanerkennung der Mehrkosten durch die Regulierungsbehörde. Gleichzeitig gibt das Ausbaugesetz für die Energieleitung aber auch die Möglichkeit, den Betrieb von Höchstspannungskabeln im "Pilotverfahren" zu testen.

Weitaus höheren Aufwand verursachen die Kabel auch bei der Reparatur. Nach Erkenntnissen des Netzexperten Heinrich Gartmair sind mit Reparaturdauern von 1 bis 2 Wochen zu rechnen; bei einer Freileitung sind dies nur 1 bis 2 Tage. Das beginnt schon mit der Ortung des Leitungsschadens. Bei einer Freileitung sieht man die Fehlstelle meist schon mit dem bloßen Auge, wenn es sich um den Abriss eines Stromseiles handelt oder einen kaputten Strommast.  In diesem Fall braucht man nur eine Hebebühne, einen Autokran und eine Seilwinde und der Schaden ist meist noch am gleichen Tag behoben.

Im Falle einer Kabelleitung muss erst ein Bagger besorgt und ein Loch gegraben werden, dessen Größe davon abhängt, wie genau man den Fehler mittels Ortung von außen lokalisieren kann. Während der Reparaturphase wird eine Trasse von 40 Metern benötigt, um den Aushub zu lagern und um die Baustelle mit schweren Baufahrzeugen befahren zu können. In der Regel muss ein Stück Kabel ersetzt werden und mit zwei Muffen an die unbeschädigten Teile angebunden werden. Das klingt einfacher als es ist. Denn alle 700 bis 1000 Meter müssen die Kabel "gemufft" werden. Typischerweise hat ein Kabel einen Durchmesser von 24 Zentimetern und ein Gewicht von 40 Kilogramm pro Meter. Der Reparaturvorgang stellt extreme Anforderungen an die Reinheit; auch mikroskopische Verschmutzungen müssen vermieden werden.

Die lange Reparaturdauer birgt ein weiteres Problem. Wird das (üblicherweise verlegte) Reservekabel ebenfalls defekt, dann kann es zu in der Region zu einem mehrwöchigen Stromausfall kommen. Bei einer Freileitung gibt es keine derartigen Reinraumvorschriften und der unsichere Zustand beträgt, wie gesagt, nur 1 bis 2 Tage.

Ästhetik und Technik liegen bei der Verlegung von Stromleitungen also in einem kaum auflösbaren Clinch.

Sonntag, 3. August 2014

Zur Hierarchie des deutschen Stromnetzes

Die Energiewende führt zwangsweise zu einer Reihe von technischen und wirtschaftlichen Problemen, die nicht kurzfristig, sondern allenfalls im Zeitbereich von Jahrzehnten zu lösen sind. Vorrangig ist dabei das Manko der Stromtrassen, deren bisherige Struktur die Einspeisung von Sonnen- und Windstrom in grossen Mengen nicht ohne weiteres zulässt. Die Problematik der fehlenden leistungsstarken Nord-Süd-Trassen zur Anbindung der onshore- und offshore-Windparks an die Verbraucher in Süddeutschland ist allseits bekannt. Viel weniger bekannt ist, dass auch bei den hierarchisch weit darunter liegenden Verteilnetzen ein hoher Investitionsbedarf besteht, der in der Öffentlichkeit jedoch nur selten artikuliert wird.

Die Hierarchie der Stromleitungen

Unser Stromnetz ist in vier Ebenen gegliedert. An der Spitze befindet sich das Höchstspannungs- oder Übertragungsnetz, das mit 380 Kilovolt (kV), bzw. bei älteren Verbindungen mit 220 kV, betrieben wird. Es besteht aus Freileitungen mit Masten bis zu 90 Metern Höhe, welche die grossen Stromerzeuger, also die Atom-, Kohle- und Wasserkraftwerke anbinden. Dabei besitzt es eine Länge von ca. 36.000 km; derzeit fehlen etwa 4.500 km zur Einspeisung der grossen Windparks.

Unter dem Übertragungsnetz sind die Verteilnetze angesiedelt und zwar gestaffelt nach Hochspannung, Mittelspannung und Niederspannung. Das Hochspannungsnetz, mit ca. 75.000 km Länge, bedient über Freileitungen die Grosskunden (wie BASF) und die Umspannwerke. Das darunter liegende Mittelspannungsnetz mit ca. 500.000 km Länge - zumeist als Erdkabel - ist unter anderem für regionale Industriebetriebe und Krankenhäuser gedacht, die eine Spannung von 10 bis 20 kV nutzen. Das Niederspannungsnetz mit gut 1 Million km an Erdkabellänge bringt den Strom mit einer Spannung von 230/400 V zu den privaten Endverbrauchern.

Grundsätzlich fliesst der Strom "von oben nach unten", d. h. vom Höchstspannungsnetz zum Niederspannungsnetz. Man kann das deutsche Stromnetz vergleichen mit dem Strassennetz: das Höchstspannungsnetz entspricht den Autobahnen, das Hochspannungsnetz den Fernstrassen, das Mittelspannungsnetz den Durchgangsstrassen und das Niederspannungsnetz den vielen kleinen Strassen in den Wohngebieten.

Die Energiewende bringt neue Anforderungen

Derzeit sind in Deutschland ca. 25.000 Windkraftanlagen installiert mit einer maximalen Gesamtleistung von 25.000 Megawatt (spitze). Grosse Windparks benötigen also, wenn der Wind kräftig weht, ebenso hohe Anschlussleistungen wie grosse konventionelle Kraftwerke und werden deshalb an das Hochspannungsnetz oder gar an das Übertragungsnetz angebunden.

Im Gegensatz dazu sind die Paneele der Photovoltaikanlagen zumeist auf dem Land zu finden und daher weit verstreut in das Niederspannungsnetz eingebunden. Bei entsprechendem Sonnenschein werden hier zu Spitzenzeiten um die 30.000 Megawatt erzeugt. Dabei kann es zu einem besonderen Problem kommen: der Umkehr des Lastflusses. Wenn der Strom im Niederspannungsnetz (wegen Überfülle) nicht abgenommen werden kann, dann fliesst er von dort ins Mittelspannungsnetz oder gar Hochspannungsnetz und Übertragungsnetz. Das Niederspannungsnetz hat sich damit - unfreiwillig - zu einem Sammel- und Ausgleichsnetz entwickelt und im Gegensatz zu früher fliesst der Strom jetzt sowohl von oben nach unten als auch von unten nach oben. Die Netzführung muss sich auf diese zum Teil abrupten Wechsel einstellen. Das ist nicht einfach, wenn die Stromproduktion eines grossen Solarfeldes wegen vorbeiziehender Wolken immer wieder zwischen 100 Prozent und nahezu Null schwankt.

Hoher Investitionsbedarf, grosse Bauprobleme

Ein Netzausbau ist also auch bei den hierarchisch niedrigeren Netzen unabdingbar. Die Kosten für den Ausbau des gesamten Netzes werden von den zuständigen Stellen auf 28 Milliarden Euro abgeschätzt. Von diesen entfallen auf das Höchst- und Hochspannungsnetz 16, auf das Mittelspannungsnetz 8 und auf das Niederspannungsnetz 4 Milliarden Euro. Der Netzausbau kommt allerdings nur stockend voran. Von den 1.855 km Trassen, die laut Bundesregierung "sofort" gebaut werden müssten, wurde im Jahr 2012 kein einziger Kilometer realisiert, im nachfolgenden Jahr nur knapp hundert Kilometer.

Besonders schlecht bestellt ist es mit der Akzeptanz der Freileitungsmasten für die Überlandnetze. Immer wieder wird von der Öffentlichkeit die Forderung vorgebracht, diese - unsichtbar - als sogenannte Erdkabel im Boden zu verstauen. Aber das klingt einfacher, als es ist. Um ein Erdkabel zu verlegen, müssen die Netzbetreiber zunächst eine Arbeitstrasse von bis zu 40 Metern einrichten um Platz zu machen für die Bau- und Transportfahrzeuge. Die Kabelschächte sind dann zwar nur noch wenige Meter breit, aber nach Abschluss der Bauarbeiten dürfen über, und mehrere Meter neben den Schächten, nur schwachwurzelnde Pflanzen wachsen. Landwirte können diese Fläche also nur eingeschränkt bewirtschaften.
Zuweilen wird auch der Grundwasserspiegel durch die zwei Meter tiefen Schächte beeinträchtigt, ebenso wie durch die Wärme, welche die Kabel erzeugen. Darüber hinaus müssen die Netzbetreiber im Abstand von mehreren hundert Metern garagengrosse Gebäude errichten, die den Zugang zu den Verbindungsmuffen der Kabelabschnitte ermöglichen. Dazu kommen schliesslich noch die hohen Kosten: Erdkabel zu verlegen dauert etwa doppelt solang wie der Bau von Freileitungen. Die Gesamtkosten bei Erdkabeln übertreffen die der Freileitungen um den Faktor 3 bis 8.
Also: es gibt noch viel zu tun, packen wir´s an!

Sonntag, 20. Juli 2014

Ein badischer Prinz als Reichskanzler

Im Oktober 1918, als der (Erste) Weltkrieg, für alle erkennbar, bereits verloren war, entliess Kaiser Wilhelm II. seinen Reichskanzler Graf Georg von Hertling. Er war der 6. Verwalter dieses hohen Amtes seit dem Rücktritt von Fürst Otto von Bismarck im Jahr 1890. In Absprache mit den führenden Militärs (Ludendorf, Hindenburg) und den wichtigsten Parteichefs (u. a. Friedrich Ebert) ernannte der Kaiser seinen Cousin Prinz Max von Baden am 3. Oktober 1918 zum Reichskanzler und Ministerpräsidenten des Landes Preussen.

Prinz Max, Thronfolger des Grossherzogtums Baden, war damals 51 Jahre alt und galt als liberaler Aristokrat. Während des Kriegs war er Ehrenpräsident der deutsch-amerikanischen Gefangenenhilfe und hatte sich in der Fürsorge der Gefangenen aller Nationalitäten verdient gemacht. Er schien - den drohenden militärischen Zusammenbruch vor Augen - ein glaubwürdiger Regierungschef für die anstehenden Verhandlungen mit den gegnerischen Kriegsmächten zu sein.

Fünf ereignisreiche Wochen

Reichskanzler Max von Baden verlor keine Zeit. Schon am nächsten Tag, dem 4. Oktober, verschickte er ein (Morse-) Telegramm an den US-Präsidenten Woodrow Wilson, worin er sofortige Waffenstillstandsverhandlungen vorschlug. Gleichzeitig bildete er eine parlamentarische Regierung, in die er mit Philipp Scheidemann und Gustav Bauer erstmals sozialdemokratische Minister berief.


Max von Baden (1867 - 1929)

Leider war die Antwort von Wilson nicht unbedingt positiv. Der Präsident machte deutlich, dass er an die Demokratisierung in Deutschland nicht glaube, solange dort ein Kaiser mit so vielen Vollmachten im Amt sei. Dies nutzte der Erste Generalquartiermeister und oberste General Erich von Ludendorff um sich quer zu legen. Er wollte plötzlich, dass Reichskanzler Max die im Westen und Osten eroberten Gebiete in den Verhandlungen für Deutschland geltend machen solle. Das war aber gegen die Entente nicht durchzusetzen und so verlangte Max vom Kaiser die Absetzung von Ludendorff, welche dieser am 26. Oktober vollzog. Ein Sieg, den niemand dem Adeligen aus der badischen Provinz zugetraut hätte. (Leider blieb sein Generalskollege Hindenburg dabei ungeschoren, der 15 Jahre später Adolf Hitler zum Reichskanzler ausrief.)

Aber damit hatte Reichskanzler Max sein Pulver noch lange nicht verschossen. Nun ging er auch seine Majestät, den Kaiser höchstpersönlich, an. Als in dem Notenwechsel mit Wilson immer deutlicher wurde, dass dieser Wilhelm II. nicht mehr auf dem Thron sehen wollte, legte Prinz Max dem Kaiser nahe, zugunsten seines Enkels auf die Kaiserwürde zu verzichten. Bis zur Volljährigkeit des Enkels wollte Max als Reichsverweser agieren. Der Kaiser war wütend und flüchtete vor den zwischenzeitlich ausgebrochenen Matrosenrevolten in Kiel und Wilhelmshaven in das belgische Spa. Am 9. November 1918 sah Max keine andere Möglichkeit mehr, als eigenmächtig die Abdankung des Kaisers zu verkünden. "Ich konnte den Kaiser doch nicht vom Pöbel absetzen lassen", rechtfertigte der Prinz später seine Entscheidung.

Aber nun war es eine Frau, die den Reichskanzler Max zur Strecke bringen sollte. Die Kaiserin, Auguste Viktoria, war so sauer auf Prinz Max, dass sie ihn antelefonierte und mit einer Suada an Vorwürfen, Beschimpfungen und Drohungen überschüttete. So kündigte sie an, dass sie seine homosexuellen Neigungen publik machen würde, was damals gleichbedeutend mit der Vernichtung der Person war. Max war zutiefst geschockt, fiel in Ohnmacht und musste längere Zeit von Ärzten versorgt werden.

Nach der Verkündung der Abdankung des Kaisers und des Thronverzichts des Kronprinzen (am 28. November von Wilhelm II. nachträglich bestätigt) rief Scheidemann vom Balkon des Reichstags die Republik aus. Darauf übergab Prinz Max kurz entschlossen die Reichskanzlerschaft an Friedrich Ebert, den Führer der stärksten Reichstagspartei. Zwei Tage später wurde im Wald von Compiègne der Waffenstillstand unterzeichnet. Am 11. November 1918 schwiegen ab 12 Uhr die Waffen an der Westfront. Der Erste Weltkrieg war zu Ende. Max zog sich in das Privatleben zurück und gründete mit Kurt Hahn die Schule Schloss Salem, welche zur Heranbildung einer neuen geistigen Elite in Deutschland beitragen sollte.

Als der Kaiser in der Nacht vom 9. zum 10. November nach Holland ins Exil floh, durchfuhr ein Schock die deutschen Adeligen. Fast alle deutsche Fürsten, insbesondere die Könige von Bayern, Sachsen, Württemberg und die Grossherzöge und Herzöge der anderen deutschen Staaten dankten in diesen Novembertagen ebenfalls ab. Abordnungen der Arbeiter- und Soldatenräte kamen zu ihnen, verlangten, dass sie abtreten und sie gaben allesamt nach. Der König von Sachsen sagte zu der Abordnung, die ihn zur Abdankung aufforderte, ganz gelassen:

 "Na guud, dann macht eirn Dreck alleene".

Sonntag, 13. Juli 2014

Der Vater aller Dinge

Dass der Krieg der Vater aller Dinge sei, ist ein Ausspruch, der dem griechischen Philosophen Heraklit zugesprochen wird. Genau weiss man es nicht, denn die Werke dieses vorsokratischen Denkers, welcher um 500 vor Christus in Ephesus wohnte, sind nur noch in Rudimenten vorhanden. Das meiste ist nur in Zitaten späterer Philosophen enthalten - und das auch nur in der Form von Aphorismen, Paradoxien und Wortspielen. Eine andere Kurzformel seines Denkens ist panta rhei (alles fliesst), in welcher der ständige natürliche Prozess des Werdens und des Wandels zum Ausdruck kommt.

Dass der Krieg Erfindungen und technische Entwicklungen anstösst, wird heute nicht mehr in Frage gestellt. Auch nicht, dass sich das Tempo der kriegerischen Aufrüstung immer mehr erhöht hat. Im Mittelalter kämpfte man Jahrhunderte lang mit Schwert, Lanze und Bogen. Nach der Erfindung des Gewehres wurden die Entwicklungsschritte immer kürzer, was insbesondere die Österreicher in der Schlacht bei Königsgrätz leidvoll erfahren mussten: die Zündnadelgewehre der gegnerischen Preussen schossen schneller und waren zielgenauer. Im 1. Weltkrieg (1914 - 1918) gab es ein ganzes Arsenal an neuen Waffen; zu nennen sind Panzer, Granaten, Flammenwerfer, Giftgas, U-Boote und Flugzeuge. Sie wurden häufig von Physikern, Chemikern und Ingenieuren in Universitätslabors entwickelt und nicht selten stellten sich weltbekannte Wissenschaftler sogar freiwillig für den  Kriegsdienst zur Verfügung. Im folgenden werden einige dieser Koryphäen genannt, wobei ich mich u. a. auf das Physik Journal 13 (2014) Nr. 7 beziehe.

Physiker an die Front.  Max Born, der für seine Arbeiten zur Quantenmechanik später mit den Nobelpreis ausgezeichnet wurde, war 1914 wegen eines Asthmaleidens eigentlich vom Wehrdienst freigestellt. Trotzdem verzichtete er bei Kriegsbeginn auf seine Professur an der Berliner Universität  und meldete sich als Funker zum Einsatz beim Heer. Zusammen mit dem Physikprofessor Max Wien wurde er von einen altgedienten Feldwebel in Hochfrequenz "ausgebildet", was angesichts des Wissensabstands dieses Trios ziemlich grotesk gewesen sein muss.

Dem Göttinger Mathematiker und Physiker Richard Courant wurde bei den verlustreichen Kämpfen an der Marne schnell klar, dass es dem deutschen Militär an grundlegendem technischen Sachverstand fehlte. Bereits ein Spiegel hätte genügt, einen gefahrlosen Blick aus dem Schützengraben zu wagen. Das Kommunikationschaos an der Front versuchte er durch die Entwicklung eines "Erdtelegraphen" zu lösen. Zusammen mit dem (neutralen) Holländer Peter Debye Nobelpreis 1936) und dessen Schweizer Assistenten Paul Scherrer entwickelte er einen tragbaren Telegraphen, der 1916 bei der Somme-Schlacht mit Erfolg eingesetzt wurde. Ein halbes Jahr später bemerkte er beim Testen seines Telegraphen, dass ähnliche Signale von der Gegenseite kamen. Offensichtlich besassen seine Wissenschaftler-Kollegen in Frankreich und England nunmehr ein ähnliches Gerät.

Der Atomphysiker Arnold Sommerfeld beschäftigte sich erfolgreich mit der Ballistik der Minenwerfer. Der Strömungsforscher Ludwig Prandtl stand in vorderster Reihe bei der Hydraulikforschung für die damals aufgekommenen Flugzeuge. Seine ballistischen Experimente zum Bombenabwurf aus Luftschiffen und Flugzeugen leiteten den Luftkrieg ein, der für militärische Ziele, aber auch für die Zivilbevölkerung eine neue Dimension der Vernichtung bedeutete.

Chemiker an die Front.  Der Physiko-Chemiker Walter Nernst, der den 3. Hauptsatz der Thermodynamik entdeckte ("Der absolute Nullpunkt der Temperatur ist unerreichbar")  und 1920 dafür den Nobelpreis erhielt, war bei Kriegsbeginn als 31-jähriger  schon jenseits des Rekrutenalters. Aber er wollte unbedingt den Krieg erleben und bot sich als Automobilbesitzer freiwillig den Heeresbehörden als Meldefahrer an. Er beteiligte sich an der Entwicklung von "Reizstoffen", die - in Granaten verbracht - die Augen und Atemwege der gegnerischen Soldaten reizen sollten. Nernst, von den Offizieren etwas spöttisch als "Benzinleutnant" bezeichnet, versuchte dies durch den Zusatz von Nickel-Pulvermischungen zu erreichen, was aber nur geringen Erfolg hatte. Nernst verlor im Krieg gegen Frankreich zwei Söhne und revidierte später seine euphorische Einstellung zum Krieg.

Grossen Einfluss auf den Ablauf des 1. Weltkriegs hatte der (einer jüdischen Familie entstammende) Chemiker Fritz Haber, der zeitweise an der Technischen Hochschule Karlsruhe lehrte und später Direktor am Kaiser-Wilhelm-Institut in Berlin war. Er entdeckte die Synthese von Ammoniak aus dem Luftstickstoff, die von überragender Bedeutung für die Herstellung von Kunstdünger, aber auch für Sprengstoff war. Man schätzt, dass sich dadurch der Krieg um mindestens zwei Jahre verlängert hat. (1918 erhielt er dafür den Chemie-Nobelpreis). Berüchtigt wurde er jedoch für die Entwicklung des Phosgen und Chlorgases zum Einsatz als Giftgas. In der Schlacht bei Ypern wurde es erstmals angewendet - im Beisein von James Franck und Otto Hahn (beides spätere Nobelpreisträger) und Lise Meitner, die sich als Krankenschwester betätigte. Professor Haber liess fortan als "Vater der Giftgaswaffe" preisen; seine Frau war darüber so entsetzt, dass sie sich noch am gleichen Tag (mit der Dienstpistole ihres Mannes) erschoss.

Epilog. Auch im Zweiten Weltkrieg hat ein Maschinenbau-Ingenieur sein Genie dafür eingesetzt, dass London mit mehr als tausend V2-Sprengstoffraketen beschossen werden konnte. Dafür erhielt er von Hitler das Ritterkreuz und wurde zum Sturmbannführer der Waffen-SS ernannt. Wenige Jahre später verhalf er den Amerikanern zur Fahrt zum Mond, wofür er vom Präsidenten John F. Kennedy mit höchsten Ehren bedacht wurde.

Es war Wernher Magnus Maximilian Freiherr von Braun, der auf seinem Grabstein folgenden Psalm-Spruch einmeißeln ließ: "Die Himmel erzählen von der Herrlichkeit Gottes und das Firmament verkündet seiner Hände Werk".

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de