Sonntag, 26. Oktober 2014

Georges Vendryes décédé

Traduction française ci-dessous

---

Wie erst jetzt bekannt wurde, ist der französische Nuklearforscher und -manager, Dr. Georges Vendryes, am 16. September 2014 im Alter von 94 Jahren verstorben. Er wurde in Paris auf dem Friedhof Père Lachaise beerdigt.

Georges Vendryes gilt als der "Vater der französischen  Brüterentwicklung". Seine Ausbildung erhielt er an der Ecole Polytechnic, an der Universität Paris promovierte er im Fach Nuklearphysik. Im Jahr 1948 kam er zur französischen Atombehörde CEA. In der Folge widmete er sich der Entwicklung der Schnellen Brüter. Am natriumgekühlten Versuchsreaktor Rapsodie mit 24 Megawatt im Forschungszentrum Cadarache war er zuständig für die Gesamtplanung und insbesondere die Auslegung des Reaktorkerns. In der Folge leitete er mit großem Erfolg das 250 MWe Brüterkraftwerk Phénix in Marcoule, das 1973 in Betrieb ging. An den Planungen für den 1200 MWe Superphénix, einem Industrievorhaben, war er unter anderem als Berater für die Core-Physik tätig.



Georges Vendryes  (1920 - 2014)

Im Rahmen der deutsch-französischen Brüterkooperation war Georges Vendryes oftmals in Deutschland, insbesondere im Kernforschungszentrum Karlsruhe. Er unterstützte das deutsche Bestrahlungsprogramm an den französischen Reaktoren Rapsodie und Phénix, welches sich über viele Jahre erstreckte und die Basis für die Brennelemententwicklung beim Schnellen Brüter SNR 300 Kalkar bildete. Darüber hinaus beteiligte er sich an öffentlichen Diskussionen und Anhörungen zum Thema Brutrate, die in den 1970er Jahren sogar ein Medienthema waren.

Dr. Vendryes erhielt für sein Wirken im Brüterbereich hohe Ehrungen und Preise. Zu nennen sind die Auszeichnung zum Ritter der Ehrenlegion, die Verleihung des Großen Bundesverdienstkreuzes, der Enrico-Fermi-Preis, der Japan-Preis, der Indien-Preis und vieles mehr.

Unser Mitgefühl gilt den Hinterbliebenen, insbesondere seinen vier Söhnen und seiner (aus Karlsruhe stammenden) deutschen Ehefrau Inge Vendryes-Maisenbacher.

Dr. Willy Marth, Karlsruhe

---

Nous venons d’apprendre le décès du Docteur Georges Vendryes, ayant fait sa carrière au service du programme nucléaire français. Il est décédé le 16 Septembre 2014, à l'âge de 94 ans. Il a été enterré dans le cimetière du Père Lachaise à Paris.

Georges Vendryes est considéré comme le « père » du développement des surgénérateurs nucléaires français. Diplômé de l'École Polytechnique, à l'Université de Paris, il a reçu un doctorat en physique nucléaire. En 1948, il rejoint le commissariat à l'énergie atomique. Il se consacre à la mise au point du réacteur à neutrons rapides. Dans le cadre du projet expérimental Rapsodie de réacteur de 24 Mégawatt refroidi au sodium au Centre de Cadarache, il était responsable de la planification globale et en particulier de la conception du cœur du réacteur. Puis, il a dirigé avec succès la conception du réacteur Phénix de 250 Mégawatts à la centrale de Marcoule, qui a été mise en service en 1973. Il a ensuite travaillé comme consultant dans la conception du réacteur Superphénix de 1200 Mégawatts.

Dans le cadre de la coopération franco-allemande, Georges Vendryes était souvent en Allemagne, en particulier au Centre de recherche nucléaire de Karlsruhe. Il a soutenu le programme allemand sur les réacteurs Rapsodie et Phénix, qui s’est étendu sur plusieurs années, servant de base au développement des éléments de combustible des réacteurs à neutrons rapides SNR 300 Kalkar. En outre, il a participé à des discussions et des audiences publiques sur le sujet du « breeding », au cœur des conversations dans les médias, même dans les années 1970.

Le Docteur Vendryes a reçu les honneurs et les prix les plus élevés pour son travail dans son domaine, notamment le grade de Chevalier de la Légion d'honneur, la médaille de la Grand-Croix du Mérite, le prix Fermi Enrico, plusieurs distinctions au Japon et en Inde, et bien plus encore.

Notre sympathie va a sa famille, en particulier ses quatre fils et sa femme allemande Inge Vendryes-Maisenbacher (de la région de Karlsruhe) .

Dr. Willy Marth, Karlsruhe

Sonntag, 19. Oktober 2014

Die WAK: Deutschlands sicherster Arbeitsplatz

Die Lebenserfahrung zeigt: mit Superlativen sollte man vorsichtig sein. Aber diesmal fühle ich mich auf der sicheren Seite, denn wo gibt es eine Firma, die Arbeitsplätze bis zum Jahr 2063 anbietet und  die sogar noch aus der Staatskasse finanziert werden. Es ist die Wiederaufarbeitungsanlage Karlsruhe (WAK), welche ab 1960 geplant wurde, die etwa 20 Jahre im Betrieb war und erst im fernen Jahr 2063 wieder in eine grüne Wiese konvertiert sein soll. (Wobei ich mich u. a. auf Informationen des technischen Geschäftsführers Professor Manfred Urban berufe, die vor wenigen Monaten in der FAZ veröffentlicht wurden).

Elite-Personal gesucht

Der Personalstand der WAK wächst und wächst und als kürzlich die Zahl von 500 eigenen Mitarbeitern überschritten wurde, war auch die Zeit zur personellen Aufstockung des Aufsichtsrats gekommen.  Aber die Personaleinstellung wird weiterhin forciert. Zum Rückbau der WAK sucht man per Flyer Ingenieure in den Bereichen Verfahrenstechnik, Maschinenbau, Bautechnik, Elektrotechnik und Strahlenschutz. Gegebenenfalls sogar mit Promotion! Dafür werden die oben genannten langfristigen Unternehmensperspektiven geboten, sowie Vergütungen und Sozialleistungen nach dem bekannt spendablen Manteltarifvertrag der chemischen Industrie. Die Mitarbeiter des benachbarten KIT mit ihren Tarifvertrag öffentlicher Dienst können da wohl nur neidisch blicken. Aber das ist noch nicht alles. In Zusammenarbeit mit der Dualen Hochschule Karlsruhe werden auch Studienplätze zum Bachelor of Science angeboten und außerdem unterstützt die WAK die Bewerber bei Masterarbeiten und Promotionen. Wow!

Dabei war in den vergangenen eineinhalb Jahren bei der WAK gar nicht so arg viel zu tun. Die Geldgeber in Bund (91,8 Prozent) und im Land (8,2 Prozent) waren nämlich klamm und kürzten deshalb die jährlichen Mittelzuweisungen. So war das Jahr 2013 "verloren im Sinne eines technisch erreichbaren Projektfortschritts", was die Geschäftsführung in ihrem Bericht an die Mitarbeiter ganz freimütig zugab. "Design to Budget" war angesagt, d. h. es konnte nur bearbeitet werden, was auch finanziert wurde - die Leistungsdauer, sprich der Terminplan, war nachrangig. Die Fremdfirmenverträge wurden reihenweise gekündigt, das Eigenpersonal jedoch behalten und sogar noch aufgestockt. Im Jahr 2014 musste man endlos auf die Zuwendungsbescheide warten, die dann endlich im Juli - allerdings gekürzt um 18 Millionen Euro - bei der WAK eintrafen.

Lubmin im Blick.  Währenddessen versuchte man die Mannschaft bei Laune zu halten. Die geschah durch "virtuelle Gehwettbewerbe". Innerhalb von 60 Tagen sollte die Strecke von Karlsruhe nach Lubmin, dem Standort des Mutterkonzerns EWN (und Gottvaters Rittscher) zurückgelegt werden. Aber eben nur virtuell, denn jeder der 160 Teilnehmer hatte einen Schrittzähler, konnte seine tägliche Gehleistung selbst auf der Karte eintragen - und trotzdem im Raum Karlsruhe verbleiben. Für die erforderlichen Aufwärmübungen heuerte die WAK die frühere Olympiasiegerin Heike Drechsler an. Wer ko, der ko!

In Lubmin vertrieb sich die Mannschaft der dortigen Energiewerke Nord (EWN) die Zeit mit Paddelwettbewerben im Greifswalder Bodden, wobei man einen respektablen 21. Platz erreichte. Der EWN-Geschäftsführer Henry Cordes hatte mittlerweile alle Aktivitäten für ein GuD-Gaskraftwerk gestoppt, weil u. a. das hiesige Energieversorgungsunternehmen EnBW im Zuge der Energiewende inzwischen die Lust an diesem Projekt verloren hatte. Cordes setzt nun wieder auf das Geschäftsfeld nukleare Entsorgung, wo er seiner Firma praktischerweise gleich selbst "Exzellenz in der Stilllegung" bescheinigte.

Zwischenläger und Gesamtkosten

Selbst bei dem moderaten Abrisstempo der letzten Jahre, ist die Lagerung des rückgebauten radioaktiven Materials ein Riesenproblem. Das bestehende große Lager ist voll und der Neubau zweier weiterer Zwischenläger für schwach- und mittelaktive Materialien ist unausweichlich. Eigentlich sollten diese  Stoffe im Endlager "Konrad" (bei Gorleben) verstaut werden, aber dieses ist seit Jahren wegen vieler Einsprüche der Grünen in Verzug.

Seinen Teil dazu beigetragen hat auch der gegenwärtige baden-württembergische Umweltminister Franz Untersteller in seiner Eigenschaft als Chef des Freiburger Öko-Instituts, als Landtagsabgeordneter der Grünen und als Berater der Partei der Grünen seit den achtziger Jahren. Als Umweltminister muss der joviale  Endfünfziger (gelernter Landschaftsarchitekt) diese beiden Läger nun in seinem Ministerium genehmigen. Die Höchststrafe für einen Grünen! Widerstände sind dabei zu erwarten, denn der Standort dieser Läger ist inmitten des ehemaligen Kernforschungszentrums (jetzt KIT), wo sich täglich ca. 4.000 Personen in unmittelbarer Nähe bewegen.

Zusätzlich befindet sich, wie oben angesprochen, in diesem Bereich das größte deutsche ebenerdige Zwischenlager (Spitznamen: Wasteminster). Wenn die atomrechtlichen Anhörungen für die neuen Läger anlaufen, wird Untersteller zu erklären haben, weshalb diese ungeheure Menge an radioaktiven Stoffen den Mitarbeitern des KIT zugemutet werden kann. Und warum diese gefährlichen Materialien nicht längst im Endlager Konrad, tausend Meter unter der Erde, verstaut sind. Man darf gespannt sein über diese Diskussionen, der Slogan "Gorleben ist überall" wird dabei eine ganz neue Relevanz gewinnen. Derzeit redet man in euphemistischer Weise immer von "Lagerhallen"; klar muss den Ministerialbehörden jedoch sein, dass das Atomrecht für die Lagerung radioaktiver Stoffe "Bunker" verlangt, die gegen Erdbeben und Flugzeugabsturz gesichert sind.

Kosten und Projektstrategien.  Dies führt zu den Gesamtkosten des WAK-Abriss. Urban beziffert sie in dem genannten FAZ-Interview mit "deutlich über 5 Milliarden Euro". Zum angenommenen Projektende im Jahr 2063 könnten dies womöglich 10 Milliarden werden, womit sich die 1990 kalkulierten Rückbaukosten um den Faktor 10 (entsprechend 3 pi) erhöht hätten. Quasi zur Entschuldigung verweist der WAK-Chef darauf, dass die politische Entscheidung, den radioaktiven Abfall nicht im belgischen Mol verarbeiten zu lassen, das Projekt verzögert habe. Genau das Gegenteil ist richtig: die beiden SPD-Politiker Schäfer und Spöri wollten die sogenannte "Atomsuppe" nach Belgien schippern lassen. Es waren die beiden KfK-Manager H&M, welche dieses Wahnsinnsunternehmen gestoppt haben, zugunsten der Verglasung der plutoniumhaltigen Flüssigkeit vor Ort.

Die Möglichkeit, Einnahmen durch die weltweit einzigartige Entwicklung der Verglasungsanlage zu erzielen, wurde leider vertan. Die Chinesen interessierten sich für dieses Projekt und waren bereit, dafür Lizenzgebühren zu entrichten. Jahr um Jahr reisten Scharen von Karlsruher Forscher nach China, sodass schließlich dort ein (größeres) Abbild der hiesigen Verglasungsanlage entstand. Der Nettogewinn für die Karlsruher war leider Null. Wer dabei kaufmännisch versagt hat, ist öffentlich nicht bekannt. Schäuble hätte von einer "schwarzen Null" gesprochen.

Revirements

Einige Revirements sind noch zu vermelden.
Der Leiter der Betrieb für Dekontamination und Lagerung (HDB), Herr Olaf Oldiges, verließ die WAK GmbH bereits nach kurzer Zeit wieder, um extern in ein ähnliches Unternehmen einzusteigen.
Der kaufmännische und juristische Geschäftsführer der WAK GmbH, Herr Herbert Hollmann, wird in den nächsten Monaten diese Position aufgeben.
Und im benachbarten Institut für Transurane (ITU) wurde der Institutsleiter Professor Dr. Thomas Fanghänel vor wenigen Wochen eilends von seinem Posten entpflichtet und nach Brüssel geholt.
Als Berater.

Montag, 6. Oktober 2014

KIT: Wann kommt Katrin?

Im früheren Kernforschungszentrum Karlsruhe, das im August 2006 von einem ehemaligen Geschäftsführer (Popp) der Universität Karlsruhe - unter Umgehung wichtiger interner Gremien - zum KIT angedient wurde ("wir wollen heiraten"), gab es eine große Anzahl von Projekten, die entweder von dem KfK selbst, oder unter seiner maßgeblichen Mitwirkung, angegangen wurden. Stellvertretend dafür seien Folgende genannt: FR 2, MZFR, KKN, HDR, WAK, KNK I, KNK II, SNEAK, Beta, HZ, SNR 300, EFR, KASCADE, GALLEX, KARMEN, Pierre Auger, CREST, Edelweiß, GERDA, Cast, Lopes, AMS, H.E.S.S., MAGIC, Virgo, GLAST, AMANDA, ANTARES etc .etc. Sie bewegten sich allesamt im finanziellen Bereich von Millionen bis sogar Milliarden. Viele kleinere Vorhaben, deren Wertigkeit und Wichtigkeit ich keinesfalls gering schätzen möchte, sind in dieser Aufzählung noch gar nicht vorhanden.


Demgegenüber gibt es nunmehr in diesem Leopoldshafener Areal - KIT Campus Nord genannt - praktisch nur noch zwei Großprojekte: bioliq und KATRIN. Beide befinden sich, finanziell und terminlich gesehen, in beträchtlicher Schieflage. Über bioliq wurde bereits in einem früheren Blog berichtet. Auch bei KATRIN, dem Bereich der Astrophysik zugehörend, scheint es allerhand Probleme zu geben. Was diese beiden Projekte von den meisten oben genannten kerntechnischen Projekten unterscheidet ist, dass die Einflussnahme der Genehmigungsbehörden gering ist und, dass sie unter dem Wohlwollen der Bevölkerung abgewickelt werden können. Dementsprechend wären sie eigentlich viel einfacher abzuwickeln.










Das Hauptspektrometer für KATRIN beim Transport durch Leopoldshafen









Ein winziges Teilchen

Das "Karlsruhe Tritium Neutrino Experiment" - KATRIN - hat die direkte Bestimmung der Masse des sogenannten Elektron-Neutrino zum Ziel. Im Standardmodell der Elementarteilchenphysik wurden die drei bekannten Neutrino-Arten zunächst als masselos angenommen. Verschiedene frühere Experimente, wie Gallex und Super-Kamiokande, ließen jedoch vermuten, dass die Neutrino-Ruhemasse von Null verschieden sein könnte. Dem will man im KATRIN-Experiment nachgehen. KATRIN ist also, etwas platt gesprochen, eine Waage für ein wichtiges Kernteilchen.


Die beim Urknall erzeugten Neutrinos sind die häufigsten massebehafteten Teilchen im Universum: jeder Kubikzentimeter enthält (ungefähr) 336 Neutrinos. Als Teilchen der Heißen Dunklen Materie haben sie die Entstehung und Evolution großräumiger Strukturen im Universum mit beeinflusst. Eine Möglichkeit, die rätselhafte Rolle der Neutrinos in einer modellunabhängigen Weise zu bestimmen, ist die genaue Messung der Energieverteilung von Elektronen aus Betazerfällen. Beim Betazerfall wandelt sich ein Neutron in ein Proton, ein Elektron und ein elektronisches Anti-Neutrino um.

Aus Untersuchungen an atmosphärischen Neutrinos kann geschlossen werden, dass die Neutrinomasse mindestens 0,05 Elektronenvolt (eV) schwer sein muss. Dabei ist 1 eV die winzige Masse von 1,8 mal 10 hoch minus 36 Kilogramm! Denkbar ist aber auch, dass die gesuchte Masse des Neutrinos um mehrere Größenordnungen über dem genannten Wert liegt. Messungen in Mainz führten zu einer Obergrenze für die Ruhemasse des Neutrinos um 2,3 eV. Um in den kosmologisch interessanten Bereich unterhalb 1 eV vorzustoßen, ist ein neues Experiment erforderlich - eben KATRIN - das über eine hundertmal intensivere Tritiumquelle und eine fünfmal bessere Energieauflösung als die bisherigen Experimente verfügen muss.

Ein riesiges Experiment

Das insgesamt 75 Meter lange Experiment KATRIN gliedert sich in vier große funktionale Einheiten: eine hochintensive molekulare Tritiumquelle, die 10 hoch 11 Betazerfälle pro Sekunde liefert, eine Tritium-Pumpstrecke, in der die Moleküle aus der Strahlführung eliminiert werden, ein System aus zwei elektrostatischen Spektrometern zur Energieanalyse sowie einem Detektor zum Zählen der transmittierten Elektronen. Wesentliche technologische Herausforderungen sind das hohe Vakuum (10 hoch minus 11 Millibar!) und die Temperaturstabilität der Quelle. Eine der Tritiumquellen ist "fensterlos", was eine gesonderte Technologie erfordert. Sie ist gewissermaßen das Arbeitspferd des Experiments, da sie erlaubt, das Tritiumspektrum mit der höchstmöglichen Energieauflösung zu untersuchen und somit eine maximale Luminosität für die Beta- Zerfallselektronen bereitstellt.

Der 200 Tonnen schwere, 24 Meter lange Vakuumtank mit einem Durchmesser von 10 Metern für das KATRIN-Hauptspektrometer wurde von der Firma MAN in Deggendorf hergestellt. Der Tank war zu groß, um über Autobahnen transportiert zu werden. Er wurde deshalb über die Donau, durch das Schwarze Meer, das Mittelmeer, den Atlantik, den Ärmelkanal, die Nordsee und über den Rhein nach Leopoldshafen bei Karlsruhe per Schiff und am 25. November 2006 auf den letzten 6,8 km per Tieflader in viereinhalb Stunden durch den Ort Leopoldshafen zum Forschungszentrum gebracht. Dieser Umweg betrug ca. 8.600 km gegenüber der kürzeren Route mit 350 km auf dem Landweg.

Die Energieanalyse der Elektronen aus dem Betazerfall erfolgt bei KATRIN in zwei Schritten: Zunächst werden in einem kleinen Spektrometer alle Elektronen mit Energien unterhalb 18,4 eV aussortiert, da sie keine Informationen über die Neutrinomasse tragen. Im großen Hauptspektrometer wird dann die Energie nahe am Endpunkt präzise bestimmt. Dafür ist das oben genannte Ultrahochvakuum erforderlich und die Stabilität der Gegenspannung von 18,6 kV darf nur um weniger als ein Millionstel schwanken. Die transmittierten Elektronen werden schließlich in einem segmentierten untergrundarmen  Siliziumzähler nachgewiesen.

Ein langer Weg zum Ziel

Da KATRIN bei KIT Campus Nord als Projekt geführt wird, kann man ihm das technische Ziel sowie den finanziellen Aufwand und die erforderliche Zeitdauer zuordnen. Als Ziel für KATRIN wurde immer wieder benannt, die Ruhemasse des elektronischen Neutrinos um mindestens eine Größenordnung genauer als die früheren Messungen, zum Beispiel in Mainz und Russland, zu bestimmen. Inwieweit das zu erreichen ist, wird die Zukunft zeigen.

Über den finanziellen Aufwand für KATRIN ist in der zugänglichen Literatur nichts zu erfahren.  Weder die F&E-Berichte noch die jährlichen Budgetansätze sind für Außenstehende (und Steuerzahler) eruierbar. Das war früher anders. In der Zentralbibliothek des Zentrums bzw. bei den Projektleitungen waren diese Zahlen einsehbar. Trotzdem: In dem sogenannten "letter of intent", der immerhin 51 Seiten umfasst und der aus dem Jahr 2001 stammt, werden die Gesamtkosten des Projekts KATRIN auf 17 Millionen Euro beziffert; darin nicht eingeschlossen sind die Gehälter der Mitarbeiter.

Bleiben die Zeitdauer des Projekts und seine wichtigsten Etappen. Im letter of intent wird im Kapitel "Outlook and Conclusion" in Aussicht gestellt, dass der Bau des KATRIN im Jahr 2005 beendet sein soll, die Inbetriebnahme sowie die ersten Versuchsmessungen sollten 2006 erledigt werden und mit der Aufnahme der "long term data" sollte noch zum Ende des gleichen Jahres begonnen werden. Aus neueren Informationen im Internet kann man entnehmen, dass der Bau der Anlage erst im Jahr 2016 vollendet sein wird und der Versuchsbetrieb erst im Jahr 2022. Das sind Verzögerungen von 11 Jahren und mehr, die sicherlich auch von erheblichen Mehrkosten begleitet worden sind.

Der Projektleiter der KATRIN, Professor Dr. Guido Drexlin, könnte im Jahr 2022 bereits in den ehrenvollen Stand des "Emeritus" getreten sein.
Trotzdem:
ad multos annos, professore!

Montag, 29. September 2014

bioliq - wann gibts endlich Benzin aus Stroh?

Nie würde ich die Mitteilungen des "KIT Dialog" in Frage stellen. Dieses Mitarbeitermagazin des Karlsruher Instituts für Technologie (KIT) beschreibt in regelmäßigen Abständen mit einem guten Dutzend Redakteuren, Autoren, Cartoonisten, Gestaltern, Illustratoren, Layoutern und Fotografen was so am Campus Nord und am Campus Süd des KIT alles geschieht - oder auch nicht. So habe ich mich auch auf die Information im KIT Dialog 1.2013 (Seite 36 ff) verlassen, wo es gleich zu Beginn eines dreiseitigen Artikels über das Projekt "bioliq" markig heißt: "Mitte 2014 soll im KIT aus Stroh Benzin entstehen".

Also machte ich mich mit meinem nicht mehr ganz brandneuen Mercedes auf den Weg ins ehemalige Kernforschungszentrum (Spitzname: Dschungel Nord), grapschte auf dem Weg von einem Getreidefeld noch ein Büschel Stroh - der Bauer möge mir verzeihen - und stand auch sehr bald vor der imposanten bioliq-Chemiefabrik. Leider konnte ich auch nach dreimaligen Umrunden keine Benzintankstelle  entdecken, was mein Vertrauen in die Ankündigungen des KIT dialog künftig beeinträchtigen könnte. Auch die beiden Chefs, der im Mitarbeitermagazin in selbstbewusster Pose abgelichtete Betriebsleiter Dr. Bernd Zimmerlin und der Projektleiter Dahmen (ZEIT-Artikel vom 7. August: "Nicolaus Dahmen macht Stroh zu Benzin") waren nicht aufzufinden.


Hält die Fäden zusammen: Dr. Bernd Zimmerlin ist für den Betrieb der bioliq-Anlage zuständig  (aus: KIT Dialog 1.2013)

Ein langer Weg

Mittlerweile stellten sich einige Kleinforscher ein, die sich aber durchaus als projektkundig herausstellten und damit das Fehlen der genannten Großforscher einigermaßen kompensieren konnten. So erfuhr ich, dass das Projekt bioliq schon seit mehr als einem Dutzend Jahren betrieben wird, aber bis jetzt noch keinen Synthesekraftstoff in nennenswerter Menge erzeugt hat. Das Verfahrensprinzip ist, wie so häufig, relativ einfach. Im ersten Verfahrensteil, der Pyrolyse-Anlage, wird das Stroh durch thermochemische Spaltung in ein dickflüssiges, schwerölähnliches Produkt umgewandelt, dessen Energiedichte etwa zehnmal so hoch ist, wie die des Ausgangsmaterials. Dieses Stoffgemisch wird in einem Flugstromvergaser bei 80 bar Druck mithilfe von Sauerstoff und Dampf zu Synthesegas weiterverarbeitet. Dessen Hauptbestandteile, Kohlenmonoxid und Wasserstoff, dienen als Bausteine für die Kraftstoffsynthese. Zuvor müssen noch in einem weiteren Prozessschritt durch Heißgasreinigung die Störpartikel und Spurengase bei 800 Grad Celsius abgebaut werden. 

Das im vergangenen Jahr ausgerufene Projektziel war, Mitte 2014 mit einer durchgehenden Prozesskette im Vollbetrieb "aus Stroh Benzin zu erzeugen". Dafür war ein Vierschicht-Betrieb inklusive Wochenende vorgesehen, wofür das Betriebsteam auf 45 Mann aufgestockt werden musste. Dieses Ziel wurde offensichtlich bis zum genannten Zeitpunkt nicht erreicht. Die Errichtung der bioliq-Anlage war nicht wirklich billig; bisher wurden 60 Millionen Euro in die Pilotanlage investiert.

Viele Wettbewerber, fragliche Rentabilität

Das bioliq-Verfahren hat viel Konkurrenz. Allein in Deutschland gibt es 20 Vorhaben zur Erzeugung einer neuen Generation von Biokraftstoffen. Anders als bei Bioethanol (E 10-Benzin!) sollen keine Nahrungs- oder Futtermittel, wie Mais, Raps, Weizen oder Zuckerrohr mehr verwendet werden, wodurch das bekannte "Tank oder Teller"-Problem vermieden würde. Die neue Generation an Verfahren begnügt sich mit Abfällen aus der Getreideernte oder der Waldbewirtschaftung. Im Prinzip führen zwei Wege zu Biobenzin: der thermochemische und der biologische. Bei der thermochemischen Methode werden Pflanzenabfälle zu Pflanzenöl umgewandelt und in einem Chemiereaktor zu Synthesegas. Aus den Komponenten Kohlenstoff, Sauerstoff und Wasserstoff lassen sich dann die neuen Kraftstoffe zusammensetzen. Bei der biologischen Methode lösen spezielle Mikroben aus der pflanzlichen Rohmasse den darin enthaltenen Zucker heraus. Durch Gärung wird der Zucker in Ethanol und Biobenzin umgewandelt.

Zurück zum Karlsruher bioliq-Verfahren. Für das dafür erforderliche Stroh gibt es bereits eine Reihe traditioneller Konkurrenten. So verbleibt ein Teil des Strohs auf dem Getreideacker und trägt zur Düngung und Humusbildung bei. Ein anderer Teil wird als Einstreu in den Viehställen verwendet und gelangt als Mist wieder auf die Äcker. Wie viel Stroh die Bauern aus diesen Kreisläufen für das Verfahren bioliq abzweigen können oder wollen, ist schwer abzuschätzen. Wegen der geringen Energiedichte des Strohs müssen die Energieverluste beim Einsammeln des Strohs durch LKW-Transporte möglichst minimiert werden. Man stellt sich vor, dass in jedem Landkreis ein bis zwei Pyrolysereaktoren stehen, in denen das Stroh dieser Gegend zu Pflanzenöl verkocht wird. So verdichtet soll sich der Transport dieses Vorprodukts zur weiter entfernt liegenden Bioraffinerie lohnen, die das Synthesegas erzeugt.

Ob die strategische Entscheidung des KIT, alle Schritte des bioliq-Verfahrens am Standort Karlsruhe durchzuführen, richtig war, wird die Zukunft erweisen. Die bisherigen Terminverzögerungen und Mehrkosten sprechen dagegen. Ein weniger risikoreicher Weg wäre gewesen, nach der Etablierung der Pyrolyse nach erfahrenen Partnern außerhalb des Forschungszentrum zu suchen. Erste Schritte in dieser Richtung waren die Vergasungsversuche in Freiberg, wo von 2003 bis 2005 vier erfolgreiche Kampagnen mit auswärtigen Partnern durchgeführt wurden. Der unnötige Ehrgeiz, die Vergasung am Standort Karlsruhe mit eigener Mannschaft und eigenen Ressourcen quasi zu wiederholen, haben viel Geld und Zeit gekostet und ist eine Strategie, die möglicherweise nicht zum Erfolg führen wird.

Sonntag, 24. August 2014

Blackout gefällig?

Im Zusammenspiel der Kraftwerke, Stromnetze und Verbraucher sind regionale oder auch weiträumige Stromausfälle nicht auszuschließen. In Deutschland waren Blackouts in der Vergangenheit relativ selten; jeden Bürger trafen sie etwa eine Viertelstunde pro Jahr. Das wird in der Zukunft nicht so bleiben. Wegen der Einspeisung der volatilen Sonnen- und Windenergie werden die Stromnetze zwangsläufig immer instabiler, und Zusammenbrüche des Stromnetzes werden nicht ausbleiben. Schon jetzt sind fast tausend mal so viele korrigierende Eingriffe der Leitstellen pro Jahr erforderlich, als es vor der Ausrufung der Energiewende  im Jahr 2011 der Fall war. Das ist vergleichbar mit dem Autoverkehr: wer den Sicherheitsabstand beim Autofahren permanent nicht einhält, für den erhöht sich unweigerlich das Risiko eines Auffahrunfalls.

Münsterland als Vorbote

Der letzte größere Blackout in Deutschland geschah am 28. November 2005 im Münsterland. Ein heftiger Schneefall brach über diese Gegend herein, der nasse Schnee klebte an den Stromleitungen und Masten, bis diese schließlich unter diesem Gewicht zusammenkrachten. In der Folge knickten weitere Masten unter der Schneelast, sodass ein großer Landstrich mit 250.000 Bewohnern ohne Strom war. Der Verkehr kam sofort zum Erliegen, aber auch die vielen Kühe dieser ländlichen Gegend konnten nicht zur gewohnten Zeit gemolken werden, was einen besonderen Stress für diese Tiere bedeutete. Das Technische Hilfswerk musste mit Notstromaggregaten ausrücken, um die Melkmaschinen in Gang zu setzen.

Wegen der umfangreichen Störungen im Verteilnetz, dauerte es über eine Woche, bis die Gegend wieder vollständig mit Strom versorgt werden konnte. Für Deutschland war ein so langer Stromausfall über lange Zeit eine Ausnahme. Der Schaden hielt sich jedoch in Grenzen, weil viel nachbarschaftliche Hilfe gewährt wurde und die umliegenden größeren Städte von diesem Blackout verschont blieben.

Planspiele der Bundesregierung

Der Münsteraner Blackout war für die Bundesregierung der Anlass, ein Expertengremium darüber beraten zu lassen, was so alles bei einem wirklich großräumigen Stromausfall passieren könnte.
Im Folgenden werden die Erkenntnisse dieser Fachleute stichpunktartig zusammengefasst:

- Die Festnetztelefone fallen sofort aus, die Mobiltelefone einige Tage später.
- Fernseher und Radio fallen sofort aus, sofern nicht batteriebetrieben.
- Alle Internetverbindungen sind gestört, weil die Router ausfallen.
- Der Schienenverkehr bricht sofort zusammen; Passagiere müssen aus Tunnels geborgen werden.
- Die Schranken der Tiefgaragen blockieren.
- Die Tankstellen fallen aus, da Pumpen nicht betriebsbereit.
- Alle Fahrstühle und Rolltreppen kommen abrupt zum Stillstand.
- Die gesamte Beleuchtung einschließlich der nächtlichen Straßenlaternen fällt aus.
- Alle Heizungen und Klimaanlagen fallen aus.
- Alle Industrie- und Handwerksbetriebe müssen die Arbeit einstellen.
- Das Trinkwasser fällt aus, weil die Pumpen ohne Strom sind.
- Die Abwasseranlage- und Toiletten funktionieren nicht mehr.
- Milchvieh, Schweine und Geflügel sind schon nach wenigen Stunden extrem gefährdet.
- Die Geschäfte müssen schließen, da Ladenkassen nicht funktionieren.
- Die Lebensmittelversorgung bricht mangels Nachschub zusammen.
- Die Bankfilialen bleiben geschlossen, da die Geldautomaten nicht funktionieren.
- In den Krankenhäusern kommen die OP- und Dialysestationen in große Schwierigkeiten.
- Die Polizei kann mangels Mobilität ihre Aufgaben nicht mehr erledigen.
- Die Kriminalität nimmt rasch zu.
- etc. etc. etc.

Die oben genannten Experten haben auch die volkswirtschaftlichen Kosten eines Blackouts berechnet. Sie kommen auf 10 Euro pro nicht gelieferter Kilowattstunde. Dazu ein Rechenbeispiel:
Nehmen wir an, im Spätherbst passiere in Deutschland flächendeckender Stromausfall. Zu dieser Jahreszeit würden etwa 70 Gigawatt, entsprechend 70 Millionen Kilowatt Leistung ausfallen. Dann gilt für 1Stunde Stromausfall folgende Rechnung: 70 Millionen kWh mal 10 Euro = 700 Millionen Euro. Für 10 Stunden wären wir bereits bei 7 Milliarden Euro angelangt; in einer knappen Woche bei 70 Milliarden Euro. Wahnsinnige volkswirtschaftliche Kosten!

Ursachen und deren Behebung

Sieht man von menschlichem Versagen ab, so können Blackouts vor allem als Folge eines Spannungskollapses passieren oder aus Netzüberlastung. Ersteres ist denkbar, wenn große Energiemengen über weite Entfernungen transportiert werden müssen. Dabei kann die Spannung auf unzulässig niedrige Werte fallen, sofern nicht ausreichend Blindleistung vorhanden ist. Das Absinken der Spannung lässt bei unverminderten Leistungsbedarf den Strom weiter ansteigen, was zu einer Spirale nach unten führt, falls nicht umgehend Verbraucher abgeschaltet werden. Die Überlastung kann eintreten, wenn beispielsweise im Norden Deutschlands viel Windstrom eingespeist wird, bei insgesamt niedrigem Verbrauch.

Nach einem Blackout - sofern keine Leitungsschäden vorhanden sind - gibt es meist noch Netzteile die unter Spannung stehen. An sie wird, Stück für Stück, das restliche Netz vorsichtig zugeschaltet. Sollte kein Netzabschnitt mehr unter Spannung stehen, so müssen Kraftwerke für eine schnelle Stromproduktion in Anspruch genommen werden. Häufig benutzt man "schwarzstartfähige" Kraftwerke, das sind Gasturbinen oder Wasserkraftwerke, die besondere Ausrüstungen dafür besitzen.

Bei der Restrukturierung eines Stromnetzes sind die regenerativen Erzeugungseinheiten, also Wind- und Sonnenstrom meist nicht hilfreich. Wegen ihrer volatilen Einspeisung liefern sie keinen kalkulierbaren Beitrag zum Netzaufbau. Das unkontrollierte Zuschalten von Erzeugungsleistung kann die Frequenz in einer instabilen Netzinsel erheblich beeinflussen. Wenn die dadurch verursachte Erhöhung der Frequenz die zulässigen Grenzen überschreitet, so resultieren daraus wieder unkontrollierbare Abschaltungen.

Und so weiter, und so fort.

Sonntag, 17. August 2014

Hie Freileitung, hie Kabel

Bei den Informationsveranstaltungen der Übertragungsnetzbetreiber (also Tennet, Amprion, 50hertz und EnBW) fühlt man sich oft zurück versetzt in die Stauferzeit um 1140 n. Chr. Mit dem Schlachtruf "hie Welf, hie Waibling" kämpften damals die Anhänger der fränkischen Welfen gegen die staufischen Waiblinger von König Konrad III. um die Vorherrschaft im deutschen Reich. In ähnlicher Weise stehen sich heute - im Zeichen der Energiewende - die Anhänger der elektrischen Freileitungen und der unterirdischen elektrischen Kabel gegenüber.

Die unübersehbaren Freileitungen

Was stört das zumeist ländliche Publikum dieser Veranstaltungen an den Freileitungen? Möglicherweise sind es die unübersehbaren Stahlgittermaste, an denen die Leiterseile aufgehängt sind - obschon sie sich an dem ähnlich strukturierten Eiffelturm ergötzen, der sich drei Mal so hoch in den Pariser Himmel schwingt. Die Stromkonzerne haben (insgeheim) einiges Geld investiert, um diese Masten ansehnlicher zu machen. Im Internet (unter Google "Strommasten Design") kann man  sechs, zum Teil skurril-ästhetische, neuere Mastformen bewundern, die aber allesamt zwei bis drei Mal so teuer sind wie der gute alte Eisenmast.

Manche Menschen fürchten sich vor der magnetischen Strahlung, die von den Freileitungen ausgeht. In der Tat entstehen beim Wechselstrom Magnetfelder. In Deutschland sind 100 Mikrotesla zulässig und zwar einen Meter über dem Boden direkt unter der Spannfeldmitte. In ca. hundert Meter Abstand ist dieses Feld auf 1 Mikrotesla oder weniger abgesunken und - nach Aussagen der darauf spezialisierten Mediziner - völlig unschädlich. (Auch beim Betrieb der überaus beliebten Mobiltelefone entstehen hochfrequente Magnetfelder, bei denen man auch keine schädlichen Wirkungen auf den Organismus nachweisen konnte).

Das Erdmagnetfeld, welches ein Gleichfeld ist, hat offensichtlich keine Auswirkungen auf den menschlichen Körper, denn sonst würde es uns gar nicht geben. Womit wir bei den vieldiskutierten Hochspannungs-Gleichstrom-Übertragung (HGÜ) wären. Diese Leitungen sollen vor allem die elektrische Windenergie vom Norden Deutschlands zu den südlichen Verbrauchszentren in Bayern und Baden-Württemberg bringen. Die Gleichstromübertragung ist verlustärmer, wodurch die Leitungen "schlanker" ausfallen und deshalb auch billiger sind. Sie besitzen allerdings auch unübersehbare Nachteile. So ist jeweils am Anfang und am Ende der mehrere hundert Kilometer langen Strecken eine große und teure Konverterstation erforderlich, die den ursprünglichen Wechselstrom in Gleichstrom wandelt und umgekehrt. Darüber hinaus kann man mit der HGÜ-Technologie keine Netze aufbauen. Anzapfungen der Transportleitungen sind unterwegs nicht möglich, denn der Gleichstrom lässt sich nicht transformieren. Die HGÜ-Technologie ist also (auf weit entfernte) Punkt-zu-Punkt-Übertragungen begrenzt.

Die unsichtbaren Kabel

Über die 20 Meter breiten (deutlich sichtbaren) Kabeltrassen, die oberirdisch nicht bebaut werden dürfen, wurde bereits im letzten Post berichtet. Die Kosten bei ihrer Verlegung sind ein Mehrfaches höher als bei den Freileitungen. Auch die Kabel strahlen Magnetfelder ab, die sogar noch etwas höher sind als bei den Freileitungen. Per Gesetz sind die Netzbetreiber gebunden, die wirtschaftlichste Form des Stromnetzes zu wählen - und das ist in der Regel die Freileitung. Tun sie das nicht, so droht ihnen die Nichtanerkennung der Mehrkosten durch die Regulierungsbehörde. Gleichzeitig gibt das Ausbaugesetz für die Energieleitung aber auch die Möglichkeit, den Betrieb von Höchstspannungskabeln im "Pilotverfahren" zu testen.

Weitaus höheren Aufwand verursachen die Kabel auch bei der Reparatur. Nach Erkenntnissen des Netzexperten Heinrich Gartmair sind mit Reparaturdauern von 1 bis 2 Wochen zu rechnen; bei einer Freileitung sind dies nur 1 bis 2 Tage. Das beginnt schon mit der Ortung des Leitungsschadens. Bei einer Freileitung sieht man die Fehlstelle meist schon mit dem bloßen Auge, wenn es sich um den Abriss eines Stromseiles handelt oder einen kaputten Strommast.  In diesem Fall braucht man nur eine Hebebühne, einen Autokran und eine Seilwinde und der Schaden ist meist noch am gleichen Tag behoben.

Im Falle einer Kabelleitung muss erst ein Bagger besorgt und ein Loch gegraben werden, dessen Größe davon abhängt, wie genau man den Fehler mittels Ortung von außen lokalisieren kann. Während der Reparaturphase wird eine Trasse von 40 Metern benötigt, um den Aushub zu lagern und um die Baustelle mit schweren Baufahrzeugen befahren zu können. In der Regel muss ein Stück Kabel ersetzt werden und mit zwei Muffen an die unbeschädigten Teile angebunden werden. Das klingt einfacher als es ist. Denn alle 700 bis 1000 Meter müssen die Kabel "gemufft" werden. Typischerweise hat ein Kabel einen Durchmesser von 24 Zentimetern und ein Gewicht von 40 Kilogramm pro Meter. Der Reparaturvorgang stellt extreme Anforderungen an die Reinheit; auch mikroskopische Verschmutzungen müssen vermieden werden.

Die lange Reparaturdauer birgt ein weiteres Problem. Wird das (üblicherweise verlegte) Reservekabel ebenfalls defekt, dann kann es zu in der Region zu einem mehrwöchigen Stromausfall kommen. Bei einer Freileitung gibt es keine derartigen Reinraumvorschriften und der unsichere Zustand beträgt, wie gesagt, nur 1 bis 2 Tage.

Ästhetik und Technik liegen bei der Verlegung von Stromleitungen also in einem kaum auflösbaren Clinch.

Sonntag, 3. August 2014

Zur Hierarchie des deutschen Stromnetzes

Die Energiewende führt zwangsweise zu einer Reihe von technischen und wirtschaftlichen Problemen, die nicht kurzfristig, sondern allenfalls im Zeitbereich von Jahrzehnten zu lösen sind. Vorrangig ist dabei das Manko der Stromtrassen, deren bisherige Struktur die Einspeisung von Sonnen- und Windstrom in grossen Mengen nicht ohne weiteres zulässt. Die Problematik der fehlenden leistungsstarken Nord-Süd-Trassen zur Anbindung der onshore- und offshore-Windparks an die Verbraucher in Süddeutschland ist allseits bekannt. Viel weniger bekannt ist, dass auch bei den hierarchisch weit darunter liegenden Verteilnetzen ein hoher Investitionsbedarf besteht, der in der Öffentlichkeit jedoch nur selten artikuliert wird.

Die Hierarchie der Stromleitungen

Unser Stromnetz ist in vier Ebenen gegliedert. An der Spitze befindet sich das Höchstspannungs- oder Übertragungsnetz, das mit 380 Kilovolt (kV), bzw. bei älteren Verbindungen mit 220 kV, betrieben wird. Es besteht aus Freileitungen mit Masten bis zu 90 Metern Höhe, welche die grossen Stromerzeuger, also die Atom-, Kohle- und Wasserkraftwerke anbinden. Dabei besitzt es eine Länge von ca. 36.000 km; derzeit fehlen etwa 4.500 km zur Einspeisung der grossen Windparks.

Unter dem Übertragungsnetz sind die Verteilnetze angesiedelt und zwar gestaffelt nach Hochspannung, Mittelspannung und Niederspannung. Das Hochspannungsnetz, mit ca. 75.000 km Länge, bedient über Freileitungen die Grosskunden (wie BASF) und die Umspannwerke. Das darunter liegende Mittelspannungsnetz mit ca. 500.000 km Länge - zumeist als Erdkabel - ist unter anderem für regionale Industriebetriebe und Krankenhäuser gedacht, die eine Spannung von 10 bis 20 kV nutzen. Das Niederspannungsnetz mit gut 1 Million km an Erdkabellänge bringt den Strom mit einer Spannung von 230/400 V zu den privaten Endverbrauchern.

Grundsätzlich fliesst der Strom "von oben nach unten", d. h. vom Höchstspannungsnetz zum Niederspannungsnetz. Man kann das deutsche Stromnetz vergleichen mit dem Strassennetz: das Höchstspannungsnetz entspricht den Autobahnen, das Hochspannungsnetz den Fernstrassen, das Mittelspannungsnetz den Durchgangsstrassen und das Niederspannungsnetz den vielen kleinen Strassen in den Wohngebieten.

Die Energiewende bringt neue Anforderungen

Derzeit sind in Deutschland ca. 25.000 Windkraftanlagen installiert mit einer maximalen Gesamtleistung von 25.000 Megawatt (spitze). Grosse Windparks benötigen also, wenn der Wind kräftig weht, ebenso hohe Anschlussleistungen wie grosse konventionelle Kraftwerke und werden deshalb an das Hochspannungsnetz oder gar an das Übertragungsnetz angebunden.

Im Gegensatz dazu sind die Paneele der Photovoltaikanlagen zumeist auf dem Land zu finden und daher weit verstreut in das Niederspannungsnetz eingebunden. Bei entsprechendem Sonnenschein werden hier zu Spitzenzeiten um die 30.000 Megawatt erzeugt. Dabei kann es zu einem besonderen Problem kommen: der Umkehr des Lastflusses. Wenn der Strom im Niederspannungsnetz (wegen Überfülle) nicht abgenommen werden kann, dann fliesst er von dort ins Mittelspannungsnetz oder gar Hochspannungsnetz und Übertragungsnetz. Das Niederspannungsnetz hat sich damit - unfreiwillig - zu einem Sammel- und Ausgleichsnetz entwickelt und im Gegensatz zu früher fliesst der Strom jetzt sowohl von oben nach unten als auch von unten nach oben. Die Netzführung muss sich auf diese zum Teil abrupten Wechsel einstellen. Das ist nicht einfach, wenn die Stromproduktion eines grossen Solarfeldes wegen vorbeiziehender Wolken immer wieder zwischen 100 Prozent und nahezu Null schwankt.

Hoher Investitionsbedarf, grosse Bauprobleme

Ein Netzausbau ist also auch bei den hierarchisch niedrigeren Netzen unabdingbar. Die Kosten für den Ausbau des gesamten Netzes werden von den zuständigen Stellen auf 28 Milliarden Euro abgeschätzt. Von diesen entfallen auf das Höchst- und Hochspannungsnetz 16, auf das Mittelspannungsnetz 8 und auf das Niederspannungsnetz 4 Milliarden Euro. Der Netzausbau kommt allerdings nur stockend voran. Von den 1.855 km Trassen, die laut Bundesregierung "sofort" gebaut werden müssten, wurde im Jahr 2012 kein einziger Kilometer realisiert, im nachfolgenden Jahr nur knapp hundert Kilometer.

Besonders schlecht bestellt ist es mit der Akzeptanz der Freileitungsmasten für die Überlandnetze. Immer wieder wird von der Öffentlichkeit die Forderung vorgebracht, diese - unsichtbar - als sogenannte Erdkabel im Boden zu verstauen. Aber das klingt einfacher, als es ist. Um ein Erdkabel zu verlegen, müssen die Netzbetreiber zunächst eine Arbeitstrasse von bis zu 40 Metern einrichten um Platz zu machen für die Bau- und Transportfahrzeuge. Die Kabelschächte sind dann zwar nur noch wenige Meter breit, aber nach Abschluss der Bauarbeiten dürfen über, und mehrere Meter neben den Schächten, nur schwachwurzelnde Pflanzen wachsen. Landwirte können diese Fläche also nur eingeschränkt bewirtschaften.
Zuweilen wird auch der Grundwasserspiegel durch die zwei Meter tiefen Schächte beeinträchtigt, ebenso wie durch die Wärme, welche die Kabel erzeugen. Darüber hinaus müssen die Netzbetreiber im Abstand von mehreren hundert Metern garagengrosse Gebäude errichten, die den Zugang zu den Verbindungsmuffen der Kabelabschnitte ermöglichen. Dazu kommen schliesslich noch die hohen Kosten: Erdkabel zu verlegen dauert etwa doppelt solang wie der Bau von Freileitungen. Die Gesamtkosten bei Erdkabeln übertreffen die der Freileitungen um den Faktor 3 bis 8.
Also: es gibt noch viel zu tun, packen wir´s an!

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de