Freitag, 23. Juni 2017

Brexit à la Carte?

Theresa May, die britische Premierministerin (PM), hatte von ihrem Vorgänger David Cameron eine passable Mehrheit von 17 Abgeordnetenstimmen im Londoner Unterhaus übernommen. Aber Theresa wollte mehr und sie deutete die politische Stimmung im Vereinigten Königreich (UK) so, dass für sie eine Mehrheit von 50 bis 100 Parlamentssitzen durchaus möglich sein müsste. Deshalb veranstaltete sie am 8. Juni eine sog. "snap election", eine vorgezogene Wahl, welche die britische Verfassung dem PM ohne besondere Angabe des Grundes (also anders als in Deutschland) jederzeit gestattet. Dabei erlitt Theresa eine klassische Bauchlandung. Sie verlor nicht nur ihre bisherige Unterhausmehrheit, sondern auch noch einige Stimmen dazu, so dass es zu einem sog "hung parliament" kam - einem Parlament ohne klare Mehrheitsverhältnisse für jede der darin vertretenen Parteien.

PM May war gezwungen sich einen Koalitionspartner zu suchen, was im Mehrheitssystem des UK (ebenfalls anders als in Deutschland) relativ selten vorkommt. Ihr Blick fiel auf die nordirische Kleinpartei "Democratic Union Party" (DUP), mit deren parlamentarischer Unterstützung sie die Mehrheit im Unterhaus numerisch gerade noch bewerkstelligen konnte. Aber die DUP ist eine sehr inhomogene Gruppierung, die bei den anstehenden Brexit-Abstimmungen vermutlich schwer zu handhaben sein wird. Dass die DUP strikt gegen Abtreibung und Homosexualität ist, mag gerade noch angehen, da diese Themen beim Brexit eher eine untergeordnete Rolle spielen. Aber, dass die DUP beim Handel mit Irland und der Europäischen Union (EU) am liebsten alles beim alten belassen möchte, ist schon ein beträchtliches Hindernis. Hinzu kommt, dass - anders als England - die DUP nichts gegen ausländische Zuwanderung hat, weil es in Nordirland an Arbeitskräften mangelt. Man wird sehen, ob diese volatile Partei die Premierministerin wirklich unterstützen kann.

Die Verhandlungsziele

Inzwischen haben die (Rest-) Europäer und die Briten ihre Chefunterhändler benannt. Für die EU ist es der 66-jährige Franzose Michel Barnier, oftmaliger Minister in französischen Kabinetten. Für das Vereinigte Königreich tritt der 69-jährige David Davis an, zur Zeit Minister für den Brexit im Kabinett May. Davis gab sich bis vor Kurzem noch sehr kämpferisch. Er will mit drei großen Forderungen in die Brexitverhandlungen gehen. Diese sind der weiterhin mögliche Zugang zum Binnenmarkt der EU, die nationale Kontrolle der Einwanderung und die Unabhängigkeit von der Rechtssprechung des Europäischen Gerichtshofs. Insgesamt strebt er einen "harten Brexit" an - whatever that is.

Sein Counterpart Barnier ist da etwas vorsichtiger. Für ihn (und die 27 verbleibenden EU-Staaten) stellt sich nicht in erster Linie die Frage nach einem harten oder weichen Brexit. Er will zuerst drei konkrete Probleme angehen: das künftige Grenzregime zwischen Nordirland und der zur EU gehörigen Republik Irland, die Rechte der 3,2 Millionen EU-Bürger, welche derzeit in Großbritannien leben und die bilanzielle "Austrittsrechnung" für die Briten, welche auf 50 bis 100 Milliarden Euro geschätzt wird. Da das Vereinigte Königreich künftig als Beitragszahler für die EU ausfällt, ist diese Einmalzahlung für den Kontinent sehr bedeutsam.

Einig ist man sich darüber, dass die Verhandlungen in eindreiviertel Jahren, also bis zum Frühjahr 2019 abgeschlossen sein sollen. "Jedem Anfang wohnt ein Zauber inne", heißt es in einem Gedicht von Hermann Hesse. Dies ist bei den Brexitverhandlungen eher nicht der Fall. Im Gegenteil: auf beiden Seiten herrscht beträchtliche Unsicherheit bis hin zur schieren Angst über einen vorzeitigen Kollaps der Gespräche.


Die EU geht auseinander

Modelle der Zusammenarbeit

Die 28 Staaten der EU arbeiten bereits seit vielen Jahren mit Ländern außerhalb der Union auf verschiedenen Gebieten zusammen. Großbritannien (GB) könnte den Verhandlungsprozess verkürzen, wenn es auf eines dieser Modelle zurückgreifen würde. Vor "Rosinenpickerei", also einseitiger Vorteilsnahme, hat die deutsche Kanzlerin allerdings bereits vor Monaten gewarnt.

1. Das Modell Norwegen:
Akzeptiert Großbritannien dieses Modell, so würde es sich, zusammen mit Island und Lichtenstein, im "Europäischen Wirtschaftsraum" (EWR) wiederfinden. Die Handelsregeln blieben weitgehend die gleichen - allerdings unter Ausschluss der Landwirtschaft, was die britischen Bauern am Wegfall der Agrarsubventionen spüren würden. GB hätte jedoch alle EU-Regeln zu akzeptieren, ohne diese in Zukunft beeinflussen zu können. Das Land müsste auch erhebliche Geldbeträge nach Brüssel überweisen und die EU-Gerichtsbarkeit als übergeordnet anerkennen. Hinzu käme die volle Freizügigkeit der Migration für Zu- und Abwanderung. Insbesondere letzteres wäre für die britischen Euroskeptiker sicherlich eine harte Nuss.

2. Das Modell Schweiz:
Dieses Modell kann man als eine Art "EWR minus" charakterisieren. Das Alpenland hat nur zu einigen Sektoren des EU-Binnenmarkts freien Zugang. Wie Norwegen muss es dafür zahlreiche EU-Regeln einhalten und erhebliche Geldsummen nach Brüssel überweisen. Der für London so wichtige Sektor der Bankdienstleistungen ist in diesem Modell nicht enthalten. Dafür wird von der Schweiz die volle Freizügigkeit der Menschen erwartet. Auch dieses Modell wird die Briten vermutlich nicht begeistern.

3. Das Modell Ukraine:
Die Zusammenarbeit der EU mit der Ukraine wurde im Januar 2016 beschlossen und könnte eine Basis für die Kooperation mit den Briten sein. Insbesondere deswegen, weil es die Bedingung zur freien personellen Migration nicht enthält. Es müsste allerdings auf verschiedenen Sektoren, zum Beispiel den Finanzdienstleistungen, "aufgebohrt" werden. Auch dafür müsste GB erhebliche Beiträge nach Brüssel überweisen.

4. Das Modell WTO:
Wenn sich die Parteien auf kein anderes Modell einigen können, dann könnte der zukünftige Handel nur noch nach den Regeln der Welthandelsorganisation WTO ablaufen. Der Zugang der Briten zum EU-Binnenmarkt wäre dann ähnlich beschränkt wie zum Beispiel der eines Landes wie Neuseeland. Vor allem für die englische Finanzbranche wäre dieses Modell eine Katastrophe.

5. Das Modell "No Deal":
Würde man sich auf gar keine Zusammenarbeit einigen können, dann gäbe es auch keinen "Deal". Das wäre der "GAU" für die Menschen außerhalb ihrer Heimatländer sowie für alle Wirtschaftsunternehmen auf der Insel. Bei entsprechendem Verantwortungsbewusstsein der beiden verhandelnden Seiten dürfte diese Situation nicht eintreten.

6. Das Modell "Abermaliges Referendum":
Nicht unwahrscheinlich ist, dass es abermals zu einem Referendum kommt, wenn die britischen Politiker (und die Bevölkerung) erkennen, dass der Brexit ein Eigentor war. In diesem Fall prognosziere ich eine satte 70:30 - Mehrheit für den Verbleib in der EU.


Englische Finessen

Geradezu anrührend ist - für Beobachter vom Kontinent aus - wie man in England an jahrhundertealten Gebräuchen geradezu eisern festhält, auch wenn man dadurch in extreme Zeitnot gerät. Ein Beispiel dafür ist die kürzliche Rede der Königin zur Beginn der jährlichen Sitzungen des Unterhauses, genannt "Queens Speech". Dabei liest die Königin eine Rede vom Blatt ab, welche ihr die Premierministerin vorher aufgeschrieben hat. Diese Woche kam Mrs. May aber in extreme Zeitnot, weil die 10-köpfige irische Minipartei DUP dem Text partout nicht zustimmen wollte. Dadurch verzögerte sich auch die Herstellung des Redemanuskripts, denn dieses musste traditionsgemäß von einem Kalligraphen auf Ziegenhaut geschrieben werden. Da der Trocknungsprozess dafür aber zwei volle Tage in Anspruch nimmt, konnte die Queen ihre Rede erst am vergangenen Mittwoch ablesen.

Mit manchen Passagen des Redetextes wird die Queen nicht einverstanden gewesen sein, so zum Beispiel beim beabsichtigten Austritt ihrer Briten aus der Europäischen Gemeinschaft. Da Her Majesty aber kein Komma ändern darf, hat sie ihre königliche Meinung wohl dadurch bekundet, dass sie sich für diesen Anlass in die blaue Farbe der Europafahne gekleidet hat. Diese symbolische Deklaration ist gerade noch statthaft und wird sicherlich keinem der 650 Abgeordneten des Unterhauses entgangen sein wird.


Ihre Majestät beim Vortrag der "Queens Speech" (am 21. Juni 2017)

Samstag, 13. Mai 2017

Die EnBW im Sinkflug

Die Aktie des Strom-und Gasversorgers Energie Baden-Württemberg AG (EnBW) ist kein Wertpapier mehr, das man Witwen und Waisen zur Anlage empfehlen kann. Innerhalb von zehn Jahren ist der Aktienkurs von 60 auf 20 in die Tiefe gerauscht und bei der kürzlichen Hauptversammlung blieb sogar die Dividendenzahlung aus. Das Unternehmen hatte im Berichtsjahr 2016 einen Rekordverlust von fast 2 Milliarden Euro erlitten, wodurch der Gesamtschuldenstand auf 10 Milliarden anstieg. Die Eigenkapitalsquote lag 2016 auf dem mickrigen Wert von 8,3 Prozent, was gegenüber dem Vorjahr einen Abschlag von 5 Prozentpunkte bedeutete. Wo soll unter diesen Umständen das Kapital für Neuinvestitionen herkommen? Kein Wunder, dass mit 800 Aktionären die Reihen im Karlsruher Kongresszentrum deutlich lückenhafter waren als in der Vergangenheit.


EnBW-Chef Frank Mastiaux;
erläutert seine Bilanzzahlen bei der Hauptversammlung 2017

Reaktoren und Rückbau

Es waren die fünf Kernkraftwerke in Obrigheim, Philippsburg und Neckarwestheim, welche der EnBW über Jahrzehnte hinweg 50 Prozent ihres Konzerngewinns bescherten. KWO (mit 360 Megawatt), KPP 1 (930 MW) und GKN I (840 MW) mussten im Gefolge der Energiewende stillgelegt werden und befinden sich seitdem im Rückbau. Damit verbunden war ein dramatischer Finanzeinbruch, der nur dadurch gebändigt werden konnte, weil EnBW dem Land Baden-Württemberg samt einigen Landkreisen zu ca. 95 Prozent gehört und von diesen finanziell unterstützt wurde. Die ganz großen Atomkraftwerke KPP 2 (1.450 MW) und GKN II (1.400 MW) müssen gesetzesgemäß 2019 bzw. 2022 abgeschaltet werden. Das wird nochmals einen riesigen Gewinneinbruch verursachen.

Nicht im Entferntesten wird der Ausfall dieser Kernkraftwerke kompensiert durch Windparks, von denen bislang onshore nur 270 MW und offshore nur 350 MW in Betrieb sind. Zehn Solarparks mit einer Gesamtleistung von 35 MW komplettieren den Bestand an EE-Kapazität.

Seit 2012 bemüht sich die EnBW, die Voraussetzungen zum Rückbau und zur Abfalllagerung der genannten fünf KKW zu erbringen. Dafür waren 4,7 Milliarden Euro in den Atomfonds der Bundesregierung einzuzahlen, welche (hoffentlich) in all den früheren Betriebsjahren bilanziell zurückgestellt worden sind. Im Vorjahr wurde damit begonnen, an den Standorten Philippsburg und Neckarwestheim sogenannte Reststoffbearbeitungszentren zu errichten. Darin sollen die leicht-und mittelaktiven Abfallstoffe vom nichtradioaktiven Abfall (ca. 90 Prozent) getrennt werden. Einige Castorbehälter beabsichtigt man auf dem Neckarfluss  von Obrigheim nach Neckarwestheim zu schiffen.


Kohlekraftwerke und Kolumbien

Zur Energieversorgung ist die EnBW derzeit noch auf konventionelle Kraftwerke angewiesen, die zu jeder Tages-und Nachtzeit zur Verfügung stehen. Das haben die kalten Wintermonate einmal mehr gezeigt. Doch gerade diese Anlagen sind kaum wirtschaftlich zu betreiben. Seit 2014 musste die EnBW deshalb für acht Kraftwerksblöcke die Stilllegung beantragen, welche aber allesamt von der Netzagentur als "systemrelevant" eingestuft wurden. Seit 2013 wurde das Erzeugungsportfolio bereits um 40 Prozent reduziert. (Zum Umstieg auf Gas ist derzeit das Gaskraftwerk Stuttgart-Gaisburg mit 210 MW im Gange). Trotzdem sind die Kohlekraftwerke immer noch der zentrale Baustein für die Versorgungssicherheit.

Der Großteil der Kohle kommt aus dem südamerikanischen Land Kolumbien. Deswegen gab es bei den vergangenen Aktionärstreffen immer wieder heftige Kritik; Umweltschutzorganisationen werfen den Förderkonzernen Drummond und Prodeco Umwelt-und Menschenrechtsverfehlungen vor. Aber offensichtlich haben sich die Verhältnisse in diesem vom Bürgerkrieg zerrütteten Land erkennbar verbessert. Mit einer Delegation vor Ort konnte sich die EnBW-Manager davon überzeugen, dass die kolumbianischen Kohleproduzenten nun deutliche Verbesserungen beim Arbeitsschutz und den Gewerkschaftsrechten eingeführt haben. Ein Stopp der Kohlelieferungen, wie manche es fordern, wären weder für die Mitarbeiter vor Ort, noch für das wirtschaftlich arme Land hilfreich. EnBW wird deshalb weiterhin Steinkohle aus dieser südamerikanischen Region beziehen.


Vertrieb und Vergütung

Der Stromverkauf - sprich: der Vertrieb von Kilowattstunden (kWh) - ist mittlerweile zu einem schwierigen Geschäft geworden. Die Gründe dafür sind zweifacher Natur:  zum einen ist der Stromverbrauch seit Jahren rückläufig; zum anderen gibt es nicht mehr (wie früher) nur wenige Stromproduzenten, sondern deren Zehntausende. All die Mini-Erzeuger von Wind- und Solarstrom dürfen nach den planwirtschaftliche Gesetzen der Energiewende nahezu risikolos in das Stromnetz einspeisen und drücken damit die Preise. Und die Großkunden, wie Daimler, DB etc, kaufen ihren Strom billig für 2 bis 3 Cent/kWh an der Börse in Leipzig. Die EnBW wird damit immer mehr in Nischen gedrängt, wie zur Telekommunikation, zu E-Tankstellen und zur Straßenbeleuchtung. Nicht mehr um die Versorgung großer  Umspannwerke geht es, sondern um einzelne Steckdosen in der Garage eines E-Mobil-Besitzers. Im Berichtsjahr 2016 hat sich die EnBW deshalb schweren Herzens entschlossen, den imageträchtigen Bereich des Großkundenvertriebs zur Gänze aufzugeben.

Ein weitreichender Schritt, den der frühere Vertriebsvorstand Dirk Mausbeck schon seit Jahren vorhergesehen hatte und mit einem Bündel von Effizienzmaßnahmen begegnen wollte. Aber Mastiaux ließ seinen Anstellungsvertrag Ende 2014 auslaufen und bestellte die Vodafone-Managerin Susan Hennersdorf als Generalbevollmächtigte für den Vertrieb. Aber auch diese, eine Branchenfremde, konnte das Ruder nicht herumreißen und gab Ende 2016 ziemlich frustriert auf. Nun sollen zwei hausinterne Vertriebler möglichst viele Kilowattstunden verkaufen. Es könnte noch schlimmer für die EnBW kommen, wenn US-amerikanische Internetfirmen sich in den Verkauf von Kilowattstunden einschalten würden. Denn bedenke: das Unternehmen Uber besitzt kein eigenes Taxi, hat aber das globale Mietwagengeschäft revolutioniert. Und Airbnb verfügt über kein einziges Zimmer und lehrt weltweit den Hoteliers das Fürchten. Demnächst eine IT-Firma (ohne Erzeugungsanlagen und Netze!), die Strom verhökert?...

Aufgrund der Einnahmeausfälle haben der CEO Frank Mastiaux und sein Finanzvorstand Thomas Kusterer inzwischen den Notanker geworfen. Wegen der finanziellen Schieflage des Konzerns sollen alle Mitarbeiter für die nächsten vier Jahre auf ihre Erfolgsbeteiligung verzichten. Bei den leitenden Angestellten wird die variable Vergütung entsprechend gekürzt.

Da fällt natürlich auf, dass die Aufsichtsrätin Gunda Röstel ihre Vergütung im Berichtsjahr 2016 - im Vergleich zum Vorjahr - von 57.000 auf 74.427 Euro erhöhen konnte. Ich frage deshalb den Vorsitzenden des Aufsichtsrats:

Welche sonderlichen Leistungen, Herr Lutz Feldmann, hat Gunda,die gelernte Sonderschulpädagogin und ehemalige Chefin der Grünen Partei  für die EnBW erbracht, dass die Erhöhung ihrer Jahresvergütung um satte 30 Prozent angemessen war?




Sonntag, 7. Mai 2017

KIT - publish or perish ?

Beim Karlsruher Institut für Technologie (KIT) köchelt es. Das Problem steht im Zusammenhang mit der Vergabe des sogenannten Leibniz-Preises an eine Institutschefin. Der Leibnizpreis ist ein Förderpreis der Deutschen Forschungsgemeinschaft (DFG), benannt nach dem Universalgelehrten Gottfried Wilhelm Leibniz (1646 - 1716). Das Preisgeld von bis zu 2,5 Millionen Euro darf sieben Jahre lang nach Vorstellungen der Preisträger und ohne bürokratischen Aufwand für eigene Forschungsarbeiten verwendet werden - im Gegensatz zum Nobelpreis, dessen Summe bei nur ca. 1 Million Euro liegt, die allerdings voll für private Zwecke zur Verfügung steht. Bislang wurde der Leibnizpreis - zum Teil geteilt - an 48 Wissenschaftlerinnen und 326 Wissenschaftler vergeben. Gefördert wurden damit 115 mal die Naturwissenschaften, 101 mal die Sozial-und Geisteswissenschaften und 53 mal die Ingenieurwissenschaften.

Diesmal sollte der Preis - zum 7. Mal - an eine Wissenschaftlerin des KIT gehen. Geehrt werden sollte damit die Materialwissenschaftlerin Frau Professor Dr. Britta Nestler, Direktorin am Institut für Angewandte Materialien - Computational Material Science (IAM-CMS). Die Verleihung des Preises stand für Mittwoch am 15. März um 15 Uhr an - aber wenige Stunden vorher sagten die Verantwortlichen des DFG die Preisvergabe an Frau Nestler ab. Begründet wurde dies mit "anonymen Hinweisen" in Bezug auf ihre Forschungsarbeiten, welche auf Umwegen zum DFG gelangt seien. Seitdem werden diese Vorwürfe vom einem Expertengremium geprüft. Das Ergebnis ist bislang (2. Mai 15 Uhr) offen.

Frau Professor Nestler hat Mathematik und Physik studiert und ist seit dem Jahr 2010 in der o. g. Position beim KIT tätig. Seitdem hat sie ca. hundert wissenschaftliche Arbeiten - also im Schnitt eine Publikation pro Monat -  vorwiegend auf dem Gebiet der computergestützten Materialmodellierung (meist zusammen mit Ko-Autoren) veröffentlicht. Der Präsident des KIT, Professor Holger Hanselka, bezeichnet sie auf der Website des KIT als "Top-Wissenschaftlerin in ihrem Fachgebiet". Im Internet kann man nachlesen, dass Frau Nestler diese beträchtliche wissenschaftliche Arbeit zusätzlich zu ihren Verpflichtungen als 44-jährige ledige Mutter von 4 Kindern schafft.

Die graue Vorzeit

Die "Causa Nestler" ist bisher nur aus den Medien bekannt und kann deshalb erst endgültig bewertet werden, wenn das Votum des Gutachtergremiums vorliegt. Dessen ungeachtet drängt sich dem aufmerksamen Beobachter heutzutage der Eindruck auf, dass der puren Anzahl von Veröffentlichungen manchmal ein zu großer Wert beigemessen wird. Das war früher, etwa in den 60er Jahren des vorigen Jahrhunderts, deutlich anders.

Es war die Zeit, als ich in München am kernphysikalischen Institut von Professor Heinz Maier-Leibnitz in Physik promovierte. Dort (und an der dazugehörigen Reaktorstation Garching) schrieben die Assistenten und akademischen Mitarbeiter eine bis (maximal) zwei Veröffentlichungen pro Jahr. Manchmal auch weniger, wenn der Aufbau einer komplexen Versuchsanlage länger dauerte. Und ML, wie wir unseren Chef Maier-Leibnitz kurz benannten, fand das ganz in Ordnung. Er legte aber Wert darauf, dass nur die wirklichen Bearbeiter eines Themas als Autoren genannt wurden; sogenannte "multi-people-papers" gab es nicht. Das hatte für mich die Konsequenz, dass ich meine Doktorarbeit unter meinem - und nur meinem - Namen veröffentlichen durfte. Daraus erwuchs mir kein Nachteil, denn kurz darauf bekam ich eine der damals begehrten Post-Doc-Stellen in den USA.

Viel bekannter wurde ein Kollege, der im Labor nebenan promovierte und mit dem ich mir die damals wertvollen Messgeräte, wie den Tectronix-Oszillografen, teilte: Rudolf Mößbauer. Er hatte von Maier-Leibnitz als Doktorthema die Messung der Kernresonanz-Fluoreszenz erhalten und entdeckte im Verlauf seiner Experimente die Resonanzabsorption an Iridium 191. Damit erschloss er den Naturwissenschaften ein völlig neues Gebiet, nämlich die sogenannte Mößbauer-Spektroskopie. Sie erlaubt es, kleinste Änderungen und Aufspaltungen der Gammastrahlen zu messen.  Mößbauer durfte seine Ergebnisse allein unter seinem Namen in einem (deutschen) Journal veröffentlichen. Im Jahr 1961 erhielt er dafür den Nobelpreis für Physik.

Dass Maier-Leibnitz bei dieser Ehrung leer ausging, machte viele in seinem Institut betroffen. Später wurde bekannt, dass das Nobelkommittee in Stockholm ML durchaus als weiteren Preisträger vorgesehen hatte. (Drei Preisträger sind nach den Statuten möglich). Aber Maier-Leibnitz verzichtete freiwillig auf den Nobelpreis, obwohl Professor Waller, ein Abgesandter aus Stockholm, ML am Rande einer Konferenz in Paris eindringlich zuredete. Mößbauer, ein besessener Forscher, mit zuweilen genialischen Zügen - aber auch leichten charakterlichen Defiziten - verlieh diesem Festkörpereffekt seinen Namen und wurde dadurch weltberühmt.

Sein  Altruismus wurde Maier-Leibnitz wenig gedankt. Beim 75. Geburtstag im April 1986 war Rudolf Mößbauer als Festredner in die Münchener Universität geladen. Der ehemalige Doktorand von Maier-Leibnitz nutzte fast die gesamte Redezeit um nur seinen eigenen Beitrag zur Nobelarbeit herauszustellen. Die Verdienste seines Doktorvaters bei der Betreuung unterdrückte er nahezu total.  Das geladene hochrangige Publikum war entsetzt.

Die rekordsüchtige  Gegenwart

Die stilistische Hyperbel "publish or perish" kommt aus dem amerikanischen Wissenschaftsbetrieb und ist an den dortigen Universitäten eine gängige Redewendung. Bei Vertragsverhandlungen mit den Hochschulpräsidenten um "Tenure-Track-Positionen", also um die begehrten Lebenszeit-Professuren, ist die schlichte Anzahl der eigenen Publikationen ein gewichtiges Argument. Auch in Deutschland hängt die Verlängerung der häufig befristeten Personalstellen nicht selten am (veröffentlichten) Forschungserfolg. Motto: "Wer schreibt, der bleibt".

Dagegen versucht die Deutsche Forschungsgemeinschaft als wichtiger Drittmittel-Sponsor anzukämpfen. In ihrer Empfehlung aus dem Jahr 1998 zur "Sicherung guter wissenschaftlicher Praxis" hat sie alle Forscher daran erinnert, dass "Originalität und Qualität den Vorrang vor Quantität" habe. Diesen Aufruf verknüpfte sie mit der Empfehlung, bei Projektanträgen nur noch maximal 5 Titel aus der Publikationsliste auszuwählen. Die Forscher-Community umging dieses Verlangen durch die Einführung der "Ehrenautorschaft". Damit waren jene Autoren gemeint, welche zur Bereitstellung der Fördermittel beigetragen haben, also in der Regel die Institutsleiter.

Auch die wissenschaftlichen Verlage fühlten sich durch die schiere Menge der eingehenden Manuskripte überrollt. Sie verlangten die sogenannte "Peer-Review" als Verfahren zur Qualitätssicherung. Unabhängige Gutachter aus dem gleichen oder benachbartem Fachgebiet sollen die zur Veröffentlichung eingereichten Papers auf ihren wissenschaftlichen Wert hin überprüfen. Doch auch dieses Verfahren birgt seine Probleme. So dauert es häufig Monate, ja Jahre, bis ein Fachartikel erscheinen kann. Und die "Peers" können durch abwertende Gutachten das Eindringen von Konkurrenten in ihre "Forschungsnische" verhindern.

Durch den "Impact-Faktor" versucht man bei veröffentlichten Arbeiten im Nachhinein die Qualität festzustellen. Dabei gibt dieser Faktor an, wie häufig im Durchschnitt ein veröffentlichter Artikel in einem anderen Artikel zitiert wird. Doch auch hier sind Manipulationen möglich. Etwa dadurch, dass manche Zeitschriften ihre Autoren dazu anhalten, die eigenen Publikationen bevorzugt in ihre Referenzen aufzunehmen.

Schließlich gibt es auch in der Wissenschaft das weite Feld von Fälschung und Betrug. Insbesondere bei Doktorarbeiten in den Geisteswissenschaften werden immer wieder Plagiate bekannt, ja sogar Arbeiten, die ausschließlich von "Ghostwritern" stammen. Selbst in den Naturwissenschaften gibt es Fälle von bewusster Manipulation durch "Schönung" von Ergebnissen über Weglassen abweichender Messwerte. In der angloamerikanischen Literatur verwendet man dafür das bezeichnende Wort "cooking".

Unübertroffen:  CERN

Ein "multi-people-paper", das den Weltrekord in Bezug auf die Anzahl der Autoren für sich beanspruchen kann, wurde vor ca. 2 Jahren beim Beschleunigerzentrum CERN in Genf verfasst. Im Rahmen eines Hochenergie-Teilchenversuchs beschlossen die beiden Experimentiergruppierungen ("Collaborationen")  ATLAS und CMS ihre Daten zusammen zu legen, wodurch die Masse des Higgs-Bosons auf +/- 0,25 % bestimmt werden konnte. Der Nobelpreis für die Vorhersage dieses Teilchens war bereits 2013 an den Namensgeber Peter Higgs und den Belgier Francois Englert gegangen.

Die Poolung der Messdaten von ATLAS und CMS war ein hochkomplexer Vorgang, denn jede der genannten Collaborationen bestand aus Dutzenden von Institutionen in vielen Ländern. Dementsprechend waren viele Wissenschaftler und Ingenieure an dem Gesamtunternehmen beteiligt. Bei der Veröffentlichung des gemeinsamen Papers in den Phys. Rev. Lett. 114 191803 (2015) beschloss man ein einzigartiges Verfahren:

Alle am Higgs-Experiment beteiligten Forscher - 5.154 Personen - wurden namentlich genannt. 

Die Publikation umfasste insgesamt 33 Seiten. Auf den ersten 9 Seiten wurden die Versuchsdaten und ihre Auswertung beschrieben. Danach folgte - auf 24 Seiten -  nur noch die Auflistung der verschiedenen internationalen Forschungsinstitutionen mit der alphabetischen und namentlichen Nennung sämtlicher beteiligter Wissenschaftler:

von Georges Aad bis Lukasz Zwalinski.



Der CERN- Beschleuniger LHC
mit den beiden Detektoren ATLAS und CMS


Eine Vorläuferpublikation zur Entdeckung des Higgsteilchens durch das ATLAS-Team wurde ebenfalls im Rahmen einer "hyperauthorship" beschrieben, wie die Amerikaner diese kollektiven Veröffentlichungen benennen. Damals, im Jahr 2012, waren 2.932 Forscher in der Zeitschrift Phys. Lett. B 716, 1-29 (2012) aufgelistet.

21 von ihnen waren während der langjährigen Versuchskampagne bereits verstorben.

Samstag, 29. April 2017

Die Inflation des Universums

Heutzutage weiß nahezu jeder Gymnasiast wie das Universum, also unser Weltall in dem wir leben, entstanden ist:  nämlich durch den Urknall. Aus einem winzigen Punkt heraus, der Singularität, sollen sich vor knapp 14 Milliarden Jahre (gemeinsam) Materie, Raum und Zeit entwickelt haben und durch Expansion unser Universum gestaltet haben.

Als Begründer der Urknall-Theorie gilt der belgische Theologe und Physiker Georges Lemaître. Im Jahr 1927 veröffentlichte er seine Ideen zur Expansion des Weltalls in einer wenig bekannten belgischen Fachzeitschrift - zwei Jahre früher als der weitaus berühmtere amerikanische Astronom Edwin Hubble, welcher auf der gleichen Spur war. Lemaître war aber bescheiden und versuchte sein Erstentdeckerecht nie durchzudrücken. Statt des Nobelpreises durfte er sich später mit dem päpstlichen Titel eines Prälaten schmücken.

Die Schwächen der Urknalltheorie

Aber das oben skizzierte einfache Urknallmodell konnte nicht ganz stimmen. Aus zumindest drei Gründen, wie die Kosmologen behaupten. Erstens: es müssten jede Menge "Monopole" im  Weltall umherschwirren. Das sind einpolige magnetische Elementarteilchen, die aber bislang noch niemand entdeckt hat. Stattdessen gibt es - in vergrössertem Maßstab - nur die bekannten zweipoligen Stab- oder Hufeisenmagnete, welche man beliebig oft unterteilen kann und die immer wieder sowohl einen Nord- als auch einen Südpol, also einen "Dipol" ausbilden, aber eben keinen Monopol.

Der zweite Grund ist ein geometrischer. Das heute sichtbare Universum weist keine "Raumkrümmung" auf. Stattdessen deuten alle Messungen darauf hin, dass das Weltall "flach" ist, wie (vergleichsweise) ein Stück Papier.

Und drittens: wenn man die Abstände der Sterne und Galaxien aufaddiert und die Fluchtgeschwindigkeit, wie Hubble sie gemessen hat, berücksichtigt, dann kommt man auf eine viel zu geringe Ausdehnung des Weltalls seit dem Urknall. Grob gesprochen, wäre das Universum heute nur eben mal so groß wie ein Fußball! Es könnte somit keine Sonnensysteme sowie Pflanzen, Tiere und Menschen behausen. Deshalb musste an dem simplen Urknallmodell von Lemaître etwas fundamental falsch sein.

Als rettende Hypothese:  die Inflation

Es war der 34-jährige MIT-Physikprofessor Alan H. Guth, der die Urknalltheorie vor dem Aus rettete, indem er sie durch seine Hypothese von der Inflation ergänzte. Dieser Begriff ist den allermeisten Menschen nur aus der Finanzwirtschaft bekannt und verheißt dort nichts Gutes. In der Astrophysik - und im Sinne des Amerikaners Guth - bedeutet er jedoch nicht Geldentwertung, sondern die kurzzeitige Aufblähung des Weltalls.

Als kosmologische Inflation wird eine Phase der extrem raschen Expansion des Weltalls bezeichnet, von der man annimmt, dass sie unmittelbar nach dem Urknall stattgefunden hat. In diesem Zeitbereich hat sich das Universum - innerhalb weniger als einer Millionstel Sekunde - um ca. 50 Zehnerpotenzen fast schon auf die heutige Größe aufgebläht. Nach Beendigung dieser Inflation setzte sich die Ausdehnung des Weltalls mit dem heute noch beobachtbaren Tempo fort. Die Annahme einer solchen inflationären Expansion erscheint einerseits willkürlich, löst aber andererseits all die oben genannten kosmologischen Probleme.

Wie es zu dieser gigantischen "Explosion" in der Frühphase des Weltalls kommen konnte, ist dem Laien schwer zu vermitteln, denn alle Erklärungen spielen sich auf der höchsten Ebene der mathematischen Physik ab. Die Astrophysiker sprechen von einer Zustandsänderung des skalaren Feldes; dieses sogenannte Inflatonfeld besitzt eine Zustandsgleichung mit negativem Druck, welche nach Einsteins Allgemeiner Relativitätstheorie zu einer abstoßenden Kraft führt. Verstanden? Einfacher gesprochen, kam es in dieser Vor-Inflationsphase beim sogenannten Vakuum zu einer Anhebung des Grundzustandes. Bei der gleich folgenden Absenkung dieser Anregung wurden riesige Energiemengen frei, welche das Weltall auseinander trieben.

Ich versuche es noch einfacher und grotesk simpel: unmittelbar nach dem Urknall wurde gewissermaßen ein "Akku" aufgeladen und im Bruchteil einer Sekunde wieder entladen, was zu der Ausdehnung des Weltalls führte. (Die kundigen Professoren des KIT, deren Hauptseminare in Astrophysik ich gelegentlich besuchen durfte, mögen mir diesen kruden Erklärungsversuch verzeihen). Bei diesem Inflationsübergang entstand auch das Higgs-Feld, welches allen Elementarteilchen ihre Masse (also ihr Gewicht) verlieh. Der Strukturwandel im damaligen Weltall geschah so schnell, dass in weniger als einer Billiardstel Sekunde ein Atomkern die Größe unserer Milchstraße erreichen konnte! Damit breche ich ab, möchte aber vorher noch  vermerken, dass sich die Expansion mit vielfacher Lichtgeschwindigkeit abgespielt haben muss, was in dieser speziellen Situation  möglich war und nicht gegen Einsteins Gebot von der konstanten Lichtgeschwindigkeit verstoßen hat.


Im Schnelldurchlauf: die Entwicklung des Universums

Im Laufe seiner fast 14 Milliarden Jahre andauernden Geschichte durchlief unser Universum etwa ein halbes Dutzend verschiedener Phasen mit krass unterschiedlicher Zeitdauer. Die Abbildung veranschaulicht illustrativ die wichtigsten Entwicklungsstadien des Universums, ist aber nicht maßstabsgetreu.


Entwicklungsstadien unseres Universums


Der Urknall bildete den Anfang. Es war die kürzeste Phase, wobei man über die genaue Zeitdauer wenig sagen kann, da zu jener Zeit die Gesetze der Physik noch keine Gültigkeit hatten.

Die Inflation, also die dramatische Aufblähung des frühen Universums, dauerte nur den Bruchteil von einer Milliardstel Sekunde. Genauere Angaben versage ich mir, da eine Zeitdauer von 10 hoch minus 32 Sekunden für die meisten Zeitgenossen wenig anschaulich ist.

Nach 1 Sekunde hatten sich alle Wasserstoffkerne (Protonen) und Neutronen gebildet. Die Astrophysiker haben hierfür den eingängigen Namen Primordiale Nukleonensynthese geprägt.

Nach drei Minuten war durch Fusion ein Großteil der Heliumatomkerne entstanden, sowie Spuren leichterer Kerne bis hin zum Lithium und Beryllium. 

Nach ca. 400.000 Jahren wurde das Universum durchsichtig, weil die Lichtteilchen (Photonen) nicht mehr von den überall umher schwirrenden Elektronen behindert wurden. Diese vereinigten sich mit den oben genannten Atomkernen zu den leichten Atomen, wie Wasserstoff, Helium etc.

Nach ca. 1 Milliarde Jahren bildeten sich im Weltraum die ersten Galaxien, Sterne und (vermutlich) Gasplaneten heraus. Danach kam es immer wieder zu Supernova-Explosionen, bei denen die restlichen Elemente bis zum Uran durch Fusion erzeugt wurden.

Nach ca. 9,2 Milliarden Jahren enstand unser Sonnensystem mit der Sonne als Zentralstern und dem Planet Erde als Gesteinsstern. Etwa 1 Milliarde Jahre später bildete sich bakterielles Leben.

Nach 13,8 Milliarden Jahren (Jetztzeit) besiedelt der Mensch - seit ca. 0,003 Milliarden Jahre - die Erde. Vor wenigen Jahren haben die Weltraumforscher nachgewiesen, dass sich (vermutlich wegen der Dunklen Energie) das Universum beschleunigt (und wahrscheinlich endlos) ausdehnt.

Nach ca. 1.000 Milliarden Jahren werden (spekulativ!)) alle Galaxien, Sterne und Planeten "verdunstet" , oder in einem riesigen "Schwarzen Loch" konzentriert sein. Fauna und Flora existieren nicht mehr.


Immer wieder wird von Laien die Frage gestellt: Was war vor dem Urknall?
Die Physiker haben darauf keine Antwort parat.
Ausgenommen Prälat Lemaître; er sagte (augenzwinkernd):
Vor dem Urknall hat der Teufel die Hölle geschaffen.

Sonntag, 23. April 2017

Wahlen á la Turk

Der türkische Staatspräsident Recep Tayyip Erdogan hat das Referendum zur Verfassungsänderung gewonnen. Es wird ihm, dem zukünftigen Präsidenten der türkischen Republik, weitreichende politische Gestaltungsmöglichkeiten einräumen. In dem neu gefassten Verfassungsartikel 104 steht, dass die gesamte Exekutivgewalt künftig beim Präsidenten angesiedelt ist, dass er die Gesetze des Landes verkündet, die nationale Sicherheitspolitik bestimmt und, dass er, statt 10 Jahre, künftig fast 15 Jahre lang regieren darf. Die Rolle der Legislative und der Judikative werden entsprechend eingeschränkt, das politische System "Checks and Balances" ist - anders als in den Präsidialsystemen der USA und Frankreichs - praktisch aufgehoben.

Aber der Staatschef und seine Partei, die AKP, konnte die de facto Abschaffung des bisherigen parlamentarischen Systems nur mit 51,4 Prozent der Stimmen durchsetzen. Die Legitimation der neuen türkischen Verfassung steht also auf einem äußerst schmalen Fundament. Insbesondere in Istanbul und Ankara, sowie in den Ferienorten um Antalya, war der Widerstand des Wahlvolkes gegen die neue Verfassung sehr groß. Hinzu kommen gravierende Vorwürfe zum rechtmäßigen Ablauf des Referendums. Bis zu 2,5 Millionen Stimmzettel sollen bei den zentralen Zählstellen eigegangen sein - ohne, dass sie den Stempel eines Wahllokals trugen. Nach geltendem türkischen Recht wären sie ungültig gewesen, aber die sogenannte "Hohe Wahlbehörde" Erdogans ließ sie durchgehen und stempelte sie nachtäglich!

Haben die Deutschtürken Erdogan gerettet?

Möglicherweise hätte Erdogan die Wahl gar nicht gewonnen, wenn nicht so viele Exiltürken (außerhalb der Türkei) für ihn gestimmt hätten. In Deutschland waren es satte 64 Prozent, noch übertroffen von Belgien (75), Österreich (73) und Niederlande (68). Gewissermaßen Erdogans Fünfte Kolonne. Aber nirgendwo in Deutschland haben so viele Türken für Erdogans Verfassungsreform votiert, wie in Essen. Die dortigen 76 Prozent lassen fast einen "Erdowahn" vermuten; jedenfalls war der Essener Bürgermeister Thomas Kufer (CDU), nach eigenem Bekunden, darüber "regelrecht geschockt". In seiner Stadt gibt es inzwischen eine perfekte türkische Infrastruktur, vom Frisör bis zum Supermarkt. Befördert wird dieses abgeschottete Leben noch durch die Allgegenwart türkischer Privatsender, die in türkischen Familien inzwischen einen Marktanteil von 90 Prozent erreichen. Kein Wunder, dass die Türken zu der am schlechtesten integrierten Migrantengruppe gehören.

Dass sich so viele türkisch-stämmige Wähler - die seit Jahrzehnten in Deutschland leben und zumeist auch in diesem Land geboren wurden - für ein autokratisches System in der Türkei aussprachen, ist schwer nachvollziehbar. Aber erfahrene Sozialarbeiter sagen schon seit langem: "Die deutsche Integrationspolitik ist tot; das liegt an den vielen Moscheevereinen, in denen die Imame des türkischen Staats die AKP-Ideologie predigen". Und auch an Erdogan selbst, der in seiner berüchtigten Kölner Rede im Jahr 2008 ungestraft verkünden durfte, dass "Assimilation ein Verbrechen gegen die Menschlichkeit ist". Dabei benutzte er auch das alte osmanische Sprichwort, wonach "ein Türke keinen anderen Freund haben kann, als wiederum einen Türken". Das Nahezu-Patt des Referendums beweist: Die Türkei ist tief gespalten.


Der umstrittene Doppelpass

Zu einer lautstarken Mediendiskussion hat inzwischen die Vergabe der deutschen Staatsbürgerschaft - neben der türkischen  - geführt. Die vor einem halben Jahrhundert (zumeist von der Automobilindustrie) angeworbenen anatolischen Türken kamen in der Regel aufgrund eines speziellen Gastarbeitervisums nach Deutschland. Als sich in den achziger Jahren abzeichnete, dass diese nicht mehr in ihre Heimat zurückkehren würden, erhielten einzelne zusätzlich die deutsche Staatsbürgerschaft - neben ihrer türkischen. Der in Deutschland geborenen Kindergeneration wurde dieser "Doppelpass" quasi vererbt.


Doppelpass gefällig?

Für diese Freizügigkeit setzten sich vorallem die SPD und die Grünen ein, während es in den Unionsparteien dagegen beträchtlichen Widerstand gab. Unter anderen deswegen ist 2010 der hessische Ministerpräsident Roland Koch (CDU) zurückgetreten und zur Industrie (Bilfinger & Berger) übergewechselt. Im Jahr 2014 versuchten die Konservativen das sogenannte "Optionsmodell" einzuführen, wonach sich in Deutschland geborene Gastarbeiterkinder zwischen dem 18. und 23. Lebensjahr für eine einzige Staatszugehörigkeit zu entscheiden hätten. Dieser Vorstoß wurde jedoch von Rot/Grün abgeblockt. Mittlerweile befinden sich ca. 600.000 Türken mit Doppelpass in Deutschland. Die genaue Zahl ist nicht bekannt, weil hierüber nur alle zehn Jahre ein Zensus erhoben wird.

Als Reaktion auf das Referendum in der Türkei sind inzwischen (laut Umfrage) zwei Drittel der Deutschen der Ansicht, dass die Vergabe des Doppelpasses eingestellt werden sollte. Dies hat Eingang gefunden in das Ende 2016 verabschiedete Wahlprogramm der CDU, wo die Rückkehr zur  Optionenpflicht gefordert wird. CDU-Vize Thomas Strobl sagte dazu: "Für mich ist schwer nachvollziehbar, wie eine türkische Mehrheit, die bei uns in Deutschland ein Leben in Freiheit und Demokratie genießt, für ein autoritäres Regime stimmen kann. Es ist falsch, die doppelte Staatsbürgerschaft über Generationen  hinweg zu vererben.". Und Bundesinnenminister Thomas de Maizière ergänzt: "Beim Doppelpass brauchen wir einen Generationenschnitt und die Wiedereinführung der Optionenpflicht. Am Ende einer Nachdenkfrist soll sich jeder in Deutschland lebende Türke für eine einzige Staatsbürgerschaft entscheiden".

Quo vadis, Turkiye?

Der Sieg Erdogans beim kürzlichen Referendum gleicht einem Pyrrhus-Sieg. Ab jetzt muss der Präsident liefern. Zum Beispiel erwartet man von ihm, dass er die Wirtschaft deutlich belebt, welche aufgrund der Rechtsunsicherheit in seinem Land arg an Schwung verloren hat. Vom Tourismus in Antalya und den übrigen Stränden ganz zu schweigen. Die Einführung der Todesstrafe, wie immer wieder von Erdogan immer wieder angedroht, wäre das sofortige Ende der Beziehungen zu Brüssel.

Aber die jetzige Situation bietet auch die Chance zum Neuanfang. Die Vollmitgliedschaft in der Europäischen Union sollte umgehend ad acta gelegt werden. Die seit 2005 andauernden Verhandlungen haben praktisch zu keinem Ergebnis geführt. Stattdessen sollte die EU der Türkei - offiziell - die "privilegierte Partnerschaft" anbieten, wie von der Bundekanzlerin bereits mehrfach vorgeschlagen. Im Kern wäre dies eine Art Zollunion, welche den wirtschaftlichen Austausch in beiden Regionen fördern würde, wozu auch die Visaerteilung gehört.

Und die Pseudo-Integration via Doppelpass sollte man beenden.

Samstag, 8. April 2017

Fahrverbot für Diesel?

In der Autostadt Stuttgart rumort es. Den Bewohnern der Landeshauptstadt "stinkt", dass sie allenthalben von unsauberer Luft umgeben sind. Am stärksten in die Kritik geraten sind die Auspuffgase der älteren Dieselfahrzeuge, insbesondere die sogenannten Stickstoffdioxid (NO2)-Emissionen. In den ersten zwei Monaten dieses Jahres gab es viele meteorologische Inversionslagen im Stuttgarter Talkessel, weshalb die behördlich festgelegten Grenzwerte für NO2 sehr oft "gerissen" wurden. So oft, dass sich der baden-württembergische Verkehrsminister Franz Untersteller (der Partei der Grünen angehörend) zu der Drohung veranlasst sah, dass er bei Fortbestehen dieser Situation die Stuttgarter Innenstadt demnächst für ältere Dieselfahrzeuge- ohne blaue Euro 6 Plakette - sperren werde. Nach derzeitigem Stand wären  von den 113.000 Dieselautos in Stuttgart nicht weniger als 93.000 von einem Fahrverbot betroffen! (Unterstellers Chef, der Ministerpräsident Winfried Kretschmann, denkt jedoch wegen der heftigen Reaktionen bereits über eine Rücknahme dieser Ankündigung nach.)




Fahrverbot in Stuttgart  


Neben dem Stickoxid stehen auch die Feinstaubemissionen der meist betagten Diesel-PKW am Pranger. Der Dieselruß und die Dieselpartikel sind schon lange ein Feindbild der Lungenärzte und der Beatmungsmediziner. Aber beim Staub gibt es noch viele andere Quellen, beispielsweise den Reifenabrieb aller Autotypen und insbesondere die Holzöfen der Bürger bis hin zu den "Komfort"- Kaminen. Von letzteren soll es in Stuttgart mehr als 20.000 Anlagen geben, welche die Romantikgefühle ihrer Besitzer beflügeln. Weil diese nicht so ohne weiteres zu sanktionieren sind, beschränken sich die Behörden beim Feinstaub vorläufig auf Fahrverbote für die Autobesitzer. Ist einfacher.


Das Stickstoffdioxid: ein altbekanntes Problem

Stickoxide gelangen aus Dieselfahrzeugen vor allem in Form von Stickstoffmonoxid (NO) in die Atmosphäre, wo sie mit Sauerstoff zum giftigen Stickstoffdioxid (NO2) reagieren. Dieses ätzende Reizgas kann Atemnot, Kopfweh und Herzbeschwerden auslösen. Bereits 1999 führte die Europäische Union (EU) dafür Grenzwerte ein, inklusive langer Übergangszeiten. 240 verkehrsnahe Messstellen wurden deshalb in Deutschland eingerichtet. Sie beweisen, dass die Dieselfahrzeuge mit 67 Prozent am gesamten NO2-Austoß beteiligt sind, die Benziner nur mit 4 Prozent. An den Hauptverkehrsstraßen, z. B. am Stuttgarter Neckartor, werden seit fast 20 Jahren die NO2-Grenzwerte drastisch überschritten. Geschehen ist dort seitdem nur wenig.

Inzwischen klagen die Bürger nicht nur verbal, sondern zunehmend vor den zuständigen Verwaltungsgerichten. Das Bayerische Verwaltungsgericht verlangte bis Ende des Jahres 2017 für München von den Behörden entsprechende Fahrverbote, falls andere Maßnahmen nicht wirken. Die Städte stehen vor einem Dilemma: auf der einen Seite gilt das Recht der Bürger auf saubere Luft, auf der anderen Seite gibt es die Ansprüche der modernen mobilen Gesellschaft mit Pendlern, Gewerbe und Besuchern. Die Hauptschuld an dieser Situation trägt jedoch die (hohe) Politik: sie hat die Brüsseler Richtlinien jahrelang praktisch negiert und nicht in entsprechende Gesetze umgewandelt. Gleichermaßen zu kritisieren sind die Autohersteller: sie haben ihre Dieselmotoren technisch nicht gesetzesgemäß ausgestattet. Inzwischen wird eine neue Norm, dargestellt durch die E 6-Plakette, propagiert, mit der jeder Dieselbetreiber sein Fahrzeug angeblich überall gesetzeskonform nutzen kann. Jedenfalls nach den Behauptungen des Verbands der Deutschen Automobilindustrie.

Das wird vom Automobilclub ADAC aber bereits bestritten. Seine Messungen (bei Straßenbetrieb!) beweisen, dass gut ein Drittel der Diesel-PKW, welche mit der bereits seit Jahren bestehenden E 5-Plakette ausgestattet sind, im realen Straßenverkehr besser sind als das schlechteste Drittel der zukünftigen E 6-Norm. Beispiel: der Volvo V 40 mit E 5-Plakette stieß bei ADAC-Messungen 12o Milligramm pro Kilometer aus, der Volvo S 60 mit E 6-Plakette dagegen satte 1167 mg/km! Letzterer dürfte also in Stuttgart das Neckartor durchfahren, der weitaus sauberere V 4o hingegen nicht. Die Experten des ADAC erwarten, dass erst mit der im Straßenverkehr überprüften E 6-Norm die Kunden hinreichend sicher sein können, dass sie ihr neues Fahrzeug überall benutzen dürfen. Diese Dieselkategorie wird jedoch in den meisten Fällen erst im Herbst bei den Händlern stehen.

Fazit: Bis dahin müssen die Dieselnutzer Fahrverbote oder City-Maut (wie in Köln) fürchten. Außerdem droht ihnen auf jedem Fall ein hoher Wertverlust ihres Fahrzeugs beim Wiederverkauf. Das Aussperren von knapp 13 Millionen Diesel-Autos in der City wirkt sich wie eine kalte Enteignung aus. Für die Automobilindustrie ist es gleichzeitig ein gigantisches Konjunkturprogramm.


Das Feinstaubproblem: dem Autofahrer zugeschoben

Eine andere Sau wird seit Jahren mit dem Feinstaubproblem (PM10) durchs Dorf getrieben. Feinste Staubteilchen mit einem Durchmesser bis zu 10 Mikrometer können bis in die Lungenbläschen vordringen. Dort lagern sie sich ab und rufen Entzündungen hervor, bzw. erhöhen das Risiko für einen Herzinfarkt. Noch in den 70er Jahren lagen in Deutschland ganze Regionen unter einer Smog-Wolke, wie heute noch Peking oder Schanghai in China. Hierzulande ist das Feinstaubproblem  inzwischen drastisch gesunken. Das liegt vor allem an den Partikelfiltern, die mit Einführung der E 4-Norm in die Dieselautos eingebaut sind.

Im Stuttgarter Talkessel jedoch, wo sich der Feinstaub bei Inversionswetterlagen sammelt, werden diese Grenzwerte weiterhin alljährlich überschritten. Die Stadtverwaltung setzt nun um, was die Landesregierung unter Ministerpräsident Winfried Kretschmann Anfang 2017 beschlossen hat: sie verhängt Fahrverbote für alle Diesel-PKW, welche die neueste Abgasnorm E 6 nicht erfüllen. Zehntausende Autofahrer müssen, nach Abschätzungen des ADAC ,vor den Toren der Stadt bleiben. Sogar all jene, die sich noch 2015 einen Neuwagen mit der Norm E 5 zugelegt haben.

Inzwischen ist wohl bekannt, dass Feinstaub nicht nur in KFZ-Motoren, sondern auch in Industrieanlagen, wie Kraftwerken, und vor allem in den kaum zur Gänze überprüfbaren Holzöfen vieler Bürger entstehen. Aber auch durch den Abrieb an Reifen und Bremsen der Autos, wie oben bereits erwähnt. Deshalb hat ein anderer Grüner, der Stuttgarter OB Fritz Kuhn, eine neue Variante der "Schwäbischen Kehrwoche" angekündigt: spezielle Kehrfahrzeuge durchfahren nun die Stuttgarter Innenstadt und kehren maschinell den dort abgelagerten Feinstaub (samt Dreck) auf. Offensichtlich mit Erfolg, denn der Stadtrat hat bereits eine Ausschreibung zur Beschaffung weiterer Kehrmaschinen veranlasst.


Das Ende des Diesels?

Die anhaltende Diskussion über die Zukunft des Dieselmotors sorgt bereits für sinkende Verkaufszahlen. Die Deutschen kaufen wieder mehr Autos mit Benzinmotoren. Im März sind die Neuzulassungen für Dieselneuwagen um fast 3 Prozent gegenüber dem Vorjahresmonat gefallen. Der Dieselanteil liegt damit nur noch bei 40 Prozent, früher waren es fast 50 %. Die Experten erwarten, dass die Verkaufszahlen für Diesel weiter zurück gehen werden, u. a. wegen der strengen Abgasvorschriften , welche die Fahrzeuge verteuern werden.

Das Problem mit den Millionen alter Dieselmodelle der Abgasnormen E 4 und E 5 wird jedoch bleiben. Ihre Besitzer werden happige Wertverluste erleiden, denn die eventuelle Nachrüstung mit Motoren der Klasse E 6 wäre viel zu teuer. Ein Abgesang auf den Dieselantrieb kommt jedoch noch zu früh: denn noch trägt der Dieselmotor wegen seiner Sparsamkeit viel zur Einhaltung der Grenzwerte beim Kohlendioxid bei.

Einigen Trost findet die verunsicherte Dieselgemeinde einstweilen bei der Bundeskanzlerin Angela Merkel. Beim saarländischen Wahlkampf in St. Wendel hat sie den Diesel wie folgt gelobt:
Wenn ihr ein Dieselauto kauft, dann kauft ihr ein Auto, das umweltfreundlich ist. Für den Klimaschutz ist das Dieselauto heute ein genauso gutes Auto, wie es gestern und vorgestern war"

Die Kanzlerin muss es wissen. Sie fährt Diesel - neben Benzinern.



Sonntag, 2. April 2017

Japan: der Löwe "Monju" wurde eingeschläfert

Es ist jetzt gut sechs Jahre her, dass das japanische Gebiet um Fukushima von einem Erdbeben mit nachfolgender Überschwemmung heimgesucht wurde. Vier Kernkraftwerke in dieser Gegend wurden zerstört, 46 weitere im ganzen Land aus Sicherheitsgründen abgeschaltet. Davon sind mittlerweile fünf wieder in Betrieb gesetzt worden, die allermeisten werden jedoch wohl auf Dauer stillgelegt bleiben. Zwischenzeitlich wird ein Großteil der benötigten Elektrizität mit (importierter) Kohle erzeugt. Die Kernkraftwerksfirmen Toshiba/Westinghouse bewegen sich - mangels Aufträge - an der Grenze zur Insolvenz.

Ein Kernkraftwerk hat die genannten Naturkatastrophen schadlos überstanden. Es ist der sogenannte Schnelle Brüter "Monju", der sich dadurch auszeichnet, dass er sein Uran im Reaktorkern viel effizienter ausnützt als die gängigen, Leichtwasserkernkraftwerke. Monju ist in der japanischen Religion und Mythologie ein (Neben-) Buddha, der stets auf einen Löwen reitend dargestellt wird. Auf diesen Reaqktortyp waren die Hoffnungen der Japaner gerichtet, welche praktisch keine Uranvorräte im eigenen Land besitzen. Dass die Regierung in Tokio nun vor kurzem beschlossen hat, auch den Monju dauerhaft abzuschalten, überraschte und bedeutet einen Schwenk in der japanischen nuklearen Reaktorstrategie. Die Gründe dafür sollen in diesem Blog dargelegt werden.

Ein außergewöhnlicher Standort

Die genannten Vorzüge des Schnellen Brüters werden u. a. dadurch erkauft, dass man als Kühlmittel nicht Wasserdampf, sondern flüssiges Natrium verwendet. Das Metall Natrium hat den Vorteil der niedrigen Neutronenabsorption, des höheren Siedepunkts und der besseren Wärmeleitung, reagiert aber leider sehr heftig mit Luft und Wasser, wie man es noch aus dem Chemieunterricht kennt. Das KKW Monju ist hinsichtlich seiner elektrischen Leistung von ca. 300 Megawatt vergleichbar mit seinem deutschen Pendant SNR 300 Kalkar. Als 1985 mit dem Bau des Monju begonnen wurde, war das Brüterkraftwerk in Kalkar allerdings bereits fertiggestellt. Angesichts dieser Terminsituation ist es nicht verwunderlich, dass beide Reaktoren in der technischen Auslegung ziemlich ähnlich sind. Dies gilt besonders für das natriumdurchflossene Primär- und Sekundärsystem.

Völlig verschieden ist die Standortgeografie beider Kraftwerke. Der SNR 300 liegt auf ebenem Gebiet direkt am Niederrhein, für den Monju haben die Japaner bewusst die nahezu unzugängliche Gegend um Tsuruga im Westen Japans und 300 Kilometer südlich von Tokio ausgesucht. Das eigentliche Kraftwerksgelände musste buchstäblich aus einem Gebirge herausgehauen werden. Um dorthin zu gelangen war der Bau einer speziellen Straße sowie zweier Tunnels erforderlich. Trotzdem konnten die Großkomponenten, wie der Reaktortank und die Natriumhauptpumpen, nur über das Meer antransportiert werden. Keine Kosten scheuend, bauten die Japaner dafür einen eigenen Hafen am Fuße des Kraftwerks. Trotz all dieser Schwierigkeiten verlief der Bau des Monju ziemlich zügig; im Jahr 1991 konnte man bereits probehalber mit der Inbetriebnahme beginnen. Das war zu jenem Zeitpunkt, als in Deutschland der fertig errichtete Schnellbrüter in Kalkar - aus politischen Gründen - gestoppt wurde.



Der Schnelle Brüter "Monju";
im Hintergrund das Gebirge, im Vordergrund ein Teil des Hafens.

Ein folgenreicher Störfall

Nach der rasanten Bauphase kam es bei der betrieblichen Erprobung des Monju zu einem jähen Halt. Am 8. Dezember 1995, einem Freitag Abend vor dem Wochenende, ertönte in der Schaltwarte des Kernkraftwerks ein Alarm, der eine Leckage in den sekundären Rohrleitungen - und damit den Austritt von 480 Grad heissem flüssigem Natrium - anzeigte. Ausgesandte Meldegänger berichteten von "weißem Rauch" in diesem Teil des Reaktorkühlkreislaufs. Das Kraftwerk wurde nach gut einer Stunde herunter gefahren und bei der genauen Besichtigung am nächsten Tag zeigte sich am Boden der betreffenden Rohrleitung eine Lache aus (inzwischen verfestigtem) Natrium, dessen Menge auf ca. 700 Kilogramm abgeschätzt wurde. Die Leckstelle befand sich in unmittelbarer Nähe eines Temperatursensors. Offensichtlich war dieses Instrument gebrochen und hatte so einen Spalt zum Austritt des flüssigen Natriums freigegeben.

In der Folge wurden der Betriebsmannschaft eine Reihe von Bedienungsfehler nachgewiesen, insbesondere die nicht rechtzeitige Abschaltung des Reaktors und die verzögerte Drainage der lecken Rohrleitung. Beim Thermoelement wurde ein Ermüdungsbruch festgestellt, hervorgerufen durch starke Schwingungen in der Umgebung. Die staatliche Reaktoraufsichtsbehörde in Tokio ordnete die sofortige Stilllegung der Kernkraftwerks an und eine umfangreiche technische Überprüfung. Zusätzlich wurde der Betreiber PNC veranlasst, den Betriebsdirektor und seinen Stellvertreter auszuwechseln. In dieser Phase geriet auch ein Hauptabteilungsleiter ins Visier, der - obwohl nachweisbar unschuldig - vom Dach eines Hochhauses in den Tod sprang. Offenbar war er in einen Loyalitätskonflikt mit seinem Arbeitgeber geraten und in dieser Situation mental überfordert.

Hektischer Stillstand

Der technische Schaden infolge dieser Natriumleckage war marginal; er wurde auf wenige Hunderttausend Euro abgeschätzt. Personen innerhalb der Betriebsmannschaft wurden dabei nicht verletzt. Trotzdem wurde das Genehmigungsverfahren nochmals vom Anfang bis zum Ende aufgerollt. Insbesondere der hypothetische Bethe-Tait-Unfall (eine Sonderkategorie des Kernschmelzens) spielte dabei eine große Rolle. Darüber hinaus erpresste die Standortgemeinde Tsuruga ungeniert die Regierung in Tokio zum Bau einiger Regionaltrassen und -tunnels. Sogar der Hochgeschwindigkeitszug Shinkansen musste zukünftig in dem Provinzkaff einen Stopp einlegen.

Als Dutzende von Anlageräumen umgeplant und mit feuerfestem Blech ausgestattet waren, um eventuell wieder austretendes Natrium zurück halten zu können, schien die Wiederinbetriebnahme des Monju in greifbarer Nähe zu sein. Doch dann, im Januar 2011, passierte die Katastrophe von Fukushima. Obschon - technisch gesehen - der Monju, wegen seiner total anderen Bauart, nicht davon betroffen zu sein schien, wurde das Thema "Verantwortung des Betreibers" nochmals verschärft aufgegriffen und diskutiert. Auf einmal misstraute die Aufsichtsbehörde in Tokio dem Betriebspersonal in Tsuruga und verlangte einen Wechsel des Betreibers. Ein neuer Betreiber (mit vertieften Kenntnissen im Betrieb von Natriumreaktoren) konnte jedoch nicht gefunden werden. Deshalb verfügte die japanische Regierung kurz vor Weihnachten 2016 die dauerhafte Abschaltung des Brüters Monju.


Ausgebrütet? - Noch nicht!

Das Abenteuer Monju hat Tokio (umgerechnet) 8 Milliarden Euro gekostet, den Rückbau noch nicht eingerechnet. Auch die Kosten des SNR 300 Kalkar waren nicht gering, lagen aber mit 2 Milliarden für den Steuerzahler weit darunter. Trotzdem will die japanische Regierung die Schnellbrüterforschung, und insbesondere den Brennstoffkreislauf, nicht aufgeben. Sie hat Verträge mit Frankreich unterzeichnet, um dort gemeinsam ein Kernkraftwerk vom Typ eines Schnellen Brüters zu bauen. Kostenpunkt ca. 3,7 Milliarden Euro!
Eine Renaissance der Brütertechnologie?
Wait and see.

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de