Sonntag, 10. Dezember 2017

Sind Bücher aus der Mode?

Vielleicht täusche ich mich: aber wenn man in dieser Adventszeit durch die Buchhandlungen schlendert, hat man den Eindruck, dass die Menschenschlangen an den Kassen (im Vergleich zu  früher) kürzer geworden sind. Und auch die jungen Mädchen, welche mit flinken Fingern die Bücher zu attraktiven Geschenken verpacken, haben jetzt weniger zu tun. Das Geschäft mit dem Buch brummt nicht mehr so wie ehedem. Über die Gründe dafür möchte ich in diesem Blog etwas spekulieren.


Weniger Buchhandlungen

Es ist eine statistische Tatsache, dass die gesamte Buchbranche - Händler und Verlage - seit Jahren bei einem Umsatz von 9 Milliarden Euro stagniert. Die Online-Versender, an allererster Stelle Amazon, vermögen noch leicht zuzulegen und machen damit wett, was der stationäre Buchhandel verliert. Der Börsenverein des Deutschen Buchhandels, als Ausrichter der Deutschen Buchmesse, hat kürzlich bekannt gegeben, dass er in den vergangenen zehn Jahren ein Drittel seiner einst 7.000 Buchhandlungen und Verlage als Mitglieder verloren hat. Tendenz: weiterhin fallend. Weltweit ist die Situation ähnlich. In den USA werden von einem Debüt-Roman noch nicht einmal 2.000 Exemplare verkauft - und das in einem Land mit 325 Millionen Einwohnern.



Bücher, Bücher, Bücher

In Deutschland sind die führenden Buchhandlungen Hugendubel, Thalia und Weltbild. Hugendubel hat sein Flaggschiff auf dem Münchener Marienplatz von einst 3.600 Quadratmeter auf ein Drittel reduziert. Früher hatte das Unternehmen 100.000 Bücher im Bestand, heute nur noch die Hälfte. Auch Thalia hat Platzangebot und Sortiment restrukturiert. Und Weltbild musste im Jahr 2014 sogar Insolvenz anmelden; die Firma ging auf neue Eigentümer über. In Karlsruhe wurde kürzlich die altrenommierte Universitätsbuchhandlung geschlossen und - höchst profitabel - in eine Bäckereifiliale der "Badischen Backstub´" mit angeschlossener Café-Lounge umgewandelt. Die baubedingte rückläufige Kundenfrequenz in der Innenstadt macht vor allem dem stationären Buchhandel zu schaffen. Nicht wenige Kleingeschäfte um die Ecke sehen im Buchhandel nur noch ein nostalgisches Geschäftsmodell und geben frustriert auf. 


Weniger Bestseller

Die deutschen Buchhändler sehen dem Weihnachtsgeschäft mit Sorge entgegen. Überragende Bestseller gibt es in diesem Jahr nicht, auch wenn die angelsächsischen Autoren Dan Brown und Ken Follet durchaus das Zeug haben, den Absatz etwas zu beleben. Aber bestenfalls gleichen sie den Wegfall der Harry-Potter-Bücher vom Vorjahr aus. Das Abebben der Potter-Konjunktur ist wohl mitverantwortlich dafür, dass der Umsatz bei den Jugendbüchern in den vergangenen Wochen so abgesackt ist.--- Ganz auf Null zurück gegangen ist der Verkauf der Enzyklopädien, z. B. des 20-bändigen Brockhaus, einst der Stolz jedes deutschen Studienrats. Hier haben das Internetlexikon Wikipedia und die Suchmaschinen von Google ganze Arbeit geleistet.

Der vor Jahren beschriebene E-Book-Boom ist zur Ruhe gekommen. Etwa 5 Prozent der Deutschen laden sich solche Bücher auf Ihr Lesegerät Tolino oder Kindle herunter. Von Wachstum ist nichts zu spüren, woran auch der nur geringe Preisunterschied von gedrucktem und elektronischem Buch verantwortlich sein könnte. Auf dem anderen Teilmarkt der Hörbücher ist der Anteil noch geringer als bei den elektronischen Büchern. Positiv wird sich in Zukunft wohl die zunehmende Verbreitung der Abspielgeräte auswirken. Mit dem neuen Smartphones hat inzwischen fast jeder ein solches Gerät in der Hosentasche.


Die Smartphone Generation

Apropos Smartphone: wenn man heute durch die Straßen geht, oder mit der der Bahn fährt, kann man dauernd Jugendliche beobachten - aber selten ohne Smartphone in der Hand. Wie manisch gucken sie  permanent auf dieses flache Ding, "checken" ihre Nachrichten oder tippen selbst Mails, SMS oder Chats ein. Am Strand ein Buch zu lesen - gar eine Tageszeitung - ist für diese Generation praktisch out.

Kein Wunder, dass die neueste internationale IGLU-Studie festgestellt hat, dass es mit der Lesefähigkeit der deutschen Schüler schlecht bestellt ist. Jeder vierte Jugendliche verlässt die Grundschule, ohne richtig lesen zu können, ganz zu schweigen von der Fähigkeit zur Interpretation und Analyse von Texten. Ein Buch von hundert oder gar zweihundert Seiten wird von diesen Heranwachsenden gar nicht mehr in die Hand genommen. Wenn das vormals so gelobte deutsche Bildungssystem es nicht mehr schafft, allen Kindern das Lesen beizubringen,  wie sollen diese Menschen als Erwachsene im verschärften internationalen Wettbewerb bestehen?

Dass die Sucht zum Smartphone noch vor wenigen Jahren deutlich weniger ausgeprägt war und sich erst in letzter Zeit geradezu exponentiell entwickelt hat, zeigt sich an einer PR-Aktion, welche der bekannte Schweizer Verlag "Diogenes" noch vor fünf Jahren ungestraft veranstalten durfte. Die Verlagsmanager hatten sich vor Weihnachten eine Werbekampagne mit Karten, Postern und Tüten ausgedacht, in der sie mit einfachen Sätzen den Zeitgeist und das Lesen kommentierten. Ein Beispiel: "Während Sie dieses Buch lesen, finden Sie keine Freunde bei Facebook". Der Markt hat - damals - noch durchaus positiv und mit Amusement auf diese "Warnung" reagiert.


Einige Buchempfehlungen 

Trotz aller oben geäußerten Bedenken, ist ein gutes (und schön verpacktes) Buch als Mitbringsel immer noch das Geschenk der Wahl. Es wird allenfalls überboten von einer Flasche Champagner, die in etwa gleich viel kostet. Diese bleibt allerdings nur selten unentkorkt, während das Buch schon mal ungelesen weiter verschenkt wird.

Da wir vor dem Weihnachtsfest stehen, möchte ich es wagen, drei Bücher zu empfehlen, wovon ich die beiden ersten (keine Neuerscheinungen!) wirklich - und mit großem Genuss - gelesen habe. Da ist zunächst der 640-Seiten-Roman "Unterleuten" von Juli Zeh. (btb-Verlag, als TB 12 Euro). Es ist ein Gesellschaftsroman, der das Dorf Unterleuten im heutigen Brandenburg beschreibt. Dort gibt es (nach der Wende) viele Originale, welche anfangs gut zusammenleben, aber schließlich in heftige Streitereien geraten. Auch die Idylle kann zur Hölle werden. Fantastisch - wirklich unglaublich fantastisch -  ist der Schluss dieses Romans. Er schlägt jeden Thriller, obwohl das Buch nicht zum Genre der Krimis gehört.

Der zweite Roman, den ich empfehlen möchte, zählt nicht zur großen Literatur, aber er ist sehr spannend. Man kann ihn auf der Couch lesen und zwischendurch Glühwein und Weihnachtsplätzchen genießen. Es ist ein Thriller vom englischen Starautor Robert Harris und führt den Titel "Konklave". (Heyne-Verlag, 350 Seiten, als TB 10 Euro). Er beschreibt die Wahl eines Papstes im Vatikan, nach dem Tod des gegenwärtigen Papstes, in dem man unschwer Franziskus erkennen kann. Aus aller Herren Länder reisen die 117 Kardinäle an und begeben sich zum Konklave in die Sixtinische Kapelle. Es beginnt ein Machtpoker, bei dem viele anfängliche Favoriten scheitern und bei dem schließlich ein nahezu unbekannter Kardinal zum neuen Papst gewählt wird. Spannende Lektüre!

Auch ich lasse mir zu Weihnachten ein Buch schenken: den Tyll von Daniel Kehlmann. (Rowohlt, 474 Seiten, 23 Euro). Es ist die alte Geschichte vom Eulenspiegel", aber in neuer Aufmachung und zeitversetzt in den Dreißigjährigen Krieg (1618 - 1648). Tyll reist darin als Vagant, Schausteller und Provokateur durch die vom Krieg verwüsteten deutschen Lande und begegnet dabei allerlei Jongleuren, Henkern und Fürsten, also vielen sogenannten kleinen und großen Leuten. Ihre Schicksale verbinden sich in dem Roman zu einem Zeitgewebe und damit zum Epos dieser deutschen Urkatastrophe im beginnenden Mittelalter.
Warum mich das interessiert? Nun, im nächsten Jahr jährt sich der Beginn dieses Kriegs zum 400. Mal und ich möchte darüber bloggen.

Sonntag, 3. Dezember 2017

Zocken verboten

Geld anlegen, bis hin zu wetten, spekulieren, ja zocken, scheint ein menschliches Bedürfnis zu sein. Wie sonst könnte man sich die Existenz der vielen Toto- und Lottostellen, bis hin zu den riesigen Casinostädten wie Las Vegas erklären. Im privaten Bereich findet die Wettleidenschaft meist ein natürliches Ende, wenn die eigenen finanziellen Ressourcen erschöpft sind. Und fast immer stellt man fest, dass die Gesetze der Wahrscheinlichkeit den Wettanbieter favorisieren. Ganz anders ist die Situation, wenn man die Möglichkeit hat mit fremden Geld zu spekulieren, beispielsweise mit Mitteln aus dem  staatlichen Bereich. Da kann man mutiger sein und höhere Einsätze riskieren. Das Ende ist aber auch hier das Gleiche: fast immer endet die Zockerei mit einem hohen Verlust.

Dies musste auch die vormalige Pforzheimer Oberbürgermeisterin Christel Augenstein und ihre Stadtkämmerin leidvoll erfahren. Vor gut zehn Jahren, als die Börsenkurse nach dem Platzen der sogenannten Internetblase wieder anstiegen, versuchten die beiden Damen, die Finanzen der Goldstadt Pforzheim durch spekulative Geschäfte aufzubessern. Dabei "geholfen" haben die beiden einst renommierten Geldinstitute Deutsche Bank und J. P. Morgan. Sie dienten ihre (hochriskanten) Finanzprodukte, wie Derivate, Swaps, Futures und Optionen an, welche große Gewinne in die Stadtkassen schleusen sollten. Das Gegenteil war der Fall. Am Ende stand ein Verlust von 57 Millionen Euro, wofür die beiden Beamtinnen kürzlich (in erster Instanz) zu Gefängnisstrafen mit Bewährung verurteilt wurden. Einen Teil ihrer Pensionen werden sie sicherlich los sein. Die Mannheimer Wirtschaftsstrafkammer bewertete das Finanzmanagement der beiden nämlich als "verbotene Spekulation", auch wenn keine persönliche Bereicherung stattgefunden hatte.

Ich warne davor, über die beiden verurteilten Amtsträgerinnen voreilig den Stab zu brechen. Was man beim Agieren mit Großbanken alles erleben kann, darüber habe ich eine eigene Geschichte zu erzählen.



Viel Geld

Es war anfangs der neunziger Jahre, als ich beim ehemaligen Kernforschungszentrum Karlsruhe zum Finanzchef für die nukleare Stilllegung ernannt wurde. Diesem eigenständigen Geschäftsbereich oblag die Aufgabe, die vier Kernkraftwerke KNK II, MZFR, KKN und HDR sowie die Wiederaufarbeitungsanlage WAK bis zur Grünen Wiese rückzubauen. Meine Aufgabe bestand im Wesentlichen darin, das erforderliche Geld heranzuschaffen, für die ordentliche Verwendung zu sorgen und mit den Investoren zum Jahresende abzurechnen.

Das Geld für den Abriss der Kernkraftwerke kam i. W. von Bund und Land und war jährlich anzufordern. Für die Wiederaufarbeitungsanlage WAK leistete die Chemische Industrie eine einmalige Zahlung von 1.000 Millionen D-Mark, womit die vorherige 20-jährige betriebliche Nutzung abgegolten war. Unter Abzug der Anlaufkosten ergab sich eine restliche Summe von ca. 800 Millionen DM - der sogenannte WAK-Fonds - über den ich zu wachen hatte. Diese Summe legte ich in etwa zu gleichen Teilen bei den damaligen vier Großbanken an, nämlich der Deutschen Bank, der Dresdner Bank, der Commerzbank und der Baden-Württembergischen Bank. Nach den Bestimmungen des öffentlichen Dienstes hatte dies mündelsicher zu geschehen, also durch den Kauf von Bundesanleihen und Pfandbriefen.


Allerlei Verlockungen

Meine konservative Anlegerpolitik gefiel den genannten Großbanken nicht, denn außer über Kauf- und Depotgebühren verdienten sie an der beträchtlichen Summe von 800 Millionen DM praktisch nichts. So war es kein Wunder, dass sie mich immer wieder zu Gesprächen einluden, um mir "rentablere Anlageschemen" vorzuschlagen. Zumal die Börsenkurse damals im Steigen waren und die Renditen der Festverzinslichen eher stagnierten.

Häufig vorgebracht wurde der Vorschlag zur Auflegung eines "Spezialfonds" für die WAK-Gelder. Alle großen Banken hatten seit Jahren Spezialfonds zur Vermögensverwaltung von Großkunden eingerichtet. Dies waren beispielsweise Stiftungen, Kirchen, Pensionskassen oder Versicherungen. So hatte die Deutsche Bank 1995 nicht weniger als 32 Spezialfonds etabliert, welche 3,2 Milliarden an Kundengeldern verwalteten. Dies waren im Mittel hundert Millionen DM pro Fonds, d. h. die 800 Millionen WAK-Gelder hätten für das Auflegen eines Spezialfonds dicke ausgereicht. Im Endeffekt konnten wir uns nicht zur Einbringung der WAK-Gelder in einen Spezialfonds entschließen. Meine eigene, zugegebenermaßen etwas simple Meinung zur Vermögensverwaltung durch Fremde hatte ich von meinem Vater, einem erfolgreichen Unternehmer, übernommen. Er pflegte zu sagen: "Willy, ein intelligenter Mensch gibt sein Geld nicht aus der Hand".


Explodierende Aktienkurse

Mitte der neunziger Jahre setzte ein Börsen-Boom ein, bei dem die Aktienkurse konstant in die Höhe gingen. Besonders zu beobachten war das bei Kleinunternehmen (sogenannten "start-ups") aus dem Internet, der Biochemie und dem Bankgewerbe. Sie wurden anfangs von risikobereiten privaten Kapitalgebern finanziert, aber bald von den Großbanken "unter die Fittiche genommen" und zu Aktiengesellschaften umgewandelt. Die Deutsche Börse richtete ein eigenes Börsensegment, den "Neuen Markt" (NEMAX) ein, der noch mehr in die Höhe schoss, als der konkurrierende und relativ konservative DAX 30. (Heute ist der Nemax längst eingedampft).



Der DAX 30 im historischen Verlauf von 1985 bis heute

Die Volkswirtschaftler verkauften der staunenden und gutgläubigen Käuferwelt flugs eine neue Theorie: die "New Economy". Derzufolge waren Gewinn und Umsatz dieser Minifirmen nachrangig. Es genügte, dass sie auf einem Gebiet arbeiteten, das "sexy" war und, dass sie viele Mitarbeiter hatten, die in flachen Hierarchien angesiedelt waren und sich allesamt, bis hinauf zum Chef, duzten. Beispielhaft dafür waren die Firmen Pixelpark, Intershop und Consors. Sie besaßen einen Börsenwert von, sage und schreibe, 30 Milliarden Mark, womit sie den Volkswagenkonzern mühelos übertrafen. Dabei machte VW damals einen Jahresumsatz von 147 Milliarden Mark, die drei Zwerge noch nicht einmal eine halbe. Und VW gehörten weltweit viele Dutzend Fabriken und Immobilien, während das Vermögen der drei Kleinfirmen aus ca. 2.000 PC bestand, vergleichbar mit einem Call-Center.

Zwischen den Jahren 1999 und 2000 explodierten die Börsenkurse der Internetfirmen geradezu. Die BILD-Zeitung berichtete fast täglich über neue deutsche Jungmilliardäre und viele Menschen  -bislang dem Börsenhandel fern - plünderten ihre Sparbücher, um damit Internetaktien zu kaufen. Sogar Stammtische wandelten sich spontan in Aktienvereine um und statt "contra" und "re" hieß es jetzt "kaufen" bzw. "halten". Der Aktienhandel war zum Volkssport geworden. In dieser Goldgräberstimmung verscherbelte Siemens clever die gewinnarme Halbleiterfertigung Infineon und Telekom brachte eine weitere Tranche ihrer "Volksaktien" unter die Leute, was viele Unbedarfte um viel Geld brachte.


Der Crash

Am 13. März 2000 war die Party zu Ende.
Als die Internetfirmen in ihren Bilanzen nur Verluste meldeten, wollten plötzlich alle verkaufen und die Kurse krachten nach unten. Der Kurs der Pixelpark-Aktie, der nach der Ausgabe 1999 innerhalb eines Monats von 5 auf 60 DM gestiegen war und dann innerhalb weniger Monate bis auf 338 DM, fiel wieder auf 5 DM zurück. Aus vielen, vorher heißbegehrten Aktien, waren "penny-stocks" geworden, deren Wert sich jetzt im Pfennigbereich bewegte. Die Internetfirmen mussten den Großteil ihre Personals entlassen. Und die Mitarbeiter, die "Pixels", richteten zum Verdruss ihres Chefs Paulus Neef, aber zur Freude der Gewerkschaften, sogar einen Betriebsrat ein.

Die Deutsche Börse beschloss, ihr vorher hochgeschätztes Technologiesegment NEMAX aufzulösen. Viele Menschen hatten viel Geld verloren und waren zum Teil sehr arm geworden. Auch der Wert des DAX fiel von 8.000 im Jahr 2000 auf 2.400 im Jahr 2003. Den ursprünglichen Wert von 8.000 erreichte er erst vier Jahre später - und da befanden wir uns bereits (ohne es zu ahnen) in der nächsten Krise, der amerikanischen Immobilienkrise. --- Ohne signifikante Beschädigung kamen nur die genannten drei deutschen Großbanken aus dieser Malaise. Sie hatten rechtzeitig "Kasse gemacht" und außerdem fette Provisionen bei den Börsengängen der Internetfirmen bezogen. Dass sie dabei sehr fahrlässig bei der Bewertung dieser Jungfirmen waren, wurde von der Börsenaufsicht leider nicht bemängelt und schon gar nicht sanktioniert.


Nachschrift

Es gelang mir (auch durch Unterstützung des Vorstands H.-H. H) den WAK-Fonds mit seinen 800 Millionen DM Inhalt von diesem turbulenten Börsengeschehen fernzuhalten. Er vermehrte sich nur spartanisch - aber mündelsicher - über die marginalen Zinserträge der Staatsanleihen und Pfandbriefe.

Nicht selten wurde ich damals ob meiner "Naivität" belächelt.
Indes, meine (kärgliche) Pension
wurde nach dem Eintritt in den Ruhestand, nicht reduziert.


Mittwoch, 22. November 2017

Kahlschlag bei Siemens?

Vor gut sechs Jahren wurde die sogenannte Energiewende - praktisch im Alleingang - von der Bundeskanzlerin Angela Merkel eingeläutet. Im Kern war es ein Programm zur radikalen sofortigen bzw. kurzfristigen Stilllegung von 17 deutschen Kernkraftwerken und ihren Ersatz durch dezentrale Stromversorgungseinheiten, insbesondere gespeist durch Sonne und Wind. Dieser Schwenk sollte u. a. zur Schaffung neuer Arbeitsplätze beitragen. Originalton Merkel bei der Einweihung eines Labors der Firma Bosch: "Wir werden wunderbare Dinge erleben". 

Diese trat im Bereich der Sonnenenergie rasch ein, allerdings anders als erwartet. Durch die überhöhten Einspeisevergütungen wurden die chinesischen Kollektorhersteller auf den deutschen Markt gelockt, welche mit ihren Niedrigpreisen die heimischen Modulproduzenten bald in die Insolvenz trieben. Beispielhaft seien die einstigen deutschen Börsenstars genannt: Solarworld, Q-Cells, Centrotherm, Solon und Solar Millenium.

Auf dem Gebiet der Windenergie sammelte die Firma Prokon etwa 1,45 Milliarden Euro Fremdkapital zum Bau von Windrädern ein und musste 2014 Insolvenz anmelden. Die vielen Anleger waren an dem Projekt über sog. Genussrechte beteiligt und gingen fast durchweg leer aus.

Der nächste Schlag traf die Energieversorgungsunternehmen, also die Stromfirmen. Insbesondere wegen der gesetzlich erzwungenen Vorzugseinspeisung von Strom aus Erneuerbaren Energien, sank bei RWE im Jahr 2014 sowohl der Umsatz als auch der Gewinn drastisch. Der Konkurrent EON sah sich veranlasst, den Konzern in zwei Teile aufzuteilen, musste aber trotzdem einen Verlust von 3,1 Milliarden Euro hinnehmen. Die EnBW finanzierte ihre Mini-Dividende von 69 Cent pro Aktie aus der Substanz zu Lasten eigentlich notwendiger Investitionen.

Nun, im Jahr 2017, ist die Energiewende auch bei der Elektrofirma SIEMENS angekommen. Umfangreiche Personalentlassungen und die Stilllegung ganzer Standorte wurden kürzlich vom Vorstand angekündigt; ihre Ursachen und Auswirkungen sollen in diesem Blog beschrieben werden.


Massive Strukturprobleme

Die Firma Siemens wurde am 1. Oktober 1847, also vor ziemlich genau 170 Jahren, von dem Ingenieuroffizier Werner Siemens und seinem Feinmechanikermeister Johann Georg Halske als die Telegrafen Bau-Anstalt Siemens & Halske in Berlin gegründet. Heute, nach vielen Umwandlungen, ist Siemens ein riesiger Technologiekonzern mit 380.000 Mitarbeitern weltweit und einem Jahresumsatz von ca. 80 Milliarden Euro. Seit August 2013 wird das Unternehmen von dem Betriebswirt Joe Kaeser (60) geführt, der dort zuvor sieben Jahre lang als Finanzvorstand tätig war. Die Hauptgeschäftsfelder des Mischkonzerns Siemens sind derzeit Energietechnik, Medizintechnik, Mobilität und Gebäudemanagement.

Als Nachfolger von Peter Löscher und (den in eine Korruptionsaffäre verstrickten) Heinrich von Pierer brachte Kaeser das Unternehmen anfangs durchaus voran. Aber seit einem halben Jahr scheint dem Siemenschef die Fortune verlassen zu haben. Insbesondere im wichtigsten Geschäftsfeld Energie gehen die Umsätze drastisch zurück. Die Bestellungen für große Gasturbinen, früher ein gutes Geschäft, sind stark eingebrochen. Statt 200 dieser Großkomponenten werden nur noch 130 gebraucht, um die sich Siemens mit General Electric und Mitsubishi herumbalgt. Noch schlimmer, nämlich um 70 Prozent, ist der Markt für Dampfturbinen eingeknickt. Kleinere dezentrale Anlagen werden jetzt nachgefragt, um die Schwankungen bei Wind- und Sonnenstrom auszugleichen. Große Einheiten sind Auslaufmodelle und stehen auf Halde. Immer deutlicher wird, dass Siemens den Weltmarkt nach der Energiewende falsch eingeschätzt, ja verschlafen,  hat.



                           Turbine von Siemens, derzeit wenig gefragt (Wiki)

Hinzu kommen noch teure Ankäufe von Beteiligungen zur falschen Zeit. So wurde die amerikanischen Firma Dressler-Rand (ein Ausrüster für Öl- und Gasanlagen) Mitte 2014, kurz vor dem Absacken der Ölpreise zum Hochpreis von fast 8 Milliarden Euro erworben. --- Auch das Geschäft mit Windrädern, das die Energiewende nutzen sollte, läuft nur schleppend. Der Ankauf der spanischen Windkraftfirma Gamesa war kein Erfolg, denn seit April d. J. reduzierte sich ihr Börsenwert um mehr als die Hälfte. Schuld daran sollen operative Verluste und kulturelle Grabenkämpfe zwischen deutschen und spanischen Ingenieuren sein.



Der Katalog der Grausamkeiten

Vor einer guten Woche hat der Siemensvorstand den Stecker gezogen. Angekündigt wurde der Abbau von Personalstellen samt Werksschließungen. Weltweit sollen nahezu 7.000 Beschäftigte freigesetzt werden, davon ca. 4.000 in Deutschland. Diese Maßnahmen werden sich über die kommenden zwei bis drei Jahre erstrecken. Am stärksten ist das Geschäftsfeld Öl und Gas (Power and Gas) und das Geschäft mit Großkraftwerken tangiert; dort sollen 6.200 Arbeitsplätze bedroht sein. Schlimm trifft es die ostdeutschen Werke, weil Görlitz (720 Mitarbeiter) und Leipzig (200) in Gänze geschlossen werden sollen. Auch das traditionsreiche Berliner Dynamowerk mit 570 Beschäftigten wird den Betrieb aufgeben müssen. Für den Generatorenstandort Erfurt wird ein Käufer gesucht. Nach Möglichkeit sollen die Entlassungen sozialverträglich abgewickelt werden; betriebsbedingte Kündigungen werden aber nicht ausgeschlossen.

Die Proteste der Siemens-Mitarbeiter in den Medien und auf der Straße sind seit Tagen vernehmbar.  Auch der gescheiterte SPD-Kanzlerkandidat Martin Schulz hat sich in die Kontroverse eingeklinkt und den Stellenabbau bei Siemens (am Rande seiner Koalitionsgespräche beim Bundespräsidenten Frank Steinmeier) als volkswirtschaftlich irrsinnig und verantwortungslos scharf kritisiert. Darauf reagierte Joe Kaeser mit einem "Offenen Brief". Er wies darauf hin, dass Siemens allein in den vergangenen fünf Jahren 20 Milliarden Euro an Steuern und Abgaben an den deutschen Staat überwiesen habe. Wegen der Energiewende, die in "Ausführung und Timing" höchst unglücklich war, habe der Konzern reagieren müssen, denn in Deutschland gäbe es kaum mehr Nachfrage nach Gas- und Kohlekraftwerken. Der Siemens-Vorstand habe die Pflicht, absehbare Strukturprobleme rechtzeitig und proaktiv anzugehen.


Die neue Konzern-Strategie von Joe Kaeser 

Eigentlich erscheint Siemens als eine kerngesunde Firma. Im Geschäftsjahr 2016 haben 380.000 Beschäftigte, davon 115.000 in Deutschland, einen Umsatz von 83 Milliarden Euro und einen Gewinn von 9,5 Milliarden Euro erwirtschaftet. Wie konnte es vor diesem Hintergrund zu den oben beschriebenen Unruhen in dem Unternehmen kommen, angesichts der Aufkündigung von "nur" 7.000 Arbeitsplätzen in den kommenden Jahren? Nun, dahinter verbirgt sich eine weitreichende Änderung der Unternehmensstrategie, welche kurz beschrieben werden soll.

Unter Kaesers Vorgängern, nämlich Heinrich von Pierer, Klaus Kleinfeld und Peter Löscher wurde Siemens als klassischer Mischkonzern (engl. Konglomerat) geführt. Die verschieden hohen Gewinne der einzelnen Geschäftsbereiche (Divisionen) wurden am Jahresende gewissermaßen zusammengeworfen und daraus ein Gesamtgewinn ermittelt. Gewinnschwache Divisionen wurden hinsichtlich der erforderlichen Investitionen über etliche Jahre alimentiert, sprich quersubventioniert und so mitgeschleppt. (So wie das auch im städtischen Haushalt zuweilen  noch üblich ist, wo der Strombereich häufig die Straßenbahnen finanziell unterstützt.)

Dieses altruistische Management wird heute nicht mehr gerne gesehen. Es sind insbesondere die Fondsmanager und Börsenanalysten, welche die Konzernchefs vor sich hertreiben. Joe Kaeser hat daraus die Konsequenz gezogen, indem er - metaphorisch gesprochen - Siemens nicht mehr wie einen großen, trägen Tanker führt, sondern wie eine Anzahl von kleinen, aber wendigen Schnellbooten. Jede Siemens-Sparte hat die Pflicht so gut zu sein, wie der stärkste Wettbewerber weltweit. 11 bis 13 Prozent Rendite vom Umsatz sind die Zielmarke. Das war im vergangenen Jahr bei den Divisionen Medizin und Mobilität der Fall, aber eben nicht bei den Turbinen und Generatoren. In der Konsequenz streicht Kaeser deren Arbeitsplätze, bis Fabrikation und Nachfrage wieder im Lot sind.

Für die Mitarbeiter bei Siemens ergibt sich daraus die ungewohnte Situation, dass ihre Arbeitsplätze plötzlich unsicher werden, wenn sich das politische Umfeld verändert, wie bei der Energiewende. Für die deutschen Spitzenpolitiker hat dies die Konsequenz, dass ihre Entscheidungen im Bundestag eine schnelle und sichtbare Folge auf dem Beschäftigungsmarkt haben können.

Sonntag, 5. November 2017

Martin Luther: der erste Medienstar

Heute, vor genau 500 Jahren, am 31. Oktober 1517, soll Martin Luther, als 31-jähriger Augustinermönch in schwarzer Kutte, seine 95 Thesen an die Tür der Schlosskirche zu Wittenberg genagelt haben. Mit dieser Schlüsselszene der deutschen Geschichte hat die sogenannte Reformation begonnen. Diese Lehrsätze waren aber nur einem Fachpublikum verständlich, denn Luther hatte sie noch in der damaligen Gelehrtensprache Latein verfasst. Schon deshalb konnte die "Disputatio pro declaratione virtutis indulgentiarum" kein öffentlicher Aufreger sein. Der kam erst einige Monate später, aber dann mit gewaltiger Wucht.


Die Verwendung der deutschen Sprache

Im März 1518 schrieb Luther seine etwas langatmigen lateinischen Thesen um, und zwar verkürzt und in deutscher Sprache. Das war eine Sensation, denn bis dato waren fast alle Druckwerke auf Latein erschienen. Im "Sermon von Ablass und Gnade" reduzierte er die sperrigen Thesen auf 20 knappe Absätze. Klipp und klar sagte er darin: "Du sollst vor allem deinen nächsten Armen geben, statt unnütze Ablassbriefe zu kaufen, mit deren Erlös der Papst nur die Peterskirche in Rom finanziert".

Prediger und öffentliche Vorleser verbreiteten den Leseunkundigen Luthers Ideen von der Kanzel herab oder auf dem Marktplatz. Menschentrauben bildeten sich, wo immer der Sermon in deutscher Sprache verkündet wurde. Die leicht verständlichen Formulierungen wurden zum Fanal. Luther erschloss mit ihnen eine neue gesellschaftliche Sphäre: die Öffentlichkeit. Er demokratisierte damit das Wissen um die Religion.


Die Nutzung des Buchdrucks

Für die Verbreitung des "Sermon" nutzte Luther erstmals in großem Umfang den Buchdruck, welcher Mitte des 15. Jahrhunderts von dem Mainzer Kaufmannssohn Johannes Gutenberg erfunden worden war. Diese Revolution zur maschinellen Herstellung von Büchern verbreitete sich anfangs erstaunlicherweise nur schleppend. Dafür gab es zwei Gründe. Zum einen war das Buch damals immer noch Luxusgut, das nur von Fürsten und Bischöfen für ihre repräsentativen Bibliotheken aufgekauft werden konnte. Zum anderen wurden damals fast alle Bücher in Latein verfasst, was die breite Bevölkerung als Käuferschicht ausschloss. Die typische Auflage eines Buchs lag zu jener Zeit bei 200 Exemplaren.

Luther war der erste "Schriftsteller", der die Möglichkeiten des neuen Mediums Buchdruck zu nutzen verstand. Er perfektionierte das Format, reduzierte den Preis und steigerte die Auflage. Von den 45 Werken, die er in den Jahren 1518 und 1519 veröffentlichte, hatte die Hälfte gerade mal acht oder weniger Seiten Umfang. Nach heutigem Verständnis würden wir von "Flyer" sprechen. Sie waren schnell hergestellt und konnten billig unter die Leute gebracht werden. Kaum fassbar, dass in den beiden genannte Jahren 250.000 bis 300.000 Exemplare verkauft wurden.


Die Illustration der Texte

"Ein Bild sagt mehr als tausend Worte", dieser Spruch galt schon im Mittelalter. Wie sonst wäre die aufwendige Ausmalung der Kirchen zu begreifen. Luther hatte besonderes Glück, weil der Hofmaler von Friedrich III, dem Kurfürsten von Sachsen, Gefallen an ihm gefunden hatte. Es war der berühmte Lucas Cranach der Ältere, neben Albrecht Dürer der bedeutendste deutsche Renaisssancekünstler. Fast alle Luther-Portraits, wohl um die 300 (!), entstammen exklusiv den Cranach-Werkstätten, wo auch noch seine Söhne Hans und Lukas Cranach der Jüngere mithalfen. Luther wusste um die Wirkung dieser Bilder. Er signierte und verschickte diese Portraits, wie es heute Popstars und Politiker mit ihren Fotographien tun. Der Name Wittenberg kommt bald hinzu, gewissermaßen als Qualitätssiegel und Herkunftsnachweis.

Luthers Flugschriften gibt Lukas Cranach ein unverwechselbares Erscheinungsbild: ein dekorativer Rahmen und ein aufwendig gestalteter Holzschnitt auf dem Titelblatt. Der Holzschnitt bietet einen entscheidenden produktionstechnischen Vorteil: Die Illustration lässt sich zusammen mit dem Text in einer Druckform umsetzen. So können Bild und Text - anders als beim Kupferstich -in einem einzigen Arbeitsgang gedruckt werden. Der Name des Autors, (früher nie prominent auf dem Titel), wird immer stärker hervorgehoben, ebenso wie der Name der Stadt Wittenberg. Zwischen den Jahren 1520 und 1526 erscheinen etwa 11.000 Flugschriften mit einer geschätzten Gesamtauflage von elf Millionen Exemplare. Honorare kassierte Luther für seine Erzeugnisse übrigens niemals; er wollte sich nicht dem Vorwurf aussetzen, dass er seine Ideale "verkaufe". Luther reichte sein (relativ bescheidenes) Professorengehalt, aufgebessert durch die Zimmervermietung seiner Frau ("der Lutherin") an Studenten der hiesigen Universität.


Die Luther-Bibeln

Als über den standhaften Luther 1520 in Worms die "Reichsacht" verhängt wurde, ließ ihn sein Beschützer Kurfürst Friedrich, genannt "der Weise", auf der Rückreise aus Sicherheitsgründen abfangen und auf die Wartburg verbringen. Unter dem Tarnnamen "Junker Jörg" ließ sich Martin Luther Haare und Bart wachsen und litt unter großer Langeweile. Es soll sein Freund Philipp Melanchton gewesen sein, der Luther zur Übersetzung des Neuen Testaments der Bibel überredete. Luther hatte in seinem Asyl lediglich die lateinische Bibelübersetzung "Vulgata" zur Hand und einige griechische Texte von Erasmus. Trotzdem war das Werk in nur 11 Wochen vollendet. Als er Anfang März 1522 wieder nach Wittenberg zurückkehren durfte, hatte er das fertige Manuskript im Gepäck. Das Neue Testament wurde zu einer bibliophilen Kostbarkeit. Meister Cranach stattete allein die Apokalypse mit 11 ganzseitigen Holzschnitten aus und pünktlich zur Leipziger Buchmesse im September 1522 lag es in der hohen Anfangsauflage von 3.000 Exemplaren vor und kostete nur einen Gulden. Noch im Dezember des gleichen Jahres wurde schon eine verbesserte Auflage nachgedruckt.


Die Lutherbibel 1534

Das Alte Testament der Lutherbibel war ein Gemeinschaftswerk. Etwa ein Dutzend Mitarbeiter waren daran beteiligt, insbesondere Kenner der hebräischen Sprache. Die besondere Aufmerksamkeit galt der sachkundigen Übersetzung des 1. Buch Mose. Die Lutherbibel wurde in die regionale frühneuhochdeutschen Sprechsprache übertragen. Die Gebrüder Grimm bezeichneten später Luther als den Wegbereiter des Neuhochdeutschen. Die Gesamtausgabe des Alten Testaments lag im Jahr 1534 vor und wurde wieder opulent grafisch ausgestattet von der Werkstatt Cranach. Heutige Marketingexperten würden von "Corporate Identity" sprechen, welche Lukas Cranach d. Ä. als "Chefdesigner" dem Werk angedeihen ließ. Von Anfang an wurde die Lutherbibel ein "Bestseller" bei den mittel- und norddeutschen "Protestanten".

Am 18. Februar 1546 starb Martin Luther 63-jährig in seiner Geburtsstadt Eisleben an einem Herzleiden. Der Erfolg der Reformation bedeutete zugleich die Spaltung der römischen Christenheit.
Heute zählt man ca. 800 Millionen protestantisch-evangelische Gläubige. 

Samstag, 21. Oktober 2017

Warum so wenige deutsche Physik-Nobelpreise?

Als der alte Schwede Alfred Nobel genug Geld mit seinem Sprengstoff Nitroglyzerin verdient hatte, wurde er zum Mäzen und stiftete die nach ihm benannten Nobelpreise. Sie werden alljährlich in fünf Sparten ausgelobt, nämlich: Physik, Chemie, Medizin, Literatur und Frieden. (Ein sechster, für Wirtschaft, kam später hinzu.) Wie keine andere Dekoration genießen diese Preise höchstes Ansehen und sind damit ein Marker für den wissenschaftlichen und kulturellen Status eines Landes.

Auf dem Gebiet der Physik war Deutschland lange Zeit führend. Der erste Preis dieser Art ging 1901 an Wilhelm Konrad Röntgen für die Entdeckung der nach ihm benannten elektromagnetischen Strahlen. Danach ergoss sich geradezu ein Schwall von Nobelpreisen auf die deutschen Physiker. Nach dem 2.Weltkrieg tröpfelte es nur noch und seit vollen zehn Jahren erhielt überhaupt kein deutscher Physiker mehr diesen Preis. Über die Gründe dafür lässt sich trefflich spekulieren. Ich möchte mich mit diesem Blog daran beteiligen.


Wilhelm Konrad Röntgen (1845 - 1923)
(Erster deutscher Physik-Nobelpreisträger)


Deutschlands Niedergang anhand der Statistik

Die "Goldene Epoche" der Physik in Deutschland erstreckte sich über drei Jahrzehnte von 1901 bis 1932. In diesen 31 Jahren gab es für die deutschen Physiker 11 Nobelpreise und zwar an: Röntgen, Lenard, Braun, Wien, v. Laue, Planck, Stark, Einstein, Franck, Hertz und Heisenberg. Ihnen gelangen epochale Entdeckungen, wie: Röntgenstrahlen, Kathodenstrahlen, zwei Relativitätstheorien, Photoeffekt, Quantenmechanik, Unschärferelation, Wirkungsquantum usw. Zum Vergleich: im gleichen Zeitraum wurden nur drei Preise an US-Forscher vergeben, nämlich an Michelson, Millikan und Compton.

Nach der Machtergreifung Hitlers 1933 wurden die Quantenphysik und die Relativitätstheorien als "jüdische Physik" verdammt und nicht mehr gelehrt. Stattdessen versuchte man eine "deutsche Physik" zu etablieren, die weniger mathematisch war und mehr auf "Intuition" beruhte. Sie fand international keinen Widerhall, im Gegenteil, die kreativsten Wissenschaftler, wie Einstein und Franck wanderten in die USA ab, beteiligten sich dort am "Manhattan-Projekt" und brachten die amerikanischen Universitäten zum Erblühen. An deutsche Forscher wurde von 1933 bis 1953 kein einziger Physikpreis vergeben.

Nach dem 2. Weltkrieg wurde der Physik-Nobelpreis bislang 12 Mal an deutsche Wissenschaftler vergeben. Darunter waren einige mit Arbeiten aus der Vorkriegszeit, wie Born, Bothe, Jensen und Ruska. Die Entdeckung mit der größten internationalen Ausstrahlung gelang im Jahr 1961 dem Münchener Rudolf Mößbauer. Der letzte deutsche Nobelpreis, bis dato, fiel im Jahr 2007 - also vor 10(!) Jahren - an den Festkörperphysiker Peter Grünbaum vom Forschungszentrum Jülich für seine Magnetforschungen. Dem gegenüber errangen die US-Forscher zwischen 1933 und 2017 sage und schreibe 85 Nobelpreise in Physik!

Betrachten wir die Zeitspanne 2008 - 2017, also die vergangenen 10 Jahre in denen Deutschland keinen einzigen Nobelpreis bekam, mal etwas genauer. In dieser Periode wurden 27 Physikpreise vergeben, wobei pro Jahr maximal drei Preise nach den Statuten möglich sind. Die genannten 27 Preise gingen: an USA (13 Mal), Großbritannien (5), Japan (5), Belgien (1), Frankreich (1), Kanada (1) und Russland (1).  ----  Die physikalische Welt ist an Deutschland vorbei gezogen.


Clevere Amerikaner und Japaner

Die Totalflaute bei den deutschen Physik-Nobelpreisen ist schwer zu begreifen, wenn man nicht an eine plötzliche epidemische Ignoranz glauben möchte. Fragt man in der Szene etwas herum, so kommt man zu mancherlei (Teil-) Begründungen. So wird oft auf die schiere Größe des Wissenschaftsbetriebs in den USA verwiesen, der sich gegenüber früher allerdings auch nicht geändert hat. Auch die Höhe der Forschungsausgaben mit ca. 2,5 Prozent des Bruttoinlandsprodukt (BIP) ist hüben wie drüben in etwa gleich.

Allerdings scheinen die amerikanischen Universitäten und Forschungsorganisationen mehr Cleverness an den Tag zu legen, als die biederen deutschen Hochschulen und Wissenschaftsgesellschaften. Die Amerikaner legen sich bereits ein Jahr vor der Wahl auf wenige Kandidaten aus dem eigenen Land fest. Wenn das schwedische Nobelpreiskomitee dann weltweit um Kandidatenvorschläge bittet, dann nennen die Amerikaner ihre vereinbarten Favoriten. Zum Schluss kommen so viele Stimmen zusammen, dass die Nobelversammlung um diese Vorschläge nicht mehr herum kommt.

In Deutschland (und Europa) schlägt hingegen jeder, der gefragt wird, eigene Kandidaten vor. Man stimmt sich nicht konzertiert ab und fällt dann häufig (auch wegen der Kleinheit des Landes) durch das Raster.

Besonders clever sind die Japaner. Sie haben erkannt, wie das Spiel funktioniert. Deshalb haben sie in Stockholm, wo das Nobelkomitee sitzt, eigens eine Agentur mit üppigem Budget eingerichtet, welche die japanischen Forscher, die als Preiskandidaten in Frage kommen,  ins Gespräch bringt. Das hat sich angeblich bereits bei etlichen Physik- und Chemienobelpreisen bewährt.

Schließlich muss man erwähnen, dass es seit Jahrzehnten amerikanische Praxis ist, begabte junge Leute aus Europa und anderswo (als Postdocs) ins Land zu holen und sie reichlich mit Forschungsmitteln auszustatten. Nicht wenige dieser Hochtalente vollbringen später nobelwürdige Leistungen - aber als naturalisierte Amerikaner. In diese Kategorie fallen auch die (deutschstämmigen) US-Nobelpreisträger Hans Georg Dehmelt (Preis 1989), Horst Ludwig Störmer (1998), Herbert Krömer (2000) und Wolfgang Ketterle (2001).


Beispiel: LIGO

Schwierig wird die "gerechte" Verteilung der Physik-Nobelpreise, wenn es sich um ein Großprojekt handelt, an dem hunderte oder gar tausende von Wissenschaftlern viele Jahre lang gearbeitet haben. Dies ist dem Stockholmer Preiskomitee dieses Jahr gelungen, indem es drei Nobelpreise an die US-Physiker Weiss, Thorne und Barish vergaben. Ihnen gelang die Entdeckung der sogenannten Gravitationswellen, welche von Albert Einstein vor fast hundert Jahren vorhergesagt wurden. Diese Schwerkraftwellen entstehen, wenn schwere Objekte im Weltraum zusammenstoßen. Dies sind in der Regel kollidierende Schwarze Löcher oder Neutronensterne. Dabei entstehen Gravitationswellen, die mit Lichtgeschwindigkeit durch den Weltraum rasen. ("Ähnlich" wie die Wasserwellen, die ein geworfener Stein in einem Teich verursacht).

Den Hauptteil am Gelingen dieser Forschungen hatte der deutsch-stämmige Physiker Rainer Weiss, der 1932 in Berlin geboren wurde und dessen Eltern bald darauf vor den Nazis in die USA flüchteten. Er begründete (vor 45 (!) Jahren) die Laser-Interferometrie als Messmethode und bekam zu recht 50 Prozent des Preisgeldes, also ca. 500.000 $. Sein Freund Kip Thorne entwickelte die beiden sog. LIGO-Detektoren in Hanford (Wash.) mit je vier Kilometern Armlänge, wofür er 25 Prozent des Geldes erhielt. Barry C. Barish, schließlich, dirigierte die fast tausendköpfige Mannschaft von Experimentatoren, welche am 11. Februar 2016 die erfolgreichen Messungen verkünden durfte. Als Leiter dieser Messkollaboration konnte er sich an den restlichen 25 Prozent Preisgeld erfreuen.

Die deutschen Forscher, deren Interferometer GEO 600 bei Hannover nur eine Armlänge von 600 Metern besitzt, hatte nicht die hinreichende Messgenauigkeit und ging bei der Preisverteilung leer aus.


Gegen-Beispiel: HIGGS

Es war im Jahr 1964, als der schottische Lehrbeauftragte für Mathematik und theoretische Physik, Peter Higgs, ein recht seltsames Elementarteilchen postulierte. Dieses winzige Teilchen sollte ein Feld entfalten, durch welches die etwa ein Dutzend bereits bekannten Elementarteilchen erst ihre Masse erhielten. Das Teilchen war mit einer vorhergesagten Masse von 125 GeV/c2 recht schwer und sollte innerhalb einer Billionstel Sekunde zerfallen. Die gleiche Idee hatten zur selben Zeit auch der Belgier Francois Englert sowie vier weitere Forscher, von denen bereits drei verstorben sind. Praktischerweise nannte man dieses obskure Teilchen nach seinem Propheten "Higgs-Teilchen" bzw. "Higgs-Boson".

Wegen seines hohen Gewichts ist das Higgs-Teilchen nur an sehr leistungsfähigen Beschleunigern nachzuweisen. Das gelang (nach vergeblichen Versuchen beim Tevatron in den USA) am 4. Juli 2012 am CERN-Beschleuniger LHC bei Genf. Dabei wurde eine Signifikanz von 5 Sigma erreicht, d. h. das gesuchte Teilchen schien eindeutig nachgewiesen zu sein. Übrigens an beiden Detektoren ATLAS und CMS gemeinsam, die jedoch von verschiedenen Experimentier-Kollaborationen betrieben werden. Nach 49-jährigem Warten wurden Peter Higgs und Francois Englert im Herbst 2013 je zur Hälfte mit dem Nobelpreis geehrt.

Da stellt sich die Frage, weshalb den Experimentatoren an den Detektoren beim LHC in CERN kein Preis zugemessen wurde. Elementarteilchen mit einer so geringen Zerfallszeit sind außerordentlich schwer nachzuweisen, sodass die wissenschaftlichen Leiter der Kollaborationen bei ATLAS und/oder CMS für ihre hervorragende Leistung auf alle Fälle preiswürdig waren. Ähnlich ist man ja auch (siehe oben) bei LIGO  verfahren.

Bis diese Frage nicht schlüssig geklärt ist, muss man wieder einmal ein Versagen der europäischen Physikerfunktionäre vermuten. Leider!

Montag, 16. Oktober 2017

Hybride und andere Stromtrassen

Durch den Ausbau der erneuerbaren Energien verschieben sich die Schwerpunkte der Stromerzeugung. Bis 2022 sollen alle noch laufenden Kernkraftwerke vom Netz gehen. Diese stehen jedoch häufig dort, wo viel Energie benötigt wird - etwa in den süddeutschen Ballungsräumen.

Diese Lücke kann nicht allein durch regenerative Energien vor Ort geschlossen werden. Große Windparks entstehen vor allem in Nord- und Ostdeutschland und auf See. Der dort erzeugte Strom muss zum Verbraucher transportiert werden, wobei das bestehende Netz bereits jetzt an seine Grenzen stößt. Insgesamt müssen in den nächsten Jahren allein 7.500 Kilometer im sogenannten Übertragungsnetz optimiert oder neu gebaut werden.

Während früher der Strom vom Kraftwerk über die Übertragungsleitungen und die Verteilernetze zum Verbraucher floss, müssen die Netze heute den Stromtransport auch "im Gegenverkehr" bewältigen, da der Strom nicht nur "von oben nach unten" sondern auch ( u. a. wegen der Solarkollektoren) "von unten nach oben" fließt. Um also Erzeugung und Verbrauch jederzeit aufeinander abzustimmen, muss der Stromtransport "intelligenter" bzw. "smarter" werden.

In diesem Blog werden eine Reihe bekannter und weniger bekannter Probleme beim Netzausbau zusammengestellt.


Spannungsebenen

Wechselstrom wird auf unterschiedlichen Spannungsebenen transportiert:

---Zum Bereich der Niederspannung gehören die etwa 230 Volt, die im Haushalt an der Steckdose anliegen. Auf dieser Spannungsebene wird die Stromenergie über kurze Strecken verteilt.

---Die Mittelspannung beginnt bei ca. 1.000 Volt. Sie dient der Verteilung über Strecken von einigen Kilometern bis um die 100 km, vor allem in ländlichen Gebieten.

---Bei Spannungen größer als 60.000 (=60 Kilovolt) spricht man von Hochspannung. Das üblicherweise mit 110 Kilovolt (kV) betriebene Hochspannungsnetz sorgt für die Grobverteilung von Energie in verschiedene Regionen und Ballungszentren sowie Industriestandorte.

---Das Höchstspannungsnetz wird meist mit 380 kV, zum Teil auch mit 220 kV betrieben. Höhere Spannungen sind ebenfalls möglich. Auf dieser Spannungsebene wird die Energie über weite Strecken großräumig übertragen. Daher wird es auch Übertragungsnetz genannt. Große Energieerzeuger (zum Beispiel Kraftwerke und Windparks) sind so mit den Lastzentren verbunden. Über das Höchstspannungsnetz sind auch die Netze angrenzender Länder mit dem deutschen Stromnetz verbunden.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. Man spricht dabei von Hochspannungs-Gleichstrom-Übertragung (HGÜ).


Vernetzte Landschaft


Freileitungen

Weltweit werden, seit den 1920er- Jahren, Freileitungen zur Übertragung von Strom in der Höchstspannungsebene eingesetzt. Sie können hohe Leistungen übertragen, da die Wärme, welche durch den Stromfluss entsteht, leicht an die umgebende Luft abgegeben werden kann. Das kann man sich zunutze machen, indem man im Winter, wenn der Stromverbrauch ohnehin erhöht ist, die Freileitungen auch höher belastet.

Der Strom kann entweder als Wechselstrom oder als Gleichstrom übertragen werden. Bei der Übertragung von Wechselstrom teilt sich die elektrische Leistung auf in Wirkleistung und Blindleistung. Nur die Wirkleistung kann von angeschlossenen Verbrauchern genutzt werden -zum Beispiel um Haushaltsgeräte zu betreiben. Die nicht nutzbare Blindleistung muss vor allem auf längeren Strecken kompensiert werden. Die Wechselstromübertragung ist in Deutschland sehr verbreitet, da sich die Spannung sehr effizient verändern lässt.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. (Siehe oben). Im Gegensatz zum Wechselstrom wird bei der Gleichstrom-Übertragung keine Blindleistung ins Netz gespeist. Bisher wird in Deutschland Gleichstrom besonders bei der Seekabel-Anbindung an andere Länder eingesetzt oder zur Anbindung von Offshore-Windkraftanlagen, also bei der Verwendung von Stromkabeln statt Freileitungen. Künftig soll aber auch im Landesinnern Strom in hohen Spannungsebenen auf längeren Strecken vermehrt als Gleichstrom übertragen werden - allerdings vorrangig als Erdkabel. (Siehe unten).

Wird elektrische Energie über eine Freileitung übertragen, so treten in der Umgebung elektrische und magnetische Felder auf. (Wie übrigens auch bei Haartrocknern, Mikrowellen und Staubsaugern.) Grundsätzlich können elektrische und magnetische im menschlichen Körper zusätzliche Ströme erzeugen. Wenn diese Ströme eine bestimmte Schwelle übersteigen, können biologische Wirkungen auftreten. Deshalb müssen beim Betrieb von Stromleitungen Grenzwerte eingehalten werden. Die 26. Bundes-Immissionsschutz-Verordnung schreibt für das Wechselstromnetz mit einer Frequenz von 50 Hertz (Hz) einen Immissionsgrenzwert der magnetischen Flussdichte von 100 Mikrotesla vor. Der Grenzwert für die elektrische Feldstärke beträgt 5 Kilovolt pro Meter. Für Gleichstromanlagen (0 Hz) gilt ein Grenzwert der magnetischen Flussdichte von 500 Mikrotesla. Beide Felder nehmen mit zunehmenden Abstand ab. Elektrische Felder lassen sich leichter abschirmen; magnetische Felder können nur mit größerem Aufwand abgeschirmt werden. Der Bodenabstand der Freileitungen ist so bemessen, dass daraus keinerlei Strahlenschäden entstehen.

Die genauen Kosten für den Ausbau des deutschen Übertragungsnetzes sind derzeit nur schwer zu kalkulieren. Aus den Angaben der Netzbetreiber ergeben sich für die bestätigten Netzentwicklungspläne 2024 Summen von etwa 18 Milliarden Euro für den Netzausbau an Land und etwa 15 Milliarden Euro für den Offshore-Netzausbau. Darin enthalten sind jedoch noch nicht die Mehrkosten für die Erdverkabelung an Land.


Hybrid-Leitungen

Hybridleitungen übertragen sowohl Gleich- als auch Wechselstrom auf einem Mastsystem. Die Kombination von Gleich- und Wechselstrom auf Höchstspannungsebene ist in Deutschland noch nicht zum Einsatz gekommen, wird aber weltweit (USA, Kanada) bereits genutzt. Die Bundesnetzagentur hat festgelegt, dass dies beim sog. "Ultranet", dem Vorhaben 2 im Bundesbedarfsplan, erstmalig der Fall sein soll. Dieser Netzteil wird federführend von Amprion gebaut und transportiert den Strom von Nordrhein-Westfalen nach Philippsburg in Baden-Württemberg. Dafür werden bestehende Wechselstromleitungen umgerüstet. Unter anderem müssen neue Isolatoren für die Leiterseile eingebaut werden.

Der Grund für den Bau von Hybridleitungen ist, dass sie den Strom besonders flexibel übertragen. Gleichstrom eignet sich insbesondere zur Übertragung auf langen Strecken, da die Verluste geringer sind und damit die im Norden erzeugte Energie in den Süden transportiert werden kann. Wechselstrom eignet sich besonders für kürzere Strecken. Indem das bereits bestehende Netz genutzt wird, kann häufig auf den Neubau von Leitungen verzichtet werden. Die eingesetzte Technik ist in Deutschland auf Teststrecken seit Jahren erforscht.

Da im Ultranet bereits eine erhebliche Anzahl von Freileitungen existieren, die zudem großenteils genehmigt sind, hat der Gesetzgeber dort auf die Erdverkabelung verzichtet. Damit reduzieren sich auch die Gesamtkosten für diesen Leitungsteil ganz erheblich.


Erdkabel

In den Anfangsjahren der Energiewende (2011-12) bestand die Absicht, den im Norden Deutschlands erzeugten Strom über fünf Gleichstrom-Freileitungen in den Süden zu transportieren. Wegen der Widerstände der Bevölkerung ("Monstertrassen") wurde dieser Plan weitgehend aufgegeben. Derzeit besteht für die Vorhaben 1, 3, 4 und 5 (also ohne das Vorhaben 2=Ultranet) der sogenannte "Erdkabel-Vorrang". Das bedeutet, dass diese vier Vorhaben "vorrangig" als Erdkabel auszuführen sind. Nur in begründeten Ausnahmefällen sind dafür (auf einzelnen Teilstrecken) Freileitungen vorzusehen. Deren Masthöhen - vermutlich um die 70 Meter -  sind zur Zeit noch nicht exakt festgelegt.

Der Einsatz von Erdkabeln in überregionalen Übertragungsnetzen, die große Strommengen über weite Distanzen transportieren, bringt neue technische Herausforderungen. So besteht beispielsweise ein Problem bei der Wärmeleitung. Da das Kabel von Erde umgeben ist, wird die Wärme, die durch die elektrischen Verluste entsteht, nur teilweise abgeführt. das begrenzt den möglichen Stromfluss und damit die über das Kabel übertragbare Leistung.

Die unterirdische Trasse führt auch zu einem großen Aufwand bei notwendigen Reparaturen, denn dabei müssen erst Bagger die Kabel freilegen. Dies wirkt sich  auf die Reparaturdauer und damit auf die Versorgungssicherheit aus. Weiterhin fehlen ausreichende Untersuchungen über die Erwärmung des Bodens und deren Folgen auf die Umwelt.

Im Jahr 2014/15 wurde ein Pilotprojekt zur Erdverkabelung in der Gemeinde Raesfeld im Westmünsterland durchgeführt. Auf 3,5 Kilometer Länge testete der Übertragungsnetzbetreiber Amprion erstmals den Bau einer 380 kV-Hochspannungsleitung in Wechselstromtechnik. Das Unternehmen hat dafür etwa 40 Millionen Euro aufgewendet - sechs Mal soviel, wie eine vergleichbare Freileitung gekostet hätte.

Erdkabel benötigen beim Bau viel Raum. Allein die typische Kabeltrommel für 1000 Meter Kabel hat einen Durchmesser von 4,6 Meter und wiegt 55 Tonnen. Nicht jede Brücke oder Unterführung ist dafür ausgelegt. Die diversen Fahrzeuge und Bagger erfordern im Baubetrieb viel Platz. Zum Schluss darf - zur Enttäuschung der Grundbesitzer - weder die eigentliche Kabeltrasse noch der parallele Baustreifen mit Bäumen oder tief wurzelnden Gräsern bepflanzt werden.


Konverterstationen

Elektrische Energie wird in Kraftwerken überwiegend als Wechselstrom erzeugt. Daher fließt in den deutschen und europäischen Stromnetzen überwiegend Wechselstrom. Im Rahmen des Netzausbaus soll jetzt in Deutschland auch für lange Strecken die effektivere Gleichstromtechnik verwendet und somit ins vorhandene Wechselstromnetz integriert werden. Um Gleichstromleitungen mit dem Wechselstromnetz zu verbinden, sind an den Endpunkten Konverteranlagen erforderlich. Ein Konverter wandelt Wechselstrom in Gleichstrom um und umgekehrt.

Eine Konverteranlage besteht im Wesentlichen aus vier Funktionsblöcken: dem Wechselstrom-Anschluss, den Transformatoren, dem Umrichter und schließlich der Gleichstrom-Schaltanlage mit den Gleichstrom-Anschlüssen. Im Umrichter, dem Kernstück der Anlage, findet die Umwandlung des Stroms statt. Der Umrichter besteht aus Transistoren, Dioden ,Kondensatoren und Spulen. Da diese Bauteile sehr empfindlich sind, müssen sie in Hallen untergebracht werden. Weil sie zudem unter Hochspannung stehen, müssen mehrere Meter Abstand zum Boden und zu den Wänden eingehalten werden.

Die Fläche, welche für einen Konverter benötigt wird, hängt wesentlich von der Übertragungsleistung der vorhandenen Leitung ab. Für Gleichstrom-Vorhaben geht man bei einer Übertragungsleistung von 2 Gigawatt von einer Gesamtfläche von 10 Hektar (= 100.000 Quadratmeter) aus. Das eigentliche Kernstück der Anlage, die Konverterhalle, nimmt eine deutlich geringere Fläche ein.


Schlussgedanken

Meines Erachtens war es ein schlimmer Fehler, dass die deutschen Politiker (insbeondere die bayerischen Seehofer/Aigner) so schnell eingeknickt sind und die Erdkabel zur Standardlösung für die Gleichstromübertragung von Nord nach Süd zugelassen haben. Die - nur - 5 Trassen hätten angesichts ihrer lediglich geringfügig höheren Masten das (regional) oft chaotische Wechselstromnetz kaum nennenswert optisch verschlechtert. Stattdessen hätte man auf hundert Jahre Erfahrung im Freileitungsbau zurückgreifen können. Demgegenüber ist die Erdverkabelung auf Höchstspannung in Deutschland praktisch Neuland. Die Grundstückseigentümer, zumeist Landwirte, werden ihre Nachteile bei Reparaturen bald  bedauern.







Montag, 9. Oktober 2017

Gauland - zwischen Politik und Literatur

Alexander Gauland, geboren 1941 in Chemnitz, ist promovierter Jurist und ein bekannter ranghoher Politiker der Partei "Alternative für Deutschland". Beim kommenden Bundestag in Berlin wird er die Fraktion der AfD anführen.

Weniger bekannt ist, dass Gauland über 40 Jahre hinweg (von 1973 bis 2013) Mitglied der CDU war und dort bis zum Staatssekretär in der Hessischen Staatskanzlei unter Ministerpräsident Wallmann aufstieg.

Noch weniger bekannt dürfte sein, dass er jahrelang Gastgeber eines "Politischen Salons" in Potsdam war und dort unter anderem Bücher von Udo Di Fabio, Joachim Fest und Konrad Adam vorstellte. Bei einem halben Dutzend von Büchern war Gauland selbst Autor. Zu nennen sind: Die Deutschen und ihre Geschichte (2009), Das Haus Windsor (1996), Anleitung zum Konservativsein (2002) etc.

Am wenigsten bekannt ist wohl, dass Gauland in dem Schlüsselroman "Finks Krieg" von Martin Walser eine (negativ konnotierte) Hauptrolle spielt. Das ist das Thema dieses Blogs.


Die Leiden des Ministerialrats Wirtz.

Als der Jurist Rudolf Wirtz (54-jähig) in der Hessischen Staatskanzlei zum "Leitenden Ministerialrat" aufgestiegen war, hatte er ein wesentliches Berufsziel erreicht. Denn bald wurde er zum sogenannten "Kirchenkoordinator" bestellt, der wichtigen Verbindungsstelle zu den Konfessionen und den Religionsgemeinschaften. Seit seiner Referendariatszeit für eine Anwaltskanzlei im israelischen Tel Aviv war ihm dies als "Traumjob" erschienen. Sicherlich nur rein zufällig hatte er das gleiche SPD-Parteibuch wie sein oberster Chef, der umgängliche Ministerpräsident Holger Börner.

Aber nur zwei Jahre später kam der CDU-Mann Walter Wallmann ans Ruder und mit ihm sein alter Bekannter aus Studienzeiten, Alexander Gauland, gleichfalls CDU, der nun als Staatssekretär die Hessische Staatskanzlei dirigierte. Kurz angebunden versetzte er Wirtz auf eine andere, wesentlich weniger bedeutsame Position bei gleicher Bezahlung. An dessen Stelle rückte nun Wolfgang Egenter, ein Fraktionsassistent des neuen Ministerpräsidenten. Begründet wurde diese Umbesetzung mit angeblichen Beschwerden aus Kreisen der Religionsgemeinschaften. Für Wirtz brach eine Welt zusammen.

Und er setzte sich zur Wehr. Im Eilverfahren klagte er vor dem Verwaltungsgericht Wiesbaden, denn er hatte erfahren, dass die neue Stelle - mit einer Besoldungserhöhung von B3 auf B6 - nicht ordentlich ausgeschrieben war. Wirtz bekam bei dieser "Konkurrentenklage " zunächst zwar recht, aber die nächste Instanz, der Hessische Verwaltungsgerichtshof (VGH) entschied zugunsten Gaulands und der Hessischen Landesregierung. Gauland versicherte mehrmals an Eides statt, dass die Kirchenvertreter Vorbehalte gegen Wirtz geäußert hätten, was letztlich ausschlaggebend war. Erst viel später, um das Jahr 2000, tauchte ein Brief im Hessischen Verwaltungsgericht auf, der besagt: "Im Nachhinein hat sich herausgestellt, dass diese Angabe - nämlich: die Versicherung an Eides statt durch Alexander Gauland - unrichtig war".

Wirtz musste sich zwar wenige Jahre mit seiner neuen, ungeliebten Position zufrieden geben, aber er hatte Glück. 1991 trat mit Hans Eichel ein neuer SPD-Ministerpräsident in Hessen an. Er hatte von dieser Affäre natürlich gehört und bestellte  Rudolf Wirtz umgehend wieder in sein altes Amt. Auch der nun rausgedrängte Wolfgang Egerter musste sich nicht beklagen. Im Zuge der deutschen Wiedervereinigung benötigte Bernhard Vogel, der neu ernannte CDU-Ministerpräsident für Thüringen, einen tüchtigen Helfer. Er wählte Wolfgang Egerter und beförderte ihn gleich zum Staatssekretär! Wow.


Der Schlüsselroman "Finks Krieg"

Nach der sogenannten "Wende" und der Abwahl der Wallmann-Regierung in Hessen, betätigte sich Alexander Gauland von 1991 bis 2005 als Herausgeber der "Märkischen Allgemeinen Zeitung" (MAZ) in Potsdam, einem Ableger der Frankfurter FAZ. Er hatte in dieser Zeit voll auf die journalistische Bearbeitung der West-Ost-Thematik umgeschaltet.

Sein Widersacher Rudolf Wirtz - obschon seit 1991 wieder in Amt und Würden - konzentrierte sich hingegen auf die eigene Person und die penible Dokumentation seines "persönlichen Elends". So sammelte er insgeheim mehr als 50 brechend gefüllte Aktenordner zum "Fall Wirtz", die er mit DGG betitelte, in Langschrift: "David gegen Goliath", also "Ministerialrat Wirtz gegen Staatssekretär Gauland". Über Beziehungen gelang es Wirtz, den Romanschriftsteller Martin Walser für dieses Konvolut zu interessieren. In sechsjähriger Arbeit erstellte der Dichter daraus den Roman "Finks Krieg", welcher 1996 im Suhrkamp-Verlag erschien. Der Roman wurde sofort zum Bestseller in der Spiegel-Rangliste und in der Folge ins Französische, Spanische und Türkische übersetzt.



                                              Der Bestseller-Roman

Der Roman handelt von einem Ministerialrat Stefan Fink, der nach der Landtagswahl in Hessen seine Position als Kirchenkoordinator räumen muss und in dem man unschwer Rudolf Wirtz erkennen kann. Der Versetzung durch den Staatssekretär Tronkenberg (alias Gauland) entgegnet Fink mit einer Konkurrentenklage. Offensichtlich hatten prominente Vertreter der katholischen Kirche Fink/Wirtz fallen lassen. Nach seiner Rehabilitation versucht er - erfolglos - an Tronkenberg Rache zu nehmen, indem er ihn des Meineids bezichtigt. Fink gerät zunehmend in die Isolation und findet am Ende des Romans Zuflucht in einem Kloster.

Der Roman schildert alle Figuren aus der ungehemmten Ich-Perspektive des Beamten Fink. Zuerst erscheint der Ministerialrat Fink das Opfer von Staatssekretär Tronkenburg zu sein, dann aber wird Tronkenburg immer mehr zum Opfer von Fink. Der Krieg des Beamten Fink wird als innerer Monolog erzählt, der schließlich zur Zerstörung seiner Persönlichkeit und zur totalen Vereinsamung führt. Der Staatssekretär Tronkenberg erscheint als anglophiler Finsterling, der ständig in englischen Tweed-Jackets mit Karo-Mustern herumläuft. Der Roman ist in der ersten Hälfte durchaus unterhaltsam, im zweiten Teil (von 310 Seiten) aber eher langweilig und wäre heute vermutlich kein Bestseller mehr.

Dafür ist das Grundmuster der Erzählung einfach zu banal. Versetzungen von Beamten kommen tausendfach vor und werden nicht als ungerecht empfunden, wenn dieser den gleichen Sessel schon seit 18 Jahren drückt. Insbesondere, wenn eine neue (CDU-) Regierung ans Ruder kommt, wo früher 40 (!) Jahre lang (SPD-) Genossen die Geschicke eines Landes wie Hessen bestimmt haben. Im Übrigen war 1996, also bei Erscheinen des Romans, bekannt, dass der Beamte Wirtz, nach nur zwei Jahren Dienst in der Rechtsabteilung des Ministeriums, wieder seinen früheren Kirchenjob einnehmen durfte. Und, dass das Land Hessen 1994 alle Prozesskosten von Wirtz übernahm, ihm eine in der Öffentlichkeit nicht genannte satte Entschädigung bezahlte und, dass der stellvertretende Ministerpräsident (Joschka Fischer) im Namen des Landes Hessen sich bei Wirtz in aller Form für das ihm bereitete Ungemach entschuldigen musste. Anschließend durfte Wirtz sogar noch als Berater für Religionsfragen wirken.

Die Auseinandersetzungen zwischen Gauland und Wirtz fanden ihr biologisches Ende, als Rudolf Wirtz im Jahr 2003 starb.

Freitag, 29. September 2017

Nordirland: der gordische Knoten beim BREXIT

Der größte Inselstaat Europas ist eine Union aus den Landesteilen England, Wales, Schottland und Nordirland. Die Isle of Man und die Kanalinseln sind unmittelbar der Krone unterstellt und daher kein Bestandteil des "Vereinigten Königreichs" (VK) Mit rund 65 Millionen Einwohner ist das VK der drittbevölkerungsreichste Staat der Europäischen Union.




Schlimme Vergangenheit

Nord-Irland entstand als Folge des irischen Unabhängigkeitskriegs um 1920. Er wurde von der Irisch-Republikanischen-Armee (IRA) mit einer Art Guerilla-Kampf gegen die britische Regierung in London geführt. Der Friedensvertrag im Jahr 1921 erlaubte Nordirland schließlich aus dem Freistaat Irland - also der "grünen Insel" - auszusteigen, was auch umgehend geschah. Der nördliche Teil dieser Insel schloss sich dem "Vereinigten Königreich Großbritannien" an. Im Vergleich zur südlich gelegenen "Republik Irland" ist Nordirland dichter bevölkert und stärker industrialisiert. Etwa je zur Hälfte sind die 1,8 Millionen Nordiren protestantisch bzw. katholisch. Fast alle größeren Städte, einschließlich der Hauptstadt Belfast, sind protestantische Hochburgen.

Ab 1969 kam es in Nordirland zu bewaffneten Kämpfen zwischen den protestantischen und den katholischen Volksgruppen. Er kostete rund 3.500 Menschenleben, wovon die Hälfte unbeteiligte Zivilisten waren. Die wieder auferstandene "Armee" IRA und ihr politischer Arm "Sinn Feín" töteten britische Soldaten und verschüchterten die Bevölkerung durch Autobomben. Der Konflikt dauerte fast zwanzig Jahre, bis die Parteien schließlich 1998, im Rahmen des "Karfreitags-Abkommens", die Beendigung der Gewalttaten erreichen konnten.

Während der bürgerkriegsähnlichen Kämpfe wurden in ganz Nordirland - aber besonders in der Hauptstadt Belfast - zahlreiche Mauern zur Abgrenzung der protestantischen und katholischen Bevölkerung gebaut. Die Ähnlichkeit zur "Berliner Mauer" war unverkennbar, jedoch wurden diese Bauwerke als "Peace Lines", also "Friedenslinien" bezeichnet. Die Wände waren aus Wellblech, Stahl oder Mauerwerk, acht oder mehr Meter hoch und zuweilen mehrere Kilometer lang. Damit wurden genau abgegrenzte Wohngebiete der beiden Konfessionen definiert. Allein in Belfast gibt es heute noch mehr als 50 solcher Mauern mit einer Gesamtlänge von ca. 20 Kilometer. In gewissen Abständen sind Tore zum Durchlass angebracht, die abends fest verschlossen und erst am Morgen  wieder geöffnet werden. 


Hoffnungsfrohe Gegenwart

Ein wichtiger Schritt zur Befriedung von Nordirland war - aus heutiger Sicht - der Beitritt von Großbritannien (zusammen mit Irland und Dänemark) zur "Europäischen Gemeinschaft "(EG) im Jahr 1973. Sie wurde vom damaligen Premierminister (PM) Edward Heath (1970-74) gegen heftige Widerstände in seiner eigenen Partei und gegen ein Veto aus Frankreich erreicht.  Unter PM Margret Thather (1979-90) erlebte Großbritannien einen rasanten wirtschaftlichen Aufschwung durch die Reduktion der Staatsschulden und der Arbeitslosigkeit - was auch Nordirland zugute kam. Weitere Schritte in die positive Richtung waren der Ausbau der "Europäischen Union" (EU) auf 28 Staaten, die Einführung der Euro-Währung und der sog. vier Grundfreiheiten (freier Verkehr von Waren, Dienstleistungen, Kapital und Personen innerhalb einer Zollunion).

Die Menschen beidseitig der 500 km langen Grenzlinie zwischen Irland und Nordirland getrauten sich in der Folge wieder auf die Straßen und fingen an, Handel zu treiben. In den nun 20 Jahren relativen Friedens ist die irische Insel für fast alle zu einem florierenden ökonomischen Gesamtgebilde geworden. Mehr als ein Drittel der nordirischen Milch wird im Süden verarbeitet, rund 400.000 irische Schafe werden jährlich im Norden geschlachtet. Selbst die in Dublin ansässige Guinness-Brauerei lässt ihr Bier in Belfast abfüllen. 30.000 Pendler überqueren täglich ohne Pass die Grenze, darunter viele EU-Bürger, vor allem aus Osteuropa.


Düstere Zukunft

Verlässt Großbritannien 2019 die Union, wie vom Brexit gefordert, so verläuft die nordirische Landesgrenze zur EU mitten durch die irische Insel. Eine 500 km lange Grenze mit 300 Brücken und Straßenübergängen - viele davon erst in den vergangenen Jahren mit EU-Mitteln errichtet. "Investing in your future" steht auf den angenieteten Schildern. Scheidet das Vereinigte Königreich aus dem EU-Binnenmarkt und der Zollunion aus, so werden Waren und Güter nicht mehr ohne Weiteres die Grenze passieren dürfen. Menschen erst recht nicht. Erst allmählich dämmert der britischen Regierung in London, welch gewaltige Aufgabe sie von ihrem Volk mit dem Referendum gestellt bekommen hat.

Irgend eine Art von Grenzkontrolle ist unvermeidlich, wenn man den Transport der berühmt-berüchtigten amerikanischen Chlorhühnchen über den Umweg von Nordirland nach Irland/Europa vermeiden möchte. Die Rede ist von einer "E-Border", einer elektronisch überwachten Grenze. Klingt verführerisch, funktioniert aber nicht. Würde man Zöllner und Polizisten zu beiden Seiten der Grenze postieren, so hätte man bald wieder die alte Grenze aus den Vor-Karfreitags-Tage  und der immer noch fragile Waffenstillstand wäre zerstört. Denn der Weg zur Gewalt ist immer noch kurz!

Drei Mal schon saßen die beiden Chefunterhändler in Brüssel zusammen, um über die Konditionen des Brexit zu beraten. Man diskutierte über drei Themen: die künftigen Rechte der EU-Bürger auf der britischen Insel, die Höhe der Austrittsrechnung und das Nordirland-Irland-Problem. Aber zu keiner dieser Fragen konnten Michel Barnier und David Davis Fortschritte vermelden. Die Ängste der Menschen auf der irischen Insel sind groß. Sie befürchten, dass der Brexit, den die Nordiren mit 55 Prozent abgelehnt haben, den mühsamen Friedensprozess der Vergangenheit pulverisieren könnte.

Als vor einigen Wochen die britische Premierministerin Theresa May mit einigem Pomp ankündigte, dass sie in der florentinischen Basilika Santa Maria Novella eine Grundsatzrede zum Brexit halten werde, war die Weltöffentlichkeit in Spannung. Kam da eine weibliche Version des griechischen Alexander des Großen, der einst den "Gordischen Knoten" mit einem Schwertstreich auflöste? Mitnichten!
Die Premierministerin verkündete nichts Neues, schon gar keine Lösung des Nordirlandproblems.
Es scheint unlösbar zu sein - zumindest für die gegenwärtigen Politiker in Downing Street. 







Sonntag, 17. September 2017

Facetten der Mathematik

Die ältesten Dokumente der Mathematik sind ungefähr 30.000 Jahre alt. Es sind Einkerbungen auf Knochen, die keine schmückende Funktion haben, sodass es sich nur um Zahlendarstellungen in der Größenordnung von 50 bis 60 handeln kann. Die Babylonier hatten bereits ein Stellenwertsystem zur Basis 60, also nicht wie wir zur Basis 10. Damit konnten sie addieren, subtrahieren, multiplizieren und dividieren.

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem "Papyrus Rhind" (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch "Die Elemente" herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.


Null - Eins - Unendlich

Die Erfindung der Null ("0") war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.--- Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3... bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff "unendlich" (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 ... = ∞
Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe
1/2 + 1/4 + 1/8 + 1/16....= 1.
Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19... Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog."Hilbert Hotel", das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3... bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer - und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.


Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: "Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen". Klingt simpel, aber Wiles schuftete - im geheimen - volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab - auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter Alfred Nobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 - 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker - die jünger als 40 Jahre sein müssen! - für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 - 1943) und Kurt Gödel (1906 - 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: "Durch Intuition entdeckt man, durch Wissenschaft beweist man". Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 - 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach - nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 - 1783), Carl Friedrich Gauß (1777 - 1855), Gottfried Wilhelm Leibniz (1646 - 1716) und Isaac Newton (1642 - 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.


Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders "schön" anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:

 

In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach "schön".

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e - k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden - oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 - 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!

Sonntag, 10. September 2017

Eine kleine Bierologie

Hallo Freunde, die herbstlichen Bierfeste beginnen wieder. Den Anfang macht das Münchener Oktoberfest vom 16. September bis zum 3. Oktober. Um den Bierpreis wurde, wie üblich, im Rat der Landeshauptstadt heftig gestritten. Einige (Sozis) wollten sogar eine Bierpreisbremse bis zum Jahr 2019 beschließen lassen. Durchgesetzt haben sich, in guter Tradition, die beleibten Bierbrauer. Sie werden die diesjährige Maß für den Niedrigpreis von 10,95 Euro verkaufen, worüber sich die Bedienungen wohl am wenigsten freuen. Im Geiste hoffen diese schon auf nächstes Jahr, wenn der Literkrug zu 11,25 Euro kalkuliert sein wird, der Gast 12 Euro hinlegt und großzügig sagt: "Passt scho, Zenzi".


Die traditionellen Biere

 Bier ist das weltweit am meisten verbreitete alkoholische Getränk. Das älteste überlieferte Bierrezept ist ca. 5.000 Jahre alt und stammt aus China. Frühe Nachweise für Bier gibt es auch aus dem mesopotamischen Raum. Die Ägypter ließen halbfertig gebackenes Brot mit Wasser vergären und erhielten dadurch eine Art Bier. Im deutschen Mittelalter oblag das Brauwesen vor allen den Klöstern. Nicht immer gelang es den Mönchen, ein bekömmliches Produkt herzustellen. So musste manches Sauerbier durch die nachträgliche Zugabe von Zucker oder Honig "geschönt" werden. Den bayerischen Herzögen Wilhelm IV. und Ludwig X. missfiel diese Pantscherei, sodass sie 1516, also vor fast genau 500 Jahren, gemeinsam das sogenannte "Reinheitsgebot" erließen: Bier durfte nur noch aus den vier Grundsubstanzen Malz, Hopfen, Wasser und Hefe hergestellt werden. Hopfen und Malz, Gott erhalts, so schallte es fortan durch die Lande.

Im Prinzip ist Bierbrauen keine große Kunst. Die geröstete Malzgerste wird gemahlen und kommt in warmes Wasser. Nach Abtrennen der Gerstenrückstände, des sog. Trebers, wird die süße Malzflüssigkeit mit Hopfen versetzt, der für die Haltbarkeit und den typisch bitteren Biergeschmack sorgt. Schließlich wird die Hefe zugegeben, wodurch Kohlensäure und Alkohol entsteht. Der anschließende Reifeprozess dauert mindestens einen Monat. In Deutschland gibt es ca. 1.400 Brauereien, die meisten in Bayern (mit 625 Braustätten), Baden-Württemberg (190) und Nordrhein-Westfalen (125). Der Bierkonsum pro Kopf und Jahr ist nach dem 2. Weltkrieg stark zurück gegangen, u. zw. von 250 Liter (1960) auf heute 110 Liter.

Das leicht herbe Pils trifft den Geschmack der Biertrinker am ehesten. Mehr als die Hälfte der verkauften Biere sind von der Pilsener Brauart. Mit großem Abstand folgen Export- und Weizenbiere. Die größten Steigerungsraten verzeichneten zuletzt vor allem das in Bayern sehr verbreitete Helle sowie die alkoholfreien Sorten. Letztere gewinnt man entweder durch Unterbrechung der Gärung oder durch Extraktion des Alkohols. Auf regelmäßig veranstalteten Bierbörsen kann man Biere aus aller Welt genießen. Etwa: Tigerbier (aus Singapur), Nofretete (Ägypten), Chingis (Mongolei) und Longboard  (Hawai). Entgegen der Behauptung von "Paulchen" Kuhn, gibt es  also doch Bier auf Hawai.

Neben dem Geschmack, der vor allen durch viele verschiedene Hopfendolden beeinflusst wird, unterscheiden sich die Biere auch im Alkoholgehalt. "Alkoholfreies" Bier hat einen Alkoholgehalt von 0,3 - 0,5 Prozent; es folgen: Pils (4,5 - 5,4), Oktoberfestbier (5,9 - 6,3) und Bockbier (5,5 - 11,7). Die Stammwürze ist eine weitere entscheidende Messgröße beim Bierbrauen. Sie bezeichnet den Anteil von Malz und Hopfen im Wasser nach der Gärung. Die Würze hat bei der Bierherstellung eine ähnliche Bedeutung wie der Most für den Wein. Das Mostgewicht misst man in Oechsle Graden, die Stammwürze - nach dem deutschen Chemiker Plato - in Plato Graden. Typische Werte beim Bier sind 7 °P (bei Einfachbieren) und 16 °P bei Starkbieren.


Die Craft Biere

Unter Craft Bier werden Biere verstanden, die handwerklich von zumeist nur regional tätigen kleineren Brauereien erzeugt werden. Ihren Ursprung hat die Craft-Bewegung in den USA, wo die (vorwiegend jüngeren) Biertrinker mit den industriell gefertigten  "Einheitsbieren" von Budweiser, Miller und Anheuser-Bush nicht mehr zufrieden waren. Kleine Brauereien mit schrulligen Namen, wie Stupid Wild, Arrogant Bastard oder Raging Bitch tauchten auf und brauten Biere, welche sich geschmacklich positiv vom "Mainstream" abhoben. Zu nennen ist auch das Wiederaufleben des India Pale Ale (IPA), bei deren Verkaufsstellen sich häufig lange Menschenschlangen bilden.

Die Craft-Welle schwappte bald auch auf Deutschland über, wo ein junger Kundenkreis auch nicht mehr die Bierriesen, wie Warsteiner, goutierte, welche zeitweise einen Jahresaustoß von 6 Millionen Hektolitern hatten. Der schlimme Begriff "Einheitsplörre" machte die Runde. In echt deutscher Manier wurde ein Verband der Kreativbrauer gegründet, der alle Gasthof-und Hausbrauereien bündelte, welche weniger als 200.000 Hektoliter pro Jahr verkauften. In Karlsruhe wurde der sogenannte Vogelbräu gegründet, der mit einer speziellen Filtriermethode arbeitete. In Bamberg verkauft man schon länger das sogenannte Rauchbier, bei dem schwelender Rauch das Malz durchströmt, ehe sich dieses mit dem Hopfen im Sud vermischt. Die Bundesregierung trug zum Erfolg der Kleinbrauereien bei, indem sie diese steuerlich begünstigte.

Das deutsche Reinheitsgebot, nämlich Bier nur aus Wasser, Malz, Hopfen und Hefe zu brauen, war dabei kein Hindernis. Im Gegenteil: die Kleinbrauer können inzwischen auf 40 Malzsorten, 250 Hopfensorten und 200 Hefesorten samt unterschiedlicher Wasserqualität zurückgreifen, was (rein rechnerisch) Millionen von Möglichkeiten zulässt. Tatsächlich können in einem so gebrauten Bier an die 8.000 Aromen stecken, sechs Mal mehr als in einem Wein. Weltweit gibt es, geschätzt, 150 Bierstile, die nicht selten von ausgebildeten Bier-Sommeliers erklärt werden.

Nicht gehemmt durch das deutsche Reinheitsgebot, gingen die Amerikaner bald noch einen Schritt weiter und mischten allerlei artfremde Zutaten in ihre Craftbiere. Das waren Erdbeeren, Mango, Kaffee, ja selbst Fichtenzweige. Damit verloren sie aber eine wesentliche Eigenschaft ihres Biers: die Drinkability. Das lässst sich am besten mit Süffigkeit übersetzen und ist das wahre Geheimnis vieler traditioneller Biere. Diese können, wegen ihrer Schlichtheit, schnell runtergekippt werden, sie "zischen" und machen Lust auf mehr. Beispiele: das "Kölsch" oder die Festbiere der großen bayerischen Brauereien. Bei den fruchtigen und gehaltvollen Craftbieren muss man sich beim Trinken Zeit lassen, ähnlich wie bei einem guten Glass Bordeaux-Wein. Das erzeugt aber eine ganz andere Stimmung und weniger Absatz beim Wirt.

Kein Wunder, dass der Ausstoß dieser angereicherten Craftbiere zurück ging und heute unter einem Prozent liegt. Beim Oktoberfest gilt weiterhin:
O´zapft is!
Oans, zwoa, dra - gsuffa!
Und das in möglichst kurzen Abständen.






Sonntag, 3. September 2017

Die Kernkraftwerks-Strategien einiger wichtiger Industrieländer

Die Anzahl der Kernkraftwerke weltweit hat im vergangenen Jahrzehnt aus verschiedenen Gründen leicht abgenommen. Nach Angaben der Internationalen Atomenergieorganisation (IAEO) waren im Jahr 2016 insgesamt 450 Kernreaktoren installiert mit einer Stromerzeugungskapazität von 391 Gigawatt (GW). Ca. 60 Reaktoren, vorwiegend in China und Russland, befinden sich im Bau. Mindestens 153 Blöcke mit einer Gesamtleistung von 38 GW wurden bis 2013 außer Betrieb genommen.

Im Folgenden werden die Kernkraft-Strategien der fünf Länder USA, Japan, Südkorea, Frankreich und Deutschland (mit marktwirtschaftlichen Volkswirtschaften) analysiert, in denen es während der letzten Jahre zu Aufsehen erregenden Strategiewechseln in der Kernenergie kam.  Sie sind auch insoweit bedeutsam, als sie nicht nur die Kernkraft nutzen, sondern ebenso über eine international nachgefragte Herstellerkapazität verfügen. Wobei Deutschland mit Siemens/KWU diese seit einigen Jahren aus bekannten Gründen schon aufgegeben hat.



USA:  Stagnation beim Weltmeister

Die USA waren von Anbeginn der Taktgeber in der Kernreaktortechnologie. Im Jahr 1942 wurde im Fußballstadion von Chicago mit CP-1 der erste Kernreaktor weltweit in Betrieb genommen; 1957 mit Shippingport, Ohio, das erste zivile Kernkraftwerk (KKW)  mit einer Leistung von 70 MWe. Zeitweise lag die nukleare Gesamtstromerzeugung in den USA bei knapp 20 Prozent, wozu ca. 112 KKW unterschiedlicher Kapazität beitrugen. Nicht enthalten in dieser Bilanz sind die zahlreichen Antriebsreaktoren für Kriegsschiffe, wie U-Boote, Zerstörer, Flugzeugträger etc. Inzwischen sind 30 (zivile) Blöcke stillgelegt bzw. rückgebaut worden; bei ca. 40 KKW sind die Neubauplanungen eingestellt oder deren Bau unterbrochen worden. Der wirklich realisierte Neubau an Kernkraftwerken war letztlich so marginal, dass die dominierende US-Kraftwerksfirma Westinghouse mangels Aufträge ihren Standort nach Großbritannien bzw. Japan verlegen musste, wie unten detaillierter dargestellt.

Und der Bestand an betriebenen oder im Bau befindlichen Kernkraftwerken bröckelt weiter. Vor einigen Wochen wurde bekannt gegeben, dass der Betreiber Exelon das berühmt-berüchtigte Kernkraftwerk  Harrisburg bzw. Three Mile Island (TMI) stilllegen wird, obwohl die atomrechtliche Lizenz den Weiterbetrieb für noch 15 Jahre gestatten würde. Es handelt sich, wohlgemerkt, um den 2. Block von TMI; der erste Block (TMI-1) erlitt bekanntlich im Jahr 1979 einen Kernschmelzenunfall und wurde deshalb für rd. 1 Milliarde Dollar zurück gebaut. Exelon begründet seine Entscheidung damit, dass in Konkurrenz immer mehr Gaskraftwerke gebaut würden, welche das preiswerte Fracking-Gas zur Befeuerung nutzten. Der Block TMI-2 hätte deshalb seit fünf Jahren rote Zahlen geschrieben.

Zwei weitere Druckwasserblöcke, Virgil C Summer 2+3, sind seit dem Jahr 2013 im South Carolina im Bau und sollten nach anfänglicher Planung 2019 den Betrieb aufnehmen. Wegen der Turbulenzen um Westinghouse drohten diese beiden Projekte aber doppelt so teuer als veranschlagt zu werden. Der Betreiber beschloss deshalb sie aufzugeben, obwohl sie bereits zu 40 Prozent fertig gestellt sind. Auch hier wurde auf das billigere Erdgas verwiesen, aber auch auf die Windenergie, die in bestimmten Gegenden der USA durchaus bereits konkurrenzfähig ist - sofern der Wind weht.

Im Moment sind in den USA 99 Kernkraftwerksblöcke an 60 verschiedenen Standorten in Betrieb. Die Tendenz zeigt weiterhin nach unten. Vor diesem Hintergrund wies der bekannte amerikanischen Klimaforscher James Hansen (samt einigen Kollegen) in einem offenen Brief darauf hin, dass weltweit 115 Kernkraftwerke der innovativen Bauart ausreichen würden, um die gesamte globale Stromerzeugung so zu dekarbonisieren, dass sie mit den Pariser Verträgen vereinbar wäre. Bei einer der Klima-Nachfolgekonferenzen soll dieser Vorschlag auf die Tagesordnung gesetzt werden.


Japan: Fukushima war der Wendepunkt

Im Jahr 2010 deckten 55 japanische Kernkraftwerke etwa 30 Prozent des Strombedarfs ab.  Der nationale Energieplan sah vor, die nukleare Leistung mittelfristig von 48 Gigawatt (GW) auf 70 GW hochzufahren. Nach der Katastrophe von Fukushima waren jedoch zeitweise alle Kernkraftwerke abgeschaltet. Der Strom wurde vor allem durch importierte fossile Energieträger gedeckt. Die beiden Premierminister Naoto Kan und sein Nachfolger Yoshihiko Noda verkündeten den schrittweisen Ausstieg aus der Kernenergie bis zum Jahr 2040. Der nächste Regierungschef, Shinzo Abe, der als "starker Mann" ans Ruder kam, kassierte den Atomausstieg seiner Vorgänger und befahl eine rigorose technische Überprüfung aller Kernkraftwerke. 45 bestanden bislang den Test; davon sind 5 inzwischen wieder in Betrieb.

Von einer Zäsur geprägt war auch das Schicksal des größten japanischen Kernkraftwerksbauers, der Firma Toshiba. In einem heftigen Bieterwettbewerbs hatte dieses Unternehmen im Jahr 2006 den größten amerikanischen Reaktorhersteller, die Firma Westinghouse Electric, übernommen. 5,4 Milliarden gab Toshiba für dieses angebliche Juwel aus, vermutlich das Doppelte des Wertes. Die Kernenergie schien damals vor einer Renaissance zu stehen und Toshiba - nun weltgrößter Reaktorbauer -  wollte unbedingt dabei sein. Aber nach Fukushima 2011 war alles anders. Die Aufträge zum Bau neuer Kernkraftwerke blieben nicht nur in Japan aus, sondern auch in den USA, wo fast alle Bestellungen wegen gestiegener Regulierungskosten und konkurrierender Fracking-Gaskraftwerke entweder annulliert wurden oder unter erheblichen Terminverzögerungen  litten. 2015 kam es bei Toshiba zu einem Finanzskandal, der mit einem Rekordverlust von (umgerechnet) fast 10 Milliarden Euro endete. Zwei Jahre danach, im Frühjahr 2017 musste die Tochter Westinghouse Insolvenz anmelden. Der Umsatz des Konzerns schrumpfte um 30 Prozent, die Mutter Toshiba musste ihr "Tafelsilber" in Form wertvoller Chip- und Computerfabriken veräussern.

Aber die einst gefürchtete Japan AG besteht noch. Toshiba bleibt weiterhin im Nukleargeschäft. Das Unternehmen ist Hauptauftragnehmer bei der Stilllegung und dem Abriss der vier havarierten Fukushima-Reaktoren. Bis 2050 gibt es dort noch viel zu tun und die Kosten (sprich: Aufträge) werden auf -zig Milliarden abgeschätzt.


Südkorea: Auf dem Weg zum Ausstieg

Südkorea betreibt derzeit 25 Kernkraftwerke, welche etwa 30 Prozent seines Strombedarfs abdecken. Vor zehn Jahren hatte die damalige Regierung die Laufzeit dieser KKW über 30 Jahre hinaus verlängert, um den nuklearen Energieanteil auf 40 Prozent zu steigern. Der neue (linksliberale) Präsident Moon Jae-in hat dem gegenüber im Wahlkampf versprochen, "den Weg für eine nuklearfreie Ära zu schaffen". Eigenhändig schaltete Moon deshalb kürzlich in der Hafenstadt Busan das älteste Atomkraftwerk Kori 1 ab. Die jetzigen KKW sollen allesamt nach spätestens 30 Betriebsjahren stillgelegt werden, die meisten davon noch im kommenden Jahrzehnt. Auch die Kohlekraftwerke will Moon abschalten lassen. Die Energieversorgung soll insgesamt auf Erneuerbare Energien, sowie Erdgas und Flüssiggas umgestellt werden.

Den staatlichen Energiekonzern KEPCO (Korea Electric Power Corp.) bringt diese neue Atomstrategie in erhebliche Schwierigkeiten. Im Jahr 2009 hatte Kepco noch einen Auftrag über 20 Milliarden Dollar für den Bau von vier Kernkraftwerken in den Vereinigten Arabischen Emiraten entgegen genommen, der jetzt unter ganz anderen heimischen Randbedingungen abgearbeitet werden muss. Südkorea ist damit schon das zweite Land in Ostasien, das aus der Atomkraft aussteigt. Taiwan hatte zu Jahresbeginn angekündigt, bis 2025 alle (6) Kernkraftwerke abzuschalten.


Frankreich: weniger Atomstrom angekündigt

In Frankreich überraschte der neu ernannte Umweltminister Nicolas Hulot vor wenigen Wochen mit der Ankündigung, dass er bis zum Jahr 2025 den Anteil des Atomstroms von 75 auf 50 Prozent reduzieren wolle. Hulot tischte mal wieder auf, was die Nationalversammlung schon 2015 unter Holland beschlossen hatte.Das klingt verwegen, denn umgerechnet bedeutet dies die Stilllegung von 17 Reaktoren in nur 100 Monaten. Natürlich kann man (rechnerisch) die Abschaltung der jetzigen 58 Kernkraftwerke auch vermeiden, wenn man sie zukünftig in Teilllast betreibt - aber dieser Trick würde die Stromkosten sicherlich nicht vermindern. Hulot, ein ehemaliger Fotojournalist und jetzt Öko-Mann im Kabinett deutete an, dass er damit auf Linie seines Chefs  Emmanuel Macron sei. Von diesen selbst hat man ähnliche Tartarenmeldungen bislang allerdings noch nicht gehört. Aber er hat seinem Minister auch nicht widersprochen! Dies taten im Chor eine Vielzahl von Politiker und  Unternehmer sowie die Gewerkschaften. Letztere fürchteten um die Arbeitsplätze, die anderen sind besorgt um die Stromerzeugung - insbesondere im Winter, wenn 40 Prozent der Franzosen mit Elektrowärme heizen. Solange der neue Umweltminister seine Alternativplanung nicht aufdeckt, ist von dieser rigiden Ankündigung allerdings wenig zu halten.

Erschreckt hat Hulot sicherlich die Manager der französischen Nuklearindustrie bei Electricité de France und AREVA. Beide einst so stolzen Flaggschiffe der heimischen Kernkraft bewegen sich derzeit sowieso schon in rauer See: Areva, der frühere Reaktorbauer, hat erkennbar Schlagseite und und Edf, früher vorwiegend Betreiber, hält sich auch nur mit Mühe über Wasser. Seit der Katastrophe von Fukushima blieben bei Areva die Aufträge weitgehend aus; die Aufträge im finnischen Olkiluoto und im französischen Flamanville haben mehrjährige Terminverzüge und generieren statt Gewinne nur heftige Verluste. Mehrmals musste bereits der Staat eingreifen, dem (widerwilligerweise) volle 85 Prozent des Aktienkapitals der Areva gehören.

Trotz großer Widerstände konnte Paris erreichen, dass Areva mit dem Betreiber EdF fusioniert wurde. Dabei stützt ein Blinder einen Lahmen, denn die EdF hat eine Unzahl eigener Probleme. So muss sie ca. 50 Reaktorstandorte sanieren, um den Weiterbetrieb der Kernkraftwerke - unter heutigen Genehmigungsbedingungen - zu gewährleisten. Und in Großbritannien soll sie das Hochrisiko-Projekt Hinkley Point abwickeln.

Vor diesem Hintergrund ist die von Deutschland immer wieder geforderte Abschaltung der beiden grenznahen, angejahrten Kernkraftblöcke Fessenheim nicht näher gerückt. EdF will Fessenheim erst schließen, wenn das immer wieder verzögerte Kernraftwerk Flamanville am Netz ist. Der baden-württembergische Umweltminister Franz Untersteller beschreibt das französische Schriftstück über Fessenheim folgendermaßen: "Das Dekret ist so formuliert, dass es mehr eine Betriebserlaubnis als ein Abschaltdekret ist".


Deutschland: misslungene Energiewende

Die sogenannte deutsche "Energiewende" ist über weite Strecken ein planwirtschaftlicher Murks, weswegen auch kein anderes Land dieses Modell kopieren möchte. Es begann im März 2011 damit, dass die Bundeskanzlerin auf einen Schlag 8 Kernkraftwerke mit einer Gesamtkapazität von 8.800 Megawatt stilllegte: und zwar gegen den Rat der technisch kompetenten Reaktorsicherheitskommission (RSK), aber auf Empfehlung einer ad hoc Ethikkommission, bestückt mit Philosophen und technikfeindlichen Theologen (wie Kardinal Marx: "Die Kernenergie ist des Teufels"). Für die restlichen 9 KKW (12.700 MW) wurden - gesetzlich verbindlich - exakte Abschalttermine festgelegt. Die letzten 3 KKW sollen spätestens 2022 vom Netz gehen.

Das "Erneuerbare-Energien-Gesetz" hat beim Sonnenstrom durch maßlos überzogene Einspeisevergütungen von über 55 Cent pro Kilowattstunde die chinesische Staatskonkurrenz angelockt und die deutschen Kollektorhersteller großenteils in die Insolvenz getrieben.  Es wird noch bis zum Jahr 2025 andauern, bis diese viel zu hohen Förderzusagen aus dem Markt sind. Statt den Wettbewerb zu nutzen, wurden fixe (und viel zu spät korrigierte) Umlagen versprochen, welche den Strompreis um 50 Prozent in die Höhe trieben und Deutschland insgesamt 25 Milliarden Euro pro Jahr kosten. Tendenz steigend auf 30 bis 40 Mrd.

Bei der Windenergie auf See zeigen kürzliche Auktionen, dass überhaupt keine Subventionen mehr nötig wären. Dessen ungeachtet wird der Offshore-Strom immer noch in den ersten 8 Jahren mit 19,4 Cent/kWh gefördert und mit 3,9 Cent/kWh über die nächsten 12 Jahre. So ist es nicht verwunderlich, dass die Kosten der Energiewende insgesamt auf 1.000 Milliarden Euro abgeschätzt werden (Peter Altmaier), womit sie fast so teuer ist wie die Integration der DDR bei der Wiedervereinigung.

Rasant steigen auch die Kosten für die Nord-Süd-Gleichstromnetze. Wegen des Widerstands der Anrainer werden sie vielfach als Erdkabel verlegt, was den Aufwand um den Faktor 5 bis 8 erhöht. Trotzdem wird man erst 2025 mit ihrer Fertigstellung rechnen können. Das führt zu einem riesigen Problem, weil die oben genannten großen Kernkraftwerke allesamt spätestens im Jahr 2022 abgeschaltet werden müssen. Da zu diesen Zeitpunkten die Trassen in die südlichen Länder Bayern und Baden-Württemberg aber noch nicht verlegt sind, wird es in den dortigen Industrieländern mit ziemlicher Sicherheit zu einem Stromengpass kommen.

Meine Prognose: Die nächste Bundesregierung - wer immer sie stellt - wird durch die reale Situation gezwungen werden, ca. ein halbes Dutzend der zur Abschaltung vorgesehenen Kernkraftwerke mindestens fünf Jahre länger in Betrieb zu halten.

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de