Samstag, 21. Oktober 2017

Warum so wenige deutsche Physik-Nobelpreise?

Als der alte Schwede Alfred Nobel genug Geld mit seinem Sprengstoff Nitroglyzerin verdient hatte, wurde er zum Mäzen und stiftete die nach ihm benannten Nobelpreise. Sie werden alljährlich in fünf Sparten ausgelobt, nämlich: Physik, Chemie, Medizin, Literatur und Frieden. (Ein sechster, für Wirtschaft, kam später hinzu.) Wie keine andere Dekoration genießen diese Preise höchstes Ansehen und sind damit ein Marker für den wissenschaftlichen und kulturellen Status eines Landes.

Auf dem Gebiet der Physik war Deutschland lange Zeit führend. Der erste Preis dieser Art ging 1901 an Wilhelm Konrad Röntgen für die Entdeckung der nach ihm benannten elektromagnetischen Strahlen. Danach ergoss sich geradezu ein Schwall von Nobelpreisen auf die deutschen Physiker. Nach dem 2.Weltkrieg tröpfelte es nur noch und seit vollen zehn Jahren erhielt überhaupt kein deutscher Physiker mehr diesen Preis. Über die Gründe dafür lässt sich trefflich spekulieren. Ich möchte mich mit diesem Blog daran beteiligen.


Wilhelm Konrad Röntgen (1845 - 1923)
(Erster deutscher Physik-Nobelpreisträger)


Deutschlands Niedergang anhand der Statistik

Die "Goldene Epoche" der Physik in Deutschland erstreckte sich über drei Jahrzehnte von 1901 bis 1932. In diesen 31 Jahren gab es für die deutschen Physiker 11 Nobelpreise und zwar an: Röntgen, Lenard, Braun, Wien, v. Laue, Planck, Stark, Einstein, Franck, Hertz und Heisenberg. Ihnen gelangen epochale Entdeckungen, wie: Röntgenstrahlen, Kathodenstrahlen, zwei Relativitätstheorien, Photoeffekt, Quantenmechanik, Unschärferelation, Wirkungsquantum usw. Zum Vergleich: im gleichen Zeitraum wurden nur drei Preise an US-Forscher vergeben, nämlich an Michelson, Millikan und Compton.

Nach der Machtergreifung Hitlers 1933 wurden die Quantenphysik und die Relativitätstheorien als "jüdische Physik" verdammt und nicht mehr gelehrt. Stattdessen versuchte man eine "deutsche Physik" zu etablieren, die weniger mathematisch war und mehr auf "Intuition" beruhte. Sie fand international keinen Widerhall, im Gegenteil, die kreativsten Wissenschaftler, wie Einstein und Franck wanderten in die USA ab, beteiligten sich dort am "Manhattan-Projekt" und brachten die amerikanischen Universitäten zum Erblühen. An deutsche Forscher wurde von 1933 bis 1953 kein einziger Physikpreis vergeben.

Nach dem 2. Weltkrieg wurde der Physik-Nobelpreis bislang 12 Mal an deutsche Wissenschaftler vergeben. Darunter waren einige mit Arbeiten aus der Vorkriegszeit, wie Born, Bothe, Jensen und Ruska. Die Entdeckung mit der größten internationalen Ausstrahlung gelang im Jahr 1961 dem Münchener Rudolf Mößbauer. Der letzte deutsche Nobelpreis, bis dato, fiel im Jahr 2007 - also vor 10(!) Jahren - an den Festkörperphysiker Peter Grünbaum vom Forschungszentrum Jülich für seine Magnetforschungen. Dem gegenüber errangen die US-Forscher zwischen 1933 und 2017 sage und schreibe 85 Nobelpreise in Physik!

Betrachten wir die Zeitspanne 2008 - 2017, also die vergangenen 10 Jahre in denen Deutschland keinen einzigen Nobelpreis bekam, mal etwas genauer. In dieser Periode wurden 27 Physikpreise vergeben, wobei pro Jahr maximal drei Preise nach den Statuten möglich sind. Die genannten 27 Preise gingen: an USA (13 Mal), Großbritannien (5), Japan (5), Belgien (1), Frankreich (1), Kanada (1) und Russland (1).  ----  Die physikalische Welt ist an Deutschland vorbei gezogen.


Clevere Amerikaner und Japaner

Die Totalflaute bei den deutschen Physik-Nobelpreisen ist schwer zu begreifen, wenn man nicht an eine plötzliche epidemische Ignoranz glauben möchte. Fragt man in der Szene etwas herum, so kommt man zu mancherlei (Teil-) Begründungen. So wird oft auf die schiere Größe des Wissenschaftsbetriebs in den USA verwiesen, der sich gegenüber früher allerdings auch nicht geändert hat. Auch die Höhe der Forschungsausgaben mit ca. 2,5 Prozent des Bruttoinlandsprodukt (BIP) ist hüben wie drüben in etwa gleich.

Allerdings scheinen die amerikanischen Universitäten und Forschungsorganisationen mehr Cleverness an den Tag zu legen, als die biederen deutschen Hochschulen und Wissenschaftsgesellschaften. Die Amerikaner legen sich bereits ein Jahr vor der Wahl auf wenige Kandidaten aus dem eigenen Land fest. Wenn das schwedische Nobelpreiskomitee dann weltweit um Kandidatenvorschläge bittet, dann nennen die Amerikaner ihre vereinbarten Favoriten. Zum Schluss kommen so viele Stimmen zusammen, dass die Nobelversammlung um diese Vorschläge nicht mehr herum kommt.

In Deutschland (und Europa) schlägt hingegen jeder, der gefragt wird, eigene Kandidaten vor. Man stimmt sich nicht konzertiert ab und fällt dann häufig (auch wegen der Kleinheit des Landes) durch das Raster.

Besonders clever sind die Japaner. Sie haben erkannt, wie das Spiel funktioniert. Deshalb haben sie in Stockholm, wo das Nobelkomitee sitzt, eigens eine Agentur mit üppigem Budget eingerichtet, welche die japanischen Forscher, die als Preiskandidaten in Frage kommen,  ins Gespräch bringt. Das hat sich angeblich bereits bei etlichen Physik- und Chemienobelpreisen bewährt.

Schließlich muss man erwähnen, dass es seit Jahrzehnten amerikanische Praxis ist, begabte junge Leute aus Europa und anderswo (als Postdocs) ins Land zu holen und sie reichlich mit Forschungsmitteln auszustatten. Nicht wenige dieser Hochtalente vollbringen später nobelwürdige Leistungen - aber als naturalisierte Amerikaner. In diese Kategorie fallen auch die (deutschstämmigen) US-Nobelpreisträger Hans Georg Dehmelt (Preis 1989), Horst Ludwig Störmer (1998), Herbert Krömer (2000) und Wolfgang Ketterle (2001).


Beispiel: LIGO

Schwierig wird die "gerechte" Verteilung der Physik-Nobelpreise, wenn es sich um ein Großprojekt handelt, an dem hunderte oder gar tausende von Wissenschaftlern viele Jahre lang gearbeitet haben. Dies ist dem Stockholmer Preiskomitee dieses Jahr gelungen, indem es drei Nobelpreise an die US-Physiker Weiss, Thorne und Barish vergaben. Ihnen gelang die Entdeckung der sogenannten Gravitationswellen, welche von Albert Einstein vor fast hundert Jahren vorhergesagt wurden. Diese Schwerkraftwellen entstehen, wenn schwere Objekte im Weltraum zusammenstoßen. Dies sind in der Regel kollidierende Schwarze Löcher oder Neutronensterne. Dabei entstehen Gravitationswellen, die mit Lichtgeschwindigkeit durch den Weltraum rasen. ("Ähnlich" wie die Wasserwellen, die ein geworfener Stein in einem Teich verursacht).

Den Hauptteil am Gelingen dieser Forschungen hatte der deutsch-stämmige Physiker Rainer Weiss, der 1932 in Berlin geboren wurde und dessen Eltern bald darauf vor den Nazis in die USA flüchteten. Er begründete (vor 45 (!) Jahren) die Laser-Interferometrie als Messmethode und bekam zu recht 50 Prozent des Preisgeldes, also ca. 500.000 $. Sein Freund Kip Thorne entwickelte die beiden sog. LIGO-Detektoren in Hanford (Wash.) mit je vier Kilometern Armlänge, wofür er 25 Prozent des Geldes erhielt. Barry C. Barish, schließlich, dirigierte die fast tausendköpfige Mannschaft von Experimentatoren, welche am 11. Februar 2016 die erfolgreichen Messungen verkünden durfte. Als Leiter dieser Messkollaboration konnte er sich an den restlichen 25 Prozent Preisgeld erfreuen.

Die deutschen Forscher, deren Interferometer GEO 600 bei Hannover nur eine Armlänge von 600 Metern besitzt, hatte nicht die hinreichende Messgenauigkeit und ging bei der Preisverteilung leer aus.


Gegen-Beispiel: HIGGS

Es war im Jahr 1964, als der schottische Lehrbeauftragte für Mathematik und theoretische Physik, Peter Higgs, ein recht seltsames Elementarteilchen postulierte. Dieses winzige Teilchen sollte ein Feld entfalten, durch welches die etwa ein Dutzend bereits bekannten Elementarteilchen erst ihre Masse erhielten. Das Teilchen war mit einer vorhergesagten Masse von 125 GeV/c2 recht schwer und sollte innerhalb einer Billionstel Sekunde zerfallen. Die gleiche Idee hatten zur selben Zeit auch der Belgier Francois Englert sowie vier weitere Forscher, von denen bereits drei verstorben sind. Praktischerweise nannte man dieses obskure Teilchen nach seinem Propheten "Higgs-Teilchen" bzw. "Higgs-Boson".

Wegen seines hohen Gewichts ist das Higgs-Teilchen nur an sehr leistungsfähigen Beschleunigern nachzuweisen. Das gelang (nach vergeblichen Versuchen beim Tevatron in den USA) am 4. Juli 2012 am CERN-Beschleuniger LHC bei Genf. Dabei wurde eine Signifikanz von 5 Sigma erreicht, d. h. das gesuchte Teilchen schien eindeutig nachgewiesen zu sein. Übrigens an beiden Detektoren ATLAS und CMS gemeinsam, die jedoch von verschiedenen Experimentier-Kollaborationen betrieben werden. Nach 49-jährigem Warten wurden Peter Higgs und Francois Englert im Herbst 2013 je zur Hälfte mit dem Nobelpreis geehrt.

Da stellt sich die Frage, weshalb den Experimentatoren an den Detektoren beim LHC in CERN kein Preis zugemessen wurde. Elementarteilchen mit einer so geringen Zerfallszeit sind außerordentlich schwer nachzuweisen, sodass die wissenschaftlichen Leiter der Kollaborationen bei ATLAS und/oder CMS für ihre hervorragende Leistung auf alle Fälle preiswürdig waren. Ähnlich ist man ja auch (siehe oben) bei LIGO  verfahren.

Bis diese Frage nicht schlüssig geklärt ist, muss man wieder einmal ein Versagen der europäischen Physikerfunktionäre vermuten. Leider!

Montag, 16. Oktober 2017

Hybride und andere Stromtrassen

Durch den Ausbau der erneuerbaren Energien verschieben sich die Schwerpunkte der Stromerzeugung. Bis 2022 sollen alle noch laufenden Kernkraftwerke vom Netz gehen. Diese stehen jedoch häufig dort, wo viel Energie benötigt wird - etwa in den süddeutschen Ballungsräumen.

Diese Lücke kann nicht allein durch regenerative Energien vor Ort geschlossen werden. Große Windparks entstehen vor allem in Nord- und Ostdeutschland und auf See. Der dort erzeugte Strom muss zum Verbraucher transportiert werden, wobei das bestehende Netz bereits jetzt an seine Grenzen stößt. Insgesamt müssen in den nächsten Jahren allein 7.500 Kilometer im sogenannten Übertragungsnetz optimiert oder neu gebaut werden.

Während früher der Strom vom Kraftwerk über die Übertragungsleitungen und die Verteilernetze zum Verbraucher floss, müssen die Netze heute den Stromtransport auch "im Gegenverkehr" bewältigen, da der Strom nicht nur "von oben nach unten" sondern auch ( u. a. wegen der Solarkollektoren) "von unten nach oben" fließt. Um also Erzeugung und Verbrauch jederzeit aufeinander abzustimmen, muss der Stromtransport "intelligenter" bzw. "smarter" werden.

In diesem Blog werden eine Reihe bekannter und weniger bekannter Probleme beim Netzausbau zusammengestellt.


Spannungsebenen

Wechselstrom wird auf unterschiedlichen Spannungsebenen transportiert:

---Zum Bereich der Niederspannung gehören die etwa 230 Volt, die im Haushalt an der Steckdose anliegen. Auf dieser Spannungsebene wird die Stromenergie über kurze Strecken verteilt.

---Die Mittelspannung beginnt bei ca. 1.000 Volt. Sie dient der Verteilung über Strecken von einigen Kilometern bis um die 100 km, vor allem in ländlichen Gebieten.

---Bei Spannungen größer als 60.000 (=60 Kilovolt) spricht man von Hochspannung. Das üblicherweise mit 110 Kilovolt (kV) betriebene Hochspannungsnetz sorgt für die Grobverteilung von Energie in verschiedene Regionen und Ballungszentren sowie Industriestandorte.

---Das Höchstspannungsnetz wird meist mit 380 kV, zum Teil auch mit 220 kV betrieben. Höhere Spannungen sind ebenfalls möglich. Auf dieser Spannungsebene wird die Energie über weite Strecken großräumig übertragen. Daher wird es auch Übertragungsnetz genannt. Große Energieerzeuger (zum Beispiel Kraftwerke und Windparks) sind so mit den Lastzentren verbunden. Über das Höchstspannungsnetz sind auch die Netze angrenzender Länder mit dem deutschen Stromnetz verbunden.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. Man spricht dabei von Hochspannungs-Gleichstrom-Übertragung (HGÜ).


Vernetzte Landschaft


Freileitungen

Weltweit werden, seit den 1920er- Jahren, Freileitungen zur Übertragung von Strom in der Höchstspannungsebene eingesetzt. Sie können hohe Leistungen übertragen, da die Wärme, welche durch den Stromfluss entsteht, leicht an die umgebende Luft abgegeben werden kann. Das kann man sich zunutze machen, indem man im Winter, wenn der Stromverbrauch ohnehin erhöht ist, die Freileitungen auch höher belastet.

Der Strom kann entweder als Wechselstrom oder als Gleichstrom übertragen werden. Bei der Übertragung von Wechselstrom teilt sich die elektrische Leistung auf in Wirkleistung und Blindleistung. Nur die Wirkleistung kann von angeschlossenen Verbrauchern genutzt werden -zum Beispiel um Haushaltsgeräte zu betreiben. Die nicht nutzbare Blindleistung muss vor allem auf längeren Strecken kompensiert werden. Die Wechselstromübertragung ist in Deutschland sehr verbreitet, da sich die Spannung sehr effizient verändern lässt.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. (Siehe oben). Im Gegensatz zum Wechselstrom wird bei der Gleichstrom-Übertragung keine Blindleistung ins Netz gespeist. Bisher wird in Deutschland Gleichstrom besonders bei der Seekabel-Anbindung an andere Länder eingesetzt oder zur Anbindung von Offshore-Windkraftanlagen, also bei der Verwendung von Stromkabeln statt Freileitungen. Künftig soll aber auch im Landesinnern Strom in hohen Spannungsebenen auf längeren Strecken vermehrt als Gleichstrom übertragen werden - allerdings vorrangig als Erdkabel. (Siehe unten).

Wird elektrische Energie über eine Freileitung übertragen, so treten in der Umgebung elektrische und magnetische Felder auf. (Wie übrigens auch bei Haartrocknern, Mikrowellen und Staubsaugern.) Grundsätzlich können elektrische und magnetische im menschlichen Körper zusätzliche Ströme erzeugen. Wenn diese Ströme eine bestimmte Schwelle übersteigen, können biologische Wirkungen auftreten. Deshalb müssen beim Betrieb von Stromleitungen Grenzwerte eingehalten werden. Die 26. Bundes-Immissionsschutz-Verordnung schreibt für das Wechselstromnetz mit einer Frequenz von 50 Hertz (Hz) einen Immissionsgrenzwert der magnetischen Flussdichte von 100 Mikrotesla vor. Der Grenzwert für die elektrische Feldstärke beträgt 5 Kilovolt pro Meter. Für Gleichstromanlagen (0 Hz) gilt ein Grenzwert der magnetischen Flussdichte von 500 Mikrotesla. Beide Felder nehmen mit zunehmenden Abstand ab. Elektrische Felder lassen sich leichter abschirmen; magnetische Felder können nur mit größerem Aufwand abgeschirmt werden. Der Bodenabstand der Freileitungen ist so bemessen, dass daraus keinerlei Strahlenschäden entstehen.

Die genauen Kosten für den Ausbau des deutschen Übertragungsnetzes sind derzeit nur schwer zu kalkulieren. Aus den Angaben der Netzbetreiber ergeben sich für die bestätigten Netzentwicklungspläne 2024 Summen von etwa 18 Milliarden Euro für den Netzausbau an Land und etwa 15 Milliarden Euro für den Offshore-Netzausbau. Darin enthalten sind jedoch noch nicht die Mehrkosten für die Erdverkabelung an Land.


Hybrid-Leitungen

Hybridleitungen übertragen sowohl Gleich- als auch Wechselstrom auf einem Mastsystem. Die Kombination von Gleich- und Wechselstrom auf Höchstspannungsebene ist in Deutschland noch nicht zum Einsatz gekommen, wird aber weltweit (USA, Kanada) bereits genutzt. Die Bundesnetzagentur hat festgelegt, dass dies beim sog. "Ultranet", dem Vorhaben 2 im Bundesbedarfsplan, erstmalig der Fall sein soll. Dieser Netzteil wird federführend von Amprion gebaut und transportiert den Strom von Nordrhein-Westfalen nach Philippsburg in Baden-Württemberg. Dafür werden bestehende Wechselstromleitungen umgerüstet. Unter anderem müssen neue Isolatoren für die Leiterseile eingebaut werden.

Der Grund für den Bau von Hybridleitungen ist, dass sie den Strom besonders flexibel übertragen. Gleichstrom eignet sich insbesondere zur Übertragung auf langen Strecken, da die Verluste geringer sind und damit die im Norden erzeugte Energie in den Süden transportiert werden kann. Wechselstrom eignet sich besonders für kürzere Strecken. Indem das bereits bestehende Netz genutzt wird, kann häufig auf den Neubau von Leitungen verzichtet werden. Die eingesetzte Technik ist in Deutschland auf Teststrecken seit Jahren erforscht.

Da im Ultranet bereits eine erhebliche Anzahl von Freileitungen existieren, die zudem großenteils genehmigt sind, hat der Gesetzgeber dort auf die Erdverkabelung verzichtet. Damit reduzieren sich auch die Gesamtkosten für diesen Leitungsteil ganz erheblich.


Erdkabel

In den Anfangsjahren der Energiewende (2011-12) bestand die Absicht, den im Norden Deutschlands erzeugten Strom über fünf Gleichstrom-Freileitungen in den Süden zu transportieren. Wegen der Widerstände der Bevölkerung ("Monstertrassen") wurde dieser Plan weitgehend aufgegeben. Derzeit besteht für die Vorhaben 1, 3, 4 und 5 (also ohne das Vorhaben 2=Ultranet) der sogenannte "Erdkabel-Vorrang". Das bedeutet, dass diese vier Vorhaben "vorrangig" als Erdkabel auszuführen sind. Nur in begründeten Ausnahmefällen sind dafür (auf einzelnen Teilstrecken) Freileitungen vorzusehen. Deren Masthöhen - vermutlich um die 70 Meter -  sind zur Zeit noch nicht exakt festgelegt.

Der Einsatz von Erdkabeln in überregionalen Übertragungsnetzen, die große Strommengen über weite Distanzen transportieren, bringt neue technische Herausforderungen. So besteht beispielsweise ein Problem bei der Wärmeleitung. Da das Kabel von Erde umgeben ist, wird die Wärme, die durch die elektrischen Verluste entsteht, nur teilweise abgeführt. das begrenzt den möglichen Stromfluss und damit die über das Kabel übertragbare Leistung.

Die unterirdische Trasse führt auch zu einem großen Aufwand bei notwendigen Reparaturen, denn dabei müssen erst Bagger die Kabel freilegen. Dies wirkt sich  auf die Reparaturdauer und damit auf die Versorgungssicherheit aus. Weiterhin fehlen ausreichende Untersuchungen über die Erwärmung des Bodens und deren Folgen auf die Umwelt.

Im Jahr 2014/15 wurde ein Pilotprojekt zur Erdverkabelung in der Gemeinde Raesfeld im Westmünsterland durchgeführt. Auf 3,5 Kilometer Länge testete der Übertragungsnetzbetreiber Amprion erstmals den Bau einer 380 kV-Hochspannungsleitung in Wechselstromtechnik. Das Unternehmen hat dafür etwa 40 Millionen Euro aufgewendet - sechs Mal soviel, wie eine vergleichbare Freileitung gekostet hätte.

Erdkabel benötigen beim Bau viel Raum. Allein die typische Kabeltrommel für 1000 Meter Kabel hat einen Durchmesser von 4,6 Meter und wiegt 55 Tonnen. Nicht jede Brücke oder Unterführung ist dafür ausgelegt. Die diversen Fahrzeuge und Bagger erfordern im Baubetrieb viel Platz. Zum Schluss darf - zur Enttäuschung der Grundbesitzer - weder die eigentliche Kabeltrasse noch der parallele Baustreifen mit Bäumen oder tief wurzelnden Gräsern bepflanzt werden.


Konverterstationen

Elektrische Energie wird in Kraftwerken überwiegend als Wechselstrom erzeugt. Daher fließt in den deutschen und europäischen Stromnetzen überwiegend Wechselstrom. Im Rahmen des Netzausbaus soll jetzt in Deutschland auch für lange Strecken die effektivere Gleichstromtechnik verwendet und somit ins vorhandene Wechselstromnetz integriert werden. Um Gleichstromleitungen mit dem Wechselstromnetz zu verbinden, sind an den Endpunkten Konverteranlagen erforderlich. Ein Konverter wandelt Wechselstrom in Gleichstrom um und umgekehrt.

Eine Konverteranlage besteht im Wesentlichen aus vier Funktionsblöcken: dem Wechselstrom-Anschluss, den Transformatoren, dem Umrichter und schließlich der Gleichstrom-Schaltanlage mit den Gleichstrom-Anschlüssen. Im Umrichter, dem Kernstück der Anlage, findet die Umwandlung des Stroms statt. Der Umrichter besteht aus Transistoren, Dioden ,Kondensatoren und Spulen. Da diese Bauteile sehr empfindlich sind, müssen sie in Hallen untergebracht werden. Weil sie zudem unter Hochspannung stehen, müssen mehrere Meter Abstand zum Boden und zu den Wänden eingehalten werden.

Die Fläche, welche für einen Konverter benötigt wird, hängt wesentlich von der Übertragungsleistung der vorhandenen Leitung ab. Für Gleichstrom-Vorhaben geht man bei einer Übertragungsleistung von 2 Gigawatt von einer Gesamtfläche von 10 Hektar (= 100.000 Quadratmeter) aus. Das eigentliche Kernstück der Anlage, die Konverterhalle, nimmt eine deutlich geringere Fläche ein.


Schlussgedanken

Meines Erachtens war es ein schlimmer Fehler, dass die deutschen Politiker (insbeondere die bayerischen Seehofer/Aigner) so schnell eingeknickt sind und die Erdkabel zur Standardlösung für die Gleichstromübertragung von Nord nach Süd zugelassen haben. Die - nur - 5 Trassen hätten angesichts ihrer lediglich geringfügig höheren Masten das (regional) oft chaotische Wechselstromnetz kaum nennenswert optisch verschlechtert. Stattdessen hätte man auf hundert Jahre Erfahrung im Freileitungsbau zurückgreifen können. Demgegenüber ist die Erdverkabelung auf Höchstspannung in Deutschland praktisch Neuland. Die Grundstückseigentümer, zumeist Landwirte, werden ihre Nachteile bei Reparaturen bald  bedauern.







Montag, 9. Oktober 2017

Gauland - zwischen Politik und Literatur

Alexander Gauland, geboren 1941 in Chemnitz, ist promovierter Jurist und ein bekannter ranghoher Politiker der Partei "Alternative für Deutschland". Beim kommenden Bundestag in Berlin wird er die Fraktion der AfD anführen.

Weniger bekannt ist, dass Gauland über 40 Jahre hinweg (von 1973 bis 2013) Mitglied der CDU war und dort bis zum Staatssekretär in der Hessischen Staatskanzlei unter Ministerpräsident Wallmann aufstieg.

Noch weniger bekannt dürfte sein, dass er jahrelang Gastgeber eines "Politischen Salons" in Potsdam war und dort unter anderem Bücher von Udo Di Fabio, Joachim Fest und Konrad Adam vorstellte. Bei einem halben Dutzend von Büchern war Gauland selbst Autor. Zu nennen sind: Die Deutschen und ihre Geschichte (2009), Das Haus Windsor (1996), Anleitung zum Konservativsein (2002) etc.

Am wenigsten bekannt ist wohl, dass Gauland in dem Schlüsselroman "Finks Krieg" von Martin Walser eine (negativ konnotierte) Hauptrolle spielt. Das ist das Thema dieses Blogs.


Die Leiden des Ministerialrats Wirtz.

Als der Jurist Rudolf Wirtz (54-jähig) in der Hessischen Staatskanzlei zum "Leitenden Ministerialrat" aufgestiegen war, hatte er ein wesentliches Berufsziel erreicht. Denn bald wurde er zum sogenannten "Kirchenkoordinator" bestellt, der wichtigen Verbindungsstelle zu den Konfessionen und den Religionsgemeinschaften. Seit seiner Referendariatszeit für eine Anwaltskanzlei im israelischen Tel Aviv war ihm dies als "Traumjob" erschienen. Sicherlich nur rein zufällig hatte er das gleiche SPD-Parteibuch wie sein oberster Chef, der umgängliche Ministerpräsident Holger Börner.

Aber nur zwei Jahre später kam der CDU-Mann Walter Wallmann ans Ruder und mit ihm sein alter Bekannter aus Studienzeiten, Alexander Gauland, gleichfalls CDU, der nun als Staatssekretär die Hessische Staatskanzlei dirigierte. Kurz angebunden versetzte er Wirtz auf eine andere, wesentlich weniger bedeutsame Position bei gleicher Bezahlung. An dessen Stelle rückte nun Wolfgang Egenter, ein Fraktionsassistent des neuen Ministerpräsidenten. Begründet wurde diese Umbesetzung mit angeblichen Beschwerden aus Kreisen der Religionsgemeinschaften. Für Wirtz brach eine Welt zusammen.

Und er setzte sich zur Wehr. Im Eilverfahren klagte er vor dem Verwaltungsgericht Wiesbaden, denn er hatte erfahren, dass die neue Stelle - mit einer Besoldungserhöhung von B3 auf B6 - nicht ordentlich ausgeschrieben war. Wirtz bekam bei dieser "Konkurrentenklage " zunächst zwar recht, aber die nächste Instanz, der Hessische Verwaltungsgerichtshof (VGH) entschied zugunsten Gaulands und der Hessischen Landesregierung. Gauland versicherte mehrmals an Eides statt, dass die Kirchenvertreter Vorbehalte gegen Wirtz geäußert hätten, was letztlich ausschlaggebend war. Erst viel später, um das Jahr 2000, tauchte ein Brief im Hessischen Verwaltungsgericht auf, der besagt: "Im Nachhinein hat sich herausgestellt, dass diese Angabe - nämlich: die Versicherung an Eides statt durch Alexander Gauland - unrichtig war".

Wirtz musste sich zwar wenige Jahre mit seiner neuen, ungeliebten Position zufrieden geben, aber er hatte Glück. 1991 trat mit Hans Eichel ein neuer SPD-Ministerpräsident in Hessen an. Er hatte von dieser Affäre natürlich gehört und bestellte  Rudolf Wirtz umgehend wieder in sein altes Amt. Auch der nun rausgedrängte Wolfgang Egerter musste sich nicht beklagen. Im Zuge der deutschen Wiedervereinigung benötigte Bernhard Vogel, der neu ernannte CDU-Ministerpräsident für Thüringen, einen tüchtigen Helfer. Er wählte Wolfgang Egerter und beförderte ihn gleich zum Staatssekretär! Wow.


Der Schlüsselroman "Finks Krieg"

Nach der sogenannten "Wende" und der Abwahl der Wallmann-Regierung in Hessen, betätigte sich Alexander Gauland von 1991 bis 2005 als Herausgeber der "Märkischen Allgemeinen Zeitung" (MAZ) in Potsdam, einem Ableger der Frankfurter FAZ. Er hatte in dieser Zeit voll auf die journalistische Bearbeitung der West-Ost-Thematik umgeschaltet.

Sein Widersacher Rudolf Wirtz - obschon seit 1991 wieder in Amt und Würden - konzentrierte sich hingegen auf die eigene Person und die penible Dokumentation seines "persönlichen Elends". So sammelte er insgeheim mehr als 50 brechend gefüllte Aktenordner zum "Fall Wirtz", die er mit DGG betitelte, in Langschrift: "David gegen Goliath", also "Ministerialrat Wirtz gegen Staatssekretär Gauland". Über Beziehungen gelang es Wirtz, den Romanschriftsteller Martin Walser für dieses Konvolut zu interessieren. In sechsjähriger Arbeit erstellte der Dichter daraus den Roman "Finks Krieg", welcher 1996 im Suhrkamp-Verlag erschien. Der Roman wurde sofort zum Bestseller in der Spiegel-Rangliste und in der Folge ins Französische, Spanische und Türkische übersetzt.



                                              Der Bestseller-Roman

Der Roman handelt von einem Ministerialrat Stefan Fink, der nach der Landtagswahl in Hessen seine Position als Kirchenkoordinator räumen muss und in dem man unschwer Rudolf Wirtz erkennen kann. Der Versetzung durch den Staatssekretär Tronkenberg (alias Gauland) entgegnet Fink mit einer Konkurrentenklage. Offensichtlich hatten prominente Vertreter der katholischen Kirche Fink/Wirtz fallen lassen. Nach seiner Rehabilitation versucht er - erfolglos - an Tronkenberg Rache zu nehmen, indem er ihn des Meineids bezichtigt. Fink gerät zunehmend in die Isolation und findet am Ende des Romans Zuflucht in einem Kloster.

Der Roman schildert alle Figuren aus der ungehemmten Ich-Perspektive des Beamten Fink. Zuerst erscheint der Ministerialrat Fink das Opfer von Staatssekretär Tronkenburg zu sein, dann aber wird Tronkenburg immer mehr zum Opfer von Fink. Der Krieg des Beamten Fink wird als innerer Monolog erzählt, der schließlich zur Zerstörung seiner Persönlichkeit und zur totalen Vereinsamung führt. Der Staatssekretär Tronkenberg erscheint als anglophiler Finsterling, der ständig in englischen Tweed-Jackets mit Karo-Mustern herumläuft. Der Roman ist in der ersten Hälfte durchaus unterhaltsam, im zweiten Teil (von 310 Seiten) aber eher langweilig und wäre heute vermutlich kein Bestseller mehr.

Dafür ist das Grundmuster der Erzählung einfach zu banal. Versetzungen von Beamten kommen tausendfach vor und werden nicht als ungerecht empfunden, wenn dieser den gleichen Sessel schon seit 18 Jahren drückt. Insbesondere, wenn eine neue (CDU-) Regierung ans Ruder kommt, wo früher 40 (!) Jahre lang (SPD-) Genossen die Geschicke eines Landes wie Hessen bestimmt haben. Im Übrigen war 1996, also bei Erscheinen des Romans, bekannt, dass der Beamte Wirtz, nach nur zwei Jahren Dienst in der Rechtsabteilung des Ministeriums, wieder seinen früheren Kirchenjob einnehmen durfte. Und, dass das Land Hessen 1994 alle Prozesskosten von Wirtz übernahm, ihm eine in der Öffentlichkeit nicht genannte satte Entschädigung bezahlte und, dass der stellvertretende Ministerpräsident (Joschka Fischer) im Namen des Landes Hessen sich bei Wirtz in aller Form für das ihm bereitete Ungemach entschuldigen musste. Anschließend durfte Wirtz sogar noch als Berater für Religionsfragen wirken.

Die Auseinandersetzungen zwischen Gauland und Wirtz fanden ihr biologisches Ende, als Rudolf Wirtz im Jahr 2003 starb.

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de