Samstag, 24. September 2016

Die Ölschwemme - wie lange noch?

Vor gut zwei Jahren passierte es: an den Rohstoffbörsen fiel der Preis für ein 159-Liter-Faß (barrrel), fast über Nacht, von 125 US-Dollar auf 50, zeitweise sogar auf nur 27 Dollar. In der Folge wurden an den Tankstellen Benzin und Diesel um fast ein Drittel billiger. Benzin der Sorte E10, welches man früher noch für 1,70 Euro pumpen musste, fiel zeitweise auf unter 1,20 Euro. Ich kann mich noch lebhaft daran erinnern, dass die Tankstellen damals von den Autofahrern regelrecht belagert wurden, denn jeder glaubte, dass die "Billigzeit" schon morgen wieder beendet sein könnte.





Die Entwicklung des globalen Ölpreises seit der Energiewende 2011

Diese Permanent-Angst ist jetzt großenteils vorbei. Ohne Probleme kann man seit dem Jahr 2014 Benzin zu einem moderaten Preis von 1,20 bis 1,30 Euro pro Liter kaufen. Umgekehrt gibt es jetzt sogar Zeitgenossen, welche glauben, dies ginge in alle Ewigkeit so weiter. Dabei hatten die klugen Ressourcenwissenschaftler des "Club of  Rome" schon im Jahr 1972 vorhergesagt, dass - vor allem Erdöl - in Zukunft dramatisch teurer werden würde. Von 200 bis 300 $ pro Barrel war die Rede und  bereits ein Jahr später schienen diese Schwarzseher recht zu bekommen. Im Zuge der sogenannten ersten Ölkrise im Oktober 1973 gab es zeitweise überhaupt kein Öl mehr zu kaufen und die Menschen in Europa genossen das Privileg, auf der Autobahn spazieren gehen zu dürfen. Zur klammheimlichen Freude der damals aufkommenden Partei der Grünen!


Die gegenwärtige Versorgung mit Erdöl

Erdöl ist zur Zeit der wichtigste Energieträger der Weltwirtschaft. Sein Anteil am globalen Energieverbrauch lag im Jahr 2011 bei 33 Prozent. Es folgten Kohle (mit 30 %) und Erdgas (24 %); weit abgeschlagen waren Wasserkraft (7 %) und Kernenergie (6 %). Innerhalb der Branchen hat der Verkehr mit 55 Prozent den weitaus höchsten Ölverbrauch, gefolgt von der Petrochemie (25 %) und der Stromversorgung sowie der Heizung (20 %).  Rund 80 Millionen Fass Mineralöl verbraucht die Erdbevölkerung - an jedem Tag! Mit 2,5 Prozent ist daran die Bundesrepublik Deutschland beteiligt.

Erdöl (bzw. Rohöl) ist keine seltene Ressource, sondern wird in mehr als drei Dutzend Ländern gefunden. Am häufigsten in Saudi-Arabien, wo jeden Tag um die 12 Millionen Barrel (b) gefördert werden. Es folgen Russland mit 11,5 Mio b und die USA mit 11 Mio b. Die nächste Liga bilden Länder wie der Iran (6 Mio b), China (4,1), Irak (3,4), Venezuela (3,9), Kanada (3,7) und Katar (1,9). In Großbritannien (0,9) und Norwegen (1,9) fällt die Förderung seit Jahren ab. Die wichtigste Rohölsorte Europas kommt aus dem Nordseefeld "Brent" zwischen Schottland und Norwegen. Es ist "süßes" Öl mit niedrigem Schwefelgehalt, welches zudem viele niedrigsiedende Bestandteile enthält.

Im Idealfall wird der Preis des Erdöls über Angebot und Nachfrage ermittelt. Aber das Angebot reduzierte sich in den vergangenen Jahrzehnten recht häufig aufgrund politischer Interventionen, wodurch es zu drastischen Preissprüngen kam. Rückblickend war das der Fall im Jahr 1973 wegen des besagten OPEC-Boykotts, 1979 wegen der Revolution im Iran, 1990 wegen des irakischen Überfalls auf Kuweit, 2001 wegen des Terrorangriffs auf New York und 2008 wegen der weltweiten Finanzkrise. Dass 2014 der Ölpreis drastisch - und dauerhaft - um zeitweise 70 % gefallen ist, stellt eine große Ausnahme dar und bedarf der Erklärung.

Aus heutiger Sicht gibt es dafür nur einen Grund: bewusste Überproduktion. Den Anfang machten die US-Amerikaner mit ihrem "Fracking". Bei dieser Technologie wird ein Gemisch aus Chemikalien und Wasser in Schiefergestein gepresst, wodurch sich auf relativ einfache und billige Art große Mengen an Erdöl (oder Erdgas) an die Oberfläche holen lassen. Mit dieser Technik steigerten sie während der vergangenen fünf Jahre ihre Tagesproduktion auf über 10 Millionen Barrel, was die USA unabhängig von weiteren Einfuhren machte. Dies veranlasste den Konkurrenten Saudi-Arabien seine Ölproduktion ebenfalls zu erhöhen, gefolgt von Russland, welches um seine Einnahmen fürchtete. Als weiterer Player kam der Iran hinzu, als dieses Land den sogenannten Atomkompromiss unterschrieben hatte und dadurch wieder satisfaktionsfähig als Öllieferland war. Im Frühjahr 2016 versuchten die früheren Opec-Staaten in Katar eine Deckelung der Förderung zu erreichen, was aber misslang. Dazu beigetragen haben auch politisch-religiöse Animositäten, weil Saudi-Arabien die Islamfraktion der Sunniten und der Iran jene der Schiiten unterstützt.

In den Industriestaaten wirken die günstigen Energiepreise wie ein Konjunkturprogramm. So schmerzhaft der Verfall des Ölpreises für die Förderländer sein mag, so gut ist er für den Rest der Welt. Wie eben bei einem Nullsummenspiel! Die etwa 500 Milliarden Dollar, die jetzt weniger für Öl ausgegeben werden verschwinden ja nicht, sondern fließen in den Konsum der Verbraucher oder werden anderweitig investiert.


Der Ölmarkt in der Zukunft

Die Zukunft des Erdöls als Wirtschaftsgut hängt ab von der Größe der Vorkommen, der Nachfrage und dem Preis. Lange Zeit richtete sich der Blick nur auf die Vorkommen. Nach der viele Jahrzehnte gültigen "Peak Oil"-Theorie richtete sich die Ausbeutung eines Ölfeldes nach der bekannten statistischen Glockenkurve: erst steigt die  Förderung an, erreicht dann ein Plateau, worauf sie schließlich auf Null zurück fällt. Die Ölquelle wurde als eine Art Bassin gedeutet, das zwangsläufig irgendwann leer sein musste. Aber die Wirklichkeit ist viel komplexer. Richtiger ist schon das Bild von einem porösen Schwamm, den man immer wieder auspressen kann - und das umso öfter, je besser die Fördertechnologie entwickelt ist. Außerdem: steigt der Ölpreis durch irgend einen Umstand, so lohnt es sich auch an entlegenen und kostenträchtigen Plätzen (wie der Tiefsee)  nach Öl zu suchen. Wodurch sich das Ölangebot gleich wieder erhöht. Die niedrigsten Förderkosten hat man im Nahen Osten mit ca. 25 $ pro Fass; es folgen Offshore geringer Wassertiefe (40 $), Tiefsee (53 $), Russland (55 $), Schieferöl in USA (62 $) und Ölsande (85 $).

Die Peak Oil Theorie wurde in den letzten Jahren von der "Peak Demand"-Theorie abgelöst. Sie rückt die Nachfrage in den Vordergrund und fragt, ob es nicht eher einen Höhepunkt der Nachfrage für Öl gibt -ab welchen der Verbrauch dieses Rohstoffs kontinuierlich zurück geht. Und tatsächlich deutet vieles in diese Richtung, wenn man historische Betrachtungen anstellt und in die nahe Zukunft extrapoliert. So war die globale Energieversorgung noch in der ersten Hälfte des 20. Jahrhunderts von der Kohle dominiert, das Erdöl spielte so gut wie keine Rolle. Aber schon ab dem Jahr 1950 war das Öl mit einen Fünftel im globalen Energiemix vertreten, wobei die Kohle immer noch 45 % ausmachte. Anfang der 1970er Jahre war das Bild bereits umgekehrt: Nahezu die Hälfte der weltweiten Energieversorgung beruhte auf Öl - aber der Newcomer Erdgas besaß schon einen Anteil von 18 %. Mit der Dominanz von Kohle war es vorbei, obwohl sie immer noch 30 % im weltweiten Energiemix ausmacht.

Inzwischen ist es das Öl, welches um seine Vorherrschaft bangen muss. Zwar ist es mit einem Anteil von einem Drittel immer noch der globale Energieträger Nr.1, aber das konkurrierende Erdgas ist ihm mit fast einem Viertel schon ganz nahe gerückt. Die Kohle stagniert. Zugleich erlebt die Welt seit 10 bis 15 Jahren den Aufstieg der Erneuerbaren Energien. Sie haben unter allen Energieträgern die stärksten Zuwachsraten. In den kommenden zwanzig Jahren werden sich also die relativen Gewichte der einzelnen Energieträger weiter verschieben. Der Ölmulti British Petrol (BP), der ganz nahe am Markt ist, schätzt, dass der Ölanteil bis 2035 weltweit auf 26 % zurück geht. Das Erdgas dürfte in 20 Jahren im gleichen Umfang wie Kohle und Öl zur weltweiten Energieversorgung beitragen.  Zusammen werden diese fossilen Energien dann immer noch rund 80 %  der globalen Energienachfrage abdecken. Die restlichen 20 % kommen von den CO2-freien Erneuerbaren Energien (7 %) und der Wasserkraft (13 %).

Logischerweise ist die zukünftige Ölnachfrage regional unterschiedlich. Die BP schätzt in ihren Energy Outlook, dass bis 2035 in den 35 westlichen Industriestaaten der OECD der Bedarf an Erdöl um 18 % sinken wird, in Deutschland - aufgrund der CO2-Pönalisierung - sogar noch stärker. Der Mineralölwirtschaftsverband (MWV) geht dort von einer Abnahme des Benzinverbrauchs um annähernd 40 % aus, bei Heizöl um ein Drittel. Diese Verbrauchsabnahmen werden aber global zum Teil überkompensiert durch das Wachstum ausserhalb der OECD und in den Schwellenländern. So schätzt man, dass die Autos von derzeit 1,2 Milliarden Einheiten bis 2050 auf 2,4 Milliarden zunehmen werden.
Trotzdem: wenn keine abrupten politischen Umstände eintreten, wird der Weltölpreis sich noch lange zwischen 50 und 100 $ pro Fass bewegen.

All dies hat bereits vor Jahren der charismatische saudische Ölminister Yamani vorausgedacht, als er in einen Bonmot verkündete:
Die Steinzeit ist nicht zu Ende gegangen weil es keine Steine mehr gab - und das Ölzeitalter wird nicht wegen Mangel an Öl enden.

Sonntag, 18. September 2016

Die Expansion des Universums

Der deutsche Philosoph Immanuel Kant (gestorben 1804) liebte es bombastisch, wenn er sagte: Zwei Dinge erfüllen das Gemüt mit Bewunderung und Ehrfurcht: der gestirnte Himmel über mir und das moralische Gesetz in mir. Für den moralischen Teil dieses Diktums hatte er den "Kategorischen Imperativ" erfunden (Handle so, dass dein Wollen als Grundlage einer Gesetzgebung gelten kann). Den bestirnten Himmel teilen sich die Theologen mit den Physikern, wobei Letztere vor allem im vergangenen Jahrhundert Erstaunliches herausgefunden haben.

Wieder einmal beginnt alles bei Einstein, der seine "Allgemeine Relativitätstheorie" (ART) im Jahr 1916 - also vor genau hundert Jahren - der Preußischen Akademie der Wissenschaften in Berlin vorgetragen hat. Die ART beschreibt die Wechselwirkung zwischen Materie und Feldern einerseits, sowie zwischen Raum und Zeit andererseits. Die Schwerkraft (Gravitation) wird als geometrische Eigenschaft der vierdimensionalen Raumzeit gedeutet. Für Einstein war das Universum noch ein statisches, immer gleich bleibendes Gebilde, angefüllt mit Materie und Energie. Als er einmal gefragt wurde, ob das Universum unendlich sei, antwortete er mit feiner Ironie: Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit - aber beim Universum bin ich mir nicht ganz sicher.

Schon zehn Jahre nach der Publikation der ART wurde immer deutlicher, dass sich das Universum ausdehnt. Der Astronom Edwin Hubble hatte die Rotverschiebung der Spektrallinien des Lichts entdeckt und der Physiker Alexander Friedmann lieferte die theoretische Beschreibung eines (gleichmäßig!) expandierenden Weltalls dazu. Diese - beobachtete - "Galaxienflucht" führte letztlich zur Theorie des "Urknalls". Vor 13,7 Milliarden Jahren muss ein Zustand unendlich hoher Dichte vorgelegen haben, woraus durch Expansion unser Weltall entstanden ist. Unklar ist, ob diese Ausdehnung unendliche Zeit andauern wird, oder ob sie irgendwann zum Stillstand kommt und wegen der Wirkung der Gravitation in eine Kontraktion übergeht. Ähnlich wie ein Ball, den man im die Höhe wirft und der, wegen der Schwerkraft, schließlich umkehrt und nach unten fällt. Sozusagen ein umgekehrter Urknall.

Dunkle Energie contra Schwerkraft

Künftige Generationen brauchen jedoch nicht zu befürchten, dass Ihnen die Sterne und Galaxien - wegen der anziehenden Schwerkraft - so schnell auf den Kopf fallen. Im Gegenteil: vor knapp zwanzig Jahren haben die drei Physiker Riess, Schmidt und Perlmutter entdeckt, dass es im Weltall noch eine weitere, viel größere Gegenkraft gibt, welche das Universum auseinander treibt und gegen die Schwerkraft (erfolgreich) ankämpft. Die Astrophysiker nennen sie "Dunkle Energie", weil ihr Wesen den Experimenten (noch nicht) zugänglich ist und sie deswegen weitgehend im Dunkel bleibt. Fakt ist aber, dass diese Dunkle Energie einen solchen Druck ausübt, dass sie die riesigen Galaxien beschleunigt auseinander treibt. Das bedeutet, dass zwei beliebige Sternhaufen, die sich noch vor wenigen Minuten mit einer bestimmten Geschwindigkeit voneinander entfernen, in diesem Moment bereits schneller auseinander driften. Es ist, als würde der "Liebe Gott" auf dem Gaspedal stehen bleiben.


Die Physik-Nobelpreisträger 2011:  Saul Perlmutter, Brian P. Schmidt und Adam G. Riess

Die Existenz der Dunklen Energie ist eindeutig erwiesen, im Jahr 2011 haben die drei oben genannten Physiker dafür den Nobelpreis erhalten. Eine wissenschaftliche Erklärung für dieses Phänomen gibt es aber noch nicht. Man tappt buchstäblich noch im Dunkeln. Rechnerische Abschätzungen haben allerdings ergeben, dass das Weltall zu 70 Prozent mit dieser Dunklen Energie angefüllt sein muss. Weitere 25 Prozent gehen auf das Konto der Dunklen Materie, welche als eine Art "Klebstoff" die Galaxien davor bewahrt durch die Fliehkraft auseinander gerissen zu werden. Und gerade mal 5 Prozent sind der menschlichen Beobachtung zugänglich, also beispielsweise Sonne, Mond und Sterne. Man nennt sie die baryonische Materie, um welche die klassische Physik kreist.

Erklärungsversuche zur Dunklen Energie

Derzeit gibt es zwei Hypothesen, um das Wesen der Dunklen Energie zu erklären: die Vakuumenergie und die Quintessenz. Die "Vakuumhypothese" geht von der Quantenmechanik aus, diese kennt kein Nichts. Selbst in einem perfekten Vakuum ist Energie enthalten, weil dort immer wieder "virtuelle Teilchen" entstehen. Das sind Paare aus Teilchen und Antiteilchen, die spontan entstehen und sich nach kürzester Zeit gegenseitig wieder vernichten. Diese "flimmernden" subatomaren Objekte enthalten Energie, welche der Gravitation entgegen wirkt, also das Weltall auseinander drücken können. Die Vorstellung entspricht einem Gedanken, den bereits Albert Einstein hatte, als er die sogenannte "kosmologische Konstante" in seine Feldgleichungen einführte.

Alternativ könnte es sich bei der Ursache der Dunklen Energie auch um ein Energiefeld handeln, das die Physiker "Quintessenz" nennen. Es durchdringt das Universum und versieht jeden Punkt des Raumes mit einer Eigenschaft, welche der anziehenden Gravitation entgegen wirkt. Die Physiker kennen solche Felder bereits mit der Gravitation und dem Elektromagnetismus. Grob vereinfacht kann man sich die Quintessenz als einen Ball vorstellen, der an jedem Raumpunkt bergab rollt. Wenn das Quintessenz-Teilchen leicht genug ist, läuft es - etwa im heutigen Weltall - zuerst sehr langsam, weil es relativ wenig Bewegungsenergie besitzt. Das  ändert sich mit der Zeit. Man kann sich vorstellen, dass in der kosmischen Frühzeit die Gravitation der Expansion noch sehr effektiv entgegen wirken konnte, wodurch großräumige Strukturen, also Sonnensysteme und Galaxien entstehen konnten. Als jedoch das Universum einige Milliarden Jahre alt war, dünnte die Materie aus. Die Beschleunigung gewann die Oberhand über die Schwerkraft und stoppte so die weitere Bildung von Sternhaufen.

Vom Graus der großen Zahlen

Als die Astronomen die beschleunigte Expansion des Weltalls sichergestellt und die Physiker die Vakuumenergie als mögliche Ursache benannt hatten, machten sich die mathematisch versierten Physik-Theoretiker daran, die Dunkle Energie zu berechnen. Dabei kam es zu einer Riesenüberraschung. Die Aufsummierung aller möglichen Quantenzustände führte nämlich zu einer Gesamtenergie, die um 120 Größenordnungen über den Messwerten der Astronomen lag. Selbst bei Berücksichtigung neuerer Erkenntnisse aus der Supersymmetrie blieb noch eine Differenz von einigen Dutzend Größenordnungen. Für diese enorme Diskrepanz gibt es bis heute noch keine schlüssige Erklärung.

Stattdessen taucht als Erklärungsmuster immer mehr die fantastische Idee von "Parallelwelten" auf. In jeder dieser separaten Universen könnten andere Naturgesetze und andere Naturkonstanten herrschen. So könnte in einigen dieser Welten die Abstoßung von Anbeginn so heftig sein, dass sich die dortige Materie nie zu Galaxien zusammengeklumpt hat, also menschliches Leben, wie wir es gewohnt sind, nicht möglich ist. Es gibt Forscher, welche die "kosmische Inflation", kurz nach dem Urknall, als Quelle der Paralleluniversen vermuten. In diesem "Aufbrodeln" könnten ihrer Meinung nach, diese Tochteruniversen entstehen. Benutzt man darüber hinaus die Stringtheorie, so könnte das "Multiversum", also die Gesamtheit aller Universen, aus zehn hoch 500 Universen bestehen. Die ist eine unvorstellbar hohe Zahl, wenn man bedenkt, dass es in unserem Weltall nicht mehr als zehn hoch 80 Atome gibt.

Die Vorstellung von Parallelwelten fasziniert die Freunde von Science Fiction und Star Wars immer wieder aufs Neue. Bei den Physiker steigt eher der Blutdruck, wenn das Wort Multiversum nur fällt. Sie halten solche Konzepte für schlicht spekulativ, weil diese mit ihren bewährten wissenschaftlichen Methoden nicht überprüfbar sind. Die Existenz von Parallelwelten nachzuweisen ist - Stand heute -  nicht möglich. Ihre Akzeptanz wäre das Ende der Astrophysik.

Ein Ausweg ist derzeit noch nicht gefunden. Stattdessen hat man das Problem an die Astronomen für weitere Messungen zurückgegeben. Die Astronomen haben zu diesem Zweck das internationale Projekt "Dark Energy Survey" (DES) gegründet, welches mit den leistungsstärksten Fernrohren und Kameras unseren Kosmos präzis vermessen soll. (Eine moderne "Vermessung der Welt" nach Kehlmann). Über 400 Wissenschaftler, auch aus Deutschland, beschäftigen sich nun damit, eine hoch aufgelöste Karte unseres Weltalls zu liefern. Dabei sollen 200 Millionen Galaxien und viele Sternexplosionen (Super Novae) vermessen werden. Das Ziel ist, die Geschichte der Expansion unseres Weltalls während der vergangenen zehn Milliarden Jahre experimentell zu bestimmen.

Alle Astrophysiker weltweit blicken gespannt auf diese Ergebnisse und erhoffen sich aus dieser Erkundung der Vergangenheit nun Antworten zur Zukunft unseres Weltalls.

Sonntag, 11. September 2016

Inside KIT

Ein Grummeln geht um im KIT - das Grummeln der Unzufriedenheit.

Über das Murren der Mitarbeiter, insbesondere im ehemaligen Forschungszentrum Karlsruhe FZK, jetzt KIT Campus Nord bzw. Großforschungsbereich GFB, will ich aber kein Manifest schreiben, indes ein Blog darüber ist sicherlich angemessen. Schon deshalb, weil diese Unzufriedenheit der ehemaligen "FZK´ler" den Personalrat vor einigen Wochen dazu veranlasst hat, den hohen Präsidenten des KIT und seine Vizepräsidenten zu einer KIT-Betriebsversammlung "einzuladen", wo diese Herren (die Dame befand sich im Urlaub) sich den Fragen des Personalrats und der Beschäftigten zu stellen hatten..

Das ist kein alltägliches Ereignis in der 60-jährigen Geschichte des FZK, beziehungsweise des ehemaligen Kernforschungszentrums. Die Fragen der Mitarbeiter deckten so wichtige Themen ab, wie Großprojekte, Führungskultur, Finanzsituation, Personalpolitik, Exzellenzinitiative und anderes mehr. Der Zusammenschluss der ehemaligen Technischen Hochschule und des Forschungszentrums, de facto seit zehn Jahren existent, ist keineswegs nur eine Erfolgsstory, wie man das immer wieder darzustellen versucht. Im Gegenteil, insbesondere von den Gründungsvätern des KIT, dem FZK-Geschäftsführer Manfred Popp und dem TH-Rektor Horst Hippler, wurden in der Anfangszeit gravierende Fehler gemacht, welche dieses Fusionsprodukt in der Zukunft durchaus noch in schweres Fahrwasser  bringen können. Im Folgenden werde ich auf die wesentlichen Probleme, besonders beim Forschungszentrum, eingehen.

Der Präsident:  hoch droben

Der Präsident des KIT, Professor Dr. Holger Hanselka (54), ist eine flamboyante Erscheinung. Er studierte Maschinenbau an der TU Clausthal und nach einigen Zwischenstationen, u.a. in Magdeburg und Darmstadt sowie als Leiter eines Fraunhofer-Instituts, wurde er im Oktober 2013 in sein heutiges Amt berufen. Für seine 9.315 KIT-Mitarbeiter ist Hanselka kaum erreichbar, auch nicht für die 5.504 im wissenschaftlichen Bereich. Aber selbst die ca. 350 Professoren und Juniorprofessoren - und hier wirds schon heikel - genießen nur selten die Gunst eines Gesprächs mit ihm. Ja, sogar die etwa 150 Institutsleiter haben Probleme, an H. heranzukommen. Das ist bedauerlich, denn die Chefs der Institute sind (samt Mitarbeiter) die eigentlichen Träger von Forschung und Lehre, also für das "Produkt" des KIT. Ihre Arbeit bestimmt den Ruf nach außen und in den internationalen Bereich hinein.

Die Institutsleiter sind im Organigramm des KIT nicht per Namen, sondern nur summarisch, gewissermaßen in "Klumpen-Form" aufgeführt. Wobei es erstaunlicherweise zwei Organigramme (siehe Jahresbericht 2015) für die Firma KIT gibt. Das überrascht, denn bei den allermeisten Unternehmen ist es üblich, ein einziges Organigramm für den ausgewählten Bereich nach außen zu kommunizieren. Der Vorgänger von Hanselka, Professor Eberhard Umbach, kam noch mit einem solchen Organigramm aus (Stand 18. März 2011), welches zudem den Charme besaß, dass auf diesem auch alle Institute aufgelistet waren. Im Übrigen bedürfen Hanselkas Organigramme wohl der baldigen Novellierung. Wie man hört, will die Vizepräsidentin für Personal und Recht, Frau Dr. Elke Barnstedt, demnächst in den wohlverdienten Ruhestand gehen. Man darf gespannt sein, wie die Findungskommission das offensichtliche Genderproblem auf dem Präsidiumslevel lösen wird. Darüberhinaus wird, dem Vernehmen nach, die Abteilung Presse, Kommunikation und Marketing (PKM)  umstrukturiert.


Das Organigramm des KIT für die "Wissenschaftsorganisation"



Das Organigramm des KIT für die "Aufbauorganisation"

Kommen wir zurück zu den Instituten; sie sind nur pauschal in den Organigrammen vermerkt. Für einen Institutsleiter (IL) im "Institut für Angewandte Materialien", beispielsweise, ist der Sprecher des IAM die erste formelle Hierarchiestufe. Dann folgt der Dekan der Maschinenbaufakultät, wobei man sich erinnert, dass Urvater Hippler die Fakultäten bei KIT einstmals abschaffen wollte. Offensichtlich ist ihm dies nicht gelungen. Danach folgt die Stufe der Bereichsleiter, die früher den schreckeinflößenden Namen Chief Officers besaßen. Ab jetzt wird die Luft dünner, denn unser oben genannter Institutsleiter betritt das Niveau der Vizepräsidenten. Wenn er all seinen Mut zusammen nimmt, wird er schließlich bei The Chief Himself, Professor Hanselka,  vorgelassen. Geht so ein armer IL den "Dienstweg", dann hat er bei seinem Hürdenlauf also nicht weniger als fünf Hierarchiestufen zu erklimmen.

Um nicht missverstanden zu werden: Professor Hanselka steht keineswegs im Ruf der "Unnahbarkeit". Aber Fakt ist doch, dass es beträchtliche bürokratische Hürden gibt, bis ein "gewöhnlicher Institutsleiter" mit seinem Anliegen bei ihm vorsprechen kann. Das war im früheren Forschungszentrum ganz anders; Institutsleiter und Projektleiter waren im Organigramm direkt unter dem Vorstand angesiedelt. Für den Leiter eines größeren Projekts war es kein Problem, bei seinem Vorstand einen Termin - innerhalb ganz weniger Tage - zu bekommen. Gab es ein akutes Problem zu besprechen, dann auch noch am gleichen Tag. Die Tür zum Vorstandzimmer stand in der Regel offen und wem es gelang, sich an der Zerbera Frau K. vorbei zu schlängeln, der wurde zumeist auch vom Vorstand (in meinem Fall Professor H.) hereingewunken. Für ein Viertelstündchen, fünf Minuten Smalltalk inklusive. Diese relativ leichte Zugänglichkeit hatte auch für die Vorstandsebene einen nicht geringen Nutzen: sie wusste stets, was im Forschungszentrum so "lief".

Die Malaise der Großprojekte

Das Forschungszentrum FZK war während seiner 50-jährigen Selbstständigkeit weltweit dafür bekannt, dass dort Großprojekte im Finanzbereich von einigen Millionen bis zu mehreren hundert Millionen DM ersonnen und erfolgreich abgewickelt wurden. Beispielhaft dafür sind die (meist kerntechnischen) Projekte FR 2, MZFR, WAK, KNK I, KNK II, SNEAK, BETA, HZ, SNR 300,  KASCADE etc.etc. Davon übrig geblieben sind derzeit im wesentlichen nur noch die zwei Großprojekte "KATRIN" und "bioliq". Beide sind in gewisser Beziehung "notleidend", denn sie befinden sich in technischer, terminlicher und finanzieller Schieflage.

KATRIN  ist  ein astrophysikalisches Experiment, womit die Ruhemasse des sogenannten Elektron-Neutrino gemessen werden soll. Der Versuchsaufbau ist 75 Meter lang und besteht aus vier funktionalen Einheiten, nämlich der Tritiumquelle mit Pumpstrecke, den zwei elektrostatischen Spektrometern zur Energieanalyse sowie dem Enddedektor zum Zählen der transmittierten Elektronen. Beeindruckend in seiner Größe ist das Hauptspektrometer, welches allein 200 Tonnen wiegt. Wesentliche technologische Herausforderungen sind das hohe Vakuum (mit 10 hoch minus 11 millibar) sowie die Temperaturstabilität der Quelle. Derzeit ist man dabei, die Gesamtanlage zusammenzubauen und betriebstüchtig zu machen. Mit diesen Arbeiten ist man ca. zehn Jahre hinter Plan, wenn man die Ankündigungen im "letter of intent" aus dem Jahr 2001 zugrunde legt. Auch die in diesem Dokument genannten Kosten von 17 Millionen Euro dürften inzwischen obsolet sein. Bedauerlicherweise kann man im aktuellen KIT-Jahresbericht 2015 nichts zum technischen und finanziellen Stand dieses Projekts lesen, was übrigens auch für das andere Großprojekt bioliq gilt.

Die anschließende Messkampagne bei Katrin wird wohl im Jahr 2017 beginnen und ca. fünf Jahre dauern. Ursächlich für diese vergleichsweise lange Zeit ist der Umstand, dass in der Anlage zwar Milliarden von Betazerfällen ausgelöst werden, aber nur das letzte Elektronenvolt im Spektrum interessant ist. Und dort gibt es nur ca. 1 bis 2 Zerfälle pro Stunde! (Erinnert mich an meine eigene Physik-Diplomarbeit bei Maier-Leibnitz mit der langwierigen Messung des Steilabfalls der Bragg-Kurve). Schreitet das Experiment, wie jetzt geplant, voran, dann sind im Jahr 2021 die Messungen beendet. Zwei weitere Jahre muss man für die Auswertung und Synthese bis zur Veröffentlichung (in den Renommier-Journals SCIENCE oder NATURE) einrechnen, womit wir uns dann im Jahr 2023 befinden. Das ist, welch ein Zufall, genau das Jahr in dem der engagierte und international bestens vernetzte Projektleiter Professor Guido Drexlin in Rente geht. Und sich ab dann als "physics-freelancer" an eine schöne Universität im sonnigen Kalifornien verdingen möchte. Die Freuden des "troisième age"!

Und wenn es zeitlich nicht klappt mit Katrin? Nun der Professor hat bereits ein "Bauchgefühl" wie der gesuchte  Wert der der Neutrino-Ruhemasse sein könnte:
nämlich 0,278 Elektronenvolt. 

Ein weiteres Großprojekt im FZK ist bioliq Hier soll die Reststoff-Biomasse Stroh zu Autokraftstoff, also Sprit, verarbeitet werden. Durch Pyrolyse wird ein schwerölähnliches Produkt erzeugt, das in einem Flugstromvergaser zu Synthesegas weiter verarbeitet wird. Leider scheint das nicht so einfach zu sein, denn die Bemühungen von mehr als ein Dutzend Jahren sind immer noch nicht vom Erfolg gekrönt. Die Errichtung der dazu erforderlichen Pilotanlage im FZK war nicht billig, immerhin wurden schon mehr als 60 Millionen Euro investiert. Darüber hinaus hat das bioliq-Verfahren auch vielfache Konkurrenz. Ein Wettbewerber war "Choren Industries" im sächsischen Freiberg, wo man versuchte synthetischen Kraftstoff aus Restholz herzustellen. Obwohl sich namhafte Automobilkonzerne an diesem Unternehmen beteiligten, ging die Firma Choren 2011 bankrott.  Die Medien sprachen von geschönten Zahlen und zu geringen Produktionsmengen.  Hoffentlich ereilt KIT mit seinem Großprojekt bioliq nicht ein ähnliches Schicksal. Es hat keine so starke Industrieunterstützung wie Choren und das wirtschaftliche Umfeld infolge der andauernden Ölschwemme ist fast noch schwieriger geworden. Leider erfährt der externe Steuerzahler auch hier nichts über Produktmengen und Betriebskosten.

Viel geforscht wird bei KIT im Bereich der Astrophysik. Über das KIT-Centrum Elementarteilchen- und Astrophysik (KCETA) ist man mit zahlreichen internationalen Forschergruppen verknüpft und führt seit vielen Jahren Experimente am Beschleuniger LHC bei CERN durch. In diesem Verbund bearbeiten elf Physikinstitute grundlegende Fragen zum Ursprung der Masse, zur Asymmetrie Materie/Antimaterie, zur Zusammensetzung Dunkler Materie/Dunkler Energie und zum Ursprung der kosmischen Strahlung usw. Leider stellt sich in den letzten Jahren immer deutlicher heraus, dass bei den LHC-Experimenten nicht mehr viel zu finden ist. Offensichtlich ist die Drei-Milliarden-Maschine zu schwach für den Aufbruch in eine neue physikalische Ära. Möglicherweise benötigt man einen stärkeren Beschleuniger. Aber den zu planen, zu beschließen, zu finanzieren und letztlich zu bauen würde viele, viele Jahre in Anspruch nehmen. Das vorläufige Ende der Astrophysik?

Neue, wenn auch kleinteilige Projekte, sind am Horizont sichtbar. Vor kurzem hat sich KIT in das sogenannte Kopernikus-Projekt eingeklinkt. Es wurde von der Bundesforschungsministerin, Frau Wanka, aus der Taufe gehoben und soll die gefährdete Energiewende absichern. Kopernikus ist auf zehn Jahre ausgelegt, insgesamt beteiligen sich daran 23 Einrichtungen und Partner. KIT will sich dem Problem der Netzstabilität zuwenden, welche wackelig sein kann, weil die Stromproduktion durch Wind und Sonne bekanntermaßen stark fluktuiert. Keine wirklich neue Erkenntnis. Die Netzbetreiber müssen an die tausend Mal pro Jahr per Hand eingreifen, um die Frequenz bei 50 Hertz zu stabilisieren. Aber kaum ist das Problem ausgelobt, schon hat das ebenfalls an Kopernikus beteiligte Konkurrenzentrum FZK Jülich eine Lösung parat. Im seinem Magazin "effzett" ist ein Tweet des Jülicher Forschers Dr. Dirk Witthaut abgedruckt, in dem folgendes behauptet wird: "Durchblick statt Blackout: Formel sagt Stromausfälle voraus und identifiziert Schwachstellen im Netz. #Energiewende".
Schneller geht's nimmer!

Vielleicht nach dem Motto  "Kleinvieh macht auch..." bahnt sich im Universitätsbereich eine erstaunliche Entwicklung an: in großer Zahl werden dort Kleinprojekte gegründet, die man im Verbund mit industriellen Partnern abwickeln möchte. Diese Miniprojekte - im Schnitt um die 30.000 Euro - sollen zum Einstieg in spätere Großprojekte bei KIT (Campus Nord??) werden. Die Idee klingt zunächst gut und erfolgversprechend - ist sie aber nicht. Schon allein die Fülle dieser Kleinprojekte erschreckt: im Jahr 2015 waren es bereits 200. Das bedeutet, dass jedes Institut im Schnitt 1 bis 2 dieser Projektchen bearbeitet. Gesteuert wird das Ganze durch eine eigenständige Gesellschaft, der "KIT Campus Transfer GmbH", mit bereits zwei Geschäftsführern und (vermutlich) entsprechendem Unterbau und dazugehörigen Fixkosten. Der Personalrat kritisiert diese Entwicklung, weil sie geeignet ist, dem KIT-Nord die Projekte "wegzuschnappen" und zudem wohl nicht zuletzt den "privaten Wohlstand" der damit beschäftigten Professoren mehrt. Außerdem ist diese Innovation konträr zur grundsätzlichen KIT-Philosophie. Bei der Gründung des KIT war es allgemeines Verständnis, dass KIT-Süd für die Lehre sowie die Diplom- und Doktorarbeiten etc. zuständig ist und KIT-Nord für die wirklichen großen Projekte. Die Zuwendungsgeber in Bund und Land sollten diese problematische Entwicklung im Auge behalten.

Gravierende Fehler in der Vergangenheit

Der Niedergang des Forschungszentrums wurde bereits in der Vergangenheit, zwischen den Jahren 1991 bis 2006 eingeleitet und zwar durch einige falsche Strategieentscheidungen des damaligen Geschäftsführers Dr. Manfred Popp. Er veranlasste, beispielsweise, den Komplettausstieg aus der Medizintechnik , worin eine kleine, personell leider unterbesetzte Gruppe mit großem Engagement tätig war. Konkurrierende Forschungszentren stiegen in das aufstrebende Gesundheitsgebiet ein; ich nenne nur das FZK Jülich mit seiner weithin bekannten Hirnforschung.

Eine weitere Fehlentscheidung, in noch höherem Maßstab, war der weitgehende Ausstieg aus der Kerntechnik, den Popp anfangs der neunziger Jahre verfügte. Zu dieser Zeit waren in Deutschland noch 18 große Kernkraftwerke in Betrieb, die man F+E-mäßig, besonders auf dem Gebiet der Sicherheit, hätte begleiten und unterstützen müssen. Als die Bundeskanzlerin im März 2011, auf einer dubiosen Datenbasis und praktisch im Alleingang, die sofortige gestaffelte Abschaltung aller deutscher Kernkraftwerke entschied, war die verbliebene Kerntechnikgruppe beim FZK bereits zu klein und unterkritisch geworden, um Merkels Entscheidung wissenschaftlich-technisch ernsthaft  hinterfragen zu können. Wie nicht allseits bekannt, werden einige deutsche KKW noch bis zum Jahr 2022 in Betrieb sein, wobei auch für diese eventuell noch die  F+E-Unterstützung notwendig werden könnte. Darüber hinaus gibt es rund um Deutschland herum derzeit 140 Kernkraftwerke, meist älterer Bauart, welche die deutschen Kerntechniker nicht mehr sachkundig bewerten können, weil uns das Ausland hierfür die Expertise abspricht. Dass die EU-Kommission gerade jetzt ihr Institut für Transurane im Forschungszentrum Karlsruhe zu zentralen Standort für die "Nukleare Sicherheit" vergrößert, beweist darüberhinaus, dass der deutsche Ausstieg aus der kerntechnischen Sicherheitsforschung voreilig war.

Den allergrössten Fehler beim Management des Forschungszentrums beging der Geschäftsführer Popp als er, kurz vor der Gründung des KIT, den "Bereich für die Stilllegung der kerntechnischen Anlagen" von der FZK ausgliederte und an die "Energiewerke Nord" (EWN) weiter gab. Der Karlsruher Stilllegungsbereich hatte vorher in Deutschland praktisch eine Monopolposition inne und war vor allem in den neunziger Jahren sehr erfolgreich, als dort zwei Kernkraftwerke (KKN und HDR) bis zur Grünen Wiese rückgebaut und der FR 2 sicher eingeschlossen worden war. Darüber hinaus wurden erhebliche Fortschritte bei der Demontage der Wiederaufarbeitungsanlage WAK gemacht und die Verglasungseinrichtung für die Flüssigabfälle konzipiert und durchgesetzt. Seit gut einem Jahr versucht das KIT diesen strategischen Fehler wieder gut zu machen, indem sie eine kleine Rückbaugruppe aufbaut und den Verbund mit externen Partnern anstrebt. Das wird - mangels eigener Großanlagen und wegen der begrenzten Expertise  - allenfalls zu einem Nischendasein führen. Der Zug im Rückbau atomarer Anlagen ist abgefahren. Die Energieversorgungsunternehmen und eine Vielzahl kleiner, aber kompetenter Firmen, haben das Kommando übernommen. FZK/KIT haben fahrlässigerweise vor zehn Jahren ein Alleinstellungsmerkmal aufgegeben und sich selbst von einem Milliardenmarkt  abgekoppelt.

Seit die Energiewerke Nord  um 2006 das Kommando beim Stilllegungsbereich übernommen haben, ist kein weiteres Kernkraftwerk im Forschungsbereich mehr zur Gänze rückgebaut worden; KNK und MZFR sollen erst im nächsten Jahrzehnt entsorgt werden. Der Terminplan zum Abriss der WAK hat sich bis ca. 2030 verschoben, statt einer Milliarde Euro (wie geplant) sind nunmehr ca. drei Milliarden erforderlich. EWN ist übrigens -ungeachtet ihres Namens - als Unternehmen der "unechten Industrie" zuzurechnen; es wird vom Bund und damit vom Steuerzahler zu 100 Prozent alimentiert. Derzeit passiert bei den rückzubauenden Anlagen um die WAK mindestens fünf Jahre lang nichts, weil erst zwei Zwischenläger für die radioaktiven Abbruchmaterialien genehmigt und gebaut werden müssen. Das bereits bestehende große Zwischenlager - um das sich jeden Tag 4.000 KIT-Forscher herumbewegen und in dessen Nähe man das neue Casino gebaut hat - ist randvoll. Was man offensichtlich relativ spät gemerkt hat. Diese Stagnation der Rückbautätigkeiten führt zu hohen Personalkosten, weil (auf Anraten des "Übervaters" Dieter Rittscher?) bei der WAK fast nur mit Eigenpersonal geschafft wird. Das FZK hatte früher, auf Betreiben seines Controllers, 50 Prozent Fremdpersonal eingesetzt, was zu höherer Flexibilität und zu niedrigeren Kosten bei "Flautezeiten" führte.

Der Name des ehemaligen Geschäftsführers Popp, der das Forschungszentrum von 1991 bis 2006 leitete, ist bereits mehrfach gefallen. Es besteht Anlass, sich dieser Personalie zuzuwenden. Der jetzt 75-jährige alte Physiker war 1972, zwei Jahre nach seiner Promotion, zum Bonner Bundesforschungsministerium gekommen. Innerhalb von nur sechs Jahren machte er - ausgestattet mit einem SPD-Parteibuch - innerhalb der sozialliberalen Koalition eine Blitzkarriere. Schon 1978 wurde er zum Ministerialdirigenten ernannt. Während der darauffolgenden Kohl-Regierung wurde Popp - nunmehr Mitglied der CDU - 1987 zum Staatssekretär für Umwelt und Reaktorsicherheit in der Hessischen Landesregierung unter Wallmann ernannt. Nach dem Sturz dieser Regierung wurde Popp, auf Betreiben seines ehemaligen Bonner Forschungsministeriums, nun Vorsitzender des Vorstands beim ehemaligen Kernforschungszentrum Karlsruhe und huldigte fortan, mit dem Ausstieg aus der Kerntechnik, dem grünen Zeitgeist.. Die "Frankfurter Allgemeine Zeitung" (FAZ) schrieb in einem Kommentar vom 2. April 1991 dazu folgendes: "Wie er (sprich: Popp) in dieses Amt gekommen ist, darüber bedürfte die Öffentlichkeit noch der Aufklärung. Denn welche Voraussetzungen Popp für die Leitung einer so großen, sich zudem in der Phase der Neuorientierung befindenden Forschungsorganisation qualifizieren, ist aus seinem Werdegang nicht zu ersehen."  All diese Zitate stammen keineswegs von mir, sondern man kann sie, direkt oder implizit, in der Historie des FZK, "Geschichten aus der Geschichte",  auf Seite 66 nachlesen.

Finanzen und Exzellenzinitiative

Das Finanzbudget des KIT betrug im Jahr 2015 860 Millionen Euro; davon entfielen auf den Universitätsbereich 428 Mio und auf dem Großforschungsbereich 432 Mio. Die Finanzierung erfolgte über Bundesmittel (254 Mio Euro), Landesmittel (248 Mio) und Drittmittel (358 Mio). Die Geldströme von Bund und Land dürfen nicht vermischt werden, was die Buchhaltung nicht unwesentlich erschwert. Die Drittmittel sind nur zum kleineren Teil Einwerbungen aus der Industrie, zumeist stammen sie von der EU, der Deutschen Forschungsgemeinschaft sowie aus Extratöpfen von Bund und Land. 860 Millionen sind eine stattliche Summe. Das ehemalige Forschungszentrum musste zumeist mit 500 Millionen DM auskommen. Trotzdem kneift es bei KIT immer wieder an allen Ecken und Enden, wie man von dem für Finanzen und Wirtschaft zuständigen Vizepräsidenten Dr. Ulrich Breuer hört.

 Besonders groß war die Geldnot zu der Zeit, als die Mittel aus der verlorenen Exzellenzinitiative ausblieben, also um das Jahr 2012. Dem KIT entgingen damals 60 bis 80 Millionen pro Jahr, mit denen es fest gerechnet hatte und die zum Teil bereits verplant oder gar ausgegeben waren. Weitere Defizite entstanden dadurch, dass die von außen eingeworbenen Drittmittel häufig nur zu einem Gemeinkostensatz von 20 Prozent kalkuliert waren , welche allerdings selten die wahren Kosten deckten. Die Einführung der gemeinsamen Verwaltungs-Software SAP für Uni und FZK dauerte ewig. Und zum Schluss war sie auch noch keineswegs einheitlich. Weil damals auch noch die Verwaltung "verschlankt" wurde, kam es zu der schlimmen Situation, dass die Hilfsassistenten, im Jargon Hiwis genannt, für ihr Jobben an der Uni monatelang kein Geld bekamen, beziehungsweise nur Abschlagszahlungen. Es passierte sogar, dass die Studierenden erst nach einem halben Jahr ihr Zeugnis erhielten, weil in der magersüchtigen Verwaltung zu wenige Sekretärinnen verfügbar waren. Finanzchef  Breuer schleppte jahrelang ein Minus von 10 Millionen Euro mit sich; als Finanzziel gab er (Schäuble lässt grüßen) "die rote Null" aus.

Mit der Exzellenzinitiative, einen Förderprogramm des Bundes für die Hochschulen, hat das KIT bislang gute und böse Erfahrungen gemacht.  Im Jahr 2006 gewann KIT bei der Exzellenzinitiative I (zusammen mit den beiden Münchener Universitäten) den Ehrentitel "Elite-Universität" sowie erhebliche Sondermittel. Ausschlaggebend war die Vorlage des KIT-Konzepts, das die Juroren damals wohl noch beeindruckte. Bei der Exzellenzinitiative II im Jahr 2012 war man in Karlsruhe siegessicher. KIT-Präsident Horst Hippler gab den Ton vor. "Ausscheiden - das ist einfach nicht vorgesehen. Am KIT kommt keiner vorbei". Und dann kam der 12. Juni 2012 - ein schwarzer Freitag. Hippler musste kleinlaut verkünden, dass KIT bei der Schlussabstimmung der Gutachter durchgefallen war. Der schöne Titel "Elite-Universität" war futsch. Präsident Hippler war offensichtlich schon im voraus informiert worden, denn er machte sich bereits am 24. April 2012 vom Acker. Schlauerweise bewarb er sich um die Präsidentschaft der Hochschulrektorenkonferenz HRK, wo er allerdings erst nach einer Kampfabstimmung gewählt wurde. Seinen Co-Präsidenten Professor Eberhard Umbach ließ er die Riesenorganisation KIT allein weiter regieren. Seitdem okkupiert der ehemalige TH-Rektor Hippler, nunmehr 70, diesen HRK-Job, der von vielen als ein höchst überflüssiger Ruheposten für alte Profs angesehen wird.

Was waren die Ursachen für das Ausscheiden bei der Exzellenzinitiative II?  Nun, die Forschungsanträge, die  sogenannten Cluster, in den beiden Bereichen Nanotechnologie ("Funktionelle Nanostrukturen") und Informatik ("Verlässliche Software") waren durchgefallen. Das Superinstitut für Nanoforschung war unter Professor Herbert Gleiter in den vergangenen 15 Jahren mit hohem finanziellen Aufwand aufgebaut worden. Gleiter selbst heimste bei seinen globalen Rundreisen fast mehr Ehrenmedaillen und Awards ein als die gesamte deutsche Olympiamannschaft in Rio. Und nun diese Pleite. Hätte er sich doch mehr seinem INT gewidmet. Hic Rhodos, hic salta, sagten schon die alten Lateiner.

 Im kommenden Jahr will die Bundesbildungsministerin Johanna Wanka über die Exzellenzinitiative III für die ca. hundert deutschen Hochschulen entscheiden. Der Schweizer Physiker Dieter Imboden hat dafür ein leicht verändertes Konzept vorgelegt. Die Eckwerte sind: Laufzeit 2018 bis 2028, Fördersumme fünf Milliarden Euro, also 0,5 Mrd. pro Jahr  Das ist nicht gerade übermäßig viel, wenn man andere Budgetzahlen zum Vergleich heran zieht:   Der Etat des Bundesministeriums für Bildung und Forschung beträgt 17,5 Mrd, der für die Flüchtlinge sogar 25 Milliarden pro Jahr - und das noch auf lange Zeit! Am KIT will man diesmal alles richtig machen und hat zur Vorbereitung die vierköpfige "Projektgruppe FOR X" eingerichtet. Wie in dem Mitarbeitermagazin "KIT Dialog 1.2016" nachzulesen ist, steht an der Spitze der Lenkungsausschuss mit dem Präsidium und den Bereichsleitungen. Er steuert das Gesamtprojekt und wird von einem "Sounding Board" beraten. Außerdem wurden acht Teilprojektgruppen zu verschiedenen Themen wie Chancengleichheit, Karrierewege etc. eingerichtet. Die Projektgruppe FOR X wird zudem unterstützt durch ein Erweitertes Team, das mit Referentinnen des Präsidiums und Mitarbeitern der DEs Forschungsförderung, Innovationsmanagement, Internationales, Personalentwicklung und berufliche Ausbildung sowie dem Karlsruhe House of Young Scientists besetzt ist.
Viel Knowhow kommt hier zusammen. Hoffentlich vergisst man nicht kompetente Wissenschaftler einzuklinken, welche wohl allein dazu in der Lage sind, wettbewerbsfähige "Proposals" abzugeben.

Synthese und Schlussbetrachtungen

Zusammenfassend kann man sagen, dass sich bei KIT ein vorher nicht gekannter lähmender Bürokratismus ausgebreitet hat. Bereits angeführte Beispiele sind der Gremiendschungel bei der Vorbereitung der Exzellenzinitiative III sowie die organisatorischen Triplizierung des Technologietransfers durch die Einheiten Presse, Kommunikation, Marketing (PKM), durch Research to Business (R2B)und durch die KIT Transfer GmbH. Auf der unteren Verwaltungsebene bemüht man sich seit Jahren - weitgehend erfolglos - die dezentrale Struktur im Süden mit der zentralen im Norden zu harmonisieren. (Siehe Beschaffungs- und Personalwesen)

Die beiden Fusionspartner, FZK und TU, vor zehn Jahren rangmäßig noch auf Augenhöhe, sind inzwischen krass unterschiedlich geworden in ihrer öffentlichen Bedeutung. Die Universität, mit ca. 25.000 Studierende kaum größer als Freiburg oder Tübingen, hat eindeutig das Übergewicht gewonnen. Wenn in ihren Bereich etwas schief läuft (etwa weil einige Hiwis ihren Lohn zu spät erhalten), dann wird das in der Presse ausführlich dargestellt. Wenn dagegen im Großforschungsbereich, wie im Vorjahr geschehen, die Synchrotronstrahlenquelle ANKA drastisch reduziert wird, dann ist das kein öffentliches Thema.

Dabei ist das internationale Ansehen des KIT durchaus unterschiedlich zu werten. In dem schon genannten KIT-Jahresbericht werden die ausländischen Studierenden nach Ländern aufgelistet. Demnach befinden sich unter den TOP 20 vorzugsweise Tunesier und Türken, sowie eine ganz große Zahl von Chinesen. Aber keine US-Amerikaner und Briten, die im internationalem Ranking bei den Naturwissenschaften die Spitzenposition einnehmen! Könnte es sein, dass die jungen Leute aus den Entwicklungs- und Schwellenländern besonders deswegen gerne zum KIT kommen, weil es dort keine Studiengebühren, dafür aber hohe Sozialleistungen gibt und man zur Not mit Englisch durchkommt ohne Deutsch lernen zu müssen? Bekanntlich liegen die jährlichen Collegekosten an den US-Universitäten bei 40.000 Dollar und die Absolventen sind zumeist mit einer Schuldenlast von 50.000 Dollar noch über viele Jahre hinweg belastet.


KIT-Ausländische Studierende nach Ländern  (Top 20 von 117)

Der Name KIT wurde von den Urvätern Popp/Hippler im Anklang an das berühmte "Massachusetts Institute of Technology"- MIT - ausgesucht. Das war hoch gegriffen, um nicht zu sagen anmaßend. Diese weltberühmte technische Universität in Boston hat bisher ca. 80 Nobelpreisträger hervorgebracht und verfügt über ein Jahresbudget, welches den KIT-Etat um den Faktor 12 übertrifft. Da wird KIT noch lange hinterher laufen müssen.

Ernste Sorge bereitet der Niedergang des ehemaligen Forschungszentrum, also KIT Campus Nord . Entgegen seinem Namen Großforschungsbereich (GFB) werden dort kaum noch große Projekte bearbeitet, abgesehen von den im Argen liegenden Objekten Katrin und bioliq. Neue - und aufregende - Projekte sind nicht in Sicht. Man darf annehmen, dass die Gesellschafter in Bund und Land nicht endlos jedes Jahr fast eine halbe Milliarde Euro in diese siechende Lokation hineinpumpen wird. Eher schon werden sie ein Gutachtergremium einberufen, welches den wissenschaftlichen Return ihrer Zuwendungen  aus Steuermitteln beurteilt. Sollten nicht bald neue Großthemen gefunden werden, so ist wohl mit Kürzung der Finanzmitteln zu rechnen, womit eine Spirale nach unten eingeleitet werden könnte. Bereits jetzt geriert sich KIT Nord nur noch verlängerte Werkbank des KIT, ja als bloßes Anhängsel. (Dafür typisch: das 60-jährige Jubiläum des ehemaligen Kernforschungszentrums Karlsruhe-Leopoldshafen wurde am 19. Juli 2016 vom Präsidium mit keinem Wort gewürdigt. Demgegenüber hat FZ Jülich an dieses Datum mit einem Sonderheft erinnert).

Typisch für die Negativentwicklung bei KIT Nord ist, dass das Präsidium vor kurzem aus seiner Beletage im siebten Stock des Verwaltungsgebäudes in den Süden umgezogen ist, um sich dort im Herzen der Universität standesgemäß einzulogieren.
 Die 7 Autoparkplätze im Norden, indes, bleiben für das 5-köpfige Präsidium weiterhin reserviert.

Sonntag, 28. August 2016

Axel Weis verstorben

Axel Weis, ein früherer Mitarbeiter im ehemaligen Forschungszentrum Karlsruhe (FZK) - später KIT - ist am 26. August 2016 an einem Herzinfarkt verstorben.

Herr Weis war viele Jahre im FZK tätig, zuerst im Bauwesen, später in der Beschaffungsabteilung EKM. Nach Gründung des Bereichs zur Stilllegung nuklearer Anlagen war er dort anfangs Projektkaufmann, danach Projektmanager für den Rückbau verschiedener kerntechnischer Objekte.

Überregional bekannt wurde Axel Weis durch ein mehr als zehnjähriges Prozessverfahren, über welches in den Printmedien und bei verschiedenen TV-Anstalten berichtet wurde. Der Anlass waren anonyme Beschuldigungen, welche Weis der Korruption beim Management der Stilllegungsprojekte verdächtigten. Im Strafprozess vor dem Landgericht Karlsruhe am 13. Dezember 2013 wurde er jedoch in allen Punkten von der Anklage freigesprochen. In der mündlichen Urteilsbegründung verurteilte der Vorsitzende Richter das verwerfliche Tun der anonymen Anzeiger "wodurch honorige Männer gebrandmarkt, vorverurteilt und fast schon vernichtet werden". Die anschließenden Zivilprozesse zum Schadensersatz wegen Amtshaftung waren in den ersten beiden Instanzen nicht von Erfolg gekrönt, sodass Weis im November 2015 Revisionsklage beim Bundesarbeitsgericht in Erfurt einreichte. Der Herztod des inzwischen 67-Jährigen beendet nun dieses Verfahren.

Axel Weis wird im engsten Familienkreis auf einem Ruheforst begraben. Den Ort - unter einer Eiche -  hat er sich vor fünf Wochen mit seiner Frau Carmen noch selbst ausgesucht.

RIP


Sonntag, 21. August 2016

Wagner Festspiele Bayreuth 2016: "Parsifal" zwischen Werkstatt und Werktreue

Diesmal war in Bayreuth, meiner oberfränkischen Heimat, vieles anders. Die Bundeskanzlerin Angela Merkel kam (angeblich wegen der Terroranschläge in Würzburg und Ansbach) nicht zur Eröffnung der Wagner-Festspiele. Als Folge wurde kein roter Teppich ausgerollt, es kam kein Fernsehen und konsequenterweise blieben die Promis von Seehofer bis Gottschalk der Premiere zum "Parsifal" fern. Das bescherte manchem Musikstudenten eine (wohl verbilligte) Eintrittskarte, weil auch die Industriekapitäne, welche üblicherweise mit angemietetem Rolls-Royce den Hügel empor fahren, ganz plötzlich nach Dubai oder Schanghai mussten, um dort einen Großauftrag zu verhandeln.

Trotzdem: die Erwartung beim (kenntnisreichen) Premierenpublikum war die Gleiche wie eh und je. Man war gespannt auf die die Neuartigkeit der Inszenierung (im Sinne der Bayreuther "Werkstatt"), erwartete aber bei der Musik absolute Werktreue nach den Vorgaben des Komponisten. Für den echten Wagnerianer bestehen die 10 Opern von Richard Wagner - Tristan, Holländer, Tannhäuser, Lohengrin, Meistersinger, Parsifal sowie Rheingold, Walküre, Siegfried und Götterdämmerung - die traditionsgemäß auf dem Festhügel gespielt werden, nur aus drei Dingen: den Regieanweisungen, dem Text und der Musik samt Gesang.

Dabei gelten verschiedene Regeln. Die Regieanweisungen, welche jedermann aus den gelben Reklamheftchen kennt (und welche viele Festspielbesucher immer mit sich tragen!), dürfen nicht nur, sondern müssen negiert werden. Der Regisseur und seine engsten Mitarbeiter, der Bühnenarchitekt und der Kostümbildner, haben da viel Gestaltungsfreiheit. Sie dürfen die Handlung von den mythologischen Zeiten bis in die Gegenwart verlegen, den Fliegenden Holländer mit Rollkoffer und den Lohengrin mit Laptop ausstatten - aber nur so weit, wie das kritische Bayreuther Publikum bereit ist mitzugehen. Das ist dort immer ein Wagnis. Wer traditionelles (und langweiliges) Theater will, muss die Aufführungen der Met in New York besuchen. Immerhin: Veränderungen am Text und an der Partitur sind jedoch in Bayreuth tabu! Von daher gesehen, laufen Sänger, Orchester und vor allem der Dirigent  geringere Gefahr, zum Schluss ausgebuht zu werden.



Das Festspielhaus auf dem Grünen Hügel

Die Inszenierung des Parsifal

Die "Story" für den Parsifal hat Richard Wagner über 30 Jahre hinweg beschäftigt. Die Handlung basiert auf dem Leben der historischen Gestalt des "Parzival", beschrieben in den mittelalterlichen Epen des Wolfram von Eschenbach. Demnach haben Engel dem Ritter Titurel den Speer überbracht, der Jesus Christus nach der Kreuzigung in die Seite gestoßen wurde, sowie die Schale - den Heiligen Gral - in der das Blut aufgefangen wurde. Titurel sammelte Gralsritter um sich in der spanischen Gralsburg Monsalvat, um diese Reliquien zu hüten. Nebenan war das Reich des Zauberers Klingsor und der geheimnisvollen Frau Kundry. Amfortas, der Sohn Titurels, wollte Klingsors Reich vernichten. Dieser entriss ihm jedoch den heiligen Speer und schlug ihm eine Wunde, welche sich nicht mehr schließen wollte. Hilfe konnte, gemäß einer Prophezeihung, nur von einem "reinen Tor", nämlich Parsifal, kommen, der den Speer zurückholen würde. Dies gelang auf vielen Umwegen und ist die eigentliche Geschichte der Oper.

Regisseur des 2016er Parsifal in Bayreuth war Uwe Eric Laufenberg, nachdem Katharina Wagner den Vorgänger Jonathan Meese kurzfristig gefeuert hatte, weil dieser Provokateur sich nicht enthalten konnte immer wieder mal den Hitlergruß zu zeigen und die Gralsritter als "Penner" auftreten lassen wollte. Laufenberg verortete die Ritter vom Heiligen Gral in den Nahen Osten, der Wiege des Christentums und dort in eine zerschossene Kirche. Klingsor, der sich einst wegen seiner starken Lüste selbst entmannte, präsentiert er als Sammler von Kruzifixen. Die berühmte Szene, in der Klingsor den Heiligen Speer auf Parsifal schleudert, wirkt enttäuschend und ulkig gleichermaßen. Während der Speer in Wagners Libretto in der Luft zum Stehen kommt, windet der junge Recke in Bayreuth dem alten Zauberer die Waffe aus der Hand und zerbricht den Speer. Klingsors Reich ist als Harem gestaltet, die verführerischen Blumenmädchen sind logischerweise Haremsdamen. Nach Jahren der Reifung kehrt Parsifal als moderner Kämpfer zurück mit Kalaschnikow und schusssicherer Weste. Amfortas darf nun sterben. In seinen Sarg wandern gleich alle Symbole der Christen, Juden, Muslime und Buddhisten mit. Parsifal wird der neue Chef der Gralsritter. Jesus Amfortas Superstar!

Laufenbergs Inszenierung fand nur den geteilten Beifall des Premierenpublikums. Vereinzelte Buhrufe waren unüberhörbar. Aber das ist Tradition in Bayreuth; die Regisseure haben es dort schwer. Nach Ablauf einiger Jahre wird deren Präsentation aber zumeist wohlwollend hingenommen, ja manchmal sogar überschwenglich gelobt. Eine Ausnahme bildet aber die Ring-Inszenierung von Frank Castorf. Der Transfer von den mythologischen Wäldern zu einem Bistro in Berlin-Alexanderplatz war zu krass. Erstmals bleiben in Bayreuth die Zuschauer fern. Kein Wunder, dass der Castorf-Ring 2017 abgesetzt werden soll.


Musik und Dirigent

Für die Inszenierung einer Oper ist der Regisseur zuständig, für die Musik der Dirigent. Beim Bayreuther Parsifal 2016 benötigte Laufenberg für die Etablierung der Regie zwei Jahre, beginnend mit der  Durchdringung des bei Wagner sehr verschraubten Libretto-Textes, der Konzeption und Realisierung der Bühnenbilder, den Stellproben der Sänger, bis hin zu den Kostümen und Masken. Für die Proben mit dem Festspielorchester und den Sängern standen diesmal nur zwei Wochen zur Verfügung - und es klappte. Woher diese Unterschiede? Nun, es war ein Sonderfall. Am 8. Juli, nachdem man schon vier Wochen intensiv mit dem Orchester geprobt hatte, kam es offensichtlich zum Krach zwischen  zwei "Alpha-Tieren" , dem Dirigenten Andris Nelsons und dem Künstlerischen Leiter Christian Thielemann. Der Lette Andris fühlte sich zu sehr gegängelt, schmiss hin und entschwand. Ein neuer Dirigent wurde benötigt, und zwar schnell. Katharina brachte die Telefondrähte zum Glühen, aber weder Daniel Barenboim noch Sir Simon Rattle wollten einspringen. So verfiel man auf den 73-jährigen Hartmut Haenchen, einen formidablen Dirigenten, gewiss, aber in der Öffentlichkeit weitgehend unbekannt. Zudem hatte er keinerlei Bayreuth-Erfahrung. Am 11. Juli traf er auf dem Grünen Hügel ein; zwei Wochen darauf, am 25. Juli sollte die Premiere des Parsifal stattfinden.

Maestro Haenchen durfte deshalb keine weitere Zeit verlieren, weswegen er von früh bis Mitternacht probte. Insgesamt absolvierte er in dieser relativ kurzen Zeit zwei Orchesterproben, zwei Bühnenproben mit Orchester für den ersten Aufzug, je eine für den zweiten und dritten Aufzug, eine Korrekturprobe sowie Hauptprobe und Generalprobe. Hinzu kamen weitere Proben mit dem Chor sowie den Solisten, letzteres auch noch nach der Generalprobe. Dabei blieb Haenchen werktreu - buchstäblich bis zum letzten Halbton. Dafür ein Beispiel: im dritten Aufzug, Takt 1068, spielte ein Teil des Orchesters ein C, der andere ein Cis. Als man sich nicht einigen konnte, ging der Dirigent ins Wagner-Archiv, studierte dort die Uraufführungspartitur und stellte fest, dass man in Bayreuth an dieser Stelle ein Cis intonieren sollte. Der Streit war geschlichtet. Ob es viele im Publikum gehört hätten, mag bezweifelt werden. Als Orchesterleiter hat man allerdings im Graben des Festspielhauses auch den schlechtesten Platz; man kann oft nur ahnen, wie die Musik im Saal ankommt. Gewisse Freiheiten nehmen sich die Dirigenten nur bei den Tempi. So hat Haenchen den Parsifal wesentlich schneller dirigiert als sein Vorgänger Arturo Toscanini. Zum Schluss erhielt der Maestro - im Gegensatz zu seinem Regiekollegen Uwe Laufenberg - vom Premierenpublikum und den allermeisten Kritikern rauschenden Beifall. Im Sinne von Parsifal war er zum "Erlöser" geworden.


Der Jahrhundert-Ring

Das kurzfristige Auswechseln von künstlerischem Führungspersonal hat in Bayreuth schon Tradition. In besonderer Erinnerung bleibt der sogenannte Jahrhundert-Ring. Im Jahr 1976, zum hundertjährigen Bestehen der Bayreuther Festspiele, wollte der damalige Intendant und Wagnerenkel Wolfgang Wagner den  Ring der Nibelungen aufführen lassen. Als Regisseur hatte er Peter Stein, damals Leiter der Berliner Schaubühne, ausersehen. Stein, politisch weit links stehend, stellte seine Forderungen: die Bayreuther Bühne und der Zuschauerraum sollten nach seinen Vorstellungen umgebaut werden - außerdem wollte Stein keinesfalls den damaligen bayerischen Ministerpräsidenten Franz Joseph Strauß beim Premierenempfang treffen. Der fränkisch-konservative Wolfgang Wagner lehnte ab und verpflichtete stattdessen den noch weitgehend unbekannten Patrice Chéreau mit Pierre Boulez als Dirigent.

Dem jungen Schauspielregisseur gelang ein Meisterstück. Er stützte sich in der Konzeption auf den Briten George Bernard Shaw und seine hellsichtige Analyse des Rings The Perfect Wagnerite - A Commentary of the Niblung Ring, welche bereits 1889 in London erschienen war. Darin deutet Shaw den Ring als Parabel auf die sozio-ökonomischen Umbrüche des 19. Jahrhunderts und interpretiert ihn als Drama der frühindustriellen Gegenwart. Chéraeu und sein Bühnenbildner Richard Peduzzi folgten diesem Grundsatz und kreierten einprägsame Bilder von einem Stauwehr am Rhein zu Beginn des Rheingolds.

Trotzdem: die Premiere schockierte große Teile des Publikums und führte zu gewaltigen Protestaktionen auf dem Grünen Hügel. Es kam zur Verteilung von Flugblättern gegen diese Inszenierung, ja sogar zu Schlägereien. Chéraeau erschien weiten Teilen des Publikums als "linker Revoluzzer". Aber bald legte sich die Aufregung und die Einsicht in die hohe szenische und darstellerische Intensität gewann die Oberhand. Bei der letzten Aufführung, 1980, gab es nur noch frenetischen Jubel. Mit einem Applaus von neunzig Minuten Länge und der eindrucksvollen Zahl von 101 Vorhängen (beides Rekorde in Bayreuth) wurde die Inszenierung verabschiedet.

Sonntag, 14. August 2016

Das Karlsruher "Fescht", ein Erfolg

Nicht nur das Dorf Wacken, im entlegenen Schleswig-Holstein, nein, auch die Großstadt Karlsruhe (mit über 300.000 Einwohnern), richtet alljährlich im Sommer ein Open-Air-Festival aus, von den Einheimischen kurz "Fescht" genannnt.  Während in Wacken die Besucher meist (freiwillig!) mit Gummistiefeln in einer verschlammten Kiesgrube stehen müssen, um die von weither angereisten Heavy Metal Bands hören zu können und dafür 190 Euro bezahlen, wird das Rock- und Pop-Festival in Karlsruhe in einer gepflegten städtischen Parkanlage (liebevoll "Klotze" genannt) aufgeführt - für nur 5 Euro Eintritt. Kein Wunder, dass es an Zuhörern nicht mangelt. Dieses Jahr kamen, trotz eines verregneten Freitags, insgesamt 230.000 Besucher über drei Tage. Das sind wohl ebenso so viele, wie der heimische Fußballklub KSC in 17 Heimspielen anlockt und kommt nahe an die 300.000 jährlichen Besucher des Staatstheaters heran.

Und Karlsruhe bemüht sich zudem, für alle Bevölkerungsschichten gefällige Musik aufzubieten - sogar für die Anhänger der Klassik. Der Sonntagvormittag ist deshalb traditionsgemäß für die Freunde von Mozart, Beethoven und Wagner reserviert. Sie kommen in hellen Scharen, breiten nicht selten damastene Tischdecken auf der Grasfläche aus, stellen barocke Kerzenleuchter darauf und genießen das Konzert bei Champagner in edlen Gläsern, wobei sie Isoldes Liebestod lauschen. Welch ein Kontrast zum Klientel der darauf folgenden Rockkonzerte!

Die Top - Acts

Die Höhepunkte des Karlsruher Musikfestivals finden auf dem sogenannten Hügel der Klotz-Anlage statt. Vom frühen Nachmittag bis zum späten Abend spielen an jedem Tag 7 bis 8 bekannte Bands auf. Den Älteren unter uns sagen ihre Namen meist recht wenig, bei den Jugendlichen sind die Partymusiker indes wohl bekannt. Und das trotz ihrer schrägen Namen, wie Voodoo Kiss, Mother Tongue, Razz, Django 3000, Dellé, Milky Chance etc. Die heurigen Favoriten unter diesen, die sogenannten "Top - Acts" waren am Samstag (23. Juli) die Gruppe Fettes Brot und am folgenden Sonntag Element of Crime. Einen Hit-Song von jeder der beiden letztgenannten Bands kann man, mit Hilfe von Youtube, unten abspielen.

Die Band "Fettes Brot" rekrutiert sich aus drei Hamburger Hip-Hop-Dinosauriern, die schon seit 1992 gemeinsam auf Tour sind.  Ihre Namen sind Dokter Renz, König Boris und Björn Beton; daneben benutzen sie noch ein halbes Dutzend Künstler- und Aliasnamen. Im Jahr 2005 gelang der Gruppe mit dem Song "Emanuela" ein großer Hit, der rasch die Charts eroberte. Emanuela ist das Lied von einem Mädchen, in das alle Jungs verknallt sind, die aber keiner zu "kriegen" vermag. Die Strophen werden abwechselnd von den Bandmitgliedern gerappt, den Refrain "Lass die Finger von Emanuela" singen sie gemeinsam.



Auch die Musiker der Band "Elements of Crime" kommen aus dem hohen Norden, nämlich aus Bremen. Ihr Gründer Sven Regener (1985) wurde später auch als Autor des Buches "Herr Lehmann" bekannt. In ihrer Originalbesetzung mit Gitarre, Bass, Schlagzeug und Gesang spielen sie melancholische Pop- und Rockmusik. In ihrer Anfangszeit waren sie oft im Vorprogramm von Herbert Grönemeyer zu hören. Der Song "Delmenhorst" ist eine Hommage an den gleichnamigen Vorort von Bremen. Er wurde im Jahr 2005 kreiert und erlangte bald auf der Single-Chart den ersten Platz. Der Text "Ich bin jetzt immer da, wo du nicht bist und das ist Delmenhorst" ist nicht gerade intellektuell, gefällt aber den Menschen und gehört deshalb immer noch zum Repertoire dieser Band.


Das Karlsruher Fest gibt es schon seit 31 Jahren.
Mit Martin Wacker als Eventmanager werden wir - hahaha - demnächst Wacken überholen.

Sonntag, 7. August 2016

Roland Koch - als Manager gescheitert

Roland Koch war ein begnadeter Redner und über zehn Jahre hinweg auch ein durchaus erfolgreicher Ministerpräsident für das Bundesland Hessen. Er galt als "Rechtsausleger" seiner Partei CDU, wobei er sich vor allem gegen die doppelte Staatsbürgerschaft der damals noch 2,5 Millionen Türken in Deutschland wandte. (Wertet man die kürzliche Veranstaltung in Köln, wo 40.000 "Deutsch-Türken" auf Weisung von Erdogan spontan und - nur türkische - Fahnen schwenkend auf die Straße gingen, so war Kochs damalige Warnung wohl nicht ganz unberechtigt.) Indes, der Landeschef glaubte den Marschallstab zu "noch Höherem" im Gepäck zu haben. Als Angela Merkel jedoch im Jahr 2009 ihre zweite Kanzlerschaft antrat, musste er erkennen, dass ihm eine weitere Karriere in der Bundespolitik versagt bleiben würde. Er verließ die hohe Politik und wandte sich der Wirtschaft zu.

Der ehemalige Dresdner Bank-Chef Bernhard Walter lotste Roland Koch am 1. August 2011 als Vorstandsvorsitzenden zu der damals renommierten Baufirma Bilfinger Berger mit Hauptsitz in Mannheim, einem Umsatz von ca. 10 Milliarden Euro und mit mehr als 70.000 Beschäftigten. Neben Hochtief war Bilfinger Berger eines der größten deutschen Bauunternehmen. Sein Ministerpräsidentengehalt konnte der Newcomer durch diesem Stellenwechsel in etwa verzehnfachen. In diesen Tagen - der Grund für meinen Blog - läuft Kochs Fünfjahresvertrag ab und (samt einiger Kontrollmandate bei UBS und Vodafone) wird er währenddessen um ca. 10 Millionen Euro reicher geworden sein. Wir brauchen uns also keine Sorgen um Roland machen - auch wenn er bei Bilfinger grandios gescheitert ist, weil er bereits nach drei Jahren, im August 2014, vom Aufsichtsrat dieser Firma gefeuert worden ist.

Auf dem Weg nach unten

Im Nachhinein kann man zwei Gründe benennen, weshalb Roland Koch so schnell als Manager bei Bilfinger Berger erfolglos bleiben musste und das Unternehmen heute vor dem Zusammenbruch steht: Der ex-Ministerpräsident hatte keine glückliche Hand bei der Neustrukturierung seiner Firma und er fand nicht die richtigen Antworten auf die äußeren Entwicklungen. Kochs erster Fehler war wohl, dass er das traditionelle und gewinnbringende Hoch- und Tiefbaugeschäft (im Einvernehmen mit dem Aufsichtsrat) aufgab und das Unternehmen radikal auf Dienstleistungen hin umstrukturierte. Konsequenterweise strich er bald den Namensbestandteil Berger, firmierte nur noch unter Bilfinger (mit einer blaugelben Endlosschleife als Logo) und steckte das Geld in die drei Servicebereiche für Gebäude, Industrieanlagen und Kraftwerke. Wegen der Energiewende und der Ölkrise erbrachten die beiden letztgenannten aber statt Gewinne nur heftige Verluste. Schon bald war das neuformierte Unternehmen kein integrierter Baukonzern mehr, sondern ein Sammelsurium unzusammenhängender Kleinbetriebe. Die FAZ schrieb: "Bilfinger fährt im Dunkeln, ein Unternehmen ohne Strategie". Der sinkende Aktienkurs minderte den Firmenwert drastisch.


Roland Koch mit Bilfinger-Logo; erklärt (vergebens) den Abwärtskurs

Zum erheblichen Teil scheiterte Koch auch an der Energiewende. Ganz plötzlich wurden keine Kraftwerke mehr gebaut und die Betreiber sparten bei ihren Industrieanlagen, indem sie die Wartungsintervalle verlängerten. Hinzu kam der Ausfall eines Großauftrags aus Südafrika, der schon eingebucht war.  Der Flickenteppich aus 250 Einzelfirmen war kaum mehr zu überblicken, das Unternehmen war zu komplex geworden. Als Koch zum wiederholtem Male die mit den Gesellschaftern vereinbarten Ziele nicht erreichte und sogar in kurzer Zeit zwei "Gewinnwarnungen" herausgeben musste, war seine Stunde gekommen: der 56-jährige musste am 8. August 2014 gehen; das Gehalt für die restlichen zwei Jahre wurde ihm zugebilligt.

Nach dem erzwungenen Rücktritt von Roland Koch hat Bilfinger nun bereits den dritten CEO. Übergangsweise war dies der frühere Vorstand Herbert Bodner, ihm folgte der Norweger Per Utegaard, welcher nur 11 Monate blieb, dafür aber 4,5 Millionen löhnen durfte. Jetzt wurde der Brite Thomas Blades angeheuert. Es scheint als wolle er den Konzern zerlegen, um ihn dann stückchenweise zu verkaufen. Damit wäre das Ende von Bilfinger gekommen. Die Laufzeit von Blades´Anstellungsvertrag wurde öffentlich nicht bekannt gemacht. Der Brite hat eine bewegte Vergangenheit. Unter anderem war er Chef des Freiberger Unternehmens Choren, welches aus Abfallholz und Stroh Sprit für Autos herstellen wollte. Trotz renommierter Partner (Daimler, VW, Shell) ist dies nicht gelungen und das Unternehmen ging 2011 schließlich in die Insolvenz. Eine ähnliche Zielsetzung verfolgt man übrigens seit ca. 15 Jahren im Forschungszentrum Karlsruhe (jetzt KIT) mit dem Projekt Bioliq.

Politik versus Wirtschaft

Für die Medien war es überraschend, dass so ein ausgefuchster Politmanager wie Roland Koch in der Wirtschaft (so früh) scheitern konnte. In einen Interview mit der ZEIT im Jahr 2015 hat er die aus seiner Sicht wesentlichen Unterschiede zwischen der Politik und der Wirtschaft dargelegt. Einige Fragen und Antworten seien daraus entnommen:
Herr Koch, wo ist das Scheitern härter, in der Wirtschaft oder der Politik?
Koch: Wenn es sich um eine wirklich schwere Niederlage handelt, etwa den Verlust eines hohen Amtes, dann ist das in der Politik in der Regel eine gefährlichere Sache, weil die Chance auf Wiederkehr meist sehr gering ist.
Wo wird härter gekämpft, in der Politik oder in der Wirtschaft?
Politik ist viel interaktiver. Man muss große Gruppen auf unterschiedlichen Ebenen von seinem Anliegen überzeugen. In einer Partei gibt es keinen Befehl und keinen Gehorsam, sondern nur Bitte und Danke. In der Wirtschaft spielen Hierarchien eine größere Rolle. Da können Führungspersonen Mitarbeiter anweisen, befördern oder entlassen. Bei Krisen gibt es irgendwann keine Demokratie mehr, sondern nur noch Befehle.
Wo werden Fehler eher verziehen?
In der Politik ist es oft schwer zu definieren, was eigentlich ein Fehler war. Wenn Politiker die Staatsverschuldung nach oben treiben, aber mit dem Geld ein tolles Bildungssystem aufbauen, dann können die Wähler entscheiden, was ihnen wichtiger war. Bei einem Unternehmen geben Menschen hundert Euro für eine Aktie und fragen: wann ist diese 101 oder 105 wert?  Und die Antwort sollte belastbar sein.

Die Schlaumeier

Roland Koch hätte sich sein Leben (nach der Politik) viel leichter und genau so ertragreich gestalten können, wenn er dem Beispiel einiger seiner Politkollegen gefolgt wäre. Die Schlitzohren in diesem Genre verkaufen einfach ihr Gesicht, indem sie sich als "Türöffner" beziehungsweise als "Grüß-August" anheuern lassen. Oder sie reisen mit einem Manuskript aus ihrem ehemaligen Fachgebiet umher, das sie (für zumeist 25.000 Euro) dem staunenden Publikum vortragen wobei sie zum Schluss noch einige Autogramme verteilen.

Einer höheren Liga gehören die beiden ehemaligen Politiker Gerhard Schröder und Joschka Fischer an. Der Altbundeskanzler Schröder ließ sich von der russischen Erdölfirma Gazprom engagieren, wo er für die Ostsee-Pipeline Nord Stream tätig sein soll. Was er wirklich vollbringt, ist in der Öffentlichkeit kaum bekannt - wohl aber, dass er immer wieder mit seinem Männerfreund Wladimir Putin in einer Kremlbar zusammen sitzt und dort deutsches Bier trinkt. Joschka Fischer, von 1998 bis 2005 deutscher Außenminister, gründete nach seinem Ausscheiden eine Consultingfirma, wo er u. a. den Energiekonzern RWE zum Bau der Nabucco-Pipeline berät, welche Erdgas vom Kaspischen Meer über die Türkei zur EU leiten soll. Daneben gehört BMW zu seinem Klientel, was schon deshalb spaßig ist, weil Joschka während seiner "grünen Epoche" diese Firmen aufs Heftigste befehdet hat.

Roland Koch hat sich von solch windigen, wenn auch einträglichen Jobs stets fern gehalten und stattdessen den harten und risikoreichen Weg in der Managerexekutive gesucht. Dort ist er zunächst einmal gescheitert, hat dabei aber weder sein Gesicht noch sein Ansehen verloren. Man möchte ihm wünschen, dass er wieder in die deutsche Politik zurückkehrt. Er ist ein Politprofi, ein "political animal", dem man zutrauen kann, dass er beispielsweise die Zersplitterung der konservativen Parteien auf der rechten Seite auflösen könnte.

Vielleicht schon 2017.
In Berlin.


Ein Bild aus ferner Zeit

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de