Samstag, 24. September 2016

Die Ölschwemme - wie lange noch?

Vor gut zwei Jahren passierte es: an den Rohstoffbörsen fiel der Preis für ein 159-Liter-Faß (barrrel), fast über Nacht, von 125 US-Dollar auf 50, zeitweise sogar auf nur 27 Dollar. In der Folge wurden an den Tankstellen Benzin und Diesel um fast ein Drittel billiger. Benzin der Sorte E10, welches man früher noch für 1,70 Euro pumpen musste, fiel zeitweise auf unter 1,20 Euro. Ich kann mich noch lebhaft daran erinnern, dass die Tankstellen damals von den Autofahrern regelrecht belagert wurden, denn jeder glaubte, dass die "Billigzeit" schon morgen wieder beendet sein könnte.





Die Entwicklung des globalen Ölpreises seit der Energiewende 2011

Diese Permanent-Angst ist jetzt großenteils vorbei. Ohne Probleme kann man seit dem Jahr 2014 Benzin zu einem moderaten Preis von 1,20 bis 1,30 Euro pro Liter kaufen. Umgekehrt gibt es jetzt sogar Zeitgenossen, welche glauben, dies ginge in alle Ewigkeit so weiter. Dabei hatten die klugen Ressourcenwissenschaftler des "Club of  Rome" schon im Jahr 1972 vorhergesagt, dass - vor allem Erdöl - in Zukunft dramatisch teurer werden würde. Von 200 bis 300 $ pro Barrel war die Rede und  bereits ein Jahr später schienen diese Schwarzseher recht zu bekommen. Im Zuge der sogenannten ersten Ölkrise im Oktober 1973 gab es zeitweise überhaupt kein Öl mehr zu kaufen und die Menschen in Europa genossen das Privileg, auf der Autobahn spazieren gehen zu dürfen. Zur klammheimlichen Freude der damals aufkommenden Partei der Grünen!


Die gegenwärtige Versorgung mit Erdöl

Erdöl ist zur Zeit der wichtigste Energieträger der Weltwirtschaft. Sein Anteil am globalen Energieverbrauch lag im Jahr 2011 bei 33 Prozent. Es folgten Kohle (mit 30 %) und Erdgas (24 %); weit abgeschlagen waren Wasserkraft (7 %) und Kernenergie (6 %). Innerhalb der Branchen hat der Verkehr mit 55 Prozent den weitaus höchsten Ölverbrauch, gefolgt von der Petrochemie (25 %) und der Stromversorgung sowie der Heizung (20 %).  Rund 80 Millionen Fass Mineralöl verbraucht die Erdbevölkerung - an jedem Tag! Mit 2,5 Prozent ist daran die Bundesrepublik Deutschland beteiligt.

Erdöl (bzw. Rohöl) ist keine seltene Ressource, sondern wird in mehr als drei Dutzend Ländern gefunden. Am häufigsten in Saudi-Arabien, wo jeden Tag um die 12 Millionen Barrel (b) gefördert werden. Es folgen Russland mit 11,5 Mio b und die USA mit 11 Mio b. Die nächste Liga bilden Länder wie der Iran (6 Mio b), China (4,1), Irak (3,4), Venezuela (3,9), Kanada (3,7) und Katar (1,9). In Großbritannien (0,9) und Norwegen (1,9) fällt die Förderung seit Jahren ab. Die wichtigste Rohölsorte Europas kommt aus dem Nordseefeld "Brent" zwischen Schottland und Norwegen. Es ist "süßes" Öl mit niedrigem Schwefelgehalt, welches zudem viele niedrigsiedende Bestandteile enthält.

Im Idealfall wird der Preis des Erdöls über Angebot und Nachfrage ermittelt. Aber das Angebot reduzierte sich in den vergangenen Jahrzehnten recht häufig aufgrund politischer Interventionen, wodurch es zu drastischen Preissprüngen kam. Rückblickend war das der Fall im Jahr 1973 wegen des besagten OPEC-Boykotts, 1979 wegen der Revolution im Iran, 1990 wegen des irakischen Überfalls auf Kuweit, 2001 wegen des Terrorangriffs auf New York und 2008 wegen der weltweiten Finanzkrise. Dass 2014 der Ölpreis drastisch - und dauerhaft - um zeitweise 70 % gefallen ist, stellt eine große Ausnahme dar und bedarf der Erklärung.

Aus heutiger Sicht gibt es dafür nur einen Grund: bewusste Überproduktion. Den Anfang machten die US-Amerikaner mit ihrem "Fracking". Bei dieser Technologie wird ein Gemisch aus Chemikalien und Wasser in Schiefergestein gepresst, wodurch sich auf relativ einfache und billige Art große Mengen an Erdöl (oder Erdgas) an die Oberfläche holen lassen. Mit dieser Technik steigerten sie während der vergangenen fünf Jahre ihre Tagesproduktion auf über 10 Millionen Barrel, was die USA unabhängig von weiteren Einfuhren machte. Dies veranlasste den Konkurrenten Saudi-Arabien seine Ölproduktion ebenfalls zu erhöhen, gefolgt von Russland, welches um seine Einnahmen fürchtete. Als weiterer Player kam der Iran hinzu, als dieses Land den sogenannten Atomkompromiss unterschrieben hatte und dadurch wieder satisfaktionsfähig als Öllieferland war. Im Frühjahr 2016 versuchten die früheren Opec-Staaten in Katar eine Deckelung der Förderung zu erreichen, was aber misslang. Dazu beigetragen haben auch politisch-religiöse Animositäten, weil Saudi-Arabien die Islamfraktion der Sunniten und der Iran jene der Schiiten unterstützt.

In den Industriestaaten wirken die günstigen Energiepreise wie ein Konjunkturprogramm. So schmerzhaft der Verfall des Ölpreises für die Förderländer sein mag, so gut ist er für den Rest der Welt. Wie eben bei einem Nullsummenspiel! Die etwa 500 Milliarden Dollar, die jetzt weniger für Öl ausgegeben werden verschwinden ja nicht, sondern fließen in den Konsum der Verbraucher oder werden anderweitig investiert.


Der Ölmarkt in der Zukunft

Die Zukunft des Erdöls als Wirtschaftsgut hängt ab von der Größe der Vorkommen, der Nachfrage und dem Preis. Lange Zeit richtete sich der Blick nur auf die Vorkommen. Nach der viele Jahrzehnte gültigen "Peak Oil"-Theorie richtete sich die Ausbeutung eines Ölfeldes nach der bekannten statistischen Glockenkurve: erst steigt die  Förderung an, erreicht dann ein Plateau, worauf sie schließlich auf Null zurück fällt. Die Ölquelle wurde als eine Art Bassin gedeutet, das zwangsläufig irgendwann leer sein musste. Aber die Wirklichkeit ist viel komplexer. Richtiger ist schon das Bild von einem porösen Schwamm, den man immer wieder auspressen kann - und das umso öfter, je besser die Fördertechnologie entwickelt ist. Außerdem: steigt der Ölpreis durch irgend einen Umstand, so lohnt es sich auch an entlegenen und kostenträchtigen Plätzen (wie der Tiefsee)  nach Öl zu suchen. Wodurch sich das Ölangebot gleich wieder erhöht. Die niedrigsten Förderkosten hat man im Nahen Osten mit ca. 25 $ pro Fass; es folgen Offshore geringer Wassertiefe (40 $), Tiefsee (53 $), Russland (55 $), Schieferöl in USA (62 $) und Ölsande (85 $).

Die Peak Oil Theorie wurde in den letzten Jahren von der "Peak Demand"-Theorie abgelöst. Sie rückt die Nachfrage in den Vordergrund und fragt, ob es nicht eher einen Höhepunkt der Nachfrage für Öl gibt -ab welchen der Verbrauch dieses Rohstoffs kontinuierlich zurück geht. Und tatsächlich deutet vieles in diese Richtung, wenn man historische Betrachtungen anstellt und in die nahe Zukunft extrapoliert. So war die globale Energieversorgung noch in der ersten Hälfte des 20. Jahrhunderts von der Kohle dominiert, das Erdöl spielte so gut wie keine Rolle. Aber schon ab dem Jahr 1950 war das Öl mit einen Fünftel im globalen Energiemix vertreten, wobei die Kohle immer noch 45 % ausmachte. Anfang der 1970er Jahre war das Bild bereits umgekehrt: Nahezu die Hälfte der weltweiten Energieversorgung beruhte auf Öl - aber der Newcomer Erdgas besaß schon einen Anteil von 18 %. Mit der Dominanz von Kohle war es vorbei, obwohl sie immer noch 30 % im weltweiten Energiemix ausmacht.

Inzwischen ist es das Öl, welches um seine Vorherrschaft bangen muss. Zwar ist es mit einem Anteil von einem Drittel immer noch der globale Energieträger Nr.1, aber das konkurrierende Erdgas ist ihm mit fast einem Viertel schon ganz nahe gerückt. Die Kohle stagniert. Zugleich erlebt die Welt seit 10 bis 15 Jahren den Aufstieg der Erneuerbaren Energien. Sie haben unter allen Energieträgern die stärksten Zuwachsraten. In den kommenden zwanzig Jahren werden sich also die relativen Gewichte der einzelnen Energieträger weiter verschieben. Der Ölmulti British Petrol (BP), der ganz nahe am Markt ist, schätzt, dass der Ölanteil bis 2035 weltweit auf 26 % zurück geht. Das Erdgas dürfte in 20 Jahren im gleichen Umfang wie Kohle und Öl zur weltweiten Energieversorgung beitragen.  Zusammen werden diese fossilen Energien dann immer noch rund 80 %  der globalen Energienachfrage abdecken. Die restlichen 20 % kommen von den CO2-freien Erneuerbaren Energien (7 %) und der Wasserkraft (13 %).

Logischerweise ist die zukünftige Ölnachfrage regional unterschiedlich. Die BP schätzt in ihrem Energy Outlook, dass bis 2035 in den 35 westlichen Industriestaaten der OECD der Bedarf an Erdöl um 18 % sinken wird, in Deutschland - aufgrund der CO2-Pönalisierung - sogar noch stärker. Der Mineralölwirtschaftsverband (MWV) geht dort von einer Abnahme des Benzinverbrauchs um annähernd 40 % aus, bei Heizöl um ein Drittel. Diese Verbrauchsabnahmen werden aber global zum Teil überkompensiert durch das Wachstum ausserhalb der OECD und in den Schwellenländern. So schätzt man, dass die Autos von derzeit 1,2 Milliarden Einheiten bis 2050 auf 2,4 Milliarden zunehmen werden.
Trotzdem: wenn keine abrupten politischen Umstände eintreten, wird der Weltölpreis sich noch lange zwischen 50 und 100 $ pro Fass bewegen.

All dies hat bereits vor Jahren der charismatische saudische Ölminister Yamani vorausgedacht, als er in einen Bonmot verkündete:
Die Steinzeit ist nicht zu Ende gegangen weil es keine Steine mehr gab - und das Ölzeitalter wird nicht wegen Mangel an Öl enden.

Sonntag, 18. September 2016

Die Expansion des Universums

Der deutsche Philosoph Immanuel Kant (gestorben 1804) liebte es bombastisch, wenn er sagte: Zwei Dinge erfüllen das Gemüt mit Bewunderung und Ehrfurcht: der gestirnte Himmel über mir und das moralische Gesetz in mir. Für den moralischen Teil dieses Diktums hatte er den "Kategorischen Imperativ" erfunden (Handle so, dass dein Wollen als Grundlage einer Gesetzgebung gelten kann). Den bestirnten Himmel teilen sich die Theologen mit den Physikern, wobei Letztere vor allem im vergangenen Jahrhundert Erstaunliches herausgefunden haben.

Wieder einmal beginnt alles bei Einstein, der seine "Allgemeine Relativitätstheorie" (ART) im Jahr 1916 - also vor genau hundert Jahren - der Preußischen Akademie der Wissenschaften in Berlin vorgetragen hat. Die ART beschreibt die Wechselwirkung zwischen Materie und Feldern einerseits, sowie zwischen Raum und Zeit andererseits. Die Schwerkraft (Gravitation) wird als geometrische Eigenschaft der vierdimensionalen Raumzeit gedeutet. Für Einstein war das Universum noch ein statisches, immer gleich bleibendes Gebilde, angefüllt mit Materie und Energie. Als er einmal gefragt wurde, ob das Universum unendlich sei, antwortete er mit feiner Ironie: Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit - aber beim Universum bin ich mir nicht ganz sicher.

Schon zehn Jahre nach der Publikation der ART wurde immer deutlicher, dass sich das Universum ausdehnt. Der Astronom Edwin Hubble hatte die Rotverschiebung der Spektrallinien des Lichts entdeckt und der Physiker Alexander Friedmann lieferte die theoretische Beschreibung eines (gleichmäßig!) expandierenden Weltalls dazu. Diese - beobachtete - "Galaxienflucht" führte letztlich zur Theorie des "Urknalls". Vor 13,7 Milliarden Jahren muss ein Zustand unendlich hoher Dichte vorgelegen haben, woraus durch Expansion unser Weltall entstanden ist. Unklar ist, ob diese Ausdehnung unendliche Zeit andauern wird, oder ob sie irgendwann zum Stillstand kommt und wegen der Wirkung der Gravitation in eine Kontraktion übergeht. Ähnlich wie ein Ball, den man im die Höhe wirft und der, wegen der Schwerkraft, schließlich umkehrt und nach unten fällt. Sozusagen ein umgekehrter Urknall.

Dunkle Energie contra Schwerkraft

Künftige Generationen brauchen jedoch nicht zu befürchten, dass Ihnen die Sterne und Galaxien - wegen der anziehenden Schwerkraft - so schnell auf den Kopf fallen. Im Gegenteil: vor knapp zwanzig Jahren haben die drei Physiker Riess, Schmidt und Perlmutter entdeckt, dass es im Weltall noch eine weitere, viel größere Gegenkraft gibt, welche das Universum auseinander treibt und gegen die Schwerkraft (erfolgreich) ankämpft. Die Astrophysiker nennen sie "Dunkle Energie", weil ihr Wesen den Experimenten (noch nicht) zugänglich ist und sie deswegen weitgehend im Dunkel bleibt. Fakt ist aber, dass diese Dunkle Energie einen solchen Druck ausübt, dass sie die riesigen Galaxien beschleunigt auseinander treibt. Das bedeutet, dass zwei beliebige Sternhaufen, die sich noch vor wenigen Minuten mit einer bestimmten Geschwindigkeit voneinander entfernen, in diesem Moment bereits schneller auseinander driften. Es ist, als würde der "Liebe Gott" auf dem Gaspedal stehen bleiben.


Die Physik-Nobelpreisträger 2011(v. l.):  Adam G. Riess, Saul Perlmutter, Brian P. Schmidt

Die Existenz der Dunklen Energie ist eindeutig erwiesen, im Jahr 2011 haben die drei oben genannten Physiker dafür den Nobelpreis erhalten. Eine wissenschaftliche Erklärung für dieses Phänomen gibt es aber noch nicht. Man tappt buchstäblich noch im Dunkeln. Rechnerische Abschätzungen haben allerdings ergeben, dass das Weltall zu 70 Prozent mit dieser Dunklen Energie angefüllt sein muss. Weitere 25 Prozent gehen auf das Konto der Dunklen Materie, welche als eine Art "Klebstoff" die Galaxien davor bewahrt durch die Fliehkraft auseinander gerissen zu werden. Und gerade mal 5 Prozent sind der menschlichen Beobachtung zugänglich, also beispielsweise Sonne, Mond und Sterne. Man nennt sie die baryonische Materie, um welche die klassische Physik kreist.

Erklärungsversuche zur Dunklen Energie

Derzeit gibt es zwei Hypothesen, um das Wesen der Dunklen Energie zu erklären: die Vakuumenergie und die Quintessenz. Die "Vakuumhypothese" geht von der Quantenmechanik aus, diese kennt kein Nichts. Selbst in einem perfekten Vakuum ist Energie enthalten, weil dort immer wieder "virtuelle Teilchen" entstehen. Das sind Paare aus Teilchen und Antiteilchen, die spontan entstehen und sich nach kürzester Zeit gegenseitig wieder vernichten. Diese "flimmernden" subatomaren Objekte enthalten Energie, welche der Gravitation entgegen wirkt, also das Weltall auseinander drücken können. Die Vorstellung entspricht einem Gedanken, den bereits Albert Einstein hatte, als er die sogenannte "kosmologische Konstante" in seine Feldgleichungen einführte.

Alternativ könnte es sich bei der Ursache der Dunklen Energie auch um ein Energiefeld handeln, das die Physiker "Quintessenz" nennen. Es durchdringt das Universum und versieht jeden Punkt des Raumes mit einer Eigenschaft, welche der anziehenden Gravitation entgegen wirkt. Die Physiker kennen solche Felder bereits mit der Gravitation und dem Elektromagnetismus. Grob vereinfacht kann man sich die Quintessenz als einen Ball vorstellen, der an jedem Raumpunkt bergab rollt. Wenn das Quintessenz-Teilchen leicht genug ist, läuft es - etwa im heutigen Weltall - zuerst sehr langsam, weil es relativ wenig Bewegungsenergie besitzt. Das  ändert sich mit der Zeit. Man kann sich vorstellen, dass in der kosmischen Frühzeit die Gravitation der Expansion noch sehr effektiv entgegen wirken konnte, wodurch großräumige Strukturen, also Sonnensysteme und Galaxien entstehen konnten. Als jedoch das Universum einige Milliarden Jahre alt war, dünnte die Materie aus. Die Beschleunigung gewann die Oberhand über die Schwerkraft und stoppte so die weitere Bildung von Sternhaufen.

Vom Graus der großen Zahlen

Als die Astronomen die beschleunigte Expansion des Weltalls sichergestellt und die Physiker die Vakuumenergie als mögliche Ursache benannt hatten, machten sich die mathematisch versierten Physik-Theoretiker daran, die Dunkle Energie zu berechnen. Dabei kam es zu einer Riesenüberraschung. Die Aufsummierung aller möglichen Quantenzustände führte nämlich zu einer Gesamtenergie, die um 120 Größenordnungen über den Messwerten der Astronomen lag. Selbst bei Berücksichtigung neuerer Erkenntnisse aus der Supersymmetrie blieb noch eine Differenz von einigen Dutzend Größenordnungen. Für diese enorme Diskrepanz gibt es bis heute noch keine schlüssige Erklärung.

Stattdessen taucht als Erklärungsmuster immer mehr die fantastische Idee von "Parallelwelten" auf. In jeder dieser separaten Universen könnten andere Naturgesetze und andere Naturkonstanten herrschen. So könnte in einigen dieser Welten die Abstoßung von Anbeginn so heftig sein, dass sich die dortige Materie nie zu Galaxien zusammengeklumpt hat, also menschliches Leben, wie wir es gewohnt sind, nicht möglich ist. Es gibt Forscher, welche die "kosmische Inflation", kurz nach dem Urknall, als Quelle der Paralleluniversen vermuten. In diesem "Aufbrodeln" könnten ihrer Meinung nach, diese Tochteruniversen entstehen. Benutzt man darüber hinaus die Stringtheorie, so könnte das "Multiversum", also die Gesamtheit aller Universen, aus zehn hoch 500 Universen bestehen. Die ist eine unvorstellbar hohe Zahl, wenn man bedenkt, dass es in unserem Weltall nicht mehr als zehn hoch 80 Atome gibt.

Die Vorstellung von Parallelwelten fasziniert die Freunde von Science Fiction und Star Wars immer wieder aufs Neue. Bei den Physikern steigt eher der Blutdruck, wenn das Wort Multiversum nur fällt. Sie halten solche Konzepte für schlicht spekulativ, weil diese mit ihren bewährten wissenschaftlichen Methoden nicht überprüfbar sind. Die Existenz von Parallelwelten nachzuweisen ist - Stand heute -  nicht möglich. Ihre Akzeptanz wäre das Ende der Astrophysik.

Ein Ausweg ist derzeit noch nicht gefunden. Stattdessen hat man das Problem an die Astronomen für weitere Messungen zurückgegeben. Die Astronomen haben zu diesem Zweck das internationale Projekt "Dark Energy Survey" (DES) gegründet, welches mit den leistungsstärksten Fernrohren und Kameras unseren Kosmos präzis vermessen soll. (Eine moderne "Vermessung der Welt" nach Kehlmann). Über 400 Wissenschaftler, auch aus Deutschland, beschäftigen sich nun damit, eine hoch aufgelöste Karte unseres Weltalls zu liefern. Dabei sollen 200 Millionen Galaxien und viele Sternexplosionen (Super Novae) vermessen werden. Das Ziel ist, die Geschichte der Expansion unseres Weltalls während der vergangenen zehn Milliarden Jahre experimentell zu bestimmen.

Alle Astrophysiker weltweit blicken gespannt auf diese Ergebnisse und erhoffen sich aus dieser Erkundung der Vergangenheit nun Antworten zur Zukunft unseres Weltalls.

Sonntag, 11. September 2016

Inside KIT

Ein Grummeln geht um im KIT - das Grummeln der Unzufriedenheit.

Über das Murren der Mitarbeiter, insbesondere im ehemaligen Forschungszentrum Karlsruhe FZK, jetzt KIT Campus Nord bzw. Großforschungsbereich GFB, will ich aber kein Manifest schreiben, indes ein Blog darüber ist sicherlich angemessen. Schon deshalb, weil diese Unzufriedenheit der ehemaligen "FZK´ler" den Personalrat vor einigen Wochen dazu veranlasst hat, den hohen Präsidenten des KIT und seine Vizepräsidenten zu einer KIT-Betriebsversammlung "einzuladen", wo diese Herren (die Dame befand sich im Urlaub) sich den Fragen des Personalrats und der Beschäftigten zu stellen hatten..

Das ist kein alltägliches Ereignis in der 60-jährigen Geschichte des FZK, beziehungsweise des ehemaligen Kernforschungszentrums. Die Fragen der Mitarbeiter deckten so wichtige Themen ab, wie Großprojekte, Führungskultur, Finanzsituation, Personalpolitik, Exzellenzinitiative und anderes mehr. Der Zusammenschluss der ehemaligen Technischen Hochschule und des Forschungszentrums, de facto seit zehn Jahren existent, ist keineswegs nur eine Erfolgsstory, wie man das immer wieder darzustellen versucht. Im Gegenteil, insbesondere von den Gründungsvätern des KIT, dem FZK-Geschäftsführer Manfred Popp und dem TH-Rektor Horst Hippler, wurden in der Anfangszeit gravierende Fehler gemacht, welche dieses Fusionsprodukt in der Zukunft durchaus noch in schweres Fahrwasser  bringen können. Im Folgenden werde ich auf die wesentlichen Probleme, besonders beim Forschungszentrum, eingehen.

Der Präsident:  hoch droben

Der Präsident des KIT, Professor Dr. Holger Hanselka (54), ist eine flamboyante Erscheinung. Er studierte Maschinenbau an der TU Clausthal und nach einigen Zwischenstationen, u.a. in Magdeburg und Darmstadt sowie als Leiter eines Fraunhofer-Instituts, wurde er im Oktober 2013 in sein heutiges Amt berufen. Für seine 9.315 KIT-Mitarbeiter ist Hanselka kaum erreichbar, auch nicht für die 5.504 im wissenschaftlichen Bereich. Aber selbst die ca. 350 Professoren und Juniorprofessoren - und hier wirds schon heikel - genießen nur selten die Gunst eines Gesprächs mit ihm. Ja, sogar die etwa 150 Institutsleiter haben Probleme, an H. heranzukommen. Das ist bedauerlich, denn die Chefs der Institute sind (samt Mitarbeiter) die eigentlichen Träger von Forschung und Lehre, also für das "Produkt" des KIT. Ihre Arbeit bestimmt den Ruf nach außen und in den internationalen Bereich hinein.

Die Institutsleiter sind im Organigramm des KIT nicht per Namen, sondern nur summarisch, gewissermaßen in "Klumpen-Form" aufgeführt. Wobei es erstaunlicherweise zwei Organigramme (siehe Jahresbericht 2015) für die Firma KIT gibt. Das überrascht, denn bei den allermeisten Unternehmen ist es üblich, ein einziges Organigramm für den ausgewählten Bereich nach außen zu kommunizieren. Der Vorgänger von Hanselka, Professor Eberhard Umbach, kam noch mit einem solchen Organigramm aus (Stand 18. März 2011), welches zudem den Charme besaß, dass auf diesem auch alle Institute aufgelistet waren. Im Übrigen bedürfen Hanselkas Organigramme wohl der baldigen Novellierung. Wie man hört, will die Vizepräsidentin für Personal und Recht, Frau Dr. Elke Barnstedt, demnächst in den wohlverdienten Ruhestand gehen. Man darf gespannt sein, wie die Findungskommission das offensichtliche Genderproblem auf dem Präsidiumslevel lösen wird. Darüberhinaus wird, dem Vernehmen nach, die Abteilung Presse, Kommunikation und Marketing (PKM)  umstrukturiert.


Das Organigramm des KIT für die "Wissenschaftsorganisation"



Das Organigramm des KIT für die "Aufbauorganisation"

Kommen wir zurück zu den Instituten; sie sind nur pauschal in den Organigrammen vermerkt. Für einen Institutsleiter (IL) im "Institut für Angewandte Materialien", beispielsweise, ist der Sprecher des IAM die erste formelle Hierarchiestufe. Dann folgt der Dekan der Maschinenbaufakultät, wobei man sich erinnert, dass Urvater Hippler die Fakultäten bei KIT einstmals abschaffen wollte. Offensichtlich ist ihm dies nicht gelungen. Danach folgt die Stufe der Bereichsleiter, die früher den schreckeinflößenden Namen Chief Officers besaßen. Ab jetzt wird die Luft dünner, denn unser oben genannter Institutsleiter betritt das Niveau der Vizepräsidenten. Wenn er all seinen Mut zusammen nimmt, wird er schließlich bei The Chief Himself, Professor Hanselka,  vorgelassen. Geht so ein armer IL den "Dienstweg", dann hat er bei seinem Hürdenlauf also nicht weniger als fünf Hierarchiestufen zu erklimmen.

Um nicht missverstanden zu werden: Professor Hanselka steht keineswegs im Ruf der "Unnahbarkeit". Aber Fakt ist doch, dass es beträchtliche bürokratische Hürden gibt, bis ein "gewöhnlicher Institutsleiter" mit seinem Anliegen bei ihm vorsprechen kann. Das war im früheren Forschungszentrum ganz anders; Institutsleiter und Projektleiter waren im Organigramm direkt unter dem Vorstand angesiedelt. Für den Leiter eines größeren Projekts war es kein Problem, bei seinem Vorstand einen Termin - innerhalb ganz weniger Tage - zu bekommen. Gab es ein akutes Problem zu besprechen, dann auch noch am gleichen Tag. Die Tür zum Vorstandzimmer stand in der Regel offen und wem es gelang, sich an der Zerbera Frau K. vorbei zu schlängeln, der wurde zumeist auch vom Vorstand (in meinem Fall Professor H.) hereingewunken. Für ein Viertelstündchen, fünf Minuten Smalltalk inklusive. Diese relativ leichte Zugänglichkeit hatte auch für die Vorstandsebene einen nicht geringen Nutzen: sie wusste stets, was im Forschungszentrum so "lief".

Die Malaise der Großprojekte

Das Forschungszentrum FZK war während seiner 50-jährigen Selbstständigkeit weltweit dafür bekannt, dass dort Großprojekte im Finanzbereich von einigen Millionen bis zu mehreren hundert Millionen DM ersonnen und erfolgreich abgewickelt wurden. Beispielhaft dafür sind die (meist kerntechnischen) Projekte FR 2, MZFR, WAK, KNK I, KNK II, SNEAK, BETA, HZ, SNR 300,  KASCADE etc.etc. Davon übrig geblieben sind derzeit im wesentlichen nur noch die zwei Großprojekte "KATRIN" und "bioliq". Beide sind in gewisser Beziehung "notleidend", denn sie befinden sich in technischer, terminlicher und finanzieller Schieflage.

KATRIN  ist  ein astrophysikalisches Experiment, womit die Ruhemasse des sogenannten Elektron-Neutrino gemessen werden soll. Der Versuchsaufbau ist 75 Meter lang und besteht aus vier funktionalen Einheiten, nämlich der Tritiumquelle mit Pumpstrecke, den zwei elektrostatischen Spektrometern zur Energieanalyse sowie dem Enddedektor zum Zählen der transmittierten Elektronen. Beeindruckend in seiner Größe ist das Hauptspektrometer, welches allein 200 Tonnen wiegt. Wesentliche technologische Herausforderungen sind das hohe Vakuum (mit 10 hoch minus 11 millibar) sowie die Temperaturstabilität der Quelle. Derzeit ist man dabei, die Gesamtanlage zusammenzubauen und betriebstüchtig zu machen. Mit diesen Arbeiten ist man ca. zehn Jahre hinter Plan, wenn man die Ankündigungen im "letter of intent" aus dem Jahr 2001 zugrunde legt. Auch die in diesem Dokument genannten Kosten von 17 Millionen Euro dürften inzwischen obsolet sein. Bedauerlicherweise kann man im aktuellen KIT-Jahresbericht 2015 nichts zum technischen und finanziellen Stand dieses Projekts lesen, was übrigens auch für das andere Großprojekt bioliq gilt.

Die anschließende Messkampagne bei Katrin wird wohl im Jahr 2017 beginnen und ca. fünf Jahre dauern. Ursächlich für diese vergleichsweise lange Zeit ist der Umstand, dass in der Anlage zwar Milliarden von Betazerfällen ausgelöst werden, aber nur das letzte Elektronenvolt im Spektrum interessant ist. Und dort gibt es nur ca. 1 bis 2 Zerfälle pro Stunde! (Erinnert mich an meine eigene Physik-Diplomarbeit bei Maier-Leibnitz mit der langwierigen Messung des Steilabfalls der Bragg-Kurve). Schreitet das Experiment, wie jetzt geplant, voran, dann sind im Jahr 2021 die Messungen beendet. Zwei weitere Jahre muss man für die Auswertung und Synthese bis zur Veröffentlichung (in den Renommier-Journals SCIENCE oder NATURE) einrechnen, womit wir uns dann im Jahr 2023 befinden. Das ist, welch ein Zufall, genau das Jahr in dem der engagierte und international bestens vernetzte Projektleiter Professor Guido Drexlin in Rente geht. Und sich ab dann als "physics-freelancer" an eine schöne Universität im sonnigen Kalifornien verdingen möchte. Die Freuden des "troisième age"!

Und wenn es zeitlich nicht klappt mit Katrin? Nun der Professor hat bereits ein "Bauchgefühl" wie der gesuchte  Wert der der Neutrino-Ruhemasse sein könnte:
nämlich 0,278 Elektronenvolt. 

Ein weiteres Großprojekt im FZK ist bioliq Hier soll die Reststoff-Biomasse Stroh zu Autokraftstoff, also Sprit, verarbeitet werden. Durch Pyrolyse wird ein schwerölähnliches Produkt erzeugt, das in einem Flugstromvergaser zu Synthesegas weiter verarbeitet wird. Leider scheint das nicht so einfach zu sein, denn die Bemühungen von mehr als ein Dutzend Jahren sind immer noch nicht vom Erfolg gekrönt. Die Errichtung der dazu erforderlichen Pilotanlage im FZK war nicht billig, immerhin wurden schon mehr als 60 Millionen Euro investiert. Darüber hinaus hat das bioliq-Verfahren auch vielfache Konkurrenz. Ein Wettbewerber war "Choren Industries" im sächsischen Freiberg, wo man versuchte synthetischen Kraftstoff aus Restholz herzustellen. Obwohl sich namhafte Automobilkonzerne an diesem Unternehmen beteiligten, ging die Firma Choren 2011 bankrott.  Die Medien sprachen von geschönten Zahlen und zu geringen Produktionsmengen.  Hoffentlich ereilt KIT mit seinem Großprojekt bioliq nicht ein ähnliches Schicksal. Es hat keine so starke Industrieunterstützung wie Choren und das wirtschaftliche Umfeld infolge der andauernden Ölschwemme ist fast noch schwieriger geworden. Leider erfährt der externe Steuerzahler auch hier nichts über Produktmengen und Betriebskosten.

Viel geforscht wird bei KIT im Bereich der Astrophysik. Über das KIT-Centrum Elementarteilchen- und Astrophysik (KCETA) ist man mit zahlreichen internationalen Forschergruppen verknüpft und führt seit vielen Jahren Experimente am Beschleuniger LHC bei CERN durch. In diesem Verbund bearbeiten elf Physikinstitute grundlegende Fragen zum Ursprung der Masse, zur Asymmetrie Materie/Antimaterie, zur Zusammensetzung Dunkler Materie/Dunkler Energie und zum Ursprung der kosmischen Strahlung usw. Leider stellt sich in den letzten Jahren immer deutlicher heraus, dass bei den LHC-Experimenten nicht mehr viel zu finden ist. Offensichtlich ist die Drei-Milliarden-Maschine zu schwach für den Aufbruch in eine neue physikalische Ära. Möglicherweise benötigt man einen stärkeren Beschleuniger. Aber den zu planen, zu beschließen, zu finanzieren und letztlich zu bauen würde viele, viele Jahre in Anspruch nehmen. Das vorläufige Ende der Astrophysik?

Neue, wenn auch kleinteilige Projekte, sind am Horizont sichtbar. Vor kurzem hat sich KIT in das sogenannte Kopernikus-Projekt eingeklinkt. Es wurde von der Bundesforschungsministerin, Frau Wanka, aus der Taufe gehoben und soll die gefährdete Energiewende absichern. Kopernikus ist auf zehn Jahre ausgelegt, insgesamt beteiligen sich daran 23 Einrichtungen und Partner. KIT will sich dem Problem der Netzstabilität zuwenden, welche wackelig sein kann, weil die Stromproduktion durch Wind und Sonne bekanntermaßen stark fluktuiert. Keine wirklich neue Erkenntnis. Die Netzbetreiber müssen an die tausend Mal pro Jahr per Hand eingreifen, um die Frequenz bei 50 Hertz zu stabilisieren. Aber kaum ist das Problem ausgelobt, schon hat das ebenfalls an Kopernikus beteiligte Konkurrenzentrum FZK Jülich eine Lösung parat. Im seinem Magazin "effzett" ist ein Tweet des Jülicher Forschers Dr. Dirk Witthaut abgedruckt, in dem folgendes behauptet wird: "Durchblick statt Blackout: Formel sagt Stromausfälle voraus und identifiziert Schwachstellen im Netz. #Energiewende".
Schneller geht's nimmer!

Vielleicht nach dem Motto  "Kleinvieh macht auch..." bahnt sich im Universitätsbereich eine erstaunliche Entwicklung an: in großer Zahl werden dort Kleinprojekte gegründet, die man im Verbund mit industriellen Partnern abwickeln möchte. Diese Miniprojekte - im Schnitt um die 30.000 Euro - sollen zum Einstieg in spätere Großprojekte bei KIT (Campus Nord??) werden. Die Idee klingt zunächst gut und erfolgversprechend - ist sie aber nicht. Schon allein die Fülle dieser Kleinprojekte erschreckt: im Jahr 2015 waren es bereits 200. Das bedeutet, dass jedes Institut im Schnitt 1 bis 2 dieser Projektchen bearbeitet. Gesteuert wird das Ganze durch eine eigenständige Gesellschaft, der "KIT Campus Transfer GmbH", mit bereits zwei Geschäftsführern und (vermutlich) entsprechendem Unterbau und dazugehörigen Fixkosten. Der Personalrat kritisiert diese Entwicklung, weil sie geeignet ist, dem KIT-Nord die Projekte "wegzuschnappen" und zudem wohl nicht zuletzt den "privaten Wohlstand" der damit beschäftigten Professoren mehrt. Außerdem ist diese Innovation konträr zur grundsätzlichen KIT-Philosophie. Bei der Gründung des KIT war es allgemeines Verständnis, dass KIT-Süd für die Lehre sowie die Diplom- und Doktorarbeiten etc. zuständig ist und KIT-Nord für die wirklichen großen Projekte. Die Zuwendungsgeber in Bund und Land sollten diese problematische Entwicklung im Auge behalten.

Gravierende Fehler in der Vergangenheit

Der Niedergang des Forschungszentrums wurde bereits in der Vergangenheit, zwischen den Jahren 1991 bis 2006 eingeleitet und zwar durch einige falsche Strategieentscheidungen des damaligen Geschäftsführers Dr. Manfred Popp. Er veranlasste, beispielsweise, den Komplettausstieg aus der Medizintechnik , worin eine kleine, personell leider unterbesetzte Gruppe mit großem Engagement tätig war. Konkurrierende Forschungszentren stiegen in das aufstrebende Gesundheitsgebiet ein; ich nenne nur das FZK Jülich mit seiner weithin bekannten Hirnforschung.

Eine weitere Fehlentscheidung, in noch höherem Maßstab, war der weitgehende Ausstieg aus der Kerntechnik, den Popp anfangs der neunziger Jahre verfügte. Zu dieser Zeit waren in Deutschland noch 18 große Kernkraftwerke in Betrieb, die man F+E-mäßig, besonders auf dem Gebiet der Sicherheit, hätte begleiten und unterstützen müssen. Als die Bundeskanzlerin im März 2011, auf einer dubiosen Datenbasis und praktisch im Alleingang, die sofortige gestaffelte Abschaltung aller deutscher Kernkraftwerke entschied, war die verbliebene Kerntechnikgruppe beim FZK bereits zu klein und unterkritisch geworden, um Merkels Entscheidung wissenschaftlich-technisch ernsthaft  hinterfragen zu können. Wie nicht allseits bekannt, werden einige deutsche KKW noch bis zum Jahr 2022 in Betrieb sein, wobei auch für diese eventuell noch die  F+E-Unterstützung notwendig werden könnte. Darüber hinaus gibt es rund um Deutschland herum derzeit 140 Kernkraftwerke, meist älterer Bauart, welche die deutschen Kerntechniker nicht mehr sachkundig bewerten können, weil uns das Ausland hierfür die Expertise abspricht. Dass die EU-Kommission gerade jetzt ihr Institut für Transurane im Forschungszentrum Karlsruhe zu zentralen Standort für die "Nukleare Sicherheit" vergrößert, beweist darüberhinaus, dass der deutsche Ausstieg aus der kerntechnischen Sicherheitsforschung voreilig war.

Den allergrössten Fehler beim Management des Forschungszentrums beging der Geschäftsführer Popp als er, kurz vor der Gründung des KIT, den "Bereich für die Stilllegung der kerntechnischen Anlagen" von der FZK ausgliederte und an die "Energiewerke Nord" (EWN) weiter gab. Der Karlsruher Stilllegungsbereich hatte vorher in Deutschland praktisch eine Monopolposition inne und war vor allem in den neunziger Jahren sehr erfolgreich, als dort zwei Kernkraftwerke (KKN und HDR) bis zur Grünen Wiese rückgebaut und der FR 2 sicher eingeschlossen worden war. Darüber hinaus wurden erhebliche Fortschritte bei der Demontage der Wiederaufarbeitungsanlage WAK gemacht und die Verglasungseinrichtung für die Flüssigabfälle konzipiert und durchgesetzt. Seit gut einem Jahr versucht das KIT diesen strategischen Fehler wieder gut zu machen, indem sie eine kleine Rückbaugruppe aufbaut und den Verbund mit externen Partnern anstrebt. Das wird - mangels eigener Großanlagen und wegen der begrenzten Expertise  - allenfalls zu einem Nischendasein führen. Der Zug im Rückbau atomarer Anlagen ist abgefahren. Die Energieversorgungsunternehmen und eine Vielzahl kleiner, aber kompetenter Firmen, haben das Kommando übernommen. FZK/KIT haben fahrlässigerweise vor zehn Jahren ein Alleinstellungsmerkmal aufgegeben und sich selbst von einem Milliardenmarkt  abgekoppelt.

Seit die Energiewerke Nord  um 2006 das Kommando beim Stilllegungsbereich übernommen haben, ist kein weiteres Kernkraftwerk im Forschungsbereich mehr zur Gänze rückgebaut worden; KNK und MZFR sollen erst im nächsten Jahrzehnt entsorgt werden. Der Terminplan zum Abriss der WAK hat sich bis ca. 2030 verschoben, statt einer Milliarde Euro (wie geplant) sind nunmehr ca. drei Milliarden erforderlich. EWN ist übrigens -ungeachtet ihres Namens - als Unternehmen der "unechten Industrie" zuzurechnen; es wird vom Bund und damit vom Steuerzahler zu 100 Prozent alimentiert. Derzeit passiert bei den rückzubauenden Anlagen um die WAK mindestens fünf Jahre lang nichts, weil erst zwei Zwischenläger für die radioaktiven Abbruchmaterialien genehmigt und gebaut werden müssen. Das bereits bestehende große Zwischenlager - um das sich jeden Tag 4.000 KIT-Forscher herumbewegen und in dessen Nähe man das neue Casino gebaut hat - ist randvoll. Was man offensichtlich relativ spät gemerkt hat. Diese Stagnation der Rückbautätigkeiten führt zu hohen Personalkosten, weil (auf Anraten des "Übervaters" Dieter Rittscher?) bei der WAK fast nur mit Eigenpersonal geschafft wird. Das FZK hatte früher, auf Betreiben seines Controllers, 50 Prozent Fremdpersonal eingesetzt, was zu höherer Flexibilität und zu niedrigeren Kosten bei "Flautezeiten" führte.

Der Name des ehemaligen Geschäftsführers Popp, der das Forschungszentrum von 1991 bis 2006 leitete, ist bereits mehrfach gefallen. Es besteht Anlass, sich dieser Personalie zuzuwenden. Der jetzt 75-jährige alte Physiker war 1972, zwei Jahre nach seiner Promotion, zum Bonner Bundesforschungsministerium gekommen. Innerhalb von nur sechs Jahren machte er - ausgestattet mit einem SPD-Parteibuch - innerhalb der sozialliberalen Koalition eine Blitzkarriere. Schon 1978 wurde er zum Ministerialdirigenten ernannt. Während der darauffolgenden Kohl-Regierung wurde Popp - nunmehr Mitglied der CDU - 1987 zum Staatssekretär für Umwelt und Reaktorsicherheit in der Hessischen Landesregierung unter Wallmann ernannt. Nach dem Sturz dieser Regierung wurde Popp, auf Betreiben seines ehemaligen Bonner Forschungsministeriums, nun Vorsitzender des Vorstands beim ehemaligen Kernforschungszentrum Karlsruhe und huldigte fortan, mit dem Ausstieg aus der Kerntechnik, dem grünen Zeitgeist.. Die "Frankfurter Allgemeine Zeitung" (FAZ) schrieb in einem Kommentar vom 2. April 1991 dazu folgendes: "Wie er (sprich: Popp) in dieses Amt gekommen ist, darüber bedürfte die Öffentlichkeit noch der Aufklärung. Denn welche Voraussetzungen Popp für die Leitung einer so großen, sich zudem in der Phase der Neuorientierung befindenden Forschungsorganisation qualifizieren, ist aus seinem Werdegang nicht zu ersehen."  All diese Zitate stammen keineswegs von mir, sondern man kann sie, direkt oder implizit, in der Historie des FZK, "Geschichten aus der Geschichte",  auf Seite 66 nachlesen.

Finanzen und Exzellenzinitiative

Das Finanzbudget des KIT betrug im Jahr 2015 860 Millionen Euro; davon entfielen auf den Universitätsbereich 428 Mio und auf dem Großforschungsbereich 432 Mio. Die Finanzierung erfolgte über Bundesmittel (254 Mio Euro), Landesmittel (248 Mio) und Drittmittel (358 Mio). Die Geldströme von Bund und Land dürfen nicht vermischt werden, was die Buchhaltung nicht unwesentlich erschwert. Die Drittmittel sind nur zum kleineren Teil Einwerbungen aus der Industrie, zumeist stammen sie von der EU, der Deutschen Forschungsgemeinschaft sowie aus Extratöpfen von Bund und Land. 860 Millionen sind eine stattliche Summe. Das ehemalige Forschungszentrum musste zumeist mit 500 Millionen DM auskommen. Trotzdem kneift es bei KIT immer wieder an allen Ecken und Enden, wie man von dem für Finanzen und Wirtschaft zuständigen Vizepräsidenten Dr. Ulrich Breuer hört.

 Besonders groß war die Geldnot zu der Zeit, als die Mittel aus der verlorenen Exzellenzinitiative ausblieben, also um das Jahr 2012. Dem KIT entgingen damals 60 bis 80 Millionen pro Jahr, mit denen es fest gerechnet hatte und die zum Teil bereits verplant oder gar ausgegeben waren. Weitere Defizite entstanden dadurch, dass die von außen eingeworbenen Drittmittel häufig nur zu einem Gemeinkostensatz von 20 Prozent kalkuliert waren , welche allerdings selten die wahren Kosten deckten. Die Einführung der gemeinsamen Verwaltungs-Software SAP für Uni und FZK dauerte ewig. Und zum Schluss war sie auch noch keineswegs einheitlich. Weil damals auch noch die Verwaltung "verschlankt" wurde, kam es zu der schlimmen Situation, dass die Hilfsassistenten, im Jargon Hiwis genannt, für ihr Jobben an der Uni monatelang kein Geld bekamen, beziehungsweise nur Abschlagszahlungen. Es passierte sogar, dass die Studierenden erst nach einem halben Jahr ihr Zeugnis erhielten, weil in der magersüchtigen Verwaltung zu wenige Sekretärinnen verfügbar waren. Finanzchef  Breuer schleppte jahrelang ein Minus von 10 Millionen Euro mit sich; als Finanzziel gab er (Schäuble lässt grüßen) "die rote Null" aus.

Mit der Exzellenzinitiative, einen Förderprogramm des Bundes für die Hochschulen, hat das KIT bislang gute und böse Erfahrungen gemacht.  Im Jahr 2006 gewann KIT bei der Exzellenzinitiative I (zusammen mit den beiden Münchener Universitäten) den Ehrentitel "Elite-Universität" sowie erhebliche Sondermittel. Ausschlaggebend war die Vorlage des KIT-Konzepts, das die Juroren damals wohl noch beeindruckte. Bei der Exzellenzinitiative II im Jahr 2012 war man in Karlsruhe siegessicher. KIT-Präsident Horst Hippler gab den Ton vor. "Ausscheiden - das ist einfach nicht vorgesehen. Am KIT kommt keiner vorbei". Und dann kam der 12. Juni 2012 - ein schwarzer Freitag. Hippler musste kleinlaut verkünden, dass KIT bei der Schlussabstimmung der Gutachter durchgefallen war. Der schöne Titel "Elite-Universität" war futsch. Präsident Hippler war offensichtlich schon im voraus informiert worden, denn er machte sich bereits am 24. April 2012 vom Acker. Schlauerweise bewarb er sich um die Präsidentschaft der Hochschulrektorenkonferenz HRK, wo er allerdings erst nach einer Kampfabstimmung gewählt wurde. Seinen Co-Präsidenten Professor Eberhard Umbach ließ er die Riesenorganisation KIT allein weiter regieren. Seitdem okkupiert der ehemalige TH-Rektor Hippler, nunmehr 70, diesen HRK-Job, der von vielen als ein höchst überflüssiger Ruheposten für alte Profs angesehen wird.

Was waren die Ursachen für das Ausscheiden bei der Exzellenzinitiative II?  Nun, die Forschungsanträge, die  sogenannten Cluster, in den beiden Bereichen Nanotechnologie ("Funktionelle Nanostrukturen") und Informatik ("Verlässliche Software") waren durchgefallen. Das Superinstitut für Nanoforschung war unter Professor Herbert Gleiter in den vergangenen 15 Jahren mit hohem finanziellen Aufwand aufgebaut worden. Gleiter selbst heimste bei seinen globalen Rundreisen fast mehr Ehrenmedaillen und Awards ein als die gesamte deutsche Olympiamannschaft in Rio. Und nun diese Pleite. Hätte er sich doch mehr seinem INT gewidmet. Hic Rhodos, hic salta, sagten schon die alten Lateiner.

 Im kommenden Jahr will die Bundesbildungsministerin Johanna Wanka über die Exzellenzinitiative III für die ca. hundert deutschen Hochschulen entscheiden. Der Schweizer Physiker Dieter Imboden hat dafür ein leicht verändertes Konzept vorgelegt. Die Eckwerte sind: Laufzeit 2018 bis 2028, Fördersumme fünf Milliarden Euro, also 0,5 Mrd. pro Jahr  Das ist nicht gerade übermäßig viel, wenn man andere Budgetzahlen zum Vergleich heran zieht:   Der Etat des Bundesministeriums für Bildung und Forschung beträgt 17,5 Mrd, der für die Flüchtlinge sogar 25 Milliarden pro Jahr - und das noch auf lange Zeit! Am KIT will man diesmal alles richtig machen und hat zur Vorbereitung die vierköpfige "Projektgruppe FOR X" eingerichtet. Wie in dem Mitarbeitermagazin "KIT Dialog 1.2016" nachzulesen ist, steht an der Spitze der Lenkungsausschuss mit dem Präsidium und den Bereichsleitungen. Er steuert das Gesamtprojekt und wird von einem "Sounding Board" beraten. Außerdem wurden acht Teilprojektgruppen zu verschiedenen Themen wie Chancengleichheit, Karrierewege etc. eingerichtet. Die Projektgruppe FOR X wird zudem unterstützt durch ein Erweitertes Team, das mit Referentinnen des Präsidiums und Mitarbeitern der DEs Forschungsförderung, Innovationsmanagement, Internationales, Personalentwicklung und berufliche Ausbildung sowie dem Karlsruhe House of Young Scientists besetzt ist.
Viel Knowhow kommt hier zusammen. Hoffentlich vergisst man nicht kompetente Wissenschaftler einzuklinken, welche wohl allein dazu in der Lage sind, wettbewerbsfähige "Proposals" abzugeben.

Synthese und Schlussbetrachtungen

Zusammenfassend kann man sagen, dass sich bei KIT ein vorher nicht gekannter lähmender Bürokratismus ausgebreitet hat. Bereits angeführte Beispiele sind der Gremiendschungel bei der Vorbereitung der Exzellenzinitiative III sowie die organisatorischen Triplizierung des Technologietransfers durch die Einheiten Presse, Kommunikation, Marketing (PKM), durch Research to Business (R2B)und durch die KIT Transfer GmbH. Auf der unteren Verwaltungsebene bemüht man sich seit Jahren - weitgehend erfolglos - die dezentrale Struktur im Süden mit der zentralen im Norden zu harmonisieren. (Siehe Beschaffungs- und Personalwesen)

Die beiden Fusionspartner, FZK und TU, vor zehn Jahren rangmäßig noch auf Augenhöhe, sind inzwischen krass unterschiedlich geworden in ihrer öffentlichen Bedeutung. Die Universität, mit ca. 25.000 Studierende kaum größer als Freiburg oder Tübingen, hat eindeutig das Übergewicht gewonnen. Wenn in ihren Bereich etwas schief läuft (etwa weil einige Hiwis ihren Lohn zu spät erhalten), dann wird das in der Presse ausführlich dargestellt. Wenn dagegen im Großforschungsbereich, wie im Vorjahr geschehen, die Synchrotronstrahlenquelle ANKA drastisch reduziert wird, dann ist das kein öffentliches Thema.

Dabei ist das internationale Ansehen des KIT durchaus unterschiedlich zu werten. In dem schon genannten KIT-Jahresbericht werden die ausländischen Studierenden nach Ländern aufgelistet. Demnach befinden sich unter den TOP 20 vorzugsweise Tunesier und Türken, sowie eine ganz große Zahl von Chinesen. Aber keine US-Amerikaner und Briten, die im internationalem Ranking bei den Naturwissenschaften die Spitzenposition einnehmen! Könnte es sein, dass die jungen Leute aus den Entwicklungs- und Schwellenländern besonders deswegen gerne zum KIT kommen, weil es dort keine Studiengebühren, dafür aber hohe Sozialleistungen gibt und man zur Not mit Englisch durchkommt ohne Deutsch lernen zu müssen? Bekanntlich liegen die jährlichen Collegekosten an den US-Universitäten bei 40.000 Dollar und die Absolventen sind zumeist mit einer Schuldenlast von 50.000 Dollar noch über viele Jahre hinweg belastet.


KIT-Ausländische Studierende nach Ländern  (Top 20 von 117)

Der Name KIT wurde von den Urvätern Popp/Hippler im Anklang an das berühmte "Massachusetts Institute of Technology"- MIT - ausgesucht. Das war hoch gegriffen, um nicht zu sagen anmaßend. Diese weltberühmte technische Universität in Boston hat bisher ca. 80 Nobelpreisträger hervorgebracht und verfügt über ein Jahresbudget, welches den KIT-Etat um den Faktor 12 übertrifft. Da wird KIT noch lange hinterher laufen müssen.

Ernste Sorge bereitet der Niedergang des ehemaligen Forschungszentrum, also KIT Campus Nord . Entgegen seinem Namen Großforschungsbereich (GFB) werden dort kaum noch große Projekte bearbeitet, abgesehen von den im Argen liegenden Objekten Katrin und bioliq. Neue - und aufregende - Projekte sind nicht in Sicht. Man darf annehmen, dass die Gesellschafter in Bund und Land nicht endlos jedes Jahr fast eine halbe Milliarde Euro in diese siechende Lokation hineinpumpen wird. Eher schon werden sie ein Gutachtergremium einberufen, welches den wissenschaftlichen Return ihrer Zuwendungen  aus Steuermitteln beurteilt. Sollten nicht bald neue Großthemen gefunden werden, so ist wohl mit Kürzung der Finanzmitteln zu rechnen, womit eine Spirale nach unten eingeleitet werden könnte. Bereits jetzt geriert sich KIT Nord nur noch verlängerte Werkbank des KIT, ja als bloßes Anhängsel. (Dafür typisch: das 60-jährige Jubiläum des ehemaligen Kernforschungszentrums Karlsruhe-Leopoldshafen wurde am 19. Juli 2016 vom Präsidium mit keinem Wort gewürdigt. Demgegenüber hat FZ Jülich an dieses Datum mit einem Sonderheft erinnert).

Typisch für die Negativentwicklung bei KIT Nord ist, dass das Präsidium vor kurzem aus seiner Beletage im siebten Stock des Verwaltungsgebäudes in den Süden umgezogen ist, um sich dort im Herzen der Universität standesgemäß einzulogieren.
 Die 7 Autoparkplätze im Norden, indes, bleiben für das 5-köpfige Präsidium weiterhin reserviert.

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de