Sonntag, 11. Dezember 2016

2050: Das Ende der Menschheit ?

Die Künstliche Intelligenz (abgekürzt: KI) ist ein Teilgebiet der Informatik und befasst sich mit der Nachbildung der menschlichen Intelligenz in einem Computer. Eine genaue Definition für die KI ist problematisch, da schon der Begriff Intelligenz sich der präziseren Beschreibung entzieht. Begründet wurde die KI im Jahr 1956, also vor 60 Jahren, bei einem Workshop an der US-amerikanischen Universität Dartmouth unter der Bezeichnung Artificial Intelligence (AI).

In regelmäßigen Abständen vergleichen Menschen ihre spezifischen Fähigkeiten mit entsprechend programmierten Computern. Hohe publizistische Wellen schlug ein kürzlicher Wettbewerb im März 2016, bei dem der koreanische Weltmeister Lee Sedol im Go-Spiel gegen den von Google Deepmind programmierten Computer AlphaGo antrat. Go ist ein traditionelles chinesisches Brettspiel mit 361 Gitterpunkten, bei dem jeder der beiden Spieler versucht, die gegnerischen Steine zu umzingeln und dann weg zu nehmen. Wer die meisten Felder erobert hat, gewinnt schließlich. Bei dem genannten Go-Turnier, das über 5 Spiele angesetzt war, galt der Koreaner als klarer Favorit. Am Ende verlor er deutlich mit 4:1, war erkennbar geschockt und zeigt sich seitdem nicht mehr in der Öffentlichkeit. Dieses Turnier wird als Wendepunkt im Kampf "Mensch gegen Maschine" gewertet. Erstmals hatte ein "lernendes System" sich gegen die natürliche Intelligenz eines Menschen durchgesetzt.

Das war anders bei dem berühmten Schachturnier 1997 in Philadelphia, als der amtierende Weltmeister Garri Kasparov gegen den von IBM programmierten Computer Deep Blue antrat. Der Champion Kasparov verlor in 6 Partien 3,5 : 2,5 und seitdem ist unbestritten, dass selbst hervorragende Spieler gegen einen käuflichen Schachcomputer in Schwierigkeiten gelangen können. Deep Blue war von seinen Entwicklern zu Trainingszwecken vorher mit tausenden von Schachpartien "gefüttert" worden; aufgrund seiner leistungsfähigen Prozessoren und Speicher konnte der Computer pro Sekunde 200 Millionen Stellungen berechnen und bewerten. Hier kämpfte also menschlich Intelligenz und Intuition gegen "brutale" Rechenleistung. Im Gegensatz dazu war AphaGo nur mit wenigen Go-Partien gefüttert worden. Seine Spielintelligenz eignete er sich dadurch an, dass er monatelang gegen sich selbst spielte, dabei immer besser wurde und schließlich ein übermenschliches Spielniveau erreichte.


Auf dem Weg zum Supercomputer

Bislang ist das menschliche Gehirn noch das Maß aller Dinge. Es ist nicht nur intelligent, sondern auch "empathisch", d. h. es ist in der Lage "Gefühle" zu zeigen. Und das Gehirn erzeugt "Bewusstsein", was dem Menschen ermöglicht, über sich selbst nachzudenken und sich in der umgebenden Welt einzuordnen. All diese Dinge kann derzeit noch kein technischer Computer. Er ist allerdings fähig auf spezialisierten Teilbereichen - etwa als "Experte" - große Dinge zu leisten. Zum Beispiel im Quadratwurzelziehen von zehnzifferigen Zahlen, in der Wettervorhersage oder beim Hochgeschwindigkeits-Börsenhandel. Die Spitzenforscher in der KT (resp. AI), z. B. der in Oxford lehrende Nick Bostrom und der Google-Entwicklungschef Ray Kurzweil (um nur einige zu nennen), sind der festen Überzeugung, dass technische Computer bald das menschliche Gehirn übertreffen werden.

Die wesentlichen Schritte zu diesem Ziel ist der Bau von leistungsfähigen Supercomputern und die Programmierung mit (künstlichen) neuronalen Netzen. Dafür kann man Computer mit 2 Gigahertz betreiben, während das Gehirn nur zu 200 Hertz fähig ist. In der räumlichen Größe sind Computer weitgehend frei, während das menschliche Gehirn in den Schädel (und in den Geburtskanal) passen muss. Schließlich kann man Computer ab einer gewissen Entwicklungsstufe via Programm damit beauftragen, sich selbst zu optimieren - und das viel schneller, als ein Mensch dazu fähig wäre. Problematisch auf diesem Weg des "deep learning" ist derzeit noch das Erreichen der Empathie. Der Computer kann zwar schon Mann und Frau unterscheiden, aber nicht einen traurigen Mann oder eine schöne Frau erkennen.

Trotzdem: die genannten AI-Forscher und ihre weltweiten Kollegen (z. B. an der Universität Kaiserslautern) sind der festen Überzeugung, dass es - noch im Laufe dieses Jahrhunderts (!) - gelingen wird, ein Duplikat des menschlichen Gehirns zu erzeugen. Wann dieser faustischen Homunculus sagen wird "Klick, ich bin da", darüber gehen die Meinungen noch auseinander.
Der Medianwert der verschiedenen Prophezeihungen liegt beim Jahr 2050!

Ein guter oder ein böser Gott?

Halten wir einen Augenblick inne und besehen den von uns geschaffenen "Neuro-Computer". Er hat einen durchschnittlichen Intelligenzquotienten (IQ) von ca. 120, eben wie die meisten Normalmenschen. Aber schon nach kurzer Zeit - infolge des exponentiellen Lerntempos - kann sein IQ auf 130 anwachsen und damit im Grenzbereich eines menschlichen Genies liegen. Aber das ist noch nicht das Ende, denn der IQ unseres Supercomputers klettert flugs auf 140, das Level von Albert Einstein. Und so weiter, und so fort.

Sehr bald wird es schwierig für uns Menschen, denn wie soll man mit einem Wesen, das einen IQ von 240 hat kommunizieren? Und schließlich geht gar nichts mehr, denn der IQ des Computers ist bei 12.870 angelangt. Da hilft wohl nur noch das Ziehen des elektrischen Steckers oder die Flucht in ein anderes Zimmer des Hauses. Vergeblich, denn der moderne Homunculus hat die armseligen Menschen seiner Umgebung natürlich längst durchschaut und verhindert jegliche Notwehrmaßnahme.

Die Zukunft der menschlichen Spezies liegt von nun an in den Händen dieser Superintelligenz - so wie heute die Zukunft der Gorillas von uns abhängt. Es ist offen, was dieses Wesen, welches wir "Gott" oder sonst wie nennen können, mit uns anstellen wird. Blickt es gelangweilt oder verächtlich auf uns herab, wie wir auf eine Ameise? Die wir jederzeit achtlos zerquetschen können?
Wird dieser Gott gut sein oder böse?

Letzteres könnte den Untergang der gesamten Menschheit bedeuten.
Und das schon im Jahr 2050!




Sonntag, 4. Dezember 2016

Weltuntergangs-Szenarien

Die Furcht vor dem "Untergang der Welt" besorgt die Menschheit seit Anbeginn, wie in den Sagen und Mythen sowie den religiösen Schriften zu erkennen ist. Das Herabstürzen des Himmels (Universums) auf die Mutter Erde ist sicherlich ein apokalyptisches Szenario, aber dass dabei sie selbst - die Menschen - ausgelöscht werden könnten, ist die eigentliche Urangst. Bevor wir einige  risikoreiche Szenarien besprechen, welche den Bestand der Menschheit (in der Zukunft) gefährden könnten, sei die Bevölkerungsentwicklung in der Vergangenheit dargelegt, wobei ich mich auf Zahlen und Daten der UNO abstütze.


Abb 1.: Entwicklung der Weltbevölkerung (in Millionen Menschen)
Abb2.: Relativer Zuwachs und Abnahme der Weltbevölkerung pro Jahr (in Prozent)


Die Weltbevölkerung (Abb. 1) umfasste bei Beginn der Zeitrechnung, also vor etwa 2000 Jahren, ca. 300 Millionen Menschen. Davon sollen 60 Millionen im Römischen Reich, 75 Millionen in China und der Rest in anderen Erdteilen, wie Afrika und Amerika gelebt haben. Über annähernd tausend Jahre hinweg stieg die Menschheit kontinuierlich, aber nur ganz leicht an, wie aus den Abbildungen 1 und 2 zu ersehen ist.

Ab dem Jahr 1000 kam es zu größeren Schwankungen. Die Absenkungen resultierten vor allem aus Kriegen und Pandemien. Das waren u. a. die Eroberungszüge des Mongolenführers Dschingis Khan (1206 - 1227), der arabische Sklavenhandel (7. - 19. Jhd.), der Sturz der Ming-Dynastie in Japan (1635 - 1662) und die Ausrottung ganzer Ethnien, wie der Azteken, der Inkas und der Indianer durch die spanischen Konquistatoren sowie die Einwanderer in die spätere USA. Daneben kam es in Mitteleuropa immer wieder zu Kriegshandlungen (30-jähriger Krieg) sowie Seuchen, wie Pest, Pocken und Cholera.

Mit Beginn der Neuzeit stieg die Weltbevölkerung kontinuierlich an und erreichte um 1800 n.Chr. die Milliardengrenze. Von nun an, insbesondere ab dem 20. Jhd., explodierte die Menschheit geradezu. Die Einbrüche durch die zwei Weltkriege (ca. 100 Millionen Tote), sowie verschiedene Krankheiten, wie die Spanische Grippe um 1920 und die HIV-Epidemie (insgesamt 80 Millionen Tote) sind nur noch minore Dellen in der Wachstumskurve. Es scheint, als sei die Menschheit durch Kriege in Gänze nicht mehr "auszurotten" und gegen Krankheiten gibt es inzwischen wirksame medizinische und hygienische Vorkehrungen.


Gefahren aus dem Erdinnern

Obschon die Erde bereits 4.5000 Millionen Jahre durch den eiskalten Weltraum schwebt, ist sie im Innern nach wie vor höllisch heiß. Das macht sich bemerkbar durch immer wiederkehrende vulkanische Ausbrüche, welche viele Menschen in Todesgefahr bringen können. Bei der Eruption des Vesuv, am Golf von Neapel im Jahr 79 v. Chr. wurden mehr als drei Kubikkilometer Bims- und Felsengestein ausgeworfen, welches die anliegenden Ortschaften mit einer 20 Meter hohen Schicht bedeckten und darunter an die 5000 Menschen begruben. Die Überreste von 1150 Menschen sind allein in Pompeji ausgegraben worden.

Der vermutlich stärkste Vulkanausbruch ereignete sich vor ca. 75.000 Jahren auf der Insel Sumatra. Der Supervulkan Toba brach dort aus und gefährdete durch seine gigantischen Auswürfe sogar den Bestand der Gattung Homo. Vermutlich konnten sich nur 1000 bis 10.000 Menschen retten, die Sonne war jahrzehntelang abgedunkelt mit katastrophalen Auswirkungen auf Fauna und Flora. Nur durch die spätere Zuwanderung weiterer Menschen aus Afrika in dieses asiatische Gebiet, konnte die Bevölkerung sich dort langsam wieder erholen.

Als weiterer Supervulkan droht im US-amerikanischen Staat Wyoming der Yellowstone. Er ist ein sogenannter "hot spot", bei dem flüssigheißes Gestein unter der Erdkruste langsam aber stetig emporsteigt. Diese flüssige Magmaschicht ("mantle plume") hat eine Breite von 400 Kilometer und eine Höhr von 500 Meter; sie liegt ca. 60 km unter der Erdoberfläche. Geologisch gesehen ist der Yellowstone seit 17 Millionen Jahre aktiv. Mit einer Eruption ist im Abstand von ca. 600.000 Jahren zu rechnen; der letzte Ausbruch war vor 640.000 Jahren. Wegen der riesigen Magmamasse sind bei einem Ausbruch weite Teile des nordamerikanischen Kontinents gefährdet. Die Atmosphäre der gesamten Erde würde sich wahrscheinlich stark abkühlen und verdunkeln, sodass mit schlimmen Auswirkungen auf Mensch, Pflanze und Tier zu rechnen wäre.


Gefahren aus dem Weltraum

Große Gefahren drohen aus dem Weltall. Sie haben das Potential die gesamte Menschheit auszulöschen, zumindest würden sie auf lange Zeit Zivilisation und Kultur nachhaltig schädigen. Das Hauptrisiko besteht im Einschlag eines Asteroiden. Dies ist bekanntlich vor 60 Millionen Jahre bereits passiert und hat u. a. zur Auslöschung der Dinosaurier geführt. In unserem Sonnensystem kreisen Millionen von Asteroiden verschiedener Größe, zumeist auf geordneten Bahnen. Bei Zusammenstößen dieser Miniplaneten geschieht es jedoch immer wieder, dass ein Brocken in Richtung Erde gekickt wird. derzeit ist eine Projektgruppe aus den Weltraumorganisationen NASA und ESA damit beschäftigt, solche Gesteinstrümmer rechtzeitig zu orten und durch Krafteinwirkung von der Erde fernzuhalten.

Ein weiteres Risiko stellen die Supernovae dar. Bei solchen Sternexplosionen entstehen enorme Mengen an hochenergetischer Strahlung, die beim Auftreffen auf unseren Planeten alles Leben auslöschen würde. Aufgrund der verschiedenen Novae-Kategorien gibt es keinen festen Zahlenwert für einen sicheren Abstand. Einige Astronomen halten bereits eine Entfernung von 250 Lichtjahren für riskant. Um diesen Zahlenwert richtig einordnen zu können, muss man wissen, dass unseren Heimatgalaxie - die Milchstraße - einen Durchmesser von 90.000 Lichtjahren besitzt und die Erde am Rande positioniert ist, wo weniger Supernova-Ereignisse zu erwarten sind.

Noch gefährlicher als Supernovae sind Gammablitze. Würde ein solches Ereignis weniger als 3.000 Lichtjahre entfernt von unserem Sonnensystem sich ereignen, dann käme es auf der Erde mit Sicherheit zu einem Massensterben. Bei Gammablitzen entsteht pro Sekunde genau so viel Energie, wie unsere Sonne in einer Million Jahre abstrahlt! Glücklicherweise wird der Blitz nur in einem engen Kegel emittiert, sodass die Wahrscheinlichkeit die Erde zu treffen, relativ gering ist. Aufgrund der geringen Zeitdauer des  Gammablitzes (meist nur wenige Sekunden bis einige Minuten) wäre von der direkten Strahlenwirkung auch nur eine Seite der Erde betroffen.

Auch ein Schwarzes Loch oder ein Neutronenstern könnte die Erde bei Annäherung "verschlucken". Wie oben bereits gesagt, ist wegen unserer Randposition in der Milchstraße ein solches Risiko niedriger einzuschätzen, das diese Gravitationsmonster mehr im Zentrum unserer Galaxie vermutet werden.

Das Ende unserer Erde ist jedoch unweigerlich gekommen, wenn sich unsere Sonne dereinst zu einem Roten Riesen aufbläht. Dies wird in ca. 4.000 Millionen Jahre der Fall sein. Neuere Rechnungen der Astrophysiker legen nahe, dass aber bereits in 900 Millionen Jahren, wegen der zunehmenden Hitze, menschliches Leben auf der Erde nicht mehr möglich sein wird.


Ausblick

Es gibt auch noch weitere Phänomene, die das Leben auf der Erde ernsthaft gefährden könnten. Das sind beispielsweise die Eiszeiten, die bislang etwa 500 Mal auftraten und welche Mitteleuropa bis in eine Höhe von tausend Metern vergletschern können. Die letzte Kaltzeit endete vor ca. 20.000 Jahren; die nächste könnte, nach Meinung einiger Glazialforscher, unmittelbar vor der Tür stehen. Die gegenwärtige Sorge um die Erderwärmung relativiert sich vor diesem Hintergrund.

Ob der Homo Sapiens noch eine weitere Million Jahre die Erde bevölkern wird, ist zumindest unsicher. Es gibt renommierte Forscher, die ihm schon viel früher den Untergang prophezeihen. Zu diesen gehört der englische Astrophysiker Stephen Hawkings. Er warnt eindringlich vor den Gefahren des technischen Fortschritts und glaubt, dass die Menschheit bereits in 1000 bis spätestens 10.000 Jahren aussterben wird. Er glaubt ganz generell, dass die Menschen mit ihren diversen Erfindungen (Genetik, Nuklear, Nano, Computer etc.) überfordert sind und damit ihren eigenen Untergang heraufbeschwören werden.

Vielleicht ist das Ende sogar schon näher - nämlich in diesem Jahrhundert.
Lesen Sie meinen nächsten und letzten Blog dazu in diesem Jahr!









Mittwoch, 23. November 2016

"Small is beautiful" - die Mini-Reaktoren sind im Kommen

Groß, größer, am größten 
ist ein Slogan, der in der Industrie häufig anzutreffen ist,
beispielsweise bei den deutschen Kernkraftwerken.

Es fing ganz klein und bescheiden an, als die Stromfirma RWE im Jahr 1958 das Kernkraftwerk VAK in Kahl mit einer Leistung von nur 15 Megawatt in Betrieb nahm. Aber schon in den siebziger Jahren bestellte das gleiche Unternehmen von Siemens/KWU ein Atomkraftwerk mit einer elektrischen (Brutto-) Leistung von über 1.000 Megawatt (MW) für den Standort Biblis. Inzwischen sind dieses, sowie neun weitere große Kernkraftwerke (KKW), im Zuge der sogenannten Energiewende, zwangsweise stillgelegt worden. Übrig geblieben sind nur noch die acht KKW Gundremmingen B und C (mit je 1.345 MW), Emsland und Neckarwestheim II (mit 1.400 MW), Grohnde und Philippsburg 2 (mit je 1.450 MW) sowie Brockdorf und Isar 2 (mit je 1.480 MW).

Die letztgenannten  acht Großkraftwerke sollen - gestaffelt - bis zum Jahr 2022 ebenfalls endgültig abgeschaltet werden. Ihr Wegfall wird eine riesige Stromlücke im Grundlastbereich hinterlassen, welche durch die unsteten Wind- und Sonnenkraftwerke nicht annähernd ausgeglichen werden kann. Hinzu kommt, dass die großen Gleichstromtrassen von der deutschen Küste in die Industriegebiete Bayerns und Baden-Württembergs frühestens 2025 zur Verfügung stehen werden.

Im internationalen Bereich geht aber der Bau immer noch größerer Kernkraftwerke ungebremst weiter: in Finnland, Frankreich China und England entstehen derzeit sieben weitere KKW, welche inzwischen für eine Bruttoleistung von 1.650 bis 1.750 MW ausgelegt sind.

Indes, es gibt auch eine zweite Bauphilosophie:
weitgehend unbemerkt von diesem Streben nach Rekordgröße wird immer häufiger über kleine Kernkraftwerke - zwischen 30 und 300 MW - nachgedacht, für die sich offenbar ein zweiter Markt auftut.
Über diese Spezialreaktoren soll im Folgenden berichtet werden.


Wirtschaftliche und technische Gründe

Das Interesse an kleinen Kernkraftwerken (und Reaktoren zu Heizzwecken) besteht schon lange. Es sind vor allem die Entwicklungs- und Schwellenländer, welche das Milliardenkapital für große Kernkraftwerke nicht aufbringen können und in deren kleines nationales Stromnetz Nuklearkraftwerke jenseits von 300 Megawatt elektrisch (MWe) nicht einzupassen sind.
Es ist bekannt, dass einige Aufträge für große Leichtwasserkernkraftwerke in früheren Jahren aus finanziellen Gründen zurück genommen werden mussten; einige Abbestellungen fanden sogar zu jenen Zeitpunkten statt, in denen das Kraftwerk bereits zu 70 Prozent oder mehr gefertigt war. Beim Großblock wird der Bau typischerweise über zehn Jahre abgewickelt, während die zugeordneten Anlagekosten von 6 bis 8 Milliarden Euro anfallen. Die Amortisation dieser Investitionen findet während der folgenden 30 Jahre statt, sodass die gesamte Unternehmung etwa 40 Jahre dauert. Da können kleine Stromfirmen häufig nicht mithalten. Bei kleinen Kraftwerken jedoch verkürzt sich die Bauzeit auf lediglich 5 Jahre, da u. a. die Infrastrukturleistungen am Standort bereits erbracht sind.

Besonders kostensparend wirkt sich die Modulbauweise aus. Während bei einer Großanlage umfangreiche Komponenten auf der Baustelle - in speziell errichteten (Einmal-) Werkstätten - gefertigt werden müssen, ist dies bei kleinen Moduln nicht der Fall. Diese können in der Fabrik gefertigt und zusammengebaut werden und - wegen ihrer Kleinheit - auf Fahrzeugen zum Standort gebracht werden. Im wesentlichen handelt es sich dabei um kleine Reaktortanks, sowie Kühlmittelpumpen und Dampferzeugereinheiten. Daraus ergibt sich ein Kostenvorteil von 30 bis 40 Prozent, welcher den Eskalierungskosten wegen Mehrfachfertigung entgegen wirkt.

Ein weiterer Vorteil der modularen Bauweise liegt in der höheren Sicherheit. Bei kleinen Reaktoren ist häufig eine verbesserte nukleare Sicherheit gegeben, weil gewisse Reaktorkoeffizienten (beispielsweise Natriumvoid bei Brutreaktoren) einfacher zu beherrschen sind. Auch die passive Nachwärmeabfuhr bei Ausfall der Kühlkreise ist zumeist gesichert und bedarf nicht des manuellen Eingriffs. Insgesamt erleichtert dies das atomrechtliche Genehmigungsverfahren, was wiederum die Planungs- und Bauzeit reduziert.

Inzwischen hat die Errichtung von Mini-Reaktoren an verschiedenen geografischen Lokationen der Erde begonnen. In Argentinien wird unter der Bezeichnung CAREM-25 bereits ein Modul mit 27 MWe gebaut. In Russland ist die Doppeleinheit KLT-40S mit je zwei 35 MWe-Reaktoren im Bau. In Korea erhielt der SMART-Reaktor (90 MWe) kürzlich seine atomrechtliche Genehmigung. Bei der chinesischen Einheit ACPR50S gibt es noch einige diplomatische Verwicklungen. Die Chinesen wollen einen kleinen Reaktor mit einer Leistung von 200 MW bzw. 60MWe auf einer schwimmenden Plattform errichten. Er soll auf verschiedenen Inseln des Chinesisch-Pazifischen Meeres Wärme und Elektrizität bereitstellen. Dagegen wehren sich die USA und Japan mit dem Argument, dass die Eigentümerschaft dieser kleinen, unbewohnten Inseln nicht geklärt sei.

Reminiszenz an die siebziger Jahre

Das (erneute) Aufkommen der Mini-Reaktoren erinnert an die Schlagwortdebatte der 1970er Jahre, als das Prinzip "Small is beautiful" fast zwei Jahrzehnte lang eine beherrschende Rolle spielte. Es wurde 1973 in einem Buch gleichen Titels von dem in Deutschland geborenen britischen Ökonomen  Ernst Friedrich Schumacher aufgebracht, der sich dabei von der frugalen Lebensweise der buddhistischen Inder inspirieren ließ. Schumacher wurde argumentativ unterstützt von zwei weiteren Slogan-Verbreitern, nämlich Lovins und Traube. Der US-Amerikaner Amory B. Lovins machte sich in seinem Bestsellerbuch stark für die "Sanfte Energie", wobei er in seinen Vorträgen besonders (kleine) Windräder propagierte. Und der kürzlich verstorbene Kernenergiekritiker Klaus Traube kritisierte die Großtechnik der damals verbreiteten Reaktoren und forderte stattdessen 1978 in seinem Buch "Müssen wir umschalten?" den Kollektor auf  jedem Hausdach.


Schumacher und sein Buch

Inzwischen bedecken Freiflächenkollektoren von Fußballfeldgröße die bäuerlichen Landschaften. Die neueste Windkraftanlage der Firma Enercon erreicht die stattlichen Höhe von 230 Metern. Und die Verbindung der alternativen Energiesysteme geschieht über monströse Gleichspannungsleitungen.
Ob E. F. Schumacher diese Technologie jetzt noch als "small" und "beautiful" bezeichnet würde?

PS.: Eines sollte nicht vergessen werden:
die Europäische Energiebehörde NEA schätzt in einen fast hundertseitigem Bericht ab, dass der Anteil der Mini-Reaktoren im gesamten Ausbau der Kernenergie kaum über drei Prozent hinauskommen wird.

Montag, 14. November 2016

Vor 40 Jahren: der Karlsruher Münzskandal

Geldfälschen ist eine uralte Profession, aber technisch durchaus anspruchsvoll. Mit dem Aufkommen des Papiergeldes schien es leichter zu werden und der "falsche Fuffziger" war in aller Munde. Aber inzwischen hat die Geldbehörde Bundesbank die Latte höher gelegt und das Papier mit allerlei Wasserzeichen und sogar Hologrammen versehen, an denen die schweren Jungs sich auch mit Farbkopierern die Zähne ausbeißen.

Mancher geht deshalb reumütig wieder zum Münzgeld zurück, wo man mit Rohlingen aus Kupferblech, handziseliertem Prägestempel sowie Hammer und Amboss - also einer gewöhnlichen "Bauhaus"-Ausstattung - Falschmünzerei im eigenen Schuppen betreiben kann. Aber diese Arbeit ist kaum lohnenswert, denn der Geldwert der Pfennige beziehungsweise Cents ist eben niedrig und an 2-Euro-Münzen traut sich kaum einer heran.

Doch in dieser Denkweise liegt ein Fehler verborgen. Vor gut 40 Jahren ist es drei Karlsruhern gelungen, durch Prägen weniger  Münzen an ein kleines Vermögen zu kommen. Unter anderem deshalb, weil sie das Problem von der "Quelle" aus angegangen haben. Natürlich sind auch sie letztlich gescheitert. Aber die Geschichte ihres schlitzohrigen Vorgehens ist wert nacherzählt zu werden. Wobei auf das Nachmachen aber tunlichst verzichtet werden sollte.

"An der Quelle saß der Knabe..."

In unserer Geschichte ist die Quelle die altehrwürdige Karlsruher Münzstätte und der Knabe ist der Herr Direktor O.. Die Staatliche Münze Karlsruhe ist ein ansehnlicher Bau des bekannten Architekten Friedrich Weinbrenner und wurde vom Badischen Großherzog im Jahr 1827 mit der Prägung der ersten Zehnguldenmünze ihrer Bestimmung übergeben. Seitdem werden dort jährlich bis zu 250 Millionen Münzen aller Art hergestellt.


Die Karlsruher Münze

Die beiden anderen Darsteller in unserem 3-Personen-Stück sind der Stellvertretende Direktor H. und, der zwar untergeordnete, aber dennoch sehr wichtige Prägevorarbeiter F. Von den dreien war nur der Direktor O. ein "Karrierebeamter", der es vom Fachschulingenieur schnell zum Leiter der Staatlichen Münze brachte. Die beiden anderen hatten eine eher gebrochene Berufslaufbahn, wie es in der Nachkriegszeit nicht unüblich war. So war der Stellvertreter H. in der Slowakei Aushilfslehrer und diente danach eine Zeitlang als Koch bei der US-Army, bevor er in der Münze vom einfachen Arbeiter bis zum Regierungsamtmann hochstieg. Der Facharbeiter F. war gelernter Zimmermann und kletterte in der Münze rasch vom Hilfsarbeiter zum Vorarbeiter der Medaillenabteilung empor.

Das Delikt

Die Falschmünzerei in der Staatlichen Münze Karlsruhe nahm ihren Anfang in den 1970er Jahren und ging vom Chef, also dem Direktor O. aus. Dieser hatte gerüchteweise gehört, dass die Politiker sich mit dem Gedanken trugen, die beiden Münzstätten Karlsruhe und Stuttgart zusammenzulegen. Direktor O. fiel darob in panische Angst, denn bei dieser Fusion mit der größeren Münze in der Landeshauptstadt drohte ihm der Verlust seiner schönen Karlsruher Position. Schließlich kam ihm ein Gedanke, wie er das Unheil wenden konnte: er plante  die jährliche "Tagung der deutschen Münzstättenleiter" zu besuchen, um dort (auf seine Art)  Lobbyarbeit für das Weiterbestehen der Karlsruher Münze zu betreiben. Die Konferenz wurde üblicherweise auch von wichtigen Beamten des Bundesfinanzministerium und der Bundesbank besucht, an welche sich Direktor O. wandte, indem er den Referatsleitern und Abteilungsleitern dieser Oberbehörden ein "kleines Präsent" zusteckte. Dies war in der Regel ein Satz seltener Münzen aus seiner eigenen Prägeanstalt.

Eigentlich hätte er diese Münzen ohne den speziellen Auftrag des Bonner Finanzministerium gar nicht herstellen dürfen, aber Direktor O. erteilte sich diesen Auftrag quasi selbst. Seinem Stellvertreter H. kam die Aufgabe zu, den Tresor, wo die alten Prägestempel lagerten, zu öffnen und der Vorarbeiter F. erledigte schließlich die Stanzarbeit. Die Auswahl der Nachprägungungen war wohl überlegt. In der Regel stanzten sie die unter Sammlern sehr begehrte 50-Pfennig-Münze mit der Aufschrift "Bank Deutscher Länder" und die 2-Pfennig-Münze von 1967 mit dem Eisenkern. Der Sammlerpreis für diese Objekte lag damals bereits bei 1.000 bis 2.000 DM. Direktor O. ließ auch großzügig seine beiden Gehilfen an dem "Geschäft" teilhaben. Sein Vertreter H. finanzierte mit diesen Einkünften die standesgemäße Heirat seiner Tochter und der Vorarbeiter F. den Bau seines Hauses in Karlsruhe-Spöck. Später fand man heraus, dass die drei Falschmünzer in drei Jahren etwa 6.000 bis 10.000  50-Pfennig-Münzen und ca. 1.000  2-Pfennig-Münzen hergestellt und in den Sammlerkreislauf gebracht hatten.



Betroffene Münzen
(oben: 50-Pfennig-Stück; unten: 2-Pfennig-Stück)

Das plötzliche vermehrte Auftreten wertvoller Münzen aus der Nachkriegszeit wurde von den Sammlern sehr wohl registriert. Es war der Münzexperte K., Herausgeber der Fachzeitschrift "Der Münzensammler und der Münzmarkt", welcher aktiv wurde. Im November 1974 sandte er einen Satz Münzen des Jahrgangs 1967 (G) zur Echtheitsprüfung an die zuständige Bundesbank in Frankfurt. Bereits zwei Wochen später bestätigten ihm die Fachleute der Bank, das es sich um "echte Münzen" handelt, die jedoch "nachträglich hergestellt" wurden, u. zw. mit einer "Werkzeugkombination", wie sie 1967 noch nicht verfügbar war. (Der Karlsruher Prägevorarbeiter F. hatte da wohl nicht sorgfältig genug gearbeitet). Anfang 1975 nahmen die staatsanwaltlichen Ermittlungen ihren Lauf.

Der Prozess

Die "Drei von der Münze" waren durchaus geständig, insbesondere nachdem man sie einige Wochen im Untersuchungsgefängnis hatte schmoren lassen. Für die Strafkammer des Karlsruher Landgerichts schien der Prozess eine einfache Sache zu sein. Sie konnte sich bei der Anklage direkt auf einen Paragraphen des Strafgesetzbuches beziehen,  den §146 StGB. Sein Wortlaut stand früher noch auf jedem Geldschein, nämlich: "Wer Geld nachmacht, oder nachgemachtes Geld in den Verkehr bringt, wird...bestraft". Die Staatsanwaltschaft plädierte also auf Falschmünzerei und in den Verkehr bringen von Falschgeld.

Zur großen Überraschung fiel sie jedoch mit beiden Anschuldigungen durch. Die gewitzten Verteidiger argumentierten nämlich, dass in einer Staatlichen Münze niemals Falschgeld geprägt werden könne - selbst wenn es keinen Auftrag des Bundesfinanzministerium gäbe. Außerdem seien die dort geprägten Münzen (wegen ihres hohen Sammlerwertes) nicht in den öffentlichen Geldverkehr gebracht worden, sondern nur in den Sammlerkreislauf, wo sie gewissermaßen gehortet wurden. Im Übrigen, behaupteten die Angeklagten, hätten sie für jede nachgeprägte Münze eine andere (neue, also praktisch wertlose) Münze "verwalzt", und somit unbrauchbar gemacht. Letzteres konnte ihnen nicht widerlegt werden.

Die Anklage fiel vollends in sich zusammen, als der angerufene Bundesgerichtshof (BGH) diese Rechtsauffassung bestätigte. Plötzlich stand die Strafkammer ohne anwendbares Gesetz da und nach dem alten römischen Rechtsgrundsatz "nulla poena sine lege" (keine Strafe ohne Gesetz), hätte sie die drei Übeltäter freisprechen müssen. Aber das wäre gegen die Ehre der Karlsruher Elitejuristen (mit oder ohne doctor iuris utriusque) gegangen. Über zwei Jahre hinweg wurde die Causa zwischen drei Kammern des Landgerichts und zwei Mal zur Revision an den BGH geschickt. Schließlich fand man doch noch einige Paragraphen um die Drei zu verurteilen. Direktor O. wurde wegen Unterschlagung belangt, sein Vertreter H. wegen Diebstahls, Betrugs und Beihilfe zur Unterschlagung und Vorarbeiter F. wegen Diebstahls und versuchten Betrugs in zwei Fällen. Schadensersatzklagen wurden vom Gericht immer mal wieder ins Gespräch gebracht, aber dagegen wehrten sich die Sammler mit allen Kräften. Sie fanden sich nicht geschädigt; kein Wunder war der Sammlerwert ihrer Münzen doch inzwischen  auf 10.000 DM gestiegen und die Sammler wollten ihre Objekte auf keinen Fall mehr herausgeben.

Die Sanktionen

Die Strafen waren maßvoll. Die drei Übeltäter wurden zu Gefängnisstrafen von unter einem Jahr verurteilt. Da sie nicht vorbestraft waren, wurde diese sogar zur Bewährung erlassen. Den schönen Job in der Münze waren sie allerdings los. Einige hohe Beamte im Bundesfinanzministerium und bei der Bundesbank wurden  zwar wegen Mithilfe angezeigt, aber es fand kein Verfahren und damit auch keine Verurteilung statt. Wer denkt da nicht an George Orwells Fabel von der "Farm der Tiere": Alle Tiere sind gleich, aber manche sind gleicher. Der Paragraph 146 im Strafgesetzbuch wurde verschärft. In Zukunft müssen "Innentäter" für ähnliche Delikte mit Gefängnisstrafen von fünf bis zehn Jahren rechnen.

Bei der Münzstätte geht es jetzt viel rigider zu. Neu entwickelte Geldzählmaschinen erlauben nicht nur die Münzen sondern auch die Rohlinge zu zählen, welche früher nur (ungenau) gewogen wurden. Die Tresore dürfen nur von zwei Mitarbeitern gleichzeitig geöffnet und geschlossen werden. Beim Ein- und Ausgang werden alle Beschäftigte mit Spezialdetektoren kontrolliert. Außerdem wurde für die Mitarbeiter Plastikgeld eingeführt. Dies ist die betriebseigene "Währung" für die Angestellten zum Zahlen in der Kantine. Echtgeld darf nicht mitgeführt werden.

Schließlich wurde 1998, im Vorfeld der Euro-Einführung, auch die frühe Befürchtung des ex-Direktor O. zur bitteren Realität:
die beiden Münzstätten Karlsruhe und Stuttgart wurden zur baden-württembergischen Münze zusammengelegt.

Sonntag, 6. November 2016

Das Fusionsprojekt ITER wieder in Geldnot

Der Fusionsreaktor ITER (=Internationaler Thermonuklearer Experimentalreaktor) an dem seit ca. zehn Jahren im südfranzösischen Cadarache gebaut wird, gilt als die komplizierteste Maschine der Welt. Komplizierter als ein Jumbojet oder ein Kernreaktor. Außerdem ist er viel voluminöser und verursacht dadurch horrende Materialkosten. Einige Beispiele sollen das verdeutlichen:  Jede der 18 D-förmigen Toroidalfeldspulen besitzt ein Gewicht von 360 Tonnen und wiegt damit so viel wie eine vollbesetzte Boeing 747. Der sogenannte Tokomak, das Herzstück des ITER soll aus einer Million Einzelteilen zusammen gebaut werden und wird damit das Gewicht des Eiffelturms um das Doppelte übertreffen. Schließlich: allein zur seismischen Isolierung gegen Erdbeben sind 360.000 Tonnen Beton einzubringen, was dem Gewicht des Empire State Building in New York entspricht.

Enorm sind die Anforderungen an die Projektleitung. Die am Bau beteiligten Länder China, Indien, Japan, Korea, Russland und USA, sowie die Europäische Union (EU), worin Deutschland eingebunden ist, tragen sowohl mit Sachmitteln als auch mit Geld zum Projekt bei. Die Spezifizierung aller Komponenten, sodass daraus ein funktionsfähiges Gesamtwerk entsteht, ist eine Riesenaufgabe. In der Vergangenheit war das Top-Management mit der Bewältigung der vielen Probleme offenbar überfordert, sodass es innerhalb von zehn Jahren zu drei Umbesetzungen an der Spitze - dem Amt des Generaldirektors (GD) - gekommen ist. Im Nachgang kann man von zwei Epochen, einer japanischen und einer französischen, sprechen, die nun kurz beschrieben seien.


Die japanische Epoche

Die Position des ITER-Generaldirektors war von Beginn an einem Japaner zugedacht, da die japanische Regierung bei der Endverhandlung des Liefervertrags auf Japan als Standort des Projekts verzichtet hatte. Dementsprechend trat der Japaner Kaname Ikeda im Jahr 2005 sein Amt als Chef in Cadarache an. Ikeda war von seiner Ausbildung her kein Fusionswissenschaftler, sondern ein Karriere-Diplomat; vorher hatte er sein Land als Botschafter in Kroatien vertreten. Die englische Sprache beherrschte er nur rudimentär. Seine holprigen, in "broken-english" vorgetragenen Projektpräsentationen, verursachten beim Fachpublikum regelmäßig Bauchgrimmen. Nicht zuletzt deshalb wurde ihm bald der Deutsche Norbert Holtkamp als Vertreter zur Seite gestellt, was die französische  Zeitung La Provence zu der kecken Phrase veranlasste: "Nun ist der wahre Chef gekommen".

Im Jahr 2010, also schon nach fünf Jahren, war die Phase Ikeda zu Ende. Die Japaner schlugen als Nachfolger für den offensichtlich überforderten Ikeda den Professor Osamu Motojima vor. Er war zeitweise in einem Fusionslabor seines Landes tätig, hatte also gewisse technische Kenntnisse. Die erste Amtshandlung des neuen Generals war, dass er seinen Vertreter Holtkamp feuerte, für den man in Kalifornien einen neuen Job fand. Aber auch Motojima bekam das Projekt ITER nicht in den Griff. Er hatte die meiste Zeit seines Lebens Vorlesungen an verschiedenen Universitäten des Landes gehalten, dafür reihenweise Ehrendoktorate erhalten, indes, die Managementerfahrungen für Großprojekte fehlte ihm. Nach nur einer Periode gab er im Jahr 2015 sein Amt auf. Die Japaner, erkennbar gefrustet, erklärten anschließend, dass sie in Zukunft auf Besetzung des GD-Postens verzichten würden. 

Während dieser japanischen Epoche waren die Baukosten des ITER von 5 Milliarden Euro (bei Vertragsabschluss) auf 15 Milliarden angestiegen.
Der Inbetriebnahmezeitpunkt war von 2015 auf 2026, also um 11 Jahre nach hinten gerückt.


Die französische Epoche

Nach dem Abgang der beiden Japaner Ikeda und Motojima einigte sich das internationale ITER-Konsortium auf einen Franzosen als nächsten Generaldirektor. Er war schwer zu finden. Schließlich gelang es, den 65-jährigen  Monsieur Bernard Bigot vom Ruhestand zurückzuhalten und für die Spitzenposition beim ITER zu gewinnen. Bigot ist Physikochemiker und war über viele Jahre für die französische Atombehörde CEA auf dem Gebiet der Alternativen Energien tätig. Von da her ist er mit den staatlichen und ministeriellen Stellen in Frankreich gut vernetzt.

Inzwischen hat sich Bigot in sein neues Feld gut eingearbeitet, sodass er vor einigen Wochen eine neue Kosten- und Terminschätzung vorlegen konnte.

Demnach werden weitere 5 Milliarden Euro an Kosten für den Bau des ITER anfallen, sodass die Gesamtkosten nunmehr auf 20 Milliarden klettern.
Der Volllastbetrieb des ITER wird um weitere 10 Jahre auf 2036 aufgeschoben.
Das Vakuumgefäß, vergeben an ein italienisches Dreierkonsortium, scheint auf dem kritischen Pfad zu liegen.
(Da Deutschland mit 10 Prozent der Gesamtkosten am ITER beteiligt ist, entfallen auf die Bundesrepublik somit ca. 2 Milliarden Euro an Baukosten).

Die neuen Kosten- und Termindaten werden derzeit von den Mitgliedsländern evaluiert. Scharfe Kritik kommt von den Grünen in Deutschland. Die Bundestagsabgeordnete Sylvia Kotting-Uhl, bei der Grünen-Partei zuständig für Fusion und Reaktorsicherheit, hält die Mehrkosten bei ITER für nicht akzeptabel. Sie fordert den Abbruch des Projekts und den Übergang zu den Erneuerbaren Energien in Europa. Kotting-Uhl kann auf eine beträchtliche Expertise verweisen, nämlich ein Kunstgeschichtestudium in Saragossa und ein Fernstudium in Psychologie. Im Übrigen: die Gesamtkosten des ITER mögen mit 20 Milliarden recht hoch sein; sie reichen jedoch bei weitem nicht an die Kosten der Erneuerbaren Energien heran, welche derzeit in Deutschland 27 Milliarden pro Jahr betragen.


Ausblick

Entgegen landläufiger Meinung wird der ITER, sollte er einmal betriebstüchtig sein, keinen elektrischen Strom liefern, sondern allenfalls Wasserdampf von 150 Grad Celsius. Um die Baukosten "niedrig" zu halten, hat man schon in der Frühphase des Projekts das Brutblanket weitgehend weggelassen. In seiner jetzigen Konzeption ist der ITER  im wesentlichen eine (notwendige) Experimentiermaschine für Physiker und Ingenieure.

Sofern die Experimente des ITER erfolgreich verlaufen, kann man sich danach an die Planung eines stromerzeugenden Demonstrationskraftwerks - genannt DEMO -  heranwagen. Das soll ein wirklicher Fusionsreaktor mit einer Leistung von 1.000 Megawatt sein, also einem mittelgroßen Kernkraftwerk, bzw. einem großen Kohlekraftwerk entsprechen. Dieses Projekt wird von dem bisherigen 7er-Staatenbund nicht mehr zu stemmen sein - aus finanziellen und politischen Gründen. Spätestens dann benötigt man die Partizipation der europäischen Stromkonzerne, der sogenannten EVU. Ein organisatorisches Vorbild könnte der European Fast Breeder (EFR) sein, wo in den neunziger Jahren eine Reihe deutscher, französischer und britischer EVU kooperierten und die Planungskosten trugen. Das begleitende Forschungs-und Entwicklungsprogramm wurde von den F+E-Organisationen der genannten Staaten geschultert.

Setzt man ab 2036 (dem Zeitpunkt der Inbetriebnahme des ITER) je 10 Jahre für Planung, Bau und Inbetriebnahme des DEMO an, so befinden wir uns nach diesen 30 Jahren im Jahr 2066.
Das sind 50 Jahre von heute.


Voilà,
die berühmte Prophezeihung, 
wonach die Fusion in 50 Jahren kommen wird,
ist nach wie vor gültig!


Sonntag, 30. Oktober 2016

Was KIT von RWE und E.ON lernen kann.

Am KIT rumort es.

Die Mitarbeiter sind unzufrieden mit der Führung des Unternehmens. Seit Wochen berichtet die örtliche Presse BNN in großen Schlagzeilen darüber. Vor kurzem kam es deshalb zu einer einzigartigen Demonstration: etwa zwei Dutzend Mitarbeiter, unter der Führung des Personalrats, stürmte in eine Sitzung des Präsidiums und verlas dort eine geharnischte Erklärung über die angebliche Verletzung der Mitbestimmungsrechte bei der geplanten Umorganisation der Dienstleistungseinheiten. Gleichzeitig wurde eine Klage vor dem Arbeitsgericht angekündigt.

Das zeigt deutlich, dass die vor mehr als zehn Jahren vollzogene Verschmelzung des ehemaligen Forschungszentrums (FZK) mit der Technischen Universität (TU) zum Karlsruher Institut für Technologie (KIT) nicht gelungen ist. Der Grund liegt darin, dass die beiden Fusionspartner von der Struktur und der Aufgabenstellung her fundamental unterschiedlich sind, sodass die im April 2006 von den damaligen Chefs Popp und Hippler weitgehend erzwungene Vereinigung nicht gelingen konnte. Mit KIT ist kein unternehmerischer Mehrwert sondern nur eine permanente Belastung der Mitarbeiter durch eine mehr und mehr überbordende Bürokratie entstanden.

Man sollte deshalb - so schrecklich es für manchen klingen mag - die beiden ungleichen Partner wieder trennen und verselbstständigen. Die vertrauensvolle Kooperation zwischen FZK und TU sollte beibehalten werden, wie sie vorher schon fünfzig Jahre lang bestanden und gut funktioniert hat.

Das Separieren der Fusionspartner mag als eine gigantische Aufgabe erscheinen. Das ist aber nicht der Fall. Am Beispiel der beiden DAX-Unternehmen RWE und E.ON, die kürzlich ( in viel höherem Maßstab) eine Aufspaltung ihrer Firmen - erfolgreich(!) - vollzogen haben, soll dies dargestellt werden.


RWE und E.ON spalten sich auf

Für die beiden größten deutschen Energie- und Stromversorger, nämlich RWE und E.ON sah es noch vor einem Jahr düster aus. Das altehrwürdige RWE stand vor dem finanziellen Abgrund: der Aktienkurs war seit der Energiewende im Jahr 2011 von 55 auf 10 abgestürzt. Die Essener konnten nicht mehr als "Witwen- und Waisen-Papier" empfohlen werden. -- Ähnlich erging es E.ON. Deutschlands größter Energiekonzern hatte im gleichen Zeitraum 60 Prozent seines Börsenwerts verloren. Der Aktienkurs war von 25 auf 7 gefallen. Beiden Unternehmen drohte die Insolvenz.

In dieser höchsten Gefahr beschlossen die beiden Konzernchefs Johannes Teyssen (E.ON) und Peter Terium (RWE) ihre Unternehmen für die Investoren, also die potentiellen Aktienkäufer, transparent und attraktiv zu machen - und zwar durch geschickte Aufspaltung der Altfirmen. E.ON gliederte das Geschäft mit dem fossilen Kraftwerken in die neue Firma Uniper aus und beließ in der Mutterfirma den Ökostrom, den Netzbetrieb und die Atomkraftwerke. Der Konkurrent RWE gründete die Tochtergesellschaft Innogy, welche u. a. die Neuen Energien betreute.

Die Aufteilung der Unternehmen war ein voller Erfolg. Die "grüne" RWE-Tochter Innogy reüssierte glänzend an der Börse und ist inzwischen 20 Milliarden Euro wert - natürlich vor allem, weil sie den sicher subventionierten Sonnen-und Windstrom vertreibt. ( Zum Vergleich: RWE-alt kommt nur auf einen Börsenwert von 8,5 Milliarden). Ähnlich ist es bei E.ON, wo die teuren Erneuerbaren Energien bei der Alt-Firma verbleiben. Aber auch die abgespaltene Tochter Uniper profitiert davon, da sie zukünftig bei herbstlicher Sonnen- und Windflaute sogenannte "Engpasspreise" verlangen darf.


Die Möglichkeiten des KIT-Gesetzes

Die Aufspaltung von RWE und E.ON in vier, nun erfolgreiche, Firmen innerhalb von weniger als zwei Jahren ist eine Meisterleistung der daran beteiligten Manager und Juristen. Immerhin handelte es sich um riesige Unternehmen mit je ca. hundert Milliarden Euro Jahresumsatz, die geschickt aufgeteilt werden mussten, sodass daraus profitable Entitäten entstehen konnten. Bei den Vermögensteilen, die neuen Eigentümern anzugliedern waren, handelte es sich unter anderem um milliardenteure Kernkraftwerke und jeweils ca. 50.000 Mitarbeiter mussten mit neuen Anstellungsverträgen ausgestattet werden.

Damit verglichen wäre die oben angesprochene Trennung des KIT in die ursprünglichen Partner Forschungszentrum (FZK) und Technische Universität (TU) fast nur ein Klacks, der innerhalb eines Jahres zu bewerkstelligen wäre - sofern die beteiligten Politiker zustimmen würden. Dafür müsste lediglich das sogenannte KIT-Gesetz geändert bzw. aufgehoben werden, ein Gesetz des Landes Baden-Württemberg, welches seit 25. Juli 2009 gültig ist. Es regelt die Zusammenarbeit der TU Karlsruhe mit der Großforschungseinrichtung FZK. Beide Organisationen wären dann - wie früher - wieder selbstständig, dürften jedoch punktuell im Forschungsbereich kooperieren.



Das ehemalige Forschungszentrum Karlsruhe
(Der Hardtwald kommt bedrohlich näher)

Von einer Auftrennung könnte man erwarten, dass FZK und TU wieder in "ruhiges Fahrwasser" gelangen würden. Das war während der vergangenen zehn Jahre KIT nicht der Fall. Allein schon die lange Strecke der amtierenden KIT-Chefs während einer einzigen Dekade - Popp, Hippler, Maschuw, Umbach, Hanselka - ist dafür Beweis genug. Und, dass kürzlich der Präsident Hanselka sogar in einem persönlichen Rundschreiben (Nr. 23/2016) am Schwarzen Brett von internen gegensätzlichen Diskussionen bei der Vertragsverlängerung eines Vizepräsidenten (Dr. Breuer) berichten musste, lässt tief blicken.


Was macht das KIT mit seinem vielen Geld?

Das KIT erscheint finanziell opulent ausgestattet. Jedes Jahr fließt fast eine Milliarde Euro in diese Institution, gespeist aus Mitteln des Bundes, des Landes und aus Drittmitteln. Im Jahr 2015 waren es, präzise zitiert, insgesamt 860,8 Millionen Euro, wovon 428,4 Mio an den Universitätsbereich und 432,4 Mio an den Großforschungsbereich gingen. Was macht das KIT mit dem vielen Geld? Einigermaßen transparent ist, von außen gesehen, nur der Bereich der Uni. Dort werden ca. 25.000 Studenten ausgebildet, die von etwa 400 Professoren betreut werden.

Schwierig ist der Durchblick  beim sogenannten Großforschungsbereich, dem ehemaligen Forschungszentrum. Dort soll nach dem KIT-Gesetz Großforschung betrieben werden, wobei unter § 2 deutlich der Aufbau von Forschungsanlagen gefordert wird. Aber wo sind diese? Sicherlich, es existieren im FZK die Großprojekte "Katrin" und "bioliq" sowie "Anka"- aber diese wurden längst vor der Gründung des KIT aufgebaut. Inzwischen sind die beiden Erstgenannten zeitlich um ein Jahrzehnt verzögert und die Strahlenquelle Anka wurde (angeblich aus Budgetgründen) im vorigen Jahr drastisch dezimiert. Neue, auch äußerlich sichtbare Großprojekte scheinen nicht hinzugekommen zu sein. Jedenfalls nicht von jenem Kaliber, welche kürzlich im Mitarbeitermagazin "Dialog 3. 2016" auf gruselige Weise abgebildet wurden. (Hat VP Breuer bereits die Photoredaktion wegrationalisiert?). Die dort gezeigten fünf großen Forschungsanlagen waren weltweit bekannt. Von den Mitarbeitern des früheren Kernforschungszentrum wurden sie für weniger als 900 Millionen DM errichtet. Das ist - fiktiv gerechnet - ziemlich genau ein Jahresetat des gegenwärtigen Großforschungsbereich.
Wo bleiben die äquivalenten KIT - "Leuchttürme"? 
Where is the beef, Professor Hanselka?

Ungeachtet der Gesamtverantwortung des KIT-Chefs H., gibt es aber noch zwei Vizepräsidenten, in deren Ressort der Aufbau von neuen Forschungsanlagen direkt fällt. Dies sind die Professoren Oliver Kraft und Thomas Hirth, einschließlich der ihnen zugeordneten Bereichsleiter. Gewiss, die Erstgenannten sind erst seit Jahresbeginn im Amt, aber die 100-Tage-Frist ist längst abgelaufen. Bis dato hört man aus ihrem Umfeld nichts zur Planung neuer Großprojekte.

Stattdessen wird in den Regionalzeitungen großräumig über die künftige Einsparung etlicher Dienstleistungseinheiten berichtet, was auch zu dem eingangs beschriebenen "Go-in"  im Stil der 70er Jahre geführt hat. Doch schon eine überschlägige Finanzabschätzung lässt erkennen, dass selbst die vollständige Eliminierung dieser Kleingruppen dem KIT allenfalls eine (Sachmittel-) Einsparung von wenigen hunderttausend Euro pro Jahr erbringen würde. Bei einem Jahresetat von 860 Mio wären das "pea nuts" - um im Jargon des ehemaligen Deutsche Bank Manager Hilmar Kopper zu sprechen.

Im Jahresbericht 2015 des KIT kann man viele der oben geschilderten Sachverhalte nachlesen. Der Bericht ist im letzten Teil (Zahlen und Fakten) durchaus informativ, ansonsten (im Bildbereich) recht "kopflastig". Was den Hauptteil (Lehre und Forschung) angeht, erscheint er mir zu "soft" -  um nicht zu sagen: technophob.
Wurde er von einem Germanisten geschrieben?


Fazit

Bilanziert man die zehnjährige Geschichte des KIT, so muss man leider feststellen, dass das Forschungszentrum (jetzt KIT Campus Nord) immer mehr zu einem bloßen Anhängsel der Universität (Campus Süd) geworden ist. Manche sprechen sogar von einer "verlängerten Werkbank".

Metaphorisch gesprochen: früher ähnelten die Partner FZK und TU wendigen Schnellbooten, die sich in ihrem Forschungsambiente sicher bewegten und eine weltweite Identität besaßen. Daraus ist ein träger Dampfer geworden, der auf dem Weltmeeren umher irrt und sich nicht mehr schnell genug auf die forscherischen Erfordernisse einstellen kann.

KIT ist eine monströse Super-Struktur, die leider auch eine lähmende Bürokratie zur Folge hat.

Die Absicht der Gründerväter des KIT, eine Forschungseinrichtung wie die 80-fache amerikanische  Nobelpreisuniversität MIT zu schaffen, wird nicht gelingen. Die Wahl des Namens KIT wirkt aus dieser Sicht eher anmaßend, ja geradezu peinlich.

Der Dichterfürst Johann Wolfgang von Goethe hat auch für diese Situation einen Spruch parat:

Getretener Quark wird breit, nicht stark.

Sonntag, 23. Oktober 2016

Klaus Traube verstorben

Dr. Klaus Traube, der ehemalige Atommanager, ist am 4. September 2016 im Alter von 88 Jahren verstorben.


"Alles wandelt sich.
Neu beginnen kannst du mit dem letzten Atemzug.
Aber was geschehen ist, ist geschehen.
Und das Wasser, das du in den Wein gossest,
kannst du nicht mehr herausschütten.

Was geschehen ist, ist geschehen.
Das Wasser, das du in den Wein gossest,
kannst du nicht mehr herausschütten,
aber alles wandelt sich."

                                 Bertold Brecht


(Vorspruch auf der Todesanzeige seiner Familie)



Klaus Traube (1928 - 2016)


De mortuis nil nisi bene

Dienstag, 11. Oktober 2016

David und Goliath

Den freien Austausch von Waren und Dienstleistungen - kurz gesagt: den Freihandel zwischen verschiedenen Ländern - gibt es erst seit knapp hundert Jahren. Der Wegfall der Zölle an den Landesgrenzen und die Vereinheitlichung der Produktstandards wird im allgemeinen positiv gesehen. Aber diese "Globalisierung" birgt auch unübersehbar ihre Risiken. Sind die Geschäftspartner unterschiedlich groß, dann kann der Mächtigere dem Unterlegenen sehr leicht seine Bedingungen diktieren und ihn, unter fadenscheinigem Vorwand, sogar zum Kadi zwingen. Dies geschieht derzeit zwischen US-amerikanischen und deutschen bzw. europäischen Firmen und ist deshalb so bedeutungsvoll, weil eine weitere Ausbaustufe des Freihandels - das sogenannte TTIP-Abkommen - unmittelbar vor der Ratifizierung steht.


Schwache deutsche Unternehmen

Wie riskant das unternehmerische Agieren auf dem internationalen Parkett sein kann, wird am Beispiel von drei deutschen Unternehmen beschrieben, nämlich den Firmen Volkswagen, Deutsche Bank und der ehemaligen Baufirma Bilfinger. Ein viertes Unternehmen, Vattenfall, ist in Schweden beheimatet und nutzt die US-amerikanische Gerichtsbarkeit, um die Bundesrepublik Deutschland auf eine Milliardensumme zu verklagen.

Das Unternehmen Volkswagen AG hat jahrelang Dieselautos so manipuliert, dass sie nur auf dem Prüfstand die Abgasgrenzwerte einhalten, auf der Straße aber erheblich mehr Schadstoffe ausstoßen. Der Betrug flog im September 2015 in den USA auf und Volkswagen gestand die Manipulation ein. Weltweit sind 11 Millionen Fahrzeuge betroffen, die meisten davon in Europa. Seit Bekanntwerden dieses Fehlverhaltens ist der Börsenwert von VW um zehn Prozent abgesunken. Die Behörden in den USA verlangten von VW die exorbitante Summe von 13 Milliarden Euro als Wiedergutmachung, insbesondere wegen zu erwartender Umweltschäden.  Die US-Großkanzlei Jones Day durchleuchtet derzeit das Unternehmen minutiös und befragt zahlreiche VW-Mitarbeiter. Die Verdächtigungen reichen bereits bis zu Audi und Porsche, ja, sogar Bosch wurde seit kurzem in das Verfahren einbezogen. Vieles spricht dafür, dass man von US-Seite die Gelegenheit nutzen möchte, die gesamte deutsche Autoindustrie über massive Schadensersatzforderungen klein zu halten.
Uncle Sam: "I shall get you"




In einer noch schlimmeren Situation befindet sich die Deutsche Bank, einstmals die Bank Nr. 1 in Deutschland und eine der größten Banken weltweit. Sie hat seit der "Blütezeit" unter Josef Ackermann 90 Prozent ihres Aktienwertes verloren und ist praktisch ein Übernahmekandidat für ausländische Institute - sofern diese überhaupt wollen. Ein Großteil ihres Vermögens wurde durch hochriskante Investmentgeschäfte verloren, zumeist an der Wall Street und in London. In letzter Zeit wird die Deutsche Bank von den US-Behörden beschuldigt, illegale Hypothekengeschäfte ausgeführt zu haben, wodurch es angeblich vor knapp zehn Jahren zur Weltfinanzkrise gekommen ist. Darüber hinaus wird ihr die Mitwirkung an Geldwäschegeschäften vorgeworfen. Dafür hat die US-Justiz eine Strafe von 14 Milliarden Dollar in Aussicht gestellt. Wie und ob die Bank diese horrende Summe aufbringen kann, ist derzeit in der Diskussion. Es ginge wohl nicht ohne den Verkauf des "Tafelsilbers", worunter die Postbank und die DWS Fondsgesellschaft verstanden wird. Auch eine Insolvenz wird nicht zur Gänze ausgeschlossen, was die gesamte deutsche Wirtschaft hart treffen könnte. "Die deutsche Industrie als Exportweltmeister braucht die Deutsche Bank, die uns bei unseren Geschäften in die Welt hinaus begleitet", sagte kürzlich der BASF-Aufsichtsratsvorsitzende Jürgen Hambrecht.

 Die frühere Baufirma Bilfinger, welche einst ganze Stadtviertel in der katarischen Hauptstadt Doha errichtet hat, kam schon unter dem einstigen Vorstandvorsitzenden Roland Koch ins Visier der US-Behörden. Im afrikanischen Ölland Nigeria soll dieses Unternehmen beim Bau von Pipe-Lines nigerianische Regierungsvertreter bestochen haben. Seither hat Bilfinger Abgesandte des FBI und Anwälte von verschiedenen US-Kanzleien in seinen Büros - zum Stundensatz von bis zu tausend Dollar. Zur bereits gezahlten Strafe von 32 Millionen Dollar sollen weitere 50 Millionen kommen. Noch zusätzliche zwei Jahre wollen die US-Kontrolleure in den Dokumenten der Mannheimer Zentrale herumwühlen. Tom Blades, der nunmehrige Bilfinger-Chef tat kürzlich den bezeichnenden Ausspruch: "Das ist wie Hygiene in einem Krankenhaus; man kann das Thema nie zu den Akten legen".

Ein besonderer Coup ist dem schwedischen Energieversorger Vattenfall gelungen, der eine Zeitlang in Deutschland die beiden Kernkraftwerke Brunsbüttel und Krümmel betrieben hat. Als die Bundeskanzlerin Angela Merkel im Jahr 2011 - im Nachgang zu Fukushima - die vorzeitige Stilllegung dieser Atomkraftwerke anordnete, reichte Vattenfall eine Schadensersatzklage bei einem Schiedsgericht in Washington, USA, ein. Die Anspruchsgrundlage für die Kläger ist die sogenannte "Energie-Charta", welche einstmals von der Bundesrepublik unterzeichnet wurde und welche "stets eine faire und gerechte Behandlung von Investoren" vorsieht. Die Klage erfolgte vor einem US-Gericht, weil Vattenfall dort wesentlich höhere Entschädigungszahlungen erwartet.


Starke amerikanische Unternehmen

Fehlverhalten bei großen Unternehmen gibt es auf beiden Seiten des Atlantischen Ozeans. Nachstehend werden einige US-Konzerne herausgegriffen, gegen die Sanktionen der EU-Kommission unternommen oder in Erwägung gezogen wurden.

Apple, dem größten Wirtschaftsunternehmen der Welt wird von der EU vorgeworfen, dass es seine Gewinne in den europäischen Staaten von Anbeginn nach Irland transferiert hat, dort aber keine Steuern bezahlt. Inzwischen soll, einschließlich Zinsen, eine Steuerschuld von 20 Milliarden EURO aufgelaufen sein. Das vergleichsweise arme Irland verzichtet gezwungenermaßen auf die Eintreibung dieser Schuld, weil nur unter dieser Bedingung Apple weiterhin seine Geschäfte von diesem Inselstaat aus betreiben will. Apple weigert sich, trotz EU-Androhungen, in Europa Steuern zu bezahlen und hat stattdessen seine Betriebsgewinne in die USA verlagert, um dort - steuerfreie - Wertpapiere zu kaufen. Der Ausgang dieses Streits ist offen, insbesondere wegen der ängstlichen Haltung des Sitzlandes Irland. Inzwischen nutzen auch Google und Facebook das Steuerschlupfloch Dublin.

Dem Unternehmen Google werfen die EU-Kartellwächter unfairen Wettbewerb in seinem Kerngeschäft mit den Suchmaschinen vor. Im Umfeld dieser Internet-Suche macht Google einen Jahresumsatz vom 75 Milliarden Euro in Europa, wobei die Werbeanzeigen das meiste Geld einbringen. Die EU-Kommission bemängelt, dass konkurrierende Suchmaschinen, wie Bing und Yahoo, keinen adäquaten Platz in der Werbung haben. Stattdessen ist Google mit 95 Prozent Verbreitung nahezu Monopolist. Dies stößt, ebenso wie die Vorinstallierung des Web-Browsers Google Chrome auf allen möglichen Internetgeräten, auf heftige Kritik bei der EU-Kommission. Bei dem anhängigen Wettbewerbsverfahren droht Google eine Strafe von zehn Prozent des Jahresumsatz. Der mächtige Konzern Google ist bislang aber keineswegs eingeknickt, obwohl das Sanktionierungsverfahren sich bereits einige Jahre hinzieht.

Den allergrössten Schaden hat die US-Investment-Bank Goldman Sachs  der EU zugefügt, indem es Griechenland einen gigantischen Betrug zu Lasten der Euroländer ermöglichte. Vor der Jahrtausendwende befand sich Griechenland in der misslichen Lage, ein zu hohes Haushaltsdefizit für den Eintritt in die Eurozone zu besitzen. Daher beauftragte die griechische Regierung die US-Bank Goldman Sachs, dieses Problem zu "lösen" um den Maastricht-Kriterien zu genügen. Gesagt, getan: Goldman Sachs bot den Griechen eine verdeckte Finanzierung in Form eines hochspekulativen Derivategeschäfts an. Im Jahr 2001 wurde Griechenland, unter der Regierung Schröder/Fischer in die Eurozone aufgenommen, nachdem auch der deutsche Finanzminister Eichel diesen Deal nicht durchschaut hatte. Seitdem musste Griechenland - aus dem Steuersäckel - mit insgesamt 240 Milliarden Euro gestützt werden. Goldman Sachs wurde bislang von der EU-Kommission juristisch nicht belangt.


Schlussbetrachtung

Vergleicht man die Geschäftsverbindungen zwischen USA und Europa (bzw. Deutschland), so wird offenbar, dass die Europäer - und noch mehr die Deutschen - nahezu in allen Facetten die schwächeren  Partner sind. Nachstehend werden einige Parameter aufgezählt, bei denen dieses Missverhältnis besonders deutlich wird:

1.  Die amerikanischen Unternehmen sind wesentlich größer und können im Bedarfsfall mehr Macht ausüben (Siehe Irland). Insbesondere die US-Internetfirmen, wie Apple und Google, besitzen den riesigen Marktwert von über 500 Milliarden Euro, während die größten deutschen Konzerne um den Faktor 5 bis 10 darunter liegen.

2.  Der Verbrauchermarkt ist in den USA (mit ca. 350 Mio Einwohnern) und Europa (mit ca. 500 Mio) in etwa gleich groß. Allerdings wird Großbritannien (50 Mio) nach seinem Brexit Probleme haben, als internationaler Marktplatz Ernst genommen zu werden.

3.  Die Gerichte und Schiedsgerichte sind in den USA wesentlich rigider als in Europa. VW wird dort als "Umweltsünder" mit 13 Milliarden pönalisiert; demgegenüber gelingt es Europa nicht, die Stadt New York wegen andauernder Versenkung von Plastikmüll in den Atlantischen Ozean vor Gericht zu zwingen.

4.  Die USA dürfen auf die Bankdaten der Europäer seit 2009 im Rahmen des sogenannten Swift-Abkommens ungehindert zugreifen und decken dabei so manches Schmiergeldgeschäft konkurrierender Firmen in Europa auf. Umgekehrt wird der EU keine Kontrolle der zuweilen dubiosen Finanzströme in den USA zugebilligt.

All diese Diskrepanzen werden hoffentlich bei der Endverhandlung des neuen Freihandelsabkommens TTIP noch zur Sprache kommen. Falls nicht - dann hat George Orwell mit seiner Sentenz in "Farm der Tiere" (1945) recht:

Alle Tiere sind gleich,
aber manche sind gleicher.




 







Montag, 3. Oktober 2016

Das Kernkraftwerk Hinkley Point C: Energiewende auf englisch

Vor wenigen Tagen hat die frisch gekürte britische Premierministerin Theresa May die Entscheidung zum Bau zweier supergroßer Kernkraftwerke getroffen - und zwar aus ökologischen Gründen. An der Südwestküste Englands, dem Standort Hinkley Point soll ein französisch-chinesisches Konsortium zwei Atomkraftwerke der Klasse EPR zu je 1600 Megawatt errichten. Die Kernkraftgegner, insbesondere in Deutschland und Österreich, sind in heller Aufregung; speziell, weil Frau May für ihre Entscheidung Klimagründe ins Feld führt, die im Nachgang zur Pariser Klimakonferenz rational kaum zu entkräften sind. 

Historisch betrachtet war Großbritannien in Europa lange Zeit führend im Bau und Betrieb von Kernkraftwerken zur Stromerzeugung. Das erste Atomkraftwerk mit einer Leistung von 50 Megawatt nahm bereits 1956 den Betrieb in Calder Hall auf. Danach folgten etwa fünfzig weitere, welche fast alle grafitmoderiert und gasgekühlt waren. Rund dreißig dieser KKW sind inzwischen stillgelegt, aber 16 sind noch in Betrieb und stellen 20 Prozent des benötigten Stroms bereit. Der Plan der Engländer ist, im Laufe der nächsten Jahre ein weiteres Dutzend dieser großen EPR-Kernkraftwerke an sechs, bereits bestimmten, Standorten in England, bauen zu lassen. Die Regionen Wales, Schottland und Irland nehmen daran nicht teil.

Lange Vorbereitung

Es war der britische Premierminister Tony Blair, der von 1997 bis 2007 regierte und im Jahr 2004 verkündete, dass Großbritannien seine CO2-Emissionen im Zuge der Kyoto-Klima-Vereinbarungen bis zum Jahr 2050 um 60 Prozent senken wolle. Nach Abschätzung seiner Experten könne dies nicht allein über Energiesparen und dem Einsatz der fluktuierenden Erneuerbaren Energien erreicht werden, sondern am wirtschaftlichsten mit dem Bau einer neuen Generation an Kernkraftwerken. Dieser Beschluss wurde von seinem Nachfolger Gordon Brown (2007 - 2010) übernommen, der zusätzlich verkündete, dass diese Reaktoren von privaten ausländischen Investoren gebaut werden sollten. (Großbritannien hatte damals seine industrielle Basis zum Bau großer Kernkraftwerke bereits verloren, u. a. wegen der jahrzehntelangen Nutzung des eigenen Nordseeöls).

Unter der folgenden Regierung David Cameron (2010 - 2016) wurde Hinkley Point als Standort ausgewählt. In einer internationalen Ausschreibung hatten schon vorher drei renommierte Reaktorhersteller ihr Interesse bezeugt. Dies waren die französische Firma AREVA mit dem Europäischen Druckwasserreaktor EPR sowie zwei amerikanisch/japanische Konsortien. Da der EPR technisch am weitesten fortgeschritten war, wurde er für das Konzept- und Standortgenehmigungsverfahren ausgewählt.

Danach erfolgten die kommerziellen Verhandlungen, die sich über mehrere Jahre hinzogen, da mittlerweile Areva von  Betreiber Électricité de France (EdF) übernommen wurde und die Engländer auf einem recht unkonventionellen Preis- und Vertragsmodell bestanden. Sie wollten nämlich nicht, wie üblich, Abschlagszahlungen gemäß dem Fortschritt beim Bau der Reaktoren leisten, sondern der Lieferant EdF sollte seine Kosten über den Betrieb des fertigen Kernkraftwerks selbst finanzieren. Dabei handelte es sich um die nicht geringe Summe von 24 Milliarden Euro, welche EdF zunächst vorstrecken sollte. Um das Risiko für den Hersteller erträglich zu halten, waren die Engländer bereit - über eine Zeit von 35 Jahren - der EdF einen Strompreis von 10 Cent pro Kilowattstunde zu garantieren. (Als Betriebszeit für Hinkley Point sind 60 Jahre vorgesehen). Eine einfache Überschlagsrechnung zeigt, dass das Doppelkraftwerk mit 3200 Megawatt diese Baukosten in etwa 10 Jahren wieder einspielt, sofern man 8000 Betriebsstunden pro Jahr unterstellt.


Architekturskizze zum Doppel-Kernkraftwerk Hinkley Point C

Die Franzosen zierten sich eine Zeitlang auf dieses Vertragssystem einzugehen, obwohl der zugesicherte Stromabnahmepreis erheblich über dem liegt, welcher zur Zeit in Deutschland erzielbar ist. Demotivierend waren vor allem die technischen Probleme, welche derzeit bei ähnlichen Reaktoren in Olkilouto (Finnland) und Flamanville (Frankreich) auftauchen und dort erhebliche Mehrkosten verursachen. Bei einem dritten EPR-Projekt im chinesischen Taishan läuft jedoch alles nach Plan und die Inbetriebname steht 2017 bevor. So entschloss sich EdF die chinesische Staatsholding CGN als 25-Prozent-Partner ins Boot zu holen, womit die Briten einverstanden waren, sodass die neue Premierministerin Theresa May diesen Deal am 16. September absegnen und den Startschuss für das Projekt geben konnte.

Fazit

Das Vorgehen der Engländer zur Reduktion der CO2-Emissionen ist weltweit einmalig.
(Im Vergleich dazu die Maßnahmen, welche in Deutschland getroffen wurden)

1.  Die Zielstrebigkeit bei der Wiedereinführung der Kernkrafttechnologie in England ist höchst erstaunlich. Der im Jahr 2004 getroffene Beschluss wurde bis 2016 über fünf Kabinette durchgehalten, wovon zwei der Labourpartei (Blair, Brown) und drei der konservativen Partei (Cameron, May) zuzuordnen sind.
(In Deutschland wurde im Herbst 2010 die Betriebszeit der 17 Kernkraftwerke über das ursprüngliche Ziel hinaus verlängert. Bereits ein halbes Jahr später, im Frühjahr 2011, wurden - im Nachgang zu Fukushima - 8 KKW sofort stillgelegt und die Betriebszeit der restlichen 9 drastisch verkürzt).

2.  Das Management des atomrechtlichen Genehmigungsverfahrens ist vorbildlich: vor dem Bau der Kernkraftwerke wird nach intensiver Expertenbegutachtung die Genehmigung zum technischen Konzept und zum Standort erteilt, was Planungssicherheit bei den Reaktorbauern gewährleistet.
(In Deutschland benötigt man zum Bau und Betrieb eines KKW in der Regel mehr als ein Dutzend Teilgenehmigungen. Wird die Letzte versagt, dann kann das Kraftwerk nicht in Betrieb genommen werden. Beispiel: beim Brüterkraftwerk SNR 300 Kalkar wurden 17 Teilgenehmigungen erteilt, die 18. - zur Kernbeladung - wurde vom NRW-Landesministerium aus politisch/opportunistischen Gründen versagt. Folge: Der Schnelle Brüter konnte, obschon fertiggestellt, nicht in Betrieb genommen werden; er wurde in der Folge zu einem Rummelplatz konvertiert.)

3.  Die Standorte für sechs weitere Doppelkraftwerke in England sind bereits jetzt festgelegt. Es sind: Sizewell, Bradwell, Oldbury, Wylfa und Moorside. Der Strom wird  über das bestehende Wechselstromnetz an nahe Verbraucher geleitet.
(In Deutschland wird der - dominierende - Windstrom im Norden erzeugt und muss über aufwendige Gleichstromleitungen und Konverterstationen zu den Hauptverbrauchern im Süden geleitet werden.)

4.  Die Finanzierung des Projekts Hinkley Point ist (aus englischer Sicht) schlicht als genial zu bezeichnen. Weder Bau- noch Betriebskosten entstehen für den Besteller: "NOT A PENNY" - wie die englischen Politiker stolz verkünden.  Und mit EdF als Vertragspartner hat man sogar noch den französischen Staat als "Bürgen" im Boot, da er zu 85 Prozent an EdF beteiligt ist. Die für die englischen Verbraucher zu erwartenden Stromkosten liegen bei 15 - 20 c/kWh.
( In Deutschland kostet die Energiewende jährlich 25 Milliarden an Subventionen. Hinzu kommen ca. 100 Milliarden für die Stromleitungen. Rund 30 Milliarden an Kapital wurde für die vorzeitige Stilllegung der Kernkraftwerke vernichtet. Der Strompreis für die Verbraucher wird über 30 c/kWh liegen. Die Gesamtkosten der Energiewende schätzen Experten auf 1 bis 3 Billionen Euro).

Samstag, 24. September 2016

Die Ölschwemme - wie lange noch?

Vor gut zwei Jahren passierte es: an den Rohstoffbörsen fiel der Preis für ein 159-Liter-Faß (barrrel), fast über Nacht, von 125 US-Dollar auf 50, zeitweise sogar auf nur 27 Dollar. In der Folge wurden an den Tankstellen Benzin und Diesel um fast ein Drittel billiger. Benzin der Sorte E10, welches man früher noch für 1,70 Euro pumpen musste, fiel zeitweise auf unter 1,20 Euro. Ich kann mich noch lebhaft daran erinnern, dass die Tankstellen damals von den Autofahrern regelrecht belagert wurden, denn jeder glaubte, dass die "Billigzeit" schon morgen wieder beendet sein könnte.





Die Entwicklung des globalen Ölpreises seit der Energiewende 2011

Diese Permanent-Angst ist jetzt großenteils vorbei. Ohne Probleme kann man seit dem Jahr 2014 Benzin zu einem moderaten Preis von 1,20 bis 1,30 Euro pro Liter kaufen. Umgekehrt gibt es jetzt sogar Zeitgenossen, welche glauben, dies ginge in alle Ewigkeit so weiter. Dabei hatten die klugen Ressourcenwissenschaftler des "Club of  Rome" schon im Jahr 1972 vorhergesagt, dass - vor allem Erdöl - in Zukunft dramatisch teurer werden würde. Von 200 bis 300 $ pro Barrel war die Rede und  bereits ein Jahr später schienen diese Schwarzseher recht zu bekommen. Im Zuge der sogenannten ersten Ölkrise im Oktober 1973 gab es zeitweise überhaupt kein Öl mehr zu kaufen und die Menschen in Europa genossen das Privileg, auf der Autobahn spazieren gehen zu dürfen. Zur klammheimlichen Freude der damals aufkommenden Partei der Grünen!


Die gegenwärtige Versorgung mit Erdöl

Erdöl ist zur Zeit der wichtigste Energieträger der Weltwirtschaft. Sein Anteil am globalen Energieverbrauch lag im Jahr 2011 bei 33 Prozent. Es folgten Kohle (mit 30 %) und Erdgas (24 %); weit abgeschlagen waren Wasserkraft (7 %) und Kernenergie (6 %). Innerhalb der Branchen hat der Verkehr mit 55 Prozent den weitaus höchsten Ölverbrauch, gefolgt von der Petrochemie (25 %) und der Stromversorgung sowie der Heizung (20 %).  Rund 80 Millionen Fass Mineralöl verbraucht die Erdbevölkerung - an jedem Tag! Mit 2,5 Prozent ist daran die Bundesrepublik Deutschland beteiligt.

Erdöl (bzw. Rohöl) ist keine seltene Ressource, sondern wird in mehr als drei Dutzend Ländern gefunden. Am häufigsten in Saudi-Arabien, wo jeden Tag um die 12 Millionen Barrel (b) gefördert werden. Es folgen Russland mit 11,5 Mio b und die USA mit 11 Mio b. Die nächste Liga bilden Länder wie der Iran (6 Mio b), China (4,1), Irak (3,4), Venezuela (3,9), Kanada (3,7) und Katar (1,9). In Großbritannien (0,9) und Norwegen (1,9) fällt die Förderung seit Jahren ab. Die wichtigste Rohölsorte Europas kommt aus dem Nordseefeld "Brent" zwischen Schottland und Norwegen. Es ist "süßes" Öl mit niedrigem Schwefelgehalt, welches zudem viele niedrigsiedende Bestandteile enthält.

Im Idealfall wird der Preis des Erdöls über Angebot und Nachfrage ermittelt. Aber das Angebot reduzierte sich in den vergangenen Jahrzehnten recht häufig aufgrund politischer Interventionen, wodurch es zu drastischen Preissprüngen kam. Rückblickend war das der Fall im Jahr 1973 wegen des besagten OPEC-Boykotts, 1979 wegen der Revolution im Iran, 1990 wegen des irakischen Überfalls auf Kuweit, 2001 wegen des Terrorangriffs auf New York und 2008 wegen der weltweiten Finanzkrise. Dass 2014 der Ölpreis drastisch - und dauerhaft - um zeitweise 70 % gefallen ist, stellt eine große Ausnahme dar und bedarf der Erklärung.

Aus heutiger Sicht gibt es dafür nur einen Grund: bewusste Überproduktion. Den Anfang machten die US-Amerikaner mit ihrem "Fracking". Bei dieser Technologie wird ein Gemisch aus Chemikalien und Wasser in Schiefergestein gepresst, wodurch sich auf relativ einfache und billige Art große Mengen an Erdöl (oder Erdgas) an die Oberfläche holen lassen. Mit dieser Technik steigerten sie während der vergangenen fünf Jahre ihre Tagesproduktion auf über 10 Millionen Barrel, was die USA unabhängig von weiteren Einfuhren machte. Dies veranlasste den Konkurrenten Saudi-Arabien seine Ölproduktion ebenfalls zu erhöhen, gefolgt von Russland, welches um seine Einnahmen fürchtete. Als weiterer Player kam der Iran hinzu, als dieses Land den sogenannten Atomkompromiss unterschrieben hatte und dadurch wieder satisfaktionsfähig als Öllieferland war. Im Frühjahr 2016 versuchten die früheren Opec-Staaten in Katar eine Deckelung der Förderung zu erreichen, was aber misslang. Dazu beigetragen haben auch politisch-religiöse Animositäten, weil Saudi-Arabien die Islamfraktion der Sunniten und der Iran jene der Schiiten unterstützt.

In den Industriestaaten wirken die günstigen Energiepreise wie ein Konjunkturprogramm. So schmerzhaft der Verfall des Ölpreises für die Förderländer sein mag, so gut ist er für den Rest der Welt. Wie eben bei einem Nullsummenspiel! Die etwa 500 Milliarden Dollar, die jetzt weniger für Öl ausgegeben werden verschwinden ja nicht, sondern fließen in den Konsum der Verbraucher oder werden anderweitig investiert.


Der Ölmarkt in der Zukunft

Die Zukunft des Erdöls als Wirtschaftsgut hängt ab von der Größe der Vorkommen, der Nachfrage und dem Preis. Lange Zeit richtete sich der Blick nur auf die Vorkommen. Nach der viele Jahrzehnte gültigen "Peak Oil"-Theorie richtete sich die Ausbeutung eines Ölfeldes nach der bekannten statistischen Glockenkurve: erst steigt die  Förderung an, erreicht dann ein Plateau, worauf sie schließlich auf Null zurück fällt. Die Ölquelle wurde als eine Art Bassin gedeutet, das zwangsläufig irgendwann leer sein musste. Aber die Wirklichkeit ist viel komplexer. Richtiger ist schon das Bild von einem porösen Schwamm, den man immer wieder auspressen kann - und das umso öfter, je besser die Fördertechnologie entwickelt ist. Außerdem: steigt der Ölpreis durch irgend einen Umstand, so lohnt es sich auch an entlegenen und kostenträchtigen Plätzen (wie der Tiefsee)  nach Öl zu suchen. Wodurch sich das Ölangebot gleich wieder erhöht. Die niedrigsten Förderkosten hat man im Nahen Osten mit ca. 25 $ pro Fass; es folgen Offshore geringer Wassertiefe (40 $), Tiefsee (53 $), Russland (55 $), Schieferöl in USA (62 $) und Ölsande (85 $).

Die Peak Oil Theorie wurde in den letzten Jahren von der "Peak Demand"-Theorie abgelöst. Sie rückt die Nachfrage in den Vordergrund und fragt, ob es nicht eher einen Höhepunkt der Nachfrage für Öl gibt -ab welchen der Verbrauch dieses Rohstoffs kontinuierlich zurück geht. Und tatsächlich deutet vieles in diese Richtung, wenn man historische Betrachtungen anstellt und in die nahe Zukunft extrapoliert. So war die globale Energieversorgung noch in der ersten Hälfte des 20. Jahrhunderts von der Kohle dominiert, das Erdöl spielte so gut wie keine Rolle. Aber schon ab dem Jahr 1950 war das Öl mit einen Fünftel im globalen Energiemix vertreten, wobei die Kohle immer noch 45 % ausmachte. Anfang der 1970er Jahre war das Bild bereits umgekehrt: Nahezu die Hälfte der weltweiten Energieversorgung beruhte auf Öl - aber der Newcomer Erdgas besaß schon einen Anteil von 18 %. Mit der Dominanz von Kohle war es vorbei, obwohl sie immer noch 30 % im weltweiten Energiemix ausmacht.

Inzwischen ist es das Öl, welches um seine Vorherrschaft bangen muss. Zwar ist es mit einem Anteil von einem Drittel immer noch der globale Energieträger Nr.1, aber das konkurrierende Erdgas ist ihm mit fast einem Viertel schon ganz nahe gerückt. Die Kohle stagniert. Zugleich erlebt die Welt seit 10 bis 15 Jahren den Aufstieg der Erneuerbaren Energien. Sie haben unter allen Energieträgern die stärksten Zuwachsraten. In den kommenden zwanzig Jahren werden sich also die relativen Gewichte der einzelnen Energieträger weiter verschieben. Der Ölmulti British Petrol (BP), der ganz nahe am Markt ist, schätzt, dass der Ölanteil bis 2035 weltweit auf 26 % zurück geht. Das Erdgas dürfte in 20 Jahren im gleichen Umfang wie Kohle und Öl zur weltweiten Energieversorgung beitragen.  Zusammen werden diese fossilen Energien dann immer noch rund 80 %  der globalen Energienachfrage abdecken. Die restlichen 20 % kommen von den CO2-freien Erneuerbaren Energien (7 %) und der Wasserkraft (13 %).

Logischerweise ist die zukünftige Ölnachfrage regional unterschiedlich. Die BP schätzt in ihrem Energy Outlook, dass bis 2035 in den 35 westlichen Industriestaaten der OECD der Bedarf an Erdöl um 18 % sinken wird, in Deutschland - aufgrund der CO2-Pönalisierung - sogar noch stärker. Der Mineralölwirtschaftsverband (MWV) geht dort von einer Abnahme des Benzinverbrauchs um annähernd 40 % aus, bei Heizöl um ein Drittel. Diese Verbrauchsabnahmen werden aber global zum Teil überkompensiert durch das Wachstum ausserhalb der OECD und in den Schwellenländern. So schätzt man, dass die Autos von derzeit 1,2 Milliarden Einheiten bis 2050 auf 2,4 Milliarden zunehmen werden.
Trotzdem: wenn keine abrupten politischen Umstände eintreten, wird der Weltölpreis sich noch lange zwischen 50 und 100 $ pro Fass bewegen.

All dies hat bereits vor Jahren der charismatische saudische Ölminister Yamani vorausgedacht, als er in einen Bonmot verkündete:
Die Steinzeit ist nicht zu Ende gegangen weil es keine Steine mehr gab - und das Ölzeitalter wird nicht wegen Mangel an Öl enden.

Sonntag, 18. September 2016

Die Expansion des Universums

Der deutsche Philosoph Immanuel Kant (gestorben 1804) liebte es bombastisch, wenn er sagte: Zwei Dinge erfüllen das Gemüt mit Bewunderung und Ehrfurcht: der gestirnte Himmel über mir und das moralische Gesetz in mir. Für den moralischen Teil dieses Diktums hatte er den "Kategorischen Imperativ" erfunden (Handle so, dass dein Wollen als Grundlage einer Gesetzgebung gelten kann). Den bestirnten Himmel teilen sich die Theologen mit den Physikern, wobei Letztere vor allem im vergangenen Jahrhundert Erstaunliches herausgefunden haben.

Wieder einmal beginnt alles bei Einstein, der seine "Allgemeine Relativitätstheorie" (ART) im Jahr 1916 - also vor genau hundert Jahren - der Preußischen Akademie der Wissenschaften in Berlin vorgetragen hat. Die ART beschreibt die Wechselwirkung zwischen Materie und Feldern einerseits, sowie zwischen Raum und Zeit andererseits. Die Schwerkraft (Gravitation) wird als geometrische Eigenschaft der vierdimensionalen Raumzeit gedeutet. Für Einstein war das Universum noch ein statisches, immer gleich bleibendes Gebilde, angefüllt mit Materie und Energie. Als er einmal gefragt wurde, ob das Universum unendlich sei, antwortete er mit feiner Ironie: Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit - aber beim Universum bin ich mir nicht ganz sicher.

Schon zehn Jahre nach der Publikation der ART wurde immer deutlicher, dass sich das Universum ausdehnt. Der Astronom Edwin Hubble hatte die Rotverschiebung der Spektrallinien des Lichts entdeckt und der Physiker Alexander Friedmann lieferte die theoretische Beschreibung eines (gleichmäßig!) expandierenden Weltalls dazu. Diese - beobachtete - "Galaxienflucht" führte letztlich zur Theorie des "Urknalls". Vor 13,7 Milliarden Jahren muss ein Zustand unendlich hoher Dichte vorgelegen haben, woraus durch Expansion unser Weltall entstanden ist. Unklar ist, ob diese Ausdehnung unendliche Zeit andauern wird, oder ob sie irgendwann zum Stillstand kommt und wegen der Wirkung der Gravitation in eine Kontraktion übergeht. Ähnlich wie ein Ball, den man im die Höhe wirft und der, wegen der Schwerkraft, schließlich umkehrt und nach unten fällt. Sozusagen ein umgekehrter Urknall.

Dunkle Energie contra Schwerkraft

Künftige Generationen brauchen jedoch nicht zu befürchten, dass Ihnen die Sterne und Galaxien - wegen der anziehenden Schwerkraft - so schnell auf den Kopf fallen. Im Gegenteil: vor knapp zwanzig Jahren haben die drei Physiker Riess, Schmidt und Perlmutter entdeckt, dass es im Weltall noch eine weitere, viel größere Gegenkraft gibt, welche das Universum auseinander treibt und gegen die Schwerkraft (erfolgreich) ankämpft. Die Astrophysiker nennen sie "Dunkle Energie", weil ihr Wesen den Experimenten (noch nicht) zugänglich ist und sie deswegen weitgehend im Dunkel bleibt. Fakt ist aber, dass diese Dunkle Energie einen solchen Druck ausübt, dass sie die riesigen Galaxien beschleunigt auseinander treibt. Das bedeutet, dass zwei beliebige Sternhaufen, die sich noch vor wenigen Minuten mit einer bestimmten Geschwindigkeit voneinander entfernen, in diesem Moment bereits schneller auseinander driften. Es ist, als würde der "Liebe Gott" auf dem Gaspedal stehen bleiben.


Die Physik-Nobelpreisträger 2011(v. l.):  Adam G. Riess, Saul Perlmutter, Brian P. Schmidt

Die Existenz der Dunklen Energie ist eindeutig erwiesen, im Jahr 2011 haben die drei oben genannten Physiker dafür den Nobelpreis erhalten. Eine wissenschaftliche Erklärung für dieses Phänomen gibt es aber noch nicht. Man tappt buchstäblich noch im Dunkeln. Rechnerische Abschätzungen haben allerdings ergeben, dass das Weltall zu 70 Prozent mit dieser Dunklen Energie angefüllt sein muss. Weitere 25 Prozent gehen auf das Konto der Dunklen Materie, welche als eine Art "Klebstoff" die Galaxien davor bewahrt durch die Fliehkraft auseinander gerissen zu werden. Und gerade mal 5 Prozent sind der menschlichen Beobachtung zugänglich, also beispielsweise Sonne, Mond und Sterne. Man nennt sie die baryonische Materie, um welche die klassische Physik kreist.

Erklärungsversuche zur Dunklen Energie

Derzeit gibt es zwei Hypothesen, um das Wesen der Dunklen Energie zu erklären: die Vakuumenergie und die Quintessenz. Die "Vakuumhypothese" geht von der Quantenmechanik aus, diese kennt kein Nichts. Selbst in einem perfekten Vakuum ist Energie enthalten, weil dort immer wieder "virtuelle Teilchen" entstehen. Das sind Paare aus Teilchen und Antiteilchen, die spontan entstehen und sich nach kürzester Zeit gegenseitig wieder vernichten. Diese "flimmernden" subatomaren Objekte enthalten Energie, welche der Gravitation entgegen wirkt, also das Weltall auseinander drücken können. Die Vorstellung entspricht einem Gedanken, den bereits Albert Einstein hatte, als er die sogenannte "kosmologische Konstante" in seine Feldgleichungen einführte.

Alternativ könnte es sich bei der Ursache der Dunklen Energie auch um ein Energiefeld handeln, das die Physiker "Quintessenz" nennen. Es durchdringt das Universum und versieht jeden Punkt des Raumes mit einer Eigenschaft, welche der anziehenden Gravitation entgegen wirkt. Die Physiker kennen solche Felder bereits mit der Gravitation und dem Elektromagnetismus. Grob vereinfacht kann man sich die Quintessenz als einen Ball vorstellen, der an jedem Raumpunkt bergab rollt. Wenn das Quintessenz-Teilchen leicht genug ist, läuft es - etwa im heutigen Weltall - zuerst sehr langsam, weil es relativ wenig Bewegungsenergie besitzt. Das  ändert sich mit der Zeit. Man kann sich vorstellen, dass in der kosmischen Frühzeit die Gravitation der Expansion noch sehr effektiv entgegen wirken konnte, wodurch großräumige Strukturen, also Sonnensysteme und Galaxien entstehen konnten. Als jedoch das Universum einige Milliarden Jahre alt war, dünnte die Materie aus. Die Beschleunigung gewann die Oberhand über die Schwerkraft und stoppte so die weitere Bildung von Sternhaufen.

Vom Graus der großen Zahlen

Als die Astronomen die beschleunigte Expansion des Weltalls sichergestellt und die Physiker die Vakuumenergie als mögliche Ursache benannt hatten, machten sich die mathematisch versierten Physik-Theoretiker daran, die Dunkle Energie zu berechnen. Dabei kam es zu einer Riesenüberraschung. Die Aufsummierung aller möglichen Quantenzustände führte nämlich zu einer Gesamtenergie, die um 120 Größenordnungen über den Messwerten der Astronomen lag. Selbst bei Berücksichtigung neuerer Erkenntnisse aus der Supersymmetrie blieb noch eine Differenz von einigen Dutzend Größenordnungen. Für diese enorme Diskrepanz gibt es bis heute noch keine schlüssige Erklärung.

Stattdessen taucht als Erklärungsmuster immer mehr die fantastische Idee von "Parallelwelten" auf. In jeder dieser separaten Universen könnten andere Naturgesetze und andere Naturkonstanten herrschen. So könnte in einigen dieser Welten die Abstoßung von Anbeginn so heftig sein, dass sich die dortige Materie nie zu Galaxien zusammengeklumpt hat, also menschliches Leben, wie wir es gewohnt sind, nicht möglich ist. Es gibt Forscher, welche die "kosmische Inflation", kurz nach dem Urknall, als Quelle der Paralleluniversen vermuten. In diesem "Aufbrodeln" könnten ihrer Meinung nach, diese Tochteruniversen entstehen. Benutzt man darüber hinaus die Stringtheorie, so könnte das "Multiversum", also die Gesamtheit aller Universen, aus zehn hoch 500 Universen bestehen. Die ist eine unvorstellbar hohe Zahl, wenn man bedenkt, dass es in unserem Weltall nicht mehr als zehn hoch 80 Atome gibt.

Die Vorstellung von Parallelwelten fasziniert die Freunde von Science Fiction und Star Wars immer wieder aufs Neue. Bei den Physikern steigt eher der Blutdruck, wenn das Wort Multiversum nur fällt. Sie halten solche Konzepte für schlicht spekulativ, weil diese mit ihren bewährten wissenschaftlichen Methoden nicht überprüfbar sind. Die Existenz von Parallelwelten nachzuweisen ist - Stand heute -  nicht möglich. Ihre Akzeptanz wäre das Ende der Astrophysik.

Ein Ausweg ist derzeit noch nicht gefunden. Stattdessen hat man das Problem an die Astronomen für weitere Messungen zurückgegeben. Die Astronomen haben zu diesem Zweck das internationale Projekt "Dark Energy Survey" (DES) gegründet, welches mit den leistungsstärksten Fernrohren und Kameras unseren Kosmos präzis vermessen soll. (Eine moderne "Vermessung der Welt" nach Kehlmann). Über 400 Wissenschaftler, auch aus Deutschland, beschäftigen sich nun damit, eine hoch aufgelöste Karte unseres Weltalls zu liefern. Dabei sollen 200 Millionen Galaxien und viele Sternexplosionen (Super Novae) vermessen werden. Das Ziel ist, die Geschichte der Expansion unseres Weltalls während der vergangenen zehn Milliarden Jahre experimentell zu bestimmen.

Alle Astrophysiker weltweit blicken gespannt auf diese Ergebnisse und erhoffen sich aus dieser Erkundung der Vergangenheit nun Antworten zur Zukunft unseres Weltalls.

Sonntag, 11. September 2016

Inside KIT

Ein Grummeln geht um im KIT - das Grummeln der Unzufriedenheit.

Über das Murren der Mitarbeiter, insbesondere im ehemaligen Forschungszentrum Karlsruhe FZK, jetzt KIT Campus Nord bzw. Großforschungsbereich GFB, will ich aber kein Manifest schreiben, indes ein Blog darüber ist sicherlich angemessen. Schon deshalb, weil diese Unzufriedenheit der ehemaligen "FZK´ler" den Personalrat vor einigen Wochen dazu veranlasst hat, den hohen Präsidenten des KIT und seine Vizepräsidenten zu einer KIT-Betriebsversammlung "einzuladen", wo diese Herren (die Dame befand sich im Urlaub) sich den Fragen des Personalrats und der Beschäftigten zu stellen hatten..

Das ist kein alltägliches Ereignis in der 60-jährigen Geschichte des FZK, beziehungsweise des ehemaligen Kernforschungszentrums. Die Fragen der Mitarbeiter deckten so wichtige Themen ab, wie Großprojekte, Führungskultur, Finanzsituation, Personalpolitik, Exzellenzinitiative und anderes mehr. Der Zusammenschluss der ehemaligen Technischen Hochschule und des Forschungszentrums, de facto seit zehn Jahren existent, ist keineswegs nur eine Erfolgsstory, wie man das immer wieder darzustellen versucht. Im Gegenteil, insbesondere von den Gründungsvätern des KIT, dem FZK-Geschäftsführer Manfred Popp und dem TH-Rektor Horst Hippler, wurden in der Anfangszeit gravierende Fehler gemacht, welche dieses Fusionsprodukt in der Zukunft durchaus noch in schweres Fahrwasser  bringen können. Im Folgenden werde ich auf die wesentlichen Probleme, besonders beim Forschungszentrum, eingehen.

Der Präsident:  hoch droben

Der Präsident des KIT, Professor Dr. Holger Hanselka (54), ist eine flamboyante Erscheinung. Er studierte Maschinenbau an der TU Clausthal und nach einigen Zwischenstationen, u.a. in Magdeburg und Darmstadt sowie als Leiter eines Fraunhofer-Instituts, wurde er im Oktober 2013 in sein heutiges Amt berufen. Für seine 9.315 KIT-Mitarbeiter ist Hanselka kaum erreichbar, auch nicht für die 5.504 im wissenschaftlichen Bereich. Aber selbst die ca. 350 Professoren und Juniorprofessoren - und hier wirds schon heikel - genießen nur selten die Gunst eines Gesprächs mit ihm. Ja, sogar die etwa 150 Institutsleiter haben Probleme, an H. heranzukommen. Das ist bedauerlich, denn die Chefs der Institute sind (samt Mitarbeiter) die eigentlichen Träger von Forschung und Lehre, also für das "Produkt" des KIT. Ihre Arbeit bestimmt den Ruf nach außen und in den internationalen Bereich hinein.

Die Institutsleiter sind im Organigramm des KIT nicht per Namen, sondern nur summarisch, gewissermaßen in "Klumpen-Form" aufgeführt. Wobei es erstaunlicherweise zwei Organigramme (siehe Jahresbericht 2015) für die Firma KIT gibt. Das überrascht, denn bei den allermeisten Unternehmen ist es üblich, ein einziges Organigramm für den ausgewählten Bereich nach außen zu kommunizieren. Der Vorgänger von Hanselka, Professor Eberhard Umbach, kam noch mit einem solchen Organigramm aus (Stand 18. März 2011), welches zudem den Charme besaß, dass auf diesem auch alle Institute aufgelistet waren. Im Übrigen bedürfen Hanselkas Organigramme wohl der baldigen Novellierung. Wie man hört, will die Vizepräsidentin für Personal und Recht, Frau Dr. Elke Barnstedt, demnächst in den wohlverdienten Ruhestand gehen. Man darf gespannt sein, wie die Findungskommission das offensichtliche Genderproblem auf dem Präsidiumslevel lösen wird. Darüberhinaus wird, dem Vernehmen nach, die Abteilung Presse, Kommunikation und Marketing (PKM)  umstrukturiert.


Das Organigramm des KIT für die "Wissenschaftsorganisation"



Das Organigramm des KIT für die "Aufbauorganisation"

Kommen wir zurück zu den Instituten; sie sind nur pauschal in den Organigrammen vermerkt. Für einen Institutsleiter (IL) im "Institut für Angewandte Materialien", beispielsweise, ist der Sprecher des IAM die erste formelle Hierarchiestufe. Dann folgt der Dekan der Maschinenbaufakultät, wobei man sich erinnert, dass Urvater Hippler die Fakultäten bei KIT einstmals abschaffen wollte. Offensichtlich ist ihm dies nicht gelungen. Danach folgt die Stufe der Bereichsleiter, die früher den schreckeinflößenden Namen Chief Officers besaßen. Ab jetzt wird die Luft dünner, denn unser oben genannter Institutsleiter betritt das Niveau der Vizepräsidenten. Wenn er all seinen Mut zusammen nimmt, wird er schließlich bei The Chief Himself, Professor Hanselka,  vorgelassen. Geht so ein armer IL den "Dienstweg", dann hat er bei seinem Hürdenlauf also nicht weniger als fünf Hierarchiestufen zu erklimmen.

Um nicht missverstanden zu werden: Professor Hanselka steht keineswegs im Ruf der "Unnahbarkeit". Aber Fakt ist doch, dass es beträchtliche bürokratische Hürden gibt, bis ein "gewöhnlicher Institutsleiter" mit seinem Anliegen bei ihm vorsprechen kann. Das war im früheren Forschungszentrum ganz anders; Institutsleiter und Projektleiter waren im Organigramm direkt unter dem Vorstand angesiedelt. Für den Leiter eines größeren Projekts war es kein Problem, bei seinem Vorstand einen Termin - innerhalb ganz weniger Tage - zu bekommen. Gab es ein akutes Problem zu besprechen, dann auch noch am gleichen Tag. Die Tür zum Vorstandzimmer stand in der Regel offen und wem es gelang, sich an der Zerbera Frau K. vorbei zu schlängeln, der wurde zumeist auch vom Vorstand (in meinem Fall Professor H.) hereingewunken. Für ein Viertelstündchen, fünf Minuten Smalltalk inklusive. Diese relativ leichte Zugänglichkeit hatte auch für die Vorstandsebene einen nicht geringen Nutzen: sie wusste stets, was im Forschungszentrum so "lief".

Die Malaise der Großprojekte

Das Forschungszentrum FZK war während seiner 50-jährigen Selbstständigkeit weltweit dafür bekannt, dass dort Großprojekte im Finanzbereich von einigen Millionen bis zu mehreren hundert Millionen DM ersonnen und erfolgreich abgewickelt wurden. Beispielhaft dafür sind die (meist kerntechnischen) Projekte FR 2, MZFR, WAK, KNK I, KNK II, SNEAK, BETA, HZ, SNR 300,  KASCADE etc.etc. Davon übrig geblieben sind derzeit im wesentlichen nur noch die zwei Großprojekte "KATRIN" und "bioliq". Beide sind in gewisser Beziehung "notleidend", denn sie befinden sich in technischer, terminlicher und finanzieller Schieflage.

KATRIN  ist  ein astrophysikalisches Experiment, womit die Ruhemasse des sogenannten Elektron-Neutrino gemessen werden soll. Der Versuchsaufbau ist 75 Meter lang und besteht aus vier funktionalen Einheiten, nämlich der Tritiumquelle mit Pumpstrecke, den zwei elektrostatischen Spektrometern zur Energieanalyse sowie dem Enddedektor zum Zählen der transmittierten Elektronen. Beeindruckend in seiner Größe ist das Hauptspektrometer, welches allein 200 Tonnen wiegt. Wesentliche technologische Herausforderungen sind das hohe Vakuum (mit 10 hoch minus 11 millibar) sowie die Temperaturstabilität der Quelle. Derzeit ist man dabei, die Gesamtanlage zusammenzubauen und betriebstüchtig zu machen. Mit diesen Arbeiten ist man ca. zehn Jahre hinter Plan, wenn man die Ankündigungen im "letter of intent" aus dem Jahr 2001 zugrunde legt. Auch die in diesem Dokument genannten Kosten von 17 Millionen Euro dürften inzwischen obsolet sein. Bedauerlicherweise kann man im aktuellen KIT-Jahresbericht 2015 nichts zum technischen und finanziellen Stand dieses Projekts lesen, was übrigens auch für das andere Großprojekt bioliq gilt.

Die anschließende Messkampagne bei Katrin wird wohl im Jahr 2017 beginnen und ca. fünf Jahre dauern. Ursächlich für diese vergleichsweise lange Zeit ist der Umstand, dass in der Anlage zwar Milliarden von Betazerfällen ausgelöst werden, aber nur das letzte Elektronenvolt im Spektrum interessant ist. Und dort gibt es nur ca. 1 bis 2 Zerfälle pro Stunde! (Erinnert mich an meine eigene Physik-Diplomarbeit bei Maier-Leibnitz mit der langwierigen Messung des Steilabfalls der Bragg-Kurve). Schreitet das Experiment, wie jetzt geplant, voran, dann sind im Jahr 2021 die Messungen beendet. Zwei weitere Jahre muss man für die Auswertung und Synthese bis zur Veröffentlichung (in den Renommier-Journals SCIENCE oder NATURE) einrechnen, womit wir uns dann im Jahr 2023 befinden. Das ist, welch ein Zufall, genau das Jahr in dem der engagierte und international bestens vernetzte Projektleiter Professor Guido Drexlin in Rente geht. Und sich ab dann als "physics-freelancer" an eine schöne Universität im sonnigen Kalifornien verdingen möchte. Die Freuden des "troisième age"!

Und wenn es zeitlich nicht klappt mit Katrin? Nun der Professor hat bereits ein "Bauchgefühl" wie der gesuchte  Wert der der Neutrino-Ruhemasse sein könnte:
nämlich 0,278 Elektronenvolt. 

Ein weiteres Großprojekt im FZK ist bioliq Hier soll die Reststoff-Biomasse Stroh zu Autokraftstoff, also Sprit, verarbeitet werden. Durch Pyrolyse wird ein schwerölähnliches Produkt erzeugt, das in einem Flugstromvergaser zu Synthesegas weiter verarbeitet wird. Leider scheint das nicht so einfach zu sein, denn die Bemühungen von mehr als ein Dutzend Jahren sind immer noch nicht vom Erfolg gekrönt. Die Errichtung der dazu erforderlichen Pilotanlage im FZK war nicht billig, immerhin wurden schon mehr als 60 Millionen Euro investiert. Darüber hinaus hat das bioliq-Verfahren auch vielfache Konkurrenz. Ein Wettbewerber war "Choren Industries" im sächsischen Freiberg, wo man versuchte synthetischen Kraftstoff aus Restholz herzustellen. Obwohl sich namhafte Automobilkonzerne an diesem Unternehmen beteiligten, ging die Firma Choren 2011 bankrott.  Die Medien sprachen von geschönten Zahlen und zu geringen Produktionsmengen.  Hoffentlich ereilt KIT mit seinem Großprojekt bioliq nicht ein ähnliches Schicksal. Es hat keine so starke Industrieunterstützung wie Choren und das wirtschaftliche Umfeld infolge der andauernden Ölschwemme ist fast noch schwieriger geworden. Leider erfährt der externe Steuerzahler auch hier nichts über Produktmengen und Betriebskosten.

Viel geforscht wird bei KIT im Bereich der Astrophysik. Über das KIT-Centrum Elementarteilchen- und Astrophysik (KCETA) ist man mit zahlreichen internationalen Forschergruppen verknüpft und führt seit vielen Jahren Experimente am Beschleuniger LHC bei CERN durch. In diesem Verbund bearbeiten elf Physikinstitute grundlegende Fragen zum Ursprung der Masse, zur Asymmetrie Materie/Antimaterie, zur Zusammensetzung Dunkler Materie/Dunkler Energie und zum Ursprung der kosmischen Strahlung usw. Leider stellt sich in den letzten Jahren immer deutlicher heraus, dass bei den LHC-Experimenten nicht mehr viel zu finden ist. Offensichtlich ist die Drei-Milliarden-Maschine zu schwach für den Aufbruch in eine neue physikalische Ära. Möglicherweise benötigt man einen stärkeren Beschleuniger. Aber den zu planen, zu beschließen, zu finanzieren und letztlich zu bauen würde viele, viele Jahre in Anspruch nehmen. Das vorläufige Ende der Astrophysik?

Neue, wenn auch kleinteilige Projekte, sind am Horizont sichtbar. Vor kurzem hat sich KIT in das sogenannte Kopernikus-Projekt eingeklinkt. Es wurde von der Bundesforschungsministerin, Frau Wanka, aus der Taufe gehoben und soll die gefährdete Energiewende absichern. Kopernikus ist auf zehn Jahre ausgelegt, insgesamt beteiligen sich daran 23 Einrichtungen und Partner. KIT will sich dem Problem der Netzstabilität zuwenden, welche wackelig sein kann, weil die Stromproduktion durch Wind und Sonne bekanntermaßen stark fluktuiert. Keine wirklich neue Erkenntnis. Die Netzbetreiber müssen an die tausend Mal pro Jahr per Hand eingreifen, um die Frequenz bei 50 Hertz zu stabilisieren. Aber kaum ist das Problem ausgelobt, schon hat das ebenfalls an Kopernikus beteiligte Konkurrenzentrum FZK Jülich eine Lösung parat. Im seinem Magazin "effzett" ist ein Tweet des Jülicher Forschers Dr. Dirk Witthaut abgedruckt, in dem folgendes behauptet wird: "Durchblick statt Blackout: Formel sagt Stromausfälle voraus und identifiziert Schwachstellen im Netz. #Energiewende".
Schneller geht's nimmer!

Vielleicht nach dem Motto  "Kleinvieh macht auch..." bahnt sich im Universitätsbereich eine erstaunliche Entwicklung an: in großer Zahl werden dort Kleinprojekte gegründet, die man im Verbund mit industriellen Partnern abwickeln möchte. Diese Miniprojekte - im Schnitt um die 30.000 Euro - sollen zum Einstieg in spätere Großprojekte bei KIT (Campus Nord??) werden. Die Idee klingt zunächst gut und erfolgversprechend - ist sie aber nicht. Schon allein die Fülle dieser Kleinprojekte erschreckt: im Jahr 2015 waren es bereits 200. Das bedeutet, dass jedes Institut im Schnitt 1 bis 2 dieser Projektchen bearbeitet. Gesteuert wird das Ganze durch eine eigenständige Gesellschaft, der "KIT Campus Transfer GmbH", mit bereits zwei Geschäftsführern und (vermutlich) entsprechendem Unterbau und dazugehörigen Fixkosten. Der Personalrat kritisiert diese Entwicklung, weil sie geeignet ist, dem KIT-Nord die Projekte "wegzuschnappen" und zudem wohl nicht zuletzt den "privaten Wohlstand" der damit beschäftigten Professoren mehrt. Außerdem ist diese Innovation konträr zur grundsätzlichen KIT-Philosophie. Bei der Gründung des KIT war es allgemeines Verständnis, dass KIT-Süd für die Lehre sowie die Diplom- und Doktorarbeiten etc. zuständig ist und KIT-Nord für die wirklichen großen Projekte. Die Zuwendungsgeber in Bund und Land sollten diese problematische Entwicklung im Auge behalten.

Gravierende Fehler in der Vergangenheit

Der Niedergang des Forschungszentrums wurde bereits in der Vergangenheit, zwischen den Jahren 1991 bis 2006 eingeleitet und zwar durch einige falsche Strategieentscheidungen des damaligen Geschäftsführers Dr. Manfred Popp. Er veranlasste, beispielsweise, den Komplettausstieg aus der Medizintechnik , worin eine kleine, personell leider unterbesetzte Gruppe mit großem Engagement tätig war. Konkurrierende Forschungszentren stiegen in das aufstrebende Gesundheitsgebiet ein; ich nenne nur das FZK Jülich mit seiner weithin bekannten Hirnforschung.

Eine weitere Fehlentscheidung, in noch höherem Maßstab, war der weitgehende Ausstieg aus der Kerntechnik, den Popp anfangs der neunziger Jahre verfügte. Zu dieser Zeit waren in Deutschland noch 18 große Kernkraftwerke in Betrieb, die man F+E-mäßig, besonders auf dem Gebiet der Sicherheit, hätte begleiten und unterstützen müssen. Als die Bundeskanzlerin im März 2011, auf einer dubiosen Datenbasis und praktisch im Alleingang, die sofortige gestaffelte Abschaltung aller deutscher Kernkraftwerke entschied, war die verbliebene Kerntechnikgruppe beim FZK bereits zu klein und unterkritisch geworden, um Merkels Entscheidung wissenschaftlich-technisch ernsthaft  hinterfragen zu können. Wie nicht allseits bekannt, werden einige deutsche KKW noch bis zum Jahr 2022 in Betrieb sein, wobei auch für diese eventuell noch die  F+E-Unterstützung notwendig werden könnte. Darüber hinaus gibt es rund um Deutschland herum derzeit 140 Kernkraftwerke, meist älterer Bauart, welche die deutschen Kerntechniker nicht mehr sachkundig bewerten können, weil uns das Ausland hierfür die Expertise abspricht. Dass die EU-Kommission gerade jetzt ihr Institut für Transurane im Forschungszentrum Karlsruhe zu zentralen Standort für die "Nukleare Sicherheit" vergrößert, beweist darüberhinaus, dass der deutsche Ausstieg aus der kerntechnischen Sicherheitsforschung voreilig war.

Den allergrössten Fehler beim Management des Forschungszentrums beging der Geschäftsführer Popp als er, kurz vor der Gründung des KIT, den "Bereich für die Stilllegung der kerntechnischen Anlagen" von der FZK ausgliederte und an die "Energiewerke Nord" (EWN) weiter gab. Der Karlsruher Stilllegungsbereich hatte vorher in Deutschland praktisch eine Monopolposition inne und war vor allem in den neunziger Jahren sehr erfolgreich, als dort zwei Kernkraftwerke (KKN und HDR) bis zur Grünen Wiese rückgebaut und der FR 2 sicher eingeschlossen worden war. Darüber hinaus wurden erhebliche Fortschritte bei der Demontage der Wiederaufarbeitungsanlage WAK gemacht und die Verglasungseinrichtung für die Flüssigabfälle konzipiert und durchgesetzt. Seit gut einem Jahr versucht das KIT diesen strategischen Fehler wieder gut zu machen, indem sie eine kleine Rückbaugruppe aufbaut und den Verbund mit externen Partnern anstrebt. Das wird - mangels eigener Großanlagen und wegen der begrenzten Expertise  - allenfalls zu einem Nischendasein führen. Der Zug im Rückbau atomarer Anlagen ist abgefahren. Die Energieversorgungsunternehmen und eine Vielzahl kleiner, aber kompetenter Firmen, haben das Kommando übernommen. FZK/KIT haben fahrlässigerweise vor zehn Jahren ein Alleinstellungsmerkmal aufgegeben und sich selbst von einem Milliardenmarkt  abgekoppelt.

Seit die Energiewerke Nord  um 2006 das Kommando beim Stilllegungsbereich übernommen haben, ist kein weiteres Kernkraftwerk im Forschungsbereich mehr zur Gänze rückgebaut worden; KNK und MZFR sollen erst im nächsten Jahrzehnt entsorgt werden. Der Terminplan zum Abriss der WAK hat sich bis ca. 2030 verschoben, statt einer Milliarde Euro (wie geplant) sind nunmehr ca. drei Milliarden erforderlich. EWN ist übrigens -ungeachtet ihres Namens - als Unternehmen der "unechten Industrie" zuzurechnen; es wird vom Bund und damit vom Steuerzahler zu 100 Prozent alimentiert. Derzeit passiert bei den rückzubauenden Anlagen um die WAK mindestens fünf Jahre lang nichts, weil erst zwei Zwischenläger für die radioaktiven Abbruchmaterialien genehmigt und gebaut werden müssen. Das bereits bestehende große Zwischenlager - um das sich jeden Tag 4.000 KIT-Forscher herumbewegen und in dessen Nähe man das neue Casino gebaut hat - ist randvoll. Was man offensichtlich relativ spät gemerkt hat. Diese Stagnation der Rückbautätigkeiten führt zu hohen Personalkosten, weil (auf Anraten des "Übervaters" Dieter Rittscher?) bei der WAK fast nur mit Eigenpersonal geschafft wird. Das FZK hatte früher, auf Betreiben seines Controllers, 50 Prozent Fremdpersonal eingesetzt, was zu höherer Flexibilität und zu niedrigeren Kosten bei "Flautezeiten" führte.

Der Name des ehemaligen Geschäftsführers Popp, der das Forschungszentrum von 1991 bis 2006 leitete, ist bereits mehrfach gefallen. Es besteht Anlass, sich dieser Personalie zuzuwenden. Der jetzt 75-jährige alte Physiker war 1972, zwei Jahre nach seiner Promotion, zum Bonner Bundesforschungsministerium gekommen. Innerhalb von nur sechs Jahren machte er - ausgestattet mit einem SPD-Parteibuch - innerhalb der sozialliberalen Koalition eine Blitzkarriere. Schon 1978 wurde er zum Ministerialdirigenten ernannt. Während der darauffolgenden Kohl-Regierung wurde Popp - nunmehr Mitglied der CDU - 1987 zum Staatssekretär für Umwelt und Reaktorsicherheit in der Hessischen Landesregierung unter Wallmann ernannt. Nach dem Sturz dieser Regierung wurde Popp, auf Betreiben seines ehemaligen Bonner Forschungsministeriums, nun Vorsitzender des Vorstands beim ehemaligen Kernforschungszentrum Karlsruhe und huldigte fortan, mit dem Ausstieg aus der Kerntechnik, dem grünen Zeitgeist.. Die "Frankfurter Allgemeine Zeitung" (FAZ) schrieb in einem Kommentar vom 2. April 1991 dazu folgendes: "Wie er (sprich: Popp) in dieses Amt gekommen ist, darüber bedürfte die Öffentlichkeit noch der Aufklärung. Denn welche Voraussetzungen Popp für die Leitung einer so großen, sich zudem in der Phase der Neuorientierung befindenden Forschungsorganisation qualifizieren, ist aus seinem Werdegang nicht zu ersehen."  All diese Zitate stammen keineswegs von mir, sondern man kann sie, direkt oder implizit, in der Historie des FZK, "Geschichten aus der Geschichte",  auf Seite 66 nachlesen.

Finanzen und Exzellenzinitiative

Das Finanzbudget des KIT betrug im Jahr 2015 860 Millionen Euro; davon entfielen auf den Universitätsbereich 428 Mio und auf dem Großforschungsbereich 432 Mio. Die Finanzierung erfolgte über Bundesmittel (254 Mio Euro), Landesmittel (248 Mio) und Drittmittel (358 Mio). Die Geldströme von Bund und Land dürfen nicht vermischt werden, was die Buchhaltung nicht unwesentlich erschwert. Die Drittmittel sind nur zum kleineren Teil Einwerbungen aus der Industrie, zumeist stammen sie von der EU, der Deutschen Forschungsgemeinschaft sowie aus Extratöpfen von Bund und Land. 860 Millionen sind eine stattliche Summe. Das ehemalige Forschungszentrum musste zumeist mit 500 Millionen DM auskommen. Trotzdem kneift es bei KIT immer wieder an allen Ecken und Enden, wie man von dem für Finanzen und Wirtschaft zuständigen Vizepräsidenten Dr. Ulrich Breuer hört.

 Besonders groß war die Geldnot zu der Zeit, als die Mittel aus der verlorenen Exzellenzinitiative ausblieben, also um das Jahr 2012. Dem KIT entgingen damals 60 bis 80 Millionen pro Jahr, mit denen es fest gerechnet hatte und die zum Teil bereits verplant oder gar ausgegeben waren. Weitere Defizite entstanden dadurch, dass die von außen eingeworbenen Drittmittel häufig nur zu einem Gemeinkostensatz von 20 Prozent kalkuliert waren , welche allerdings selten die wahren Kosten deckten. Die Einführung der gemeinsamen Verwaltungs-Software SAP für Uni und FZK dauerte ewig. Und zum Schluss war sie auch noch keineswegs einheitlich. Weil damals auch noch die Verwaltung "verschlankt" wurde, kam es zu der schlimmen Situation, dass die Hilfsassistenten, im Jargon Hiwis genannt, für ihr Jobben an der Uni monatelang kein Geld bekamen, beziehungsweise nur Abschlagszahlungen. Es passierte sogar, dass die Studierenden erst nach einem halben Jahr ihr Zeugnis erhielten, weil in der magersüchtigen Verwaltung zu wenige Sekretärinnen verfügbar waren. Finanzchef  Breuer schleppte jahrelang ein Minus von 10 Millionen Euro mit sich; als Finanzziel gab er (Schäuble lässt grüßen) "die rote Null" aus.

Mit der Exzellenzinitiative, einen Förderprogramm des Bundes für die Hochschulen, hat das KIT bislang gute und böse Erfahrungen gemacht.  Im Jahr 2006 gewann KIT bei der Exzellenzinitiative I (zusammen mit den beiden Münchener Universitäten) den Ehrentitel "Elite-Universität" sowie erhebliche Sondermittel. Ausschlaggebend war die Vorlage des KIT-Konzepts, das die Juroren damals wohl noch beeindruckte. Bei der Exzellenzinitiative II im Jahr 2012 war man in Karlsruhe siegessicher. KIT-Präsident Horst Hippler gab den Ton vor. "Ausscheiden - das ist einfach nicht vorgesehen. Am KIT kommt keiner vorbei". Und dann kam der 12. Juni 2012 - ein schwarzer Freitag. Hippler musste kleinlaut verkünden, dass KIT bei der Schlussabstimmung der Gutachter durchgefallen war. Der schöne Titel "Elite-Universität" war futsch. Präsident Hippler war offensichtlich schon im voraus informiert worden, denn er machte sich bereits am 24. April 2012 vom Acker. Schlauerweise bewarb er sich um die Präsidentschaft der Hochschulrektorenkonferenz HRK, wo er allerdings erst nach einer Kampfabstimmung gewählt wurde. Seinen Co-Präsidenten Professor Eberhard Umbach ließ er die Riesenorganisation KIT allein weiter regieren. Seitdem okkupiert der ehemalige TH-Rektor Hippler, nunmehr 70, diesen HRK-Job, der von vielen als ein höchst überflüssiger Ruheposten für alte Profs angesehen wird.

Was waren die Ursachen für das Ausscheiden bei der Exzellenzinitiative II?  Nun, die Forschungsanträge, die  sogenannten Cluster, in den beiden Bereichen Nanotechnologie ("Funktionelle Nanostrukturen") und Informatik ("Verlässliche Software") waren durchgefallen. Das Superinstitut für Nanoforschung war unter Professor Herbert Gleiter in den vergangenen 15 Jahren mit hohem finanziellen Aufwand aufgebaut worden. Gleiter selbst heimste bei seinen globalen Rundreisen fast mehr Ehrenmedaillen und Awards ein als die gesamte deutsche Olympiamannschaft in Rio. Und nun diese Pleite. Hätte er sich doch mehr seinem INT gewidmet. Hic Rhodos, hic salta, sagten schon die alten Lateiner.

 Im kommenden Jahr will die Bundesbildungsministerin Johanna Wanka über die Exzellenzinitiative III für die ca. hundert deutschen Hochschulen entscheiden. Der Schweizer Physiker Dieter Imboden hat dafür ein leicht verändertes Konzept vorgelegt. Die Eckwerte sind: Laufzeit 2018 bis 2028, Fördersumme fünf Milliarden Euro, also 0,5 Mrd. pro Jahr  Das ist nicht gerade übermäßig viel, wenn man andere Budgetzahlen zum Vergleich heran zieht:   Der Etat des Bundesministeriums für Bildung und Forschung beträgt 17,5 Mrd, der für die Flüchtlinge sogar 25 Milliarden pro Jahr - und das noch auf lange Zeit! Am KIT will man diesmal alles richtig machen und hat zur Vorbereitung die vierköpfige "Projektgruppe FOR X" eingerichtet. Wie in dem Mitarbeitermagazin "KIT Dialog 1.2016" nachzulesen ist, steht an der Spitze der Lenkungsausschuss mit dem Präsidium und den Bereichsleitungen. Er steuert das Gesamtprojekt und wird von einem "Sounding Board" beraten. Außerdem wurden acht Teilprojektgruppen zu verschiedenen Themen wie Chancengleichheit, Karrierewege etc. eingerichtet. Die Projektgruppe FOR X wird zudem unterstützt durch ein Erweitertes Team, das mit Referentinnen des Präsidiums und Mitarbeitern der DEs Forschungsförderung, Innovationsmanagement, Internationales, Personalentwicklung und berufliche Ausbildung sowie dem Karlsruhe House of Young Scientists besetzt ist.
Viel Knowhow kommt hier zusammen. Hoffentlich vergisst man nicht kompetente Wissenschaftler einzuklinken, welche wohl allein dazu in der Lage sind, wettbewerbsfähige "Proposals" abzugeben.

Synthese und Schlussbetrachtungen

Zusammenfassend kann man sagen, dass sich bei KIT ein vorher nicht gekannter lähmender Bürokratismus ausgebreitet hat. Bereits angeführte Beispiele sind der Gremiendschungel bei der Vorbereitung der Exzellenzinitiative III sowie die organisatorischen Triplizierung des Technologietransfers durch die Einheiten Presse, Kommunikation, Marketing (PKM), durch Research to Business (R2B)und durch die KIT Transfer GmbH. Auf der unteren Verwaltungsebene bemüht man sich seit Jahren - weitgehend erfolglos - die dezentrale Struktur im Süden mit der zentralen im Norden zu harmonisieren. (Siehe Beschaffungs- und Personalwesen)

Die beiden Fusionspartner, FZK und TU, vor zehn Jahren rangmäßig noch auf Augenhöhe, sind inzwischen krass unterschiedlich geworden in ihrer öffentlichen Bedeutung. Die Universität, mit ca. 25.000 Studierende kaum größer als Freiburg oder Tübingen, hat eindeutig das Übergewicht gewonnen. Wenn in ihren Bereich etwas schief läuft (etwa weil einige Hiwis ihren Lohn zu spät erhalten), dann wird das in der Presse ausführlich dargestellt. Wenn dagegen im Großforschungsbereich, wie im Vorjahr geschehen, die Synchrotronstrahlenquelle ANKA drastisch reduziert wird, dann ist das kein öffentliches Thema.

Dabei ist das internationale Ansehen des KIT durchaus unterschiedlich zu werten. In dem schon genannten KIT-Jahresbericht werden die ausländischen Studierenden nach Ländern aufgelistet. Demnach befinden sich unter den TOP 20 vorzugsweise Tunesier und Türken, sowie eine ganz große Zahl von Chinesen. Aber keine US-Amerikaner und Briten, die im internationalem Ranking bei den Naturwissenschaften die Spitzenposition einnehmen! Könnte es sein, dass die jungen Leute aus den Entwicklungs- und Schwellenländern besonders deswegen gerne zum KIT kommen, weil es dort keine Studiengebühren, dafür aber hohe Sozialleistungen gibt und man zur Not mit Englisch durchkommt ohne Deutsch lernen zu müssen? Bekanntlich liegen die jährlichen Collegekosten an den US-Universitäten bei 40.000 Dollar und die Absolventen sind zumeist mit einer Schuldenlast von 50.000 Dollar noch über viele Jahre hinweg belastet.


KIT-Ausländische Studierende nach Ländern  (Top 20 von 117)

Der Name KIT wurde von den Urvätern Popp/Hippler im Anklang an das berühmte "Massachusetts Institute of Technology"- MIT - ausgesucht. Das war hoch gegriffen, um nicht zu sagen anmaßend. Diese weltberühmte technische Universität in Boston hat bisher ca. 80 Nobelpreisträger hervorgebracht und verfügt über ein Jahresbudget, welches den KIT-Etat um den Faktor 12 übertrifft. Da wird KIT noch lange hinterher laufen müssen.

Ernste Sorge bereitet der Niedergang des ehemaligen Forschungszentrum, also KIT Campus Nord . Entgegen seinem Namen Großforschungsbereich (GFB) werden dort kaum noch große Projekte bearbeitet, abgesehen von den im Argen liegenden Objekten Katrin und bioliq. Neue - und aufregende - Projekte sind nicht in Sicht. Man darf annehmen, dass die Gesellschafter in Bund und Land nicht endlos jedes Jahr fast eine halbe Milliarde Euro in diese siechende Lokation hineinpumpen wird. Eher schon werden sie ein Gutachtergremium einberufen, welches den wissenschaftlichen Return ihrer Zuwendungen  aus Steuermitteln beurteilt. Sollten nicht bald neue Großthemen gefunden werden, so ist wohl mit Kürzung der Finanzmitteln zu rechnen, womit eine Spirale nach unten eingeleitet werden könnte. Bereits jetzt geriert sich KIT Nord nur noch verlängerte Werkbank des KIT, ja als bloßes Anhängsel. (Dafür typisch: das 60-jährige Jubiläum des ehemaligen Kernforschungszentrums Karlsruhe-Leopoldshafen wurde am 19. Juli 2016 vom Präsidium mit keinem Wort gewürdigt. Demgegenüber hat FZ Jülich an dieses Datum mit einem Sonderheft erinnert).

Typisch für die Negativentwicklung bei KIT Nord ist, dass das Präsidium vor kurzem aus seiner Beletage im siebten Stock des Verwaltungsgebäudes in den Süden umgezogen ist, um sich dort im Herzen der Universität standesgemäß einzulogieren.
 Die 7 Autoparkplätze im Norden, indes, bleiben für das 5-köpfige Präsidium weiterhin reserviert.

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de