Donnerstag, 21. März 2013

KIT: mediale Kritiken und historische Reminiszenzen

Beim KIT, dem Zusammenschluss zwischen dem ehemaligen Kernforschungszentrum Karlsruhe und der dortigen Technischen Hochschule ist die Kacke am Dampfen. Mitte Juni letzten Jahres hat diese fusionierte Gesellschaft ihren Status als "Elite-Universität" eingebüsst. Der Grund war, dass sie sich bei keinem ihrer Forschungsprogramme gegen die akademische Konkurrenz durchsetzen konnte. Seitdem werden die Schuldigen gesucht - innerhalb des KIT, aber auch von den Medien.


Mediale Kritik an Präsidenten und Geschäftsführer.

Insbesondere der frühere Präsident und starke Mann des KIT, Professor Horst Hippler, wurde in der Frankfurter Allgemeinen Zeitung für das Scheitern der Exzellenzanträge verantwortlich gemacht. Das KIT habe es sträflich versäumt, deren Neuartigkeit und Andersartigkeit gegenüber den bisherigen Hochschulen zu definieren, so die FAZ. Die Leitung des KIT habe sich "beratungsresistent" und "grosskotzig" gezeigt, sodass das negative Urteil bei der Exzellenzinitiative alles andere als eine Überraschung war. Hippler, der sich vor knapp einem Jahr vorzeitig vom Acker machte und in die warme Bürokratenposition der Hochschulrektorenkonferenz flüchtete, bekam es bei seiner (lange aufgeschobenen) kürzlichen Verabschiedung zu spüren: die grüne baden-württembergische Wissenschaftsministerin Theresia Bauer liess sich bei diesem kargen Event entschuldigen und schickte stattdessen einen ihrer Mitarbeiter. Der ehemalige Co-Präsident und nunmehr alleinige Präses, Eberhard Umbach, seufzt in den Medien: früher habe es in den Ministerien "Zuneigungsgeber" gegeben, derzeit sehe er nur noch "Zuwendungsgeber". Ach Gott, wie traurig!

 
Der historische Eingang des KIT


Anfang November 2012 soll es bei der Aufsichtsratssitzung heftig gebrodelt haben, wie in den Stuttgarter Nachrichten zu lesen war. Viele Lehrende in den Fakultäten seien enttäuscht gewesen, dass die erhoffte Ablösung des KIT- Präsidenten nicht erfolgt sei. Immerhin hat Umbach nun versprochen, sein Präsidentenamt im Herbst 2013 aufzugeben. Sei einigen Wochen sucht man per Zeitungsannonce einen Nachfolger. Vielleicht wird es eine Frau. Im KIT befürchtet man nun Stillstand bis zum Oktober, dem Zeitpunkt, zu dem das neu gewählte Präsidium zusammentritt und vermutlich bei Null anfängt.

Vor einigen Monaten griff die FAZ sogar nocheinmal das Thema Dampfbrüter auf, ein Projekt, welches im Kernforschungszentrum bereits 1969 eingestellt worden ist. Das erinnert an die journalistische Breitseite, mit der diese renommierte Zeitung den ehemaligen Geschäftsführer Popp begrüsste, als er sein Amt  in Leopoldshafen antrat. "Wie er  (Popp) in dieses Amt gekommen ist, darüber bedürfte die Öffentlichkeit noch der Aufklärung. Denn welche Voraussetzungen Popp für die Leitung einer so grossen Forschungsorganisation qualifiziert, ist aus seinem Werdegang nicht zu ersehen". Das war im April 1992. Im Sommer 2006 hob Popp zusammen mit Hippler das Konstrukt KIT aus der Taufe, das sich nun mehr und mehr zu einem bürokratischen Monster entwickelt.


Manager und Ehrensenatoren im Visier

Vor etwa vier Wochen machte die regionale Zeitung "Badische Neueste Nachrichten" (BNN) mit einem halbseitigen  Artikel auf unter der Überschrift "Die NS-Zeit holt nun auch das KIT ein". Dort sind einige ehemalige Geschäftsführer aufgelistet, die schon in den 50er Jahren im Forschungszentrum (jetzt: KIT Campus Nord) tätig waren und die alle bereits seit Jahrzehnten verstorben sind. Von einem früheren Mitarbeiter des Zentrums wurden sie posthum beschuldigt in Machenschaften des sog. Dritten Reichs verstrickt gewesen zu sein.

Einer von ihnen ist Gerhard Ritter, der von 1956 bis 1960 als technischer Geschäftsführer im Zentrum tätig war. Er wird beschuldigt in der Hitlerzeit an der Entwicklung des chemischen Kampfstoffes "Sarin" beteiligt gewesen zu sein. Dieses Gift kam im 2. Weltkrieg glücklicherweise nicht zum Einsatz, wurde aber in Chile unter der Pinochet-Diktatur und im Irak von Saddam Hussein gegen die Kurden verwendet. Die BNN behauptet nun, die Buchstaben des Kunstwortes Sarin stünden für ihre Entdecker, nämlich Schrader, Ambros und eben: Ritter. Dies ist aber sicherlich falsch, denn in Chemiebüchern (und bei Wikipedia) kann man nachlesen, dass der Name Sarin von den Entdeckern Schrader, Ambros, Rüdiger und Linde abgeleitet wird.

Josef Brandl war in den 50er Jahren Geschäftsführer der "Sondergeschäftsführung MZFR". In dieser Funktion war er Bauherr des damals grössten deutschen Kernkraftwerks MZFR mit einer Leistung von 50 Megawatt. Mit dessen Druckgefäss und den  nichtangereicherten Brennelementen wurde technisches Neuland betreten. Brandls Verdienst war es, dass der MZFR  25 Jahre lang mit einer ausgezeichneten Verfügbarkeit und ohne jeden Dampferzeugerschaden betrieben und an ihm erstmals die Kraft-Wärme-Kopplung demonstriert werden konnte. Die BNN behauptet (ohne nähere Beweise), dass Brandl in der NS-Zeit die rigorose Judenpolitik in Ostgalizien "zumindest hautnah miterlebt" habe. Man wird sehen, was die Recherchen ergeben.

Viele Diskussionen gibt es um den 1984 verstorbenen Manager Rudolf Greifeld. Er wurde 1956 vom damaligen SPD-Wirtschaftsminister Hermann Veit als administrativer Geschäftsführer für das neugegründete Forschungszentrum bestellt und hatte diesen Posten bis 1974 inne. Zu diesem Zeitpunkt löste ein fünfköpfiger Vorstand die bis dato zweiköpfige Geschäftsführung ab und Greifeld wurde mit allen Ehren vom damaligen Staatssekretär und Aufsichtsratsvorsitzenden Hans-Hilger Haunschild unter Verleihung des Bundesverdienstkreuzes verabschiedet. Greifeld hat mehr als jeder seiner Kollegen den Aufbau des Zentrums vorangetrieben. Insbesondere kümmerte er sich um  gute Kooperation zur damaligen Technischen Hochschule Karlsruhe. Für diese Leistung wurde er 1969 mit der Auszeichnung zum Ehrensenator belohnt. Seit neuerem wird er von einigen ehemaligen Mitarbeitern des Forschungszentrums beschuldigt, während der NS-Besatzungszeit in der Kommandatur von Paris gearbeitet zu haben. Das KIT-Präsidium wurde aufgefordert, Rudolf Greifeld post mortem die Ehrensenatorwürde zu entziehen.

Präsident Umbach hat inzwischen mit der Aufstellung einer Ethikkommission reagiert. Wegen der bereits 70 Jahre zurückliegenden Anschuldigungen hat diese Kommission die Einbeziehung eines Sachverständigen (Historikers) gefordert. Auf die Ethikkommission könnten bald weitere Fälle zukommen, so zum Beispiel die Causa Carl Wurster, dem 1958 die Ehrensenatorwürde der TH verliehen wurde. Inzwischen ist bekannt, dass Wurster in der Nazizeit "Wehrwirtschaftführer" war und ausserdem Verwaltungsrat der Firma Degesch, welche das berüchtigte Gift Zyklon B herstellte, mit dem in Auschwitz Millionen Juden vergast worden sind!


Berühmte historische Grenzgänger

Geht man in der Geschichte zurück, so stösst man immer wieder auf bekannte Persönlichkeiten, deren Tun zwischen gut und böse angesiedelt war. Ich möchte Wernher von Braun und den Karlsruher Professor F. H. herausgreifen, von dem ich vorerst nur seine Initialen verrate.

Wernher Magnus Maximilian Freiherr von Braun war, zusammen mit Hermann Oberth, der Begründer der Raketentechnik und der Raumfahrt. In der NS-Zeit entwickelte er die erste leistungsstarke Flüssigkeitsrakete V2 ("Vergeltung 2") , von denen 3.000 auf England abgeschossen wurden, wovon ca. 1.000 in London einschlugen. Hitler war von dieser Waffe so begeistert, dass er Braun persönlich den Professortitel verlieh und ihm das Ritterkreuz umhing. Im Mai 1940 trat der Parteigenosse Braun auch noch der SS bei, wo er es immerhin bis zum Sturmbannführer brachte. Seine Raketen wurden von KZ-Häftlingen in Peenemünde und später in einem Aussenlager des KZ Buchenwald zusammengeschraubt. Es ist unwahrscheinlich, dass der Professor bei seinen vielen Kontrollgängen nicht das Leid dieser halberverhungerten Gefangenen mitbekam. Unmittelbar nach Kriegsende wurde Braun mit hundert seiner Experten von den Amerikanern in die USA verschafft, wo sie ihr Wissen in der Raketentechnik weitergaben. In Huntsville, Alabama, trug Braun mit der NASA massgeblich zum Erfolg der Saturnrakete bei der Mondlandung 1969 bei. Braun wurde hoch geehrt, ging (noch unter Kennedy) im Weissen Haus ein und aus und durfte sich u.a. an 25 Ehrendoktoraten bekannter Unuversitäten erfreuen. Als er 1977 starb, liess er aus dem Psalm 19.1 auf seinem Grabstein folgenden Spruch einmeisseln: "Die Himmel erzählen von der Herrlichkeit Gottes und das Firmament verkündet seiner Hände Werk".

Der Chemiker F. H. entstammte einer jüdischen Familie. Nach kurzer Industrietätigkeit erhielt er 1894 eine Assistentenstelle im Fach Physikalische Chemie an der Technischen Hochschule Karlsruhe. 1898 stieg er zum ausserordentlichen Professor für Technische Chemie und 1906 zum Leiter des Instituts für Physikalische und Elektrochemie auf. Auf diesem Weg erwarb F. H. das wichtige Patent "Zur synthetischen Darstellung von Ammoniak aus den Elementen". Dieses Verfahren, an dem später auch ein Mitarbeiter der BASF beteiligt war, besass grosse wirtschaftliche und militärische für die Herstellung von Düngemitteln und Sprengstoff. Nach Beginn des 1. Weltkriegs beschäftigte sich F. H.  - inzwischen als Direktor des Kaiser-Wilhelm-Instituts in Berlin - mit der Herstellung von Phosgen und Chlorgas für den Kriegseinsatz. Dafür erhielt F. H. in kurzer Folge den Dienstgrad eines Vizewachtmeisters und eines Hauptmanns, worauf er so stolz war, dass man ihn nicht selten im Labor in der entsprechenden Uniform werkeln sah. In der Flandernschlacht bei Ypern wurde im April 1915 von der deutschen Heeresführung zum ersten Mal dieses Giftgas eingesetzt. F. H. liess sich fortan als "Vater der Giftgaswaffe" preisen. Seine Frau war darüber so entsetzt, dass sie Selbstmord beging - mit der Dienstwaffe ihres Mannes. Nach Kriegsende wurde F. H. von den Alliierten als Kriegsverbrecher gesucht und musste in die Schweiz fliehen. Im gleichen Jahr 1919 erhielt er den Nobelpreis für Chemie "für seine Verdienste um den Wohlstand der Menschheit".

Heute erinnert noch ein Weg entlang der KIT-Chemieinstitute an diesen berühmten Professor.
Es ist der Fritz-Haber-Weg.
















Sonntag, 17. März 2013

Die Energiewende: kollabiert das Stromnetz?

Es war genau vor zwei Jahren - am 14. März 2011 - als die Bundeskanzlerin Angela Merkel mit ihrem berühmten Ausspruch "das war´s" das deutsche Kernenergieprogramm kippte. Mit einem beispiellosen Schuss aus der Hüfte verfügte sie vor dem Hintergrund der Ereignisse in Fukushima die sogenannte Energiewende. Ohne jede Absprache mit unseren europäischen Nachbarländern und ohne Gehör für die (durchaus kritische) technische Reaktorsicherheitskommission, welche Supererdbeben und Tsunamis hierzulande für ausgeschlossen hielt und die zudem die deutschen Atomkraftwerke gegen Wasserstoffexplosionen bestens ausgestattet sah. Rat und Zustimmung holte sich Frau Merkel stattdessen von einem flugs zusammgestellten Gremium, der Ethikkommission, die vorzugsweise mit politischen Rentnern, Naturphilosophen und Bischöfen bis hin zu leibhaftigen Kardinälen bestückt war. Das Wahlvolk stimmte zu 80 Prozent zu.

Inzwischen sind die Konsequenzen dieser überhasteten Entscheidung allüberall zu besichtigen: Monokulturen aus Mais, Windparks in Landschaftschutzgebieten, Kahlschlag in Wäldern für Strommasten - nebst immer spürbarer werdender finanzieller Kosten. Darüberhinaus gibt es aber auch solide Gründe technischer Art, weshalb die angestrebte Energiewende nicht funktionieren könnte: es ist nämlich durchaus möglich, dass sie unser bislang bewährtes Stromnetz zum Kollabieren bringt. Darüber soll in diesem Blog berichtet werden.


Worin besteht die Energiewende?

Wenn man die weitreichenden netztechnischen Auswirkungen der Energiewende beschreiben will, dann ist es sinnvoll zu rekapitulieren, worin diese Wende eigentlich besteht. Im Kern geht es um den Ersatz des Kernenergiestroms durch Strom aus Erneuerbaren Energien (EE) bzw. regenerativen Energien. Die Bundeskanzlerin verfügte im März 2011 die sofortige Abschaltung von acht Kernkraftwerken mit einer Gesamtleistung von 8.422 Megawatt (MW). Die restlichen neun grossen Kernkraftwerke mit insgesamt 12.048 MW, sollen zeitlich gestuft zwischen den Jahren 2015 und 2022 vom Netz genommen werden.


Oben: Schrittweise Stillegung der deutschen Kernkraftwerke
Unten: Geplante Entwicklung Erneuerbare Energien (BMU,Tennet)
 
Die dadurch auftretende Lücke von 20.470 MW Grundlast soll geschlossen werden durch zumeist volatile Stromenergie aus Geothermie, Wasserkraft, Biomasse, Wind onshore und offshore sowie Photovoltaik (PV). Der grösste Beitrag wird von den Solar- und Windkraftwerken erwartet. Die erforderliche - stetige - Stromenergie schwankt in Deutschland zwischen 35.000 MW und 80.000 MW. Die Umstellung des gegenwärtigen  Stromregimes hat einen unmittelbaren Einfluss auf die Verteilnetze, weshalb im Folgenden kurz einiges zu den Übertragungsnetzbetreibern (ÜNB) gesagt werden soll.

Die neuen Betreiber der Stromnetze

Früher war alles ganz einfach. Die Frage, wem die Hochspannungsleitungen mit ihren riesigen Masten gehören, konnte jedes Kind beantworten. Die Eigentümer waren die grossen Stromkonzerne RWE, Eon, EnBW und Vattenfall, welche den bei ihnen erzeugten Strom über diese Leitungen zu den Verbrauchern transportierten.

Seit einiger Zeit ist das alles anders geworden. Die Europäische Union (EU) wollte für mehr Wettbewerb in der Stromwirtschaft sorgen und veranlasste die vier Oligopolisten ihre Netze zu verkaufen. Nun gehören sie neuen Eigentümern, die über den ganzen Globus verstreut sind. Und sie haben neue Namen, nämlich Amprion (früher RWE), Tennet (Eon), Transnet BW (EnBW) und 50 hertz (Vattenfall).

 
 

Oben: Regionale Aufteilung der deutschen Stromnetze auf vier Netzbetreiber
Unten: Schematische Einbindung des Netzbetreibers Tennet (nach Tennet)
 
Die Firma Tennet (abgeleitet von "Tension net") ist der grösste Netzbetreiber; er agiert von Schleswig-Holstein, quer durch Deutschland, bis hinunter ins tiefste Bayern. Sie gehört dem niederländischen Staat, der deutsche Ableger TSO hat seinen Sitz in Bayreuth. Die Firma hat ca. 2.000 Beschäftigte und betreibt ein Netz von 20.000 km Länge. Am ihrem Beispiel und durch veröffentlichte Informationen möchte ich die Netzprobleme erläutern, die im Zuge der Energiewende aufgekommen sind.

Die heutige und zukünftige Struktur der Stromnetze

Die Konfiguration der Stromnetze ist für die Zeit nach der Energiewende nicht optimal, sie muss grundlegend verändert werden. Bisher wird bei den Kernkraftwerken der Strom mit einer Spannung von 380.000 Volt erzeugt, der für die verschiedenen Verbraucher (Industrie, Private) über 220.000 und 110.000 bis auf 220 Volt heruntertransformiert und eingespeist wird. Die Erzeugung folgt dem Verbrauch (Top-Down-Prinzip). Die Verbraucher sind in diesem System die Taktgeber, wenn sie mehr oder weniger Strom anfordern, wird die Leistung der Kraftwerke angehoben bzw. abgesenkt.

Seit der Energiewende ist Deutschland übersät von vielen Stromerzeugern, vorallem im Bereich Solar und Wind. Für die industriellen Verbraucher wird der Strom auf 110.000 bis 380.000 Volt hochtransformiert (Bottom-Up-Prinzip). Wichtig ist: der Verbrauch folgt nunmehr der Erzeugung; die Erzeuger (PV-Anlagen, Windräder) geben jetzt den Takt vor. Wegen dieses neuen Regimes muss das Netz völlig neu strukturiert werden. Da die meisten Windkraftanlagen zudem im Norden liegen (onshore bzw. offshore) und die grossen Verbraucher im Süden (Bayern, Baden-Württemberg) ist der Bau neuer Hochspannungsleitungen unbedingt erforderlich. Mehr darüber später.


Netzführung und Netzsicherheit

Für die Netzführung und die Netzsicherheit gibt es im Bereich der Tennet zwei Leitstellen in Dachau und Lehrte (bei Hannover). Netzführung bedeutet, dass die Frequenz des Wechselstroms möglichst genau bei 50 Hertz (Hz) gehalten werden soll. Das Gleichgewicht zwischen Erzeugung und Verbrauch muss also immer sichergestellt sein. Schwankungen werden durch den Einsatz von Regelenergie kompensiert. Hierfür stehen eine Reihe von Kraftwerken (oder Verbraucher) zur Verfügung, die innerhalb von Sekunden (Gasturbinen), Minuten oder Stunden an- oder abgefahren werden können.

 
Gleichgewicht Erzeugung und Verbrauch durch Regelenergie

Problematisch sind die Photovoltaik-Anlagen, welche nicht gesteuert werden können, sondern die ganz plötzlich bei 51,5 Hz automatisch vom Netz gehen und sich aber wieder einklinken, sobald das Netz mit Regelkraftwerken stabilisiert ist. Dies führt bei den Leitstellen zu einem solaren "Jo-Jo-Effekt", der nur schwer beherrschbar ist. Nach heftigem Einspruch von Tennet und den übrigen ÜNB-Unternehmen kam es zu einer neuen VDE-Regel, wonach die jetzigen PV-Anlagen mit  frequenzabhängigen Leistungsreduktionen ausgestattet sind.

Die Netzsicherheit wird bei den Leitstellen zumeist durch manuelle Eingriffe gewährleistet. Aus der Tabelle kann man ersehen, dass die Zahl der Eingriffe während des letzten Jahrzehnts dramatisch zugenommen hat. Früher, zum Beispiel im Jahr 2003, musste im ganzen Jahr nur zwei Mal für zwei Ereignisse eingegriffen werden. Durch die Zunahme der regenerativen Energieeinspeisung und wegen des unpassend strukturierten Netzes (siehe oben) nehmen die Korrekturen immer mehr zu. Ein besonders deutlicher Sprung ist zwischen den Jahren 2010 und 2011 zu erkennen, wo sich die Fukushima-bedingte Abschaltung der acht älteren Kraftwerke drastisch negativ bemerkbar machte.

 
Eingriffe zur Gewährleistung der Netzsicherheit (Tennet)

Simpel gesprochen, wird unser Stromnetz durch die Ausserbetriebnahme der Kernkraftwerke und die Zwangsintegration der regenerativen Energieerzeuger immer fragiler und störanfälliger. Ungewollte Stromabschaltungen (Blackouts, Brownouts) werden in Zukunft immer wahrscheinlicher, sobald auch die restlichen Kernkraftwerke abgeschaltet sind.

Herausforderung Ausbau Hochspannungstrassen

Um die Stromerzeugung im Norden an die Verbraucher im Süden näher heranzubringen, ist der Bau von neuen Hochspannungstrassen unbedingt erforderlich. Die Deutsche Energieagentur (Dena) schätzt, dass mindestens 4.500 Trassenkilometer, entsprechend rd. 10.000 Masten, erforderlich sein werden. Wegen der optischen Landschaftsschädigung und der (angeblich gesundheitsschädlichen) Magnetfelder gibt es heftigen Bürgerprotest. Jeder neu geplante Strommast wird praktisch beklagt.

Als Alternative wird von den Grünen die unterirdische Verlegung in Form von Kabeln propagiert. Aber Erdkabel sind alles andere als landschaftsschonend. Zwölf dicke Metallstränge sind auf einer Breite von 20 Metern für die Übertragung von 380.000 Volt nötig. Darüber dürfen, wegen der Wurzeln, keine Bäume wachsen. Schliesslich wird auch das Erdreich aufgewärmt und die ungeliebten Magnetfelder sind natürlich auch noch vorhanden. Von den Kosten ganz zu schweigen, die bei Erdkabeln um Faktoren höher sind als bei Überlandtrassen.


Problematische Einbindung der Erneuerbaren Energien

Inzwischen ist die dreifache Leistung an Solar- und Windgeneratoren installiert worden (ca. 60.000 MW), als insgesamt an Atomstrom bis 2022 abgeschaltet werden wird (ca. 20.000 MW). Trotzdem funktioniert die Integration des regenerativen Stroms in den Markt nur recht und schlecht. Der Grund dafür ist, dass die Qualität dieser Stromarten sehr unterschiedlich ist. Atomstrom wird von den Kraftwerken über 8.000 Stunden im Jahr erzeugt. Seine Produktion an Grundlast ist zuverlässig und planbar, deshalb spricht man auch gerne von Edelstrom. Demgegenüber steht der Strom aus Solar- und Windanlagen nur 800 bis 1.600 Stunden im Jahr zur Verfügung. Dieser Strom ist wegen der Wetterverhältnisse unstetig und kaum planbar; er wird deshalb als Abfallstrom bezeichnet. Kein Stromhändler würde regenerativen Strom verkaufen, wenn dies nicht von seiten der Politik verlangt werden würde.

Hinzu kommt die wirtschaftliche Komponente. Der EE-Strom ist teuer (bis zu 50 Cent pro Kilowattstunde), während der Kernenergiestrom mit 2 bis 4 Cent/kWh gehandelt wird. Da der EE-Strom aber aus politischen Gründen von den Netzbetreibern abgenommen werden muss, drückt er den Strom aus fossilen und nuklearen Kraftwerken praktisch aus dem Netz. Diese Kraftwerke sind häufig nur wenige hundert Stunden im Jahr in Betrieb und werden deshalb extrem unwirtschaftlich. Die vier grossen Betreiber schalten sie deshalb zunehmend ab.

Geradezu absurde Situationen gibt es um Pfingsten herum, wenn der Strombedarf wegen der Feiertage beim Minimum um 35.000 MW liegt. Zur gleichen Zeit kann aber die regenerative Einspeisung bei günstigen Wind- und Sonnenverhältnissen (zeitweise) auf 60.000 MW hochschnellen. Da man diesen Strom nicht speichern kann, wird er in der Regel - unter Zuzahlung - an in- und ausländische Grosskunden abgegeben, um nicht zu sagen "verscherbelt". Grosskunden, wie Metallschmelzen oder Thermalbäder spekulieren  zunehmend auf solche Überschusssituationen und decken sich rechtzeitig und preiswert mit solche EE-Strom ein. Dass sie von der Politik darüberhinaus noch mit Preisrabatten beschenkt werden, ist geradezu ein Witz. Diese cleveren Abnehmer machen sich Smart-Grid und Smart-Meter bereits jetzt zunutze, indem sie die Leipziger Strombörse - und den Wetterbericht -  beobachten, was bei der grossen Zahl der kleinen Privatkunden noch keinen Vorteil bringt.

Die Zwangseinspeisung des EE-Stroms zu nicht marktkonformen Preisen kann keine Lösung auf ewig sein. Stattdessen muss man auch von den regenerativen Erzeugern zukünftig verlangen, dass sie Systemleistungen erbringen, wie Frequenzstützung, Spannungshaltung, Regelenergie und, last not least, variable Strompreisangebote.

Am Beispiel Bayern wird besonders deutlich, welche Extremsituationen in den nächsten Jahren entstehen können. In diesem Bundesland wird wegen der Abschaltung von fünf grossen Kernkraftwerken im Jahr 2022 eine Kraftwerkskapazität von 7.500 MW fehlen. In erster Linie wird dies die Grundlast betreffen. Da die Hochspannungstrassen aus dem Norden zu diesem Zeitpunkt aber noch fehlen werden, hat die Firma Eon das Gaskraftwerk "Irsching 5" mit einer Leistung von 860 MW bauen lassen. Es gehört mit seinem Wirkungsgrad von 60 Prozent zu den modernsten der Welt. Im Jahr 2010 nahm es seinen Betrieb auf, ist aber jetzt bereits wieder abgeschaltet - aus ökonomischen Gründen! Für Eon lohnt sich der Betrieb nicht, da dieses Kraftwerk, wegen der bevorzugten Einspeisung der regenerativen Energien nur wenige Stunden im Jahr am Netz gehalten werden kann.


Das verdrängte Thema Blindstrom

 Die sogenannte Blindleistung wird verursacht durch eine Phasenverschiebung zwischen Strom und Spannung. Eilt der Strom der Spannung nach, dann hat man induktive Blindleistung. Eilt der Strom der Spannung vor, dann hat man kapazitive Blindleistung. (Bei Gleichstrom sind Strom und Spannung immer in Phase, also gibt es in Gleichstromkreisen keine Blindleistung). Die Blindleistung in Wechselstromnetzen spielt eine entscheidende Rolle für die Wirtschaftlichkeit und die technische Machbarkeit überhaupt. Denn die Beherrschung der Blindleistung in ausgedehnten Netzen ist essentiell für die Stabilität der Wechselstromübertragung, für die Erhaltung der Spannungsstabilität und damit für die Energieübertragung insgesamt. Sie ist beispielsweise auch dafür verantwortlich, dass Höchstspannungserdkabel nur bis zu einer Kabellänge von ca. 40 km funktionieren.

Der Blindleistungsbedarf eines Netzes ist lastabhängig, also variabel. Es sind die grossen Synchrongeneratoren in nuklearen und fossilen Kraftwerken, welche diese Leistung übernehmen. Sie geben Frequenz und Spannung, also gewissermassen den Takt des Netzes vor. Ein Netz mit zuwenig Regelungsmöglichkeiten für die Blindleistung ist stark stabilitätsgefährdet. Photovoltaik liefert Gleichstrom, der zur Einspeisung in das Netz erst in Wechselstrom umgeformt werden muss. Die PV liefert also keinen Beitrag zur Blindleistung. Sicher ist, dass mit jedem Kernkraftwerk, welches vom Netz geht, ein grosser blindleistungsfähiger und damit stabilitätsbildender Faktor für das Stromübertragungsnetz verschwindet, womit das Netz fragiler wird, was zu ungewollten regionalen und überregionalen Abschaltungen führen kann. Der Laie stellt sich häufig vor, dass man Nuklearstrom einfach durch Solarstrom ersetzen kann. Die Meinung ist falsch und kann zu schlimmen Konsequenzen führen.



Volatilität und Speicherung

Die Firma Tennet beschäftigt eine Vielzahl von Meteorologen und Physikern, um die Sonnen- und Windverhältnisse für die nächsten Stunden und Tage vorherzusagen. Damit soll die stabilisierende Regelenergie minimiert  und der Strombedarf an den Kraftwerken rechtzeitig angemeldet werden. Leider sind diese Prognosen nicht immer zutreffend. Manchmal ergeben sich Fehler in der Höhe von 2- 3.000 MW, was immerhin der Leistung von zwei grossen Kernkraftwerken entspricht. Insbesondere, wenn Frühnebel angesagt sind, kann niemand sicher vorhersagen, ob sich dieser schon um 9 oder erst um 11 Uhr auflöst, sodass die Sonne durchkommen kann.

 
Prognoseabweichung bei PV-Anlagen durch Nebel

Dringend gesucht werden Speicher für überschüssige Sonnen- und Windenergie. Die gegenwärtigen Pumpspeicherkraftwerke reichen dafür bei weitem nicht aus. Sie müssten um den Faktor 10 bis 20 vermehrt werden, wofür es bei den Bewohner der deutschen Mittelgebirge und der Alpen keine Zustimmung gibt. Derzeit denkt man darüber nach, mit der Überschussenergie Wasserstoff zu elektrolysieren und in das Erdgasnetz einzuspeisen. Diese Technologie wird aber sehr teuer werden, da der technische Wirkungsgrad nur sehr mager ist. Ausserdem steht dieses hochteuere Gas in direkter Konkurrenz mit dem weitaus billigeren Fracking-Gas, welches demnächst aus den USA zu erwarten ist.


Fazit:

  1. Der Netzausbau bestimmt das Tempo der Energiewende - nicht umgekehrt.
  2. Der Ausbau von 4.500 Trassenkilometer bis zur Abschaltung aller Kernkraftwerke im Jahr 2022 ist illusorisch.
  3. Die Instabilität und Fragilität des Netzes nimmt zu bei Einbeziehung der Erneuerbaren Energien.
  4. Der Wegfall der Blindleistung der grossen Synchrongeneratoren erhöht die Netzinstabilität.
  5. Der massive Ausbau der Speichertechnologie ist dringend notwendig, um die Volatilitätszyklen der Erneuerbaren Energien abzupuffern. Wege hierfür sind nicht erkennbar.
  6. Es müssen wirtschaftliche Anreize gefunden werden, um konventionelle Kraftwerke mit kurzen Betriebszeiten und hohen Gradienten zuzubauen. (Sogen. Kapazitätsmarkt)
  7. Die regenerativen Stromerzeuger müssen sich künftig durch technische Neuerungen stärker an der Frequenzstützung und Spannungshaltung des Netzes, sowie an der Beistellung von Regelenergie beteiligen.
  8. Der Stromverbrauch muss sich künftig mehr am Angebot der regenerativen Erzeuger orientieren. (Smart Grid etc.)

Meine Schlussfolgerung:

Da es nicht möglich ist, die oben genannten Voraussetzungen in den nächsten zehn Jahren zu erfüllen, wird die Energiewende - wie von der Bundesregierung konzipiert - nicht gelingen. Künftige Bundesregierungen werden gezwungen sein, einige grosse Kernkraftwerke über das Jahr 2022 am Netz zu belassen, um die deutsche Stromversorgung nicht zu gefährden.

"Wetten, dass...?"

Mittwoch, 6. März 2013

Fukushima rekapituliert

In diesen Tagen jährt sich die Katastrophe von Fukushima zum zweiten Mal. Ein gewaltiges Erdbeben in den japanischen Gewässern war der Auslöser. Als Folge überflutete ein Tsunami diese nordjapanische Region und forderte viele Todesopfer. Eine weitere Konsequenz war die Beschädigung von vier an der Küste gelegenen Kernkraftwerken, wodurch deren Notstromversorgung ausfiel und es zu Knallgasexplosionen kam. Eine mutige Betriebsmannschaft kämpfte mit dieser Situation, konnte aber die Kernschmelze an einigen Reaktoren nicht verhindern. Als Konsequenz kam es zum Austritt radioaktiver Gase, weswegen die Bevölkerung in der unmittelbaren Umgebung evakuiert werden musste.

Die Betreiberfirma TEPCO in Tokio hat sich beim Unfallmanagement nicht mit Ruhm bekleckert und lief Gefahr bankrott zu gehen. Zwei aufeinanderfolgende Regierungschefs verkündeten zwei unterschiedliche Atomstrategien: Der Premierminister Noda wollte aus der Kernenergie aussteigen, sein Nachfolger Abe will alle (zeitweise stillgelegten ) Atomkraftwerke wieder in Betrieb nehmen und sogar den Neubau weiterer in Auftrag geben. Doch nun zu den Details.

Zwei Naturkatastrophen

Am Freitag, dem 11. März 2011, nachmittags um 14:46 Ortszeit (bzw. 6:46 MEZ) erschütterte ein riesiges Erdbeben die japanische Hauptinsel Honshu. Das Epizentrum lag etwa 150 km östlich der Küste im Pazifischen Ozean. Das Beben hatte eine Stärke von 9,0 auf der logarithmischen Skala und lag damit um 0,8 Punkte über dem bislang stärksten in Japan registrierten Beben der Magnitude 8,2. Es wurde ausgelöst durch tektonische Verschiebungen von Erdkrustenplatten etwa 20 bis 30 km unterhalb der Meeresoberfläche. Die Dauer betrug ca. zwei Minuten, es war begleitet von vielen Nachbeben.

Die hohe Energiefreisetzung verursachte eine Tsunamiwelle, die per GPS auf 23 Meter Wellenhöhe berechnet wurde. Beim Aufprall auf die Küste wuchs diese Welle auf bis zu 30 Metern an. (Noch höhere Tsunamiwellen wurden in Japan in den Jahren 1993, 1933 und 1896 registriert). Die Flutwelle drang bis zu zehn Kilometer ins Landesinnere vor, vernichtete Fischerdörfer, beliebte Ferienorte und ganze Städte. Sie forderte fast 20.000 Menschenleben, 3.000 Menschen gelten immer noch als vermisst.


Die Reaktorunfälle

In der Nähe von Fukushima, an der Küste, sind zehn Kernkraftwerke der Betreiberfirma TEPCO gelegen. Davon wurden vier im Ortsteil Daiichi vom Erdbeben und dem nachfolgenden Tsunami betroffen. Das Erdbeben regte die Seismometer der Kraftwerksblöcke 1, 2 und 3 an, wodurch diese automatisch abgeschaltet wurden. Der Block 4 war nicht in Betrieb. Infolge des Erdbebens fiel die externe Stromversorgung aller Kraftwerke aus. Daraufhin starteten zwölf der dreizehn Notdieselgeneratoren automatisch, einer am Block 4 war in der Wartung. Alle vorher betriebenen Blöcke schalteten also problemlos auf den Modus Notkühlung um.

Eine knappe Stunde später, um 15:35 Uhr, trafen an den Reaktorstandorten in Daiichi Tsunamiwellen mit einer Höhe von 13 bis 15 Metern ein. Die Anlagen waren nicht an das japanische Tsunami-Warnsystem angeschlossen, sodass das Betriebspersonal keine vorzeitige Warnung erhielt. Für den meerseitigen Teil des Kraftwerksgeländes existierte nur eine 5,70 Meter hohe Schutzmauer, weswegen die Kraftwerke meterhoch überschwemmt wurden. Das Wasser lief in die Reaktorgebäude, überspülte dort die zwölf laufenden Notstromaggregate und setzte sie zusammen mit den elektrischen Schaltschränken ausser Betrieb. Die Notstrombatterien liessen nur einen kurzzeitigen Betrieb der Notkühlsysteme zu. Arbeiter versuchten aus den Privatautos Batterien auszubauen, allerdings mit geringem Erfolg. Von der Hauptverwaltung der Tepco in Tokio kam keine nennenswerte Hilfe; der Antransport von mobilen Notstromgeneratoren über Hubschrauber wäre vorstellbar gewesen.

Mangels Kühlung kam es zur Überhitzung der Brennelemente und zur Bildung von Wasserstoff der sich mit Sauerstoff zu Knallgas vereinigte. Rekombinatoren zum Abbau des Wasserstoffs (wie in allen deutschen Kernkraftwerken) waren in Fukushima nicht vorhanden. Vom 12. bis zum 15. März erfolgten in allen Reaktorblöcken heftige Knallgasexplosionen, welche die äusseren Gebäudestrukturen schwer beschädigten und auch zu Bränden führten. Die Reaktorkerne der Blöcke 1 - 3  sind wegen der Überhitzung innerhalb weniger Stunden und Tage zumindest teilweise geschmolzen.



Zerstörtes Kernkraftwerk Nr. 3

Zur Stabilisierung der Situation pumpte die Werksfeuerwehr zunächst Süsswasser in die Reaktoranlagen. Als diese Bestände zu Ende gingen, erhielt sie vom Premierminister Naoto Kan höchstpersönlich - und gegen den Ratschlag der Tepco - die Erlaubnis, die Anlagen mit salzhaltigen Meerwasser zu kühlen. Damit waren die Reaktoren irreparabel geschädigt. Am 14. März 2011 erwog der Betreiber Tepco sogar, alle Mitarbeiter wegen der grossen Strahlengefahr aus Fukushima abzuziehen, wogegen aber Kan erfolgreich intervenierte.

Kontamination und Strahlengefahr

Wegen der Zerstörung von Kreislaufkomponenten und durch die Belüftung der Anlagen (zum Abbau des Überdrucks) kam es zum Austritt radioaktiver Spaltgase. Dies waren im wesentlichen Jod 131 und Cäsium 137. Jod sendet Betastrahlen aus und besitzt eine Halbwertszeit von 8 Tagen; Cäsium ist ein Gammastrahler mit der langen Halbwertszeit von 29 Jahren. Die meisten Radionuklide trieben mit dem Wind aufs Meer hinaus. In einem Fall allerdings belüfteten die Betreiber die Anlage just zu dem Zeitpunkt, als der Wind in umgekehrter Richtung vom Meer aufs Land wehte. Die Folge war eine rund 100 Quadratkilometer grosse radioaktive Verseuchung des Bodens. Als Folge ordneten die Behörden die zeitweilige Evakuierung von ca. 80.000 Personen an, die in einem Umkreis von 20 km um Fukushima wohnten. Sie konnten nach einigen Monaten wieder zurückkehren. Zwischenzeitlich dekontaminierten die Arbeiter der Tepco diese Landstriche, wobei eine Menge an radioaktiven Abfall entstand, der sicher gelagert werden muss.

Mittlerweile hat die Weltgesundheitsorganisation WHO einen Report vorgelegt, der sich mit dem Strahlenrisiko in der Umgebung der havarierten Reaktoren befasst. Der 200 Seiten umfassende Expertenbericht wurde kürzlich in Genf diskutiert. Die prognoszierten Risiken für die Menschen in Japan und auch auserhalb des Landes wurden als gering eingeschätzt. Eine Aufschlüsselung, welche auf Daten nach Alter, Geschlecht und der Nähe zu den Kraftwerken basiert, zeigt ein geringfügig höheres Krebsrisiko für jene Menschen, die in den am stärksten kontaminierten Gebieten leben. "Ausserhalb dieser Bereiche, auch in den Orten innerhalb der Präfektur Fukushima, haben wir keinen beobachtbaren Anstieg der Krebserkrankungen festgestellt", heisst es in dem Bericht der Weltgesundheitsbehörde.

Die Belastung der Bevölkerung im ersten schlimmsten Jahr lag - den verfügbaren Zahlen zufolge - bei höchstens 10 Millisievert (mSv). Das ist etwa das Vierfache der natürlichen Hintergrundstrahlung in Deutschland. Gesundheitliche Folgen sind bei diesen geringen Werten nicht zu erwarten. Weil sich die Fälle zudem auf viele Jahre verteilen, dürften sie in einer epidemologischen Studie nicht auffallen. Ungefähr 40 Prozent der japanischen Bevölkerung erkrankt im Laufe ihres Lebens an Krebs, wovon 25 bis 30 Prozent daran sterben. Unterhalb 100 mSv vermögen Ärzte in ihren Statistiken keine Strahlungseffekte erkennen.

Todesfälle durch akute Strahlenerkrankungen traten in Fukushima nicht auf. Drei Arbeiter starben auf der Anlage unmittelbar durch das Erdbeben und dem Tsunami, ein weiterer erlag bei den Aufräumarbeiten einem stressbedingten Herzinfarkt. Sechs Personen erhielten eine Strahlendosis um 500 Millisievert; nach heutigem Wissensstand liegt das Risiko, daran an Krebs zu erkranken, bei etwa 1 Prozent.

Immer wieder wird die Frage aufgeworfen, wie sich die Reaktorunfälle von Fukushima und Tschernobyl vergleichen lassen. Klare Antwort: der Unfall von Tschernobyl war wesentlich gravierender und folgenreicher. In Fukushima wurden im Vergleich zu Tschernobyl "nur" etwa 10 Prozent der radioaktiven Stoffe freigesetzt. Darüberhinaus gibt es in Japan keine grossflächigen Uran- und Plutoniumkontaminationen. Das ist jedoch der Fall in der Ukraine, wo der Reaktor RBMK durch eine schnell ansteigende nukleare Leistung zerstört wurde und anschliessend über eine Woche unter freiem Himmel gebrannt hat. Dabei kam es zu erheblich grösseren Strahlenschäden, bis hin zu Todesfällen bei den Einsatzkräften vor Ort.

TEPCO: ein schwächelnder Riese

Der Eigentümer und Betreiber der vier Unglücksreaktoren in Fukushima-Daiichi ist das Energieversorgungsunternehmen (EVU) "Tokyo Electric Power Company", genannt TEPCO.  Es ist das grösste EVU Japans und vom Umsatz her in etwa mit dem deutschen RWE vergleichbar. Tepco betreibt 17 Kernkraftwerke, 25 fossile Kraftwerke sowie 160 Wasserkraftwerke und versorgt unter anderem den Grossraum Tokio mit seinen 30 Millionen Einwohnern.

Die Firma Tepco trägt eine erhebliche Schuld am Ausbruch der Fukushima-Katastrophe sowie seinem schlechten Unfallmanagement. Die zu niedrige Deichhöhe gegen Tsunamis und die Nichtausstattung der Kernkraftwerke mit Wasserstoffrekombinatoren wurde bereits genannt. Die Unfähigkeit der Hauptverwaltung in Tokio, die gebeutelte Betriebsmannschaft in Daiichi per Hubschrauber rechtzeitig mit mobilen Notstromaggregaten zu versorgen, ist unverzeihlich. Auch die nur zögerlich gegebene Genehmigung zur Kühlung der Reaktoren mit Meerwasser, hat die Schäden letztendlich bedeutend vergrössert.

Schon bald nach dem Unglück wurde Tepco mit riesigen Schadensersatzforderungen der Umlieger konfrontiert. Daneben musste das EVU (umgerechnet) 10 Milliarden Euro aufbringen um die Stromversorgung (ohne Kernkraftwerke) sicherzustellen. Tepco wäre ganz schnell in Konkurs gegangen, wenn die japanische Regierung nicht eingegriffen hätte. Sie legte einen Spezialfonds in der Höhe von 50 Milliarden auf, aus denen diese Forderungen beglichen werden. Tepco wurde gezwungen aus seinen zukünftigen Erträgen diesen Kredit zu refinanzieren.


Geplante Einhausung für Kernkraftwerk Nr. 3

Ein wesentlicher Teil des Fonds wird benötigt, um die vier beschädigten Reaktoren sicher zurückzubauen. Man hofft, dies bis zum Jahr 2050 erledigen zu können. Die schwierigste Aufgabe wird sicherlich die Entnahme des geschmolzenen Brennstoffs in den Reaktortanks sein. Dazu sind fernbedienbare Roboter erforderlich, für die es derzeit noch kein technisches Vorbild gibt. Um die Strahlenemission nach aussen zu unterbinden ist geplant, jeden der Reaktoren mit einer luftdichten Umhausung zu versehen.

Die japanische Doppelwende

Unter dem Schock des vierfachen Nuklearunfalls von Fukushima ordnete die japanische Regierung von Premierminister Naoto Kan die sofortige Abschaltung aller 51 Kernkraftwerke an, welche bislang 30 Prozent des Stromaufkommens produzierten. Ein unabhängige Kommisssion wurde beauftragt, die Sicherheit dieser Kraftwerke zu überprüfen. Die darauffolgende Regierung unter dem neuen Premierminister Yoshihiko Noda beschloss den schrittweisen Ausstieg aus der Kernenergie bis zum Jahr 2040. An ihre Stelle sollten die alternativen Energieformen Solar, Wind und Geothermie treten.

Dieser energetische Paradigmenwechsel führte zu massiven Engpässen und Einschränkungen bei der Stromversorgung. Japan verbrauchte plötzlich soviel verflüssigtes Erdgas wie kein anderes Land und wurde weltweit zum zweitgrössten Importeur bei der Steinkohle und zum drittgrössten beim Erdöl. Insbesondere in den heissen Sommern 2011 und 2012 war die Wirtschaft stark gehandicapt. Wegen des zurückgehenden Exports geriet die japanische Handesbilanz tief ins Defizit.

Beim Wahlkampf im Herbst 2012 stand die nationale Energieversorgung ganz oben auf der Agenda. Die liberaldemokratische Partei unter Shinzo Abe setzte sich offen für das Wiederanfahren der stillgelegten Kernreaktoren ein und errang (zusammen mit einem kleinen Partner) ein satte Zweidrittelmehrheit im Abgeordnetenhaus. Die japanischen "Grünen", die kernenergieskeptische Tomorrow Party of Japan fiel von bislang 61 Sitzen auf 9 Sitze zurück. Das Wahlvolk hatte sich eindeutig für die Fortführung der Kernenergie und gegen die alternativen Energien entschieden. Der mit überwältigender Mehrheit gewählte neue Premierminister Abe gab bekannt, dass er nicht nur die existierenden Kernkraftwerke nach ihrer Überprüfung im Sommer in Betrieb wieder setzen werde sondern, dass er sogar weitere durch die heimischen  Firmen Hitachi, Toshiba und Mitsubishi bauen lassen will.

Das deutsche Beispiel der "Energiewende" wurde in Japan nicht kopiert.
(Doch darüber mehr im nächsten Blog).

Sonntag, 3. März 2013

Die Kunst geht nach Brot

Eines ist sicher: reich wird man durch das Plagiieren von Doktorarbeiten nicht. Diese Werke erzielen, sofern sie überhaupt als Buch gebunden werden und einen Verleger finden, nur Mini-Auflagen. Beim Versandhändler Amazon sind sie gelegentlich gelistet, ansonsten liegen sie wie Blei in den Verkaufsregalen.

Das ist anders bei Plagiaten im Bereich der Kunst. Fälschungen im Stil bekannter Maler oder Bildhauer "bereichern" seit eh und je den Kunstmarkt. Im Gegensatz zu Doktorarbeiten bleiben die Produzenten dieser Falsifikate aber im Dunkeln. Kenner des Kunstmarktes schätzen, dass 30 Prozent der angebotenen Gemälde und Skulpturen gefälscht sind. Das entspricht einem Schadensumfang von ca. 2 Milliarden Euro jährlich!

Alte Kunst ist out

Gross ist das Sehnen der Menschen nach alter Kunst. Wenn im Louvre jeden Tag 20.000 Menschen zu Leonardos Mona Lisa strömen, so kommt dies einer Reliquienverehrung oder gar einem Gottesdienst gleich. Und der unbekannte Japaner, welcher vor Jahren ein Sonnenblumenbild von Van Gogh für 100 Millionen Euro erstand und es seitdem in einem licht- und luftlosen Tresor des Genfer Zollfreilagers verwahrt, muss ein Kunstfreund besonderen Kalibers sein.

Das Angebot an alter Kunst aus dem 19. Jahrhundert und davor ist allerdings begrenzt. Zum einen, weil die Künstler nicht mehr produzieren können, da sie gestorben sind; zum anderen, weil sich auch "begabte" Fälscher nur noch selten an dieses Genre wagen. Der Grund liegt darin, dass mittlerweile die physikalischen Untersuchungsmethoden zur Feststellung von Betrugskunst immer ausgefeilter werden und Expertisen schon für wenige tausend Euro zu haben sind.



Farb- und Pigmentproben im Doerner-Institut

Das Doerner-Institut der Bayerischen Staatsgemäldesammlung durchleuchtet beispielsweise jedes eingelieferte Gemälde zunächst mit dem Infrarotreflektor. Damit kann man schon erkennen, ob sich unter der angeblichen Renaissance-Madonna eine Mickeymaus befindet, die einfach übermalt wurde. Danach wird eine Röntgenfluoreszenzanalyse erstellt, woraus man feststellen kann, welche Materialien der Maler (beziehungsweise der Fälscher) verwendet hat. Findet man Coelinblau, welches es erst seit 1860 gibt, dann hat die Madonna ausgelächelt. Mit dem Raman-Mikroskop, schliesslich, kann man organische und synthetische Malfarben erkennen, welche in der Neuzeit die klassischen Pigmente aus Pflanzen, Mineralien und Insekten abgelöst haben. Das Doerner-Institut besitzt einen ganzen Schrank mit gesammelten Material-, Farb-und Pigmentproben, die jeweils den Epochen ihres Aufkommens zugeordnet sind.


Zeitgenössische Kunst ist in

Bei der zeitgenössischen Kunst - gemeinhin als "moderne Kunst" bezeichnet - greifen die genannten physikalischen Nachweismethoden nicht. Nach dem Krieg sind kaum mehr neue Farben auf den Markt gekommen; einen Fälscher aufgrund seiner Palette zu überführen, ist praktisch unmöglich. Solange die Künstler noch leben, scheint die Verifizierung ihrer Arbeiten relativ einfach zu sein. Maler wie Gerhard Richter besitzen ein akribisch geführtes Werksarchiv - trotzdem gibt es auf dem Markte jede Menge Richter-Fälschungen. Und Maler wie A. R. Penck und Jörg Immendorff haben am Abend ihrer Karriere eine Unzahl von Assistentenarbeiten zum Gelderwerb signiert. Kein Wunder, dass Penck zu den meistgefälschten deutschen Malern gehört.

Richtig krachen liess es der Kunstfälscher Wolfgang Beltracchi, der vor gut 60 Jahren als Wolfgang Fischer in der nordrhein-westfälischen Kleinstadt Höxter geboren wurde. Nach dem Kurzbesuch einer Kunstschule zog er jahrzehntelang mit Kommunen durch Europa, wobei Sex, Drugs und Rock´n Roll angesagt waren. Dazwischen malte er immer wieder Bilder "im Stil bekannter Maler", wie Max Ernst, Heinrich Campendonk und Max Pechstein, die er zusammen mit seiner Frau Helene in den Kunstmarkt einschleuste. Das Paar gab an, dass sie aus einer (bis dato unbekannten) "Sammlung Werner Jäger" entstammen würden, die aber gar nicht existierte. Beltracchi schuf also Originale, nämlich ungemalte Bilder des jeweiligen Künstlers. Dabei war er zuweilen "besser" als Max Ernst oder Pechstein selbst. Einen Linkshänder malte er ebenfalls mit links und konnte damit lange Zeit alle Experten hinters Licht führen.


Kunstfälscher Wolfgang Beltracchi

Aber Beltracchi war zu fleissig, schliesslich kam man ihm doch auf die Spur. Im Oktober 2011 verurteilte ihn das Kölner Landgericht wegen gewerbsmässigen Bandenbetrugs zu sechs Jahren Haft. (Die fromme Helene erhielt vier Jahre). Zur Abkürzung des Verfahrens liess sich das Gericht auf einen "Deal" ein: als er 14 Fälschungen gestanden hatte, ging man den weiteren 44 gar nicht mehr nach. Kenner nehmen an, dass noch 100 bis 200 Arbeiten von Beltracchi im Kunsthandel zirkulieren und wohl ihre Abnehmer finden werden.

Beltracchi hätte seine Malereien nicht in den Markt einschleussen können, wenn er nicht von Gutachtern wie Werner Spies unterstützt worden wäre. Diese bekundeten durch falsche Expertisen die "Echtheit" dieser Werke und liessen sich dafür fürstlich bezahlen. Des weiteren kassierten sie Provisionen beim Verkauf der Falsifikate. So soll Spiess bis zu 400.000 Euro erhalten haben, die als Schwarzgeld auf  Schweizer Konten landeten. Die Justiz hat bei Spies offensichtlich resigniert; bewusste Beihilfe zum Betrug konnte ihm nicht schlüssig nachgewiesen werden. Er bleibt somit Ehrendoktor der Universitäten Berlin und Tübingen und behält das Grosse Verdienstkreuz mit Stern der Bundesrepublik Deutschland.


Die Gier nach dem Original

Im Mittelalter konnten sich die Menschen noch an einem Bild oder einer Holzskulptur erfreuen, der Name des Künstlers war sekundär. Schon gar nicht erwartet wurde, dass er das Werk signierte. Erst in der Neuzeit begann - in der westlichen Gesellschaft - die besondere Wertschätzung des Einmaligen und des Künstlers. Der französische Bildhauer Marcel Duchamp versuchte im vorigen Jahrhundert diesem Kult des Originals entgegenzuwirken, indem er frei käufliche Objekte wie Flaschenhalter, Urinale und Fahrad-Räder auf Podeste stellte und sie zu Kunstwerken erklärte. Die Idee des "Ready-mades" war geboren und die Kunsthistoriker sprachen fürderhin von "Konzept-Kunst". (Duchamp war allerdings clever genug, eine Unzahl seiner Flaschentrockner in Museen und Gallerien für gutes Geld zu signieren).


"Flaschentrockner" von Marcel Duchamp

Doch die Idee des Originals entwickelte sich weiter. Heute ist "Eigenhändigkeit" kein ästhetisches Wertkriterium mehr. Jeff Koons´ Plastiken werden von Werkstätten produziert und Tino Sehgals Performancekunst hinterlässt keine Spuren, die man signieren könnte. Bei der letztjährigen Dokumenta 13 in Kassel räumte man das gesamte Erdgeschoss des Museums Fridericianus leer und liess einen Windhauch (als Kunstwerk) durch die Räume wehen. Die Juristen, welche diese Art von Kunst im Urheberrecht definieren sollen, sind fürwahr nicht zu beneiden.

Die Kunst wird immer weniger greifbar, aber noch immer gilt der Spruch meines bayerischen Landsmannes Karl Valentin:
"Kunst ist schön, macht aber viel Arbeit".

Impressum

Angaben gemäß § 5 TMG:

Dr. Willy Marth
Im Eichbäumle 19
76139 Karlsruhe

Telefon: +49 (0) 721 683234

E-Mail: willy.marth -at- t-online.de