SHIT HAPPENS (oder „Die Killergurken“)

E.Coli Bakterien

 das ist die Schlagzeile, die man als Zusammenfassung der Pressemeldungen über die gefährlichen „EHEC-Bakterien“ in seinem Gedächtnis abspeichern könnte. Angst und Unsicherheit führen zu gewaltigen Umsatzeinbrüchen bei den betroffenen Nahrungsmitteln (Gurken, Salat, etc.) – so titelt der Stern etwa:

Bauern shreddern ihr Gemüse

Die Medien berichten, dass der EHEC Erreger auf spanischen Gurken nachgewiesen wurde (auf 3 von 4 Gurken – woher kam die vierte?), doch das sagt nichts über die tatsächliche Quelle der Verseuchung aus.

Während also die „Gemüsepanik“ um sich greift, wird die eigentliche Ursache des Problems so gut wie gar nicht erwähnt. Das ist ja auch kein Zufall, denn die „moderne Landwirtschaft“ steht nicht gerne am Pranger und die Politiker, die sie vorantreiben, schon gar nicht. Schauen wir uns also die Sache in einem größeren Kontext an, um herauszufinden, wo die Wurzel des Übels wirklich liegt:

1 -Was sind E.Coli (bzw. EHEC) Bakterien und woher kommen sie?

E. Coli (Escherichia coli) sind eine große Gruppe von Bakterien, die im Darm von Säugetieren und Menschen vorkommen. Sie sind im Allgemeinen nicht gefährlich, sondern ein nützlicher Bestandteil der natürlichen Darmflora, deren „Gesundheit“ vor allem von unserer Ernährung, aber auch von anderen Lebensgewohnheiten beeinflusst wird (seelischer Stress, Bewegung, Rauchen, andere Umweltgifte, etc.) Entscheidend ist, dass die Darmflora „im Gleichgewicht“ ist, also nicht ein Mikrobenstamm quasi die „Überhand“ gewinnt, während andere dezimiert bzw. unbeabsichtigte genetische Mutationen ausgelöst werden (was z.B. durch leichtfertige und häufige Einnahme von Antibiotika passieren kann – mehr dazu später).

Es gibt neben den harmlosen Varianten auch gefährliche Stämme von E. Coli,  die man als pathogen, also krankmachend bezeichnet. Meistens werden sie in Verbindung gebracht mit Durchfallerkrankungen, aber es gibt auch Arten, die Infektionen der Harnröhre oder der Atemwege (bis zur Lungenentzündung) auslösen können.

Shiga Toxin Molekül

Sehr gefährlich sind die so genannten STEC- Infektionen:  Das „ST“ steht für Shiga- (ähnliches) Toxin, ein sehr gefährlicher Giftstoff, der eigentlich von einer anderen Bakterienart stammt: Shigella dysenteriae. Vermutlich wurde die Fähigkeit, diesen Giftstoff zu produzieren, durch horizontalen Gentransfer zwischen den beiden Bakterienarten vermittelt. (Was das ist, wird im nächsten Teil erklärt).

Manchmal werden sie auch VTEC oder  – wie jetzt in Deutschland – EHEC genannt, das steht für enterohaemorrhagische E.Coli: das bedeutet, es schädigt die Darmschleimhaut, und löst gefährliche Blutungen aus; Enteritis = Darmentzündung)

Die  gefährlichste Unterart (in den USA und später auch weltweit), auch Serotyp genannt,  ist O157: H7. Aandere Serotypen, die  Krankheiten auslösen sind z.B. 026, 0111 und 0104, das in Deutschland bei vier Patienten nachgewiesen wurde.

Darm eines infizierten Hundes

2 – Wie kommt ein „Darmbakterium“ auf Gemüse?

Das ist wohl eine zentrale Frage in diesem  Puzzlespiel und die Aussagen dazu sind eindeutig: die Hauptquelle für Infektionen mit pathogenen E.Coli Stämmen ist das Rind im Kontext der industriellen Landwirtschaft, deshalb heißt diese Krankheit auch in den USA  scherzhaft  „Hamburger Disease“.

In den USA trat 1982 erstmals eine Infektion mit „STEC“ Bakterien auf. Die „Prävalenz“, also die Häufigkeit der Erkrankungen nahm seither ständig zu: Heute werden pro Jahr 110.000 Fälle in den USA registriert, Tendenz (weltweit) steigend, 30 Länder haben seither Infektionen gemeldet.  In Großbritannien sind es 40.000 jährlich. Die Inkubationszeit dauert nur wenige Tage und es ist nur eine sehr geringe Menge an Bakterienmaterial erforderlich (10 sollen schon genügen). Die größte direkte Infektionsquelle ist der Rindermist, also die Ausscheidungen der Tiere, aber auch unpasteurisierte Milchprodukte, rohes Fleisch, kontaminiertes Wasser (getrunken, zur Bewässerung von Feldern oder zum Schwimmen genutzt) und schlechte Hygiene (WC Besuch ohne Hände waschen!). Die Bakterien sind aber auch leicht durch „Schmierinfektion“, also von Mensch zu Mensch übertragbar. Schweine und Vögel können die Verbreitung fördern, ohne selbst betroffen zu sein.

Man könnte denken, Rinder (und andere Wiederkäuer) seien ein „natürliches“ Reservoir für diese Krankheitserreger …Ist das wirklich so simple?

3- Wieso nimmt die Ausbreitung von EHEC  zu (und ihre Gefährlichkeit für Menschen)?

Das CDC erwähnt auf seiner Homepage [unter der Rubrik Incidence] en passant, dass EHEC Infektionen in den Entwicklungsländern eher selten sind – was können wir daraus schließen? Einen Zusammenhang zwischen Massentierhaltung, industrieller Landwirtschaft und dem vermehrten Auftreten neuer Infektionskrankheiten als Folge der „modernen Methoden“ in der Tierhaltung? Präventiver Einsatz von Antibiotika in der Tiermast? Grauenvolle Zustände, in denen Tiere wie Produktionsmaschinen behandelt werden, die nie die Sonne sehen, sich frei bewegen können oder ihre sozialen Bedürfnisse ausleben dürfen?

Hier tun sich Abgründe auf, die wir gerne verdrängen – besonders die Einkäufer von „Billigfleisch“, aber auch Politiker ,Wirtschafts-Gurus und Journalisten tun so, als ob dieser Wahnsinn nicht nur normal, sondern ein Zeichen des Fortschritts in der Landwirtschaft wären, eine Steigerung von „Effizienz“ und “Produktivität“.  Demgegenüber steht der gern belächelte Öko-Romantiker, der Kühe auf grünen Wiesen sehen möchte und Schweine, die sich im Dreck wälzen dürfen und dafür auch noch gerne mehr bezahlt.

Und dann kommen die „Experten“, die uns weismachen, es gäbe keinen Beweis dafür, dass „Bio“ und „Öko“ gesünder wäre als  „konventionell“ und außerdem könne sich ja nicht jeder die höheren Preise leisten, die moderne Landwirtschaft sei einfach kosteneffektiver, oder?

Spätestens jetzt ist es notwendig, einmal der Wahrheit die Ehre zu geben, um den Irrsinn der industriellen Agrarproduktion endlich bloßzustellen:

Es gibt eine klare Korrelation zwischen der „Besatzdichte“ (Konzentration der Tiere auf engem Raum) und dem HU-Syndrom bei Kindern (Studie in Frankreich, Zeitraum: 1996-2001). Die „intensive Tierhaltung“ begünstigt also die Vermehrung und die Verbreitung dieser gefährlichen Mikroben,  besonders in den „CAFOS“, das sind riesige Mastbetriebe, mit mehr als tausend Tieren (manchmal sogar 10.000 …). Die Unmengen an Gülle und Mist sind nicht nur ekelhaft, sondern auch schwer zu „entsorgen“, deshalb werden sie oft illegal ausgetragen und kontaminieren so Boden und Wasserquellen. 2006 kam es in den USA zu schweren Erkrankungen, weil das Bewässerungssystem für Spinatfelder in Kalifornien mit dem EHEC „Abwasser“ eines angrenzenden Mastbetriebes verseucht war.  In Kanada wurde die Wasserquelle einer ganzen Stadt durch Überlaufen einer riesigen  „Gülle-Lagune“ mit gefährlichen Keimen infiziert ….

4 – Warum ist es  ziemlich bekloppt, „Kraftfutter“  an Wiederkäuer zu verfüttern?

Bereits im Jahr 2000 wurden Studien  veröffentlicht, die einen klaren Zusammenhang zwischen der dominanten Getreidefütterung und der dramatischen Vermehrung von pathogenen e.coli Bakterien im Dickdarm der Rinder aufzeigten. Konsequenzen? Keine. Einige Jahre später machte man erneut eine erstaunliche wissenschaftliche Beobachtung:

Als man das Futter für Rinder von Getreidepellets (90% Mais und Soja) auf Grünfutter umstellte, verringerte sich nach nur fünf Tagen die Zahl der E.Coli Bakterien im Dickdarm um das 1000-fache. Dazu wurde noch festgestellt, dass die Fähigkeit dieser Stämme, einen “Säureangriff“ zu überleben, durch das Grünfutter entscheidend abnahm bzw. die Population der säureresistenten Stämme um das 100.000-fache kleiner wurde. (Außerdem enthält Grünfutter Tannine und andere Polyphenole, die hemmend auf das Bakterienwachstum wirken, und das Immunsystem der Tiere auf natürliche Weise stärken.)

Wieso ist das wichtig?  Weil unser Immunsystem ja einen wichtigen Helfer hat: die Magensäure, die vielen unerwünschten Eindringlingen den Garaus macht, also auch Bakterien ins Jenseits befördert. Warum können dann die EHEC Stämme den Magen passieren? Weil sie quasi durch einen permanenten Säureangriff so  (genetisch) trainiert wurden, dass ihnen die Magensäure nichts mehr anhaben kann. Was hat das mit Getreidefutter  zu tun?

Das Verdauungssystem von Wiederkäuern ist für faserreiches GRÜNFUTTER ausgelegt und nicht für Getreide  wie Mais oder Soja (das noch dazu tausende km transportiert wird und 10-mal soviel Menschen wie Tiere ernähren könnte, wenn die pflanzlichen Kalorien direkt aufgenommen würden). Nach Aufnahme großer Mengen leicht verdaulicher (fermentierbarer) Kohlenhydrate, werden bei deren Abbau große Mengen organischer Säuren gebildet (im Pansen)  und in der Folge verändert sich das bakterielle bzw. mikrobielle Gleichgewicht. Die Stärke kann im Pansen nicht vollständig abgebaut werden und so wird sie im Dickdarm vergoren, wobei Zucker entsteht, der wiederum ein hervorragender Nährboden für die gefährlichen E.coli Stämme ist.

Der Fachmann spricht von SARA: subakuter ruminaler Azidose, die durch einen hohen Kohlenhydratanteil im Tierfutter erzeugt wird. Die Folge ist die explosionsartige Vermehrung von EC Keimen mit „Virulenzgenen“, die die Entstehung von Entzündungen (Immunreaktion) begünstigen, u.a. auch  des Euters, also der Mastitis bei Milchkühen. Dann kommen noch mehr Antibiotika, die die Widerstandskraft der Bakterien noch mehr herausfordern  (Hypermutationen erzeugen Resistenz), der Teufelskreis geht weiter – bloß nicht das Denkgebäude einstürzen lassen, das den ganzen Irrsinn hervorgebracht hat.

Uns fragt ja keiner ...

So macht man also aus symbiotischen Organismen in Rindern durch „moderne Fütterungsstrategien“ und „effiziente Haltung“  ein immer größeres Reservoir für mutierende und zunehmend resistente Infektionserreger, die Menschen und Tiere gefährden,  aber in der ökonomischen und intellektuellen Bilanz der „modernen Landwirtschaft“ nicht auftauchen (dazu gehören natürlich auch: BSE, Geflügelpest („Vogelgrippe“ und SARS), etc.

Die Bakterienlast (Krankheitserreger) könnte also erheblich reduziert werden, wenn die Tiere artgerecht gehalten werden: auf der Weide, mit Licht und Bewegung, hauptsächlich Grünfutter statt Getreide (das noch dazu große ökologische Probleme verursacht, weil transgener Mais  bzw. Soja durch unlautere Methoden immer mehr verbreitet wird). Gesündere Tiere, weniger Kosten für die Bauern, gesündere Lebensmittel, weniger Umweltbelastung, weniger klimaschädliche Emissionen, etc.. Doch was passiert?

Die mächtige, von wenigen Konzernen beherrschte Futtermittelindustrie bzw. die  „geistigen Eigentümer“ der patentierten Getreidesorten wehren sich mit allen Mitteln gegen eine Änderung des etablierten Systems. Schließlich verdient man sich dumm und dämlich damit.

Und außerdem ist eine Vernunft basierte Lösung nicht erwünscht. Es muss der „Markt“ das letzte Wort haben, soll heißen: ein selbst geschaffenes, systematisches Problem wird nicht an der Wurzel gelöst, sondern als neue „Marktchance“ gesehen: die Tiere werden also weiterhin konsequent durch falsche Ernährung und stressvolle Haltung chronisch übersäuert, wodurch viele Krankheiten entstehen. Doch anstatt diese zu verhindern, will man damit auch noch verdienen.

So werden z.B. Patente für Medikamente angemeldet, die die Azidose bekämpfen sollen: z.B. Amylasehemmer, an denen dann wiederum die großen Pharmakonzerne verdienen.

Ein Satz aus der Patenanmeldung zeigt, wie diese Leute denken:

„Es wird geschätzt, dass Pansen-Azidose und dazu in Beziehung stehende Probleme die Tierindustrie aufgrund verlorener Leistung mehr als 1 Milliarde Dollar pro Jahr kosten.“

Beachten Sie das Wort „Tierindustrie“ und die Sorge um „verlorene Leistung“ (man könnte also noch mehr Profit aus den Hochleistungsrindern herausholen …)

Damit kommen wir zu einem sehr wichtigen Aspekt dieses Problemkreises: Antibiotika &  Biotechnologie, der im nächsten Beitrag behandelt wird:

5 – Was hat die Gentechnik mit den (EC) Infektionen zu tun?

Für mehr Hintergrundinformation und Kontext zu den Auswirkungen der „modernen“ Landwirtschaft bitte auch meine früheren Beiträge (tag: „Landwirtschaft“) ansehen …

 

Advertisements

FROM HELL (2): Nuklearer Holocaust in Japan

Auf den ersten Blick würde wohl jeder sagen, die Ursache dieser Katastrophe war das gewaltige Erdbeben (gefolgt von einem Tsunami und mehreren Nachbeben). Doch das ist natürlich falsch, denn die japanische Regierung wusste – wie niemand sonst – dass sie quasi auf einem Vulkan (hunderte Beben pro Jahr) 50 Atomkraftwerke baut, also eine Hochrisikotechnologie in großem Stil verbreitet, die für Jahrtausende eine  lebensbedrohliche Gefahr für die gesamte Biosphäre darstellt und im dicht besiedelten Japan – im Falle einer radioaktiven Verseuchung – zum dauerhaften Albtraum wird.

An diesem Punkt stehen wir jetzt …. Während die Medien (jedenfalls ARD und ZDF) noch immer auf die sichtbare , also totale Kernschmelze fokussiert sind und – nach meiner Wahrnehmung – so gut wie keine Ahnung haben, was hier wirklich abläuft – ist das noch schlimmere Ereignis bereits eingetreten – der Brand in den Kühlbecken (SFP-Fire) die ein Vielfaches an Radioaktivität abgeben als bei einer Kernschmelze freigesetzt wird (siehe dazu den vorhergehenden Beitrag – … manchmal ist es furchtbar, Recht zu haben…)

Führende englische  und amerikanische Printmedien (New York Times und Washington Post) sind da schon wesentlich weiter, kein Wunder, denn die US Marine war selbst der gefährlichen Strahlung ausgesetzt: eine amerikanische Helikoptercrew, die  60 km von Fukushima entfernt war, musste dekontaminiert werden und selbst auf dem Flugzeugträger USS Ronald Reagan wurden erhöhte Strahlungswerte gemessen – in 10o km Entfernung. Die US Navy hat deshalb ihre siebte Flotte schleunigst aus diesem Gebiet entfernt und Jodtabletten verteilt-

Der Abzug der AKW-Belegschaft – bzw. die Reduzierung des Personals  von 800 auf 50 lässt trotz aller Verharmlosung und Vertuschung keinen anderen Schluss zu, als the game is over.

Die fehlende Wasserkühlung (wegen des kompletten, seit Tagen andauernden Stromausfalls), der weitgehende Ausfall  der Mess- und Kontrollsysteme  durch Beben & Tsunami mit anschließenden Wasserstoffexplosionen und „Pool-Bränden“ haben die Anlage völlig unkontrollierbar gemacht.

Man kann eben in eine solche Wahnsinnsanlage nicht einfach hineingehen und nachsehen, was los ist, und notwendige Reparaturen durchführen.

6- 1o AKW (wenn nicht mehr) … die außer Kontrolle geraten …das ist der atomare Holocaust … ein wirkliches „Brandopfer“ für eine Wirtschaftsreligion, die uns – in the long run – alle umbringen wird

Wie ich bereits im ersten Beitrag erwähnt habe, wusste die Atomindustrie schon seit langem, wie gefährlich dieser Reaktortyp ist und welche furchtbaren Folgen ein SFP-Brand haben würde.

Dazu noch mehr Hintergrundinformationen:

Mehrere Studien haben die Auswirkungen eines solchen Brandes,  den „Worst Case“  – am Beispiel der USA – untersucht, das Ergebnis ist ein Albtraum:

  • Geschätzte unmittelbare Todesfälle: etwa 800 – 1000 …
  • Geschätzte langfristige Todesfälle: mehr als  100.000 …
  • Geschätzte Kosten: 500 Milliarden Dollar …

Diese Werte gelten für EINEN Reaktor– wir haben hier SECHS oder sogar ZEHN … rechnen Sie mal …

Der Reaktortyp in Fukushima ist 40 Jahre alt und wurde von General Electric gebaut, er gehört zum Typ „GE Mark 1“ aus den 1970er Jahren. Doch schon vor Jahren hat man vor der Designschwäche und dem darauf folgenden, hohen Risiko im Fall einer Kernschmelze gewarnt, denn die Schutzhülle ist viel kleiner und schwächer, als vergleichbare Modelle anderer Firmen.

Die Times weiß auch folgendes zu berichten:

„Ein Sprecher der TEPCO sagte (schon am Montag) dass die Kühlung der Becken (SFP) – in beiden Blöcken Fukushima Daiichi and Daini schon kurz nach dem Beben ausgefallen sei (ich habe ja auch die Pressemeldung des Betreibers in meinem ersten Beitrag hervorgehoben – doch fast alle unserer „Journalisten“ kriegen das anscheinend nicht mit, sie beten brav die Agenturmeldungen herunter …

Die Bedrohung wurde als so hoch eingeschätzt, dass man unmittelbar nach dem Beben am Freitag, sofort die größte Aufmerksamkeit den SFP gewidmet hat und auch die noch funktionierenden Pumpen für die Kühlung des beschädigten Beckens  beim Reaktor Unit 2  (Daiichi) einsetzte“ (der Reaktor selbst war ja, wegen Wartungsarbeiten „abgeschaltet“ – gut für das Risiko einer Kernschmelze, aber extrem schlecht für das Risiko eines SF-Poolbrandes – weil noch mehr „heiße“, Brennelemente im Pool lagen als sonst)

„Das „Herunterfahren“ der aktiven Reaktoren lief auch nicht nach Plan und die Probleme begannen zu eskalieren. Ein Sprecher von Tokyo Electric sagte, dass zusätzlich zum Ausfall von Stromversorgung und Wasserkühlung auch noch Wasser (hochradioaktiv) aus den Becken austrat. Diese Becken sind meistens würfelförmig (etwa   12 m lang und breit und ca 14 m tief). Die ausgelagerten Brennelemente liegen unten (bis ca 4,5 m hoch) und das Wasser liegt doppelt so hoch darüber (also etwa 9 m – zumindest sollte es so sein ….)“.

 

Abklingbecken (re) im AKW Krümmel

WO ABER BEFINDEN SICH DIESE BECKEN?

Die Becken sitzen direkt über dem Reaktorgebäude (unten in der Grafik als blaues Rechteck über dem orangen Reaktorbehälter zu sehen, anklicken zum Vergrößern) gemeinsam mit dem „refuelling deck“)

Das klingt zwar auf den ersten Blick logisch, weil ja die Brennelemente von einem Kran aus dem Reaktorkern in die Kühlbecken gehievt werden müssen, (und für Re-fueling wieder frische Brennelemente in den Kern eingeseetzt werden) und es daher Sinn macht, die Becken möglichst nahe beim Reaktor zu lagern.

GE Mark 1 BWR Reaktor

Doch wenn sich bei einem Ausfall der Kühlung  ein Druck im Reaktorgebäude aufbaut oder – wie ja bereits passiert – eine chemische Wasserstoffexplosion eintritt – ist die Wahrscheinlichkeit, dass die Becken intakt bleiben, gleich null.

 

DaiIchi 1: Was passierte mit dem Becken (SFP)?

Um den ganzen Wahnsinn zu verstehen, müssen wir uns den Aufbau dieses Reaktortyps (Siedewasserreaktor – siehe auch Graphik oben) ein bisschen näher ansehen 

WIR BASTELN UNS EINEN RADIOAKTIVEN KELOMAT

(bitte um Nachsicht für den Galgenhumor, aber ohne  Satire  kann man das Thema psychologisch nicht mehr verarbeiten ….)

Das System, das einen Überdruck im Reaktorraum verhindern soll, befindet sich quasi „im Untergeschoß“ ebenfalls im Reaktorgebäude.

Es besteht aus einer Druckkammer („Drywell) und dem „Torus“(auf der Graphik links das runde Gebilde unten, das wie ein großer Doughnut aussieht). Der Drywell, in dem sich der Reaktorbehälter befindet,  hat die Form einer Birne,  ist etwa 3 Meter hoch und hat eine Wandstärke von etwa 6 cm.

Im Fall einer beginnenden Kernschmelze, die mit hoher Temperatur und hohem Druck einhergeht, soll der hochradioaktive Dampf (der unter Druck steht) zuerst in den Drywell und dann durch große Rohrleitungen in den Torus  geleitet werden (der einen Durchmesser von etwa fünf Meter hat und wie ein großer Rettungsring den Drywell umgibt. Der Torus enthält an die 4 Millionen Liter Wasser und soll in diesem Fall den radioaktiven Dampf aufnehmen, wobei der Druck (durch Kondensation) auf einen ungefährlichen  Level   reduziert  werden soll.

Doch schon im Jahr 1972, also nicht lange nachdem dieser Typ des Siedewasserreaktors von GE auf den Markt gebracht wurde, warnten Experten (auch Mitarbeiter von GE) vor den Designschwächen und den verheerenden Folgen bei einem Unfall. Deshalb dürfe dieser Reaktortyp nicht mehr die erforderlichen Genehmigungen erhalten.

Doch in der Atomwirtschaft herrscht weder Vernunft noch Verantwortung, sondern „Unternehmergeist“ und Fortschrittsgläubigkeit gekoppelt mit Allmachtsphantasien und der perversen Idee, dass Atomenergie in der Marktwirtschaft eben auch nur eine Ware sei, von der man möglichst viel verkaufen will, um damit Profite und Marktmacht zu generieren. (Die militärische „Nutzung“ ist ein anderes, noch dunkleres Kapitel)

Die NRC kam 1986 zu dem Schluss, dass die Schutzhülle des Mark 1 Rektortyps schon wenige Stunden nach Beginn der Kernschmelze mit einer Wahrscheinlichkeit von 90% nicht mehr halten würde – eben weil das Gebäude zu klein dimensioniert sei und der „design pressure“ (der maximale Druck, auf den die Infrastruktur ausgelegt wurde) zu niedrig bemessen wurde (weil man eben dachte, durch den Torus (als Teil eines automatischen Druckentlastungssystems) würde der Druck nie so stark ansteigen).

Doch anstatt das Design grundlegend zu ändern – was natürlich die Kosten erhöht hätte, befand man, dass im Fall eines kritischen Druckaufbaus einfach der hoch radioaktive Dampf ins Freie zu lassen sei .. (was ja in Fukushima ja auch – mehrfach – gemacht wurde). Das heißt, die Reaktorcrew soll im Endeffekt eine „notwendige“ radioaktive Verseuchung der Umgebung einleiten, um das „Containment“ zu erhalten …

Hier wird die Sache endgültig zur absurden Farce … eine Performance mit Elementen aus „Warten auf Godot“ und der unheimlichen, bedrohlichen  „Normalität“ Franz Kafkas …

Wie wir aufgrund der Bilder wissen, sind in der Daiichi Anlage mindestens zwei dieser Becken, mit hoch radioaktivem Inhalt – durch die Wasserstoff-Explosion „im Freien“ und höchstwahrscheinlich beschädigt . Sie haben eben – im Gegensatz zum Rektor – keine Schutzhülle und durch den  Ausfall der Kühlung (das Wasser im Becken muss zirkulieren, damit es nicht  zu heiß wird) erhitzt sich das Wasser bis zum Siedepunkt, wobei hoch radioaktive Dampfwolken freiwerden – die jetzt natürlich die Umgebung verseuchen

Die Medien meldeten „weißer Rauch aus dem Reaktorblock steigt auf“  – was niemand versteht -, in Wahrheit sind es die radioaktiven Dampfwolken der „Abklingbecken“ (SFP – spent fuel pools), die ungehindert die Umgebung  verseuchen (wir sprechen hier von tödlichen Dosen) …

Ist das Wasser ganz weg, wird die Hitze so groß, dass die Brennstäbe sich in einem autokatalytischen Prozess selbst entzünden, wobei noch mehr Radioaktivität frei wird. (Mehr  Details siehe mein erster Artikel über Fukushima)

Es ist wichtig, folgendes zu verstehen (deshalb der Totenkopf am Anfang für die tödliche „Umarmung“ von Regierung und Atomindustrie):

Die Regulierungsbehörden schreiben NICHT VOR, dass Atomkraftwerke  gegen alle möglichen Unfälle GESICHERT sein müssen, auch nicht gegen den „non-design event“ einer  totalen Kernschmelze. (Das Containment kann daher nicht unter allen Umständen halten).

In allen AKWs können daher „Pannen“ und „Störfälle“ auftreten, die im „Design Basis Accident“ (DBA) nicht enthalten sind  (das Konstruktions- und Sicherheitskonzept innerhalb willkürlich bestimmter Parameter – zB keine  sicherheitsrelevanten Schäden  bis Erdbebenstärke  7,5 … Was machen wir , wenn das Erdbeben stärker ist, bei 9,0  (wie in Japan) ?  Was, wenn eine Flutwelle nachkommt? Beten und so tun, als könnten wir die Katastrophe noch verhindern ….

Der „DBA“ ist also nicht das Schlimmste, was man sich vorstellen kann, sondern eine bestimmte, genau definierte Gefahrensituation, mit der die Sicherheitssysteme -angeblich -fertig werden. Alles was darüber  hinaus geht, wird als „Restrisiko“ in Kauf genommen … Schließlich kostet jede zusätzliche Sicherheitsmaßnahme viel Geld und man will „kostenattraktive“ Lösungen (für die Aktionäre und Investoren …)

1979 konnte eine totale Kernschmelze im AKW Three Mile Island gerade noch verhindert werden  – doch hat man etwas daraus gelernt?

 

 

 

Brüchiger Stahl aus AKW

Der dritte Wahnsinn ist die Bagatellisierung der Materialermüdung bei älteren AKW (weswegen ja die Laufzeiten begrenzt wurden):

Ich habe ja bereits darüber geschrieben, wie gefährlich ältere AKWs sind, weil das Material durch den enormen Umgebungsstress brüchig wird bzw. sich durch die beeinträchtigte Mikro- bzw. Nanostruktur die Materialeigenschaften verändern und somit unberechenbar werden … Werden diese Komponenten nicht ständig überprüft (was ja im AKW nicht so einfach und sehr teuer ist) und rechtzeitig – unter Einhaltung höchster Qualitätsstandards -ausgetauscht, steigt das Risiko einer Katastrophe mit zunehmendem Alter massiv an (auch ohne Erdbeben)

WIE GEFÄHRLICH SIND DIESE BRENNSTÄBE AUS DEM „ABKLINGBECKEN“ (SFP) Wie hoch ist die Radioaktivität, die sie abgeben?

Nach meinen Recherchen beträgt die Oberflächenstrahlung für eine typische  Brennelement-Anordnung – noch  Jahre nach der Entfernung aus dem Reaktorkern mehr als 10.000 REM (100 Sievert) pro Stunde …das ist die zwanzigfache tödliche (akute = die ganze Strahlung auf einmal abbekommen) Dosis für Erwachsene …

Gelangen diese radioaktiven Spaltprodukte (vor allem Cäsium 137 und Strontium 90) in die Nahrungskette  (über Boden, Grundwasser, Oberflächenwasser) … dann gute Nacht …

Die Wahrscheinlichkeit, durch „niedrige“, aber chronische Strahlenexposition an Krebs  zu erkranken, steigt dramatisch an …weil besonders die DNA sehr empfindlich auf ionisierende Strahlung reagiert …

Nach den letzten wissenschaftlichen Erkenntnissen hat Tschernobyl bis heute rund 1.000.000 Todesopfer (zunehmende Krebs-häufigkeit, vor allem bei Kindern) gefordert …

(Davon sollen wir aber nichts wissen …. )

Wenn in Japan die 10, 20, 50 oder sogar 100-fache Menge an Radioaktivität freigesetzt wird (was durchaus wahrscheinlich ist) … dann kann man wirklich von einem atomaren Holocaust sprechen

Mehr über die Strahlenbelastung und ihre biologischen Effekte, Entstehung des  „Strahlenschutzmodells“ und den Blödsinn, den ARD und ZDF (zB gestern im ZDF Spezial) darüber erzählen im nächsten Beitrag …

 

 

 

 

 

FROM HELL: Atomterror & Medienalbtraum ….

Die Ereignisse in Japan, unmittelbar vor dem  25-jährigen Jahrestag nach Tschernobyl, müssten nun wirklich der ultimative Beweis dafür sein, dass diese Technologie ein organisierter Wahnsinn ist und nur durch ein systematisches Netz aus Lügen, Verharmlosen und Vertuschen überhaupt eine „Atomwirtschaft“ entstehen konnte (siehe dazu auch meine vorhergehenden Artikel zum Thema „Atompolitik“)

Der atomare Horror (Krebsepidemien, Tschernobyl, Uranwaffen und jetzt Japan) wird aber noch verschärft durch den medialen Albtraum, den wir seit Jahren erleben, denn – mit sehr wenigen Ausnahmen – hat sich die „Journaille“ als williger Helfer der Atomindustrie zur Verfügung gestellt. Das konnten wir ja gestern wieder bei „Anne Will“ mit Schaudern erleben – nur Ranga Yogeshwar  hat während der Sendung dagegen protestiert – „wir führen immer die gleichen Debatten“ (mehr dazu im nächsten Beitrag  zum Thema).

Doch bevor die Rolle der Medien bei der Ausbreitung der Atomwirtschaft untersucht werden soll, möchte ich einen wichtigen Punkt zu der aktuellen Gefahr in Japan hervorheben:

Während die ganze Medienlandschaft (verständlicherweise aber eben) nur darauf schaut, ob eine Kernschmelze eintritt und das Containment hält, gibt es eine Gefahr, die hier im deutschen Sprachraum völlig ignoriert wird, obwohl sie eigentlich viel größer ist, als die Kernschmelze: die Wasserbecken, in denen die „abgebrannten“ (sehr irreführend!) Brennstäbe gelagert werden, die so genannten „spent fuel pools“ (SFP):

DER TOD KOMMT AUS DEM WASSER …

…nicht „nur“, weil die Betreiber laufend hoch radioaktiven Dampf aus dem Reaktorgebäude ablassen (“ ventilieren“) müssen, um eine Explosion zu verhindern …

(Kontext: Durch das Erdbeben wurde die Stromversorgung des AKW-Komplexes  in Fukushima lahm gelegt. Für diesen Fall soll ein Dieselgenerator einspringen.  Doch der Tsunami sorgte für eine Überschwemmung des Raumes (und der Infrastruktur), in dem sich der Generator befand, sodass auch ein herbeigeschaffter Ersatzgenerator nicht einsetzbar war. Bei Ausfall des Generators gibt es noch eine dritte Redundanz, nämlich ein Batteriesystem, das jedoch nur wenige Stunden laufen kann und auch das nicht mit der vollen Leistung, sodass die Pumpen für das Kühlwassersystem nicht voll einsatzfähig waren. Nach  relativ kurzer Zeit gab es also keine Stromversorgung mehr und die Pumpen fielen vollständig aus.

Was bedeutet das nun für die SFP (die Wasserbecken, in denen die ausgemusterten Brennstäbe gelagert werden)?

Etwa alle 4-6 Jahre müssen die Brennstäbe eines AKW ausgetauscht werden, nicht weil sie wirklich „abgebrannt“ sind, sondern weil sie als Wärmeerzeuger „unwirtschaftlich“ geworden sind. Ungefähr ein Drittel der Brennstäbe wird alle 18-24 Monate ausgetauscht, manchmal aber auch alle. Wichtig ist auch festzuhalten, dass – wenn es heißt, der Reaktor sei „abgeschaltet“, die Brennstäbe ständig gekühlt werden müssen. (Selbst wenn die Reaktoren also nicht mehr Strom erzeugen, sind sie weiterhin für Jahre gefährlich …)

Die Brennstäbe sind hoch radioaktiv und produzieren auch außerhalb des Reaktors große Hitze, die durch den radioaktiven Zerfall entsteht. Damit diese  in Schach gehalten wird, werden die Brennelemente in einem Wasserbecken gelagert, das ein aktives Kühlsystem hat (Wasserpumpen und Wärmetauscher)

Das Wasser schützt auch die Arbeiter vor der ernormen Strahlung der Brennstäbe (siehe Foto)

Kann der Wasserspiegel nicht konstant gehalten werden (zB  durch  Stromausfall), verringert sich die Kühlwirkung immer mehr und fällt schließlich ganz aus.

Sobald der Wasserspiegel auf etwa 1,50 m über den Brennelementen abgesunken ist, ist diese Schutzwirkung nicht mehr gegeben und die Werte werden lebensbedrohlich (Wer will / kann dann noch hier etwas „reparieren“)?

Die Temperatur beginnt also zu steigen, wodurch das Wasser verdampft und damit beginnt ein Teufelskreis:

Die steigende Temperatur beschleunigt die Oxidation der Brennstoffumhüllung (die aus einer Zirkoniumlegierung besteht, die hoch- und selbstentzündlich ist, wenn sie mit Sauerstoff oder Dampf in Berührung kommt) wobei wieder große Mengen Hitze generiert werden:

·   Reaktion mit Luft:                        12 Millionen Joule / Kilogramm

·   Reaktion mit Wasserdampf:    5,8 Millionen Joule / Kilogramm

wodurch wieder die Oxidation beschleunigt wird usw. Diese autokatalytische Reaktion (die sich sozusagen selbst befeuert) findet bei hohen Temperaturen statt und wenn genug Sauerstoff vorhanden ist. Das Resultat ist verheerend: die Hülle aus Zirkonium gerät in Brand , man spricht von einem „zirconium cladding fire“. Die Hitze, die dabei freigesetzt wird, kann größer sein, als die Zerfallswärme, die von frisch ausgelagerten Brennstäben ausgeht.

Während sich also die Brennstäbe weiter aufheizen, steigt der Gasdruck innerhalb der Brennstäbe so lange, bis sich die Hülle aufbläht und schließlich platzt. Bei mehr als  1800 Grad Celsius reagiert das Zirkonium mit dem Brennstoff (Uranoxid) und so verschmelzen beide in einem komplexen Prozess zu  Zirkonium-Uranoxid.

Nach dem Platzen der Hülle werden gasförmige, radioaktive Spaltprodukte freigesetzt und auch Teile des radioaktiven Brennmaterials in Form von Aerosolen. Wenn die Hitze, die vom Brand eines Kernelements ausgeht, nicht abgeleitet werden kann, breitet sich das Feuer auf alle Brennelemente aus.

 

Blick in den Reaktorkern

WARUM SIND DIESE BECKEN BEI STROMAUSFALL GEFÄHRLICHER ALS DER MELTDOWN?

Weil die Brennelemente, die darin gelagert werden, 5-10 mal mehr  Radioaktivität freisetzen, als der Reaktorkern (die Becken enthalten mehrere hundert metrische Tonnen an Brennelementen, was im Schnitt etwa dem Inhalt von  7 Reaktorkernen  entspricht; die Hitze in diesen Becken beträgt mehrere MegaWatt; die („verstrahlte“) Wassermenge in einem Becken ist ca. 1,5 Millionen Liter… das aber ständig mit  Frischwasser versorgt werden muss ..)

Besonders beunruhigend sind die riesigen Mengen von Cäsium 137, die sich in diesen Becken befinden: wir sprechen hier von 20 bis 50 MILLIONEN CURIE ( 1 curie = 37 Milliarden Bequerel / 1 Bequerel bedeutet (im Mittel) ein radioaktiver Zerfall pro Sekunde …)

Zum Vergleich: bei der Katastrophe in Tschernobyl wurden etwa 2,5 Millionen Curie freigesetzt, das sind ca. 40% der Radioaktivität des Reaktorkerns. Bei einem Brand in den SFP können 100% der Radioaktivität freigesetzt werden …

Ende der 1990 Jahre veröffentlichte die NRC (amerikanische Atomenergie-Regulierungsbehörde) eine Studie über die Auswirkungen eines solchen „pool fires“ (bei einem Reaktor):

  • Ein Gebiet von fast 500 km² wäre unbewohnbar ….
  • Zusätzliche Krebserkrankungen (lokal): 30.000
  • Geschätzter finanzieller Schaden: 60 Milliarden Dollar

Geschätzter ökologischer Schaden: unermesslich …

WAS MELDET DIE BETREIBERFIRMA TEPCO ÜBER DIESE BECKEN (Presseaussendung vom 13.März) unter „Others“ auf Seite 2

We are currently coordinating with the relevant authorities and departments as to
how to cool down the water in the spent nuclear fuel pool.

Klartext: Sie haben keine Ahnung wie sie  – ohne Strom – verhindern sollen, dass die Wassertemperatur in den Becken weiter steigt und schließlich das ganze Wasser verdampft

Es gibt auch nach menschlichem Ermessen keine Möglichkeit mehr, dies zu verhindern … Ohne Strom, ohne ständige Zirkulation des Kühlwassers ist es nur eine Frage von Tagen, bis das Wasser völlig verdampft ist und dann dauert es nur Stunden, bis sich die Brennelemente selbst entzünden (die ja – im Gegensatz zum Reaktor  keine „Schutzhülle“ haben)

Dann hätten wir Tschernobyl hoch 10 …. Ein veritables  Höllenfeuer ..

Das ist also der Offenbarungseid einer Technologie, die uns seit Jahrzehnten terrorisiert …

Die verheerenden Folgen eines  „Loss of coolant“ Ereignisses für die Becken, in denen die ausgemusterten Brennstäbe lagern, sind den Atomaufsichtsbehörden (soferne diese noch existieren – man setzt ja immer mehr auf „Eigenverantwortung“ und „Selbstkontrolle“ – ganz nach dem neoliberalen Mantra) seit langem bekannt.

Im Internet finden sich sogar ein Wissenstest zum Thema „Sicherheitsrisiken von Kühlbecken (in denen die ausgelagerten Brennstäbe liegen), und zwar von einer Firma, die Monitoring bzw. Visualisierungssysteme dazu anbietet:


Quiz on Spent Fuel Pool Safety/Security

Alle Studien kamen zu dem Ergebnis, dass dieses „event“ zu dem oben beschriebenen, verheerenden Brand führen würde, wenn die Brennelemente nicht mehr gekühlt werden können.

Doch die Kontrollbehörde – ganz im Dienste der Atomwirtschaft – kam zu dem Schluss, dass zwar die Konsequenzen dieses „Ereignisses“ furchtbar wären, aber die Wahrscheinlichkeit dass es eintritt, so gering sei, dass man keine besonderen Schutzmaßnahmen treffen müsse. ..

WAS KANN MAN DEN JAPANERN NUR RATEN?

So schnell wie möglich, das Land zu verlassen – besonders schwangere Frauen und Kinder sollten umgehend den nächsten Flughafen aufsuchen …

WAS SOLLTE MAN MIT LEUTEN WIE RÖTTGEN MACHEN (die aus dem Umweltministerium eine Farce  machen  und allen Ernstes argumentieren – siehe Anne Will – man müsse erst „Erfahrungen“  (Angst, Horror, Meltdown in „high-tech“ Land wie Japan, Kontrollverlust, etc. Folge: Zunahme von Krebserkrankungen, etc.) durchmachen“, um die Risiken (vor denen Umweltschützer und unabhängige Wissenschaftler seit Jahrzehnten warnen!) „neu zu bewerten“)?

Antwort: (nicht druckreif!) – aber zumindest verbal kann man Dampf ablassen: F&CK YO&, Mr. Röttgen! ..und alle anderen, die die „Kernenergie“ schön geredet und verharmlost haben,  sich in den Dienst der Atomlobby stellen, die eigentlich mit Zwangsjacken ausgestattet werden müsste …

(Fortsetzung folgt  …)

 

 

 

 

 

 

RADIATION CREEP: Länger Laufen. Kürzer Leben. Krebs ist Gratis.

Im August 2009 veröffentlichte der BUND eine Studie über die Risiken einer Laufzeitverlängerung bei Atomkraftwerken. Ergebnis: deutlich höheres Störfallrisiko. Dies gelte besonders für:  Brunsbüttel, Isar 1, Philippsburg 1, Krümmel, Neckarwestheim, Unterweser, Biblis A und Biblis B. Diese Reaktoren erfüllten nicht die modernen Sicherheitsstandards, auch dann nicht, wenn sie nachgerüstet würden.

WO LASSEN SIE DENKEN? In der Denkfabrik? In der PR-Agentur?

Bei der ganzen vorgefertigten, medialen Auseinandersetzung über die Verlängerung der Laufzeiten, wird ein Punkt völlig ignoriert: Es gibt ja einen triftigen Grund, warum die Laufzeiten der AKWs von Anfang an begrenzt waren: die Materialermüdung  bzw. das Materialversagen.

Bei Anfangsinvestitionen von zweistelligen Milliardenbeträgen für ein einzelnes Kraftwerk, könnte man eigentlich erwarten, dass dieses sündteure  System lange funktionsfähig (ohne Sicherheitsverlust) ist. Doch schon hier zeigt sich, wie schwachsinnig und ineffizient das Konzept der „Kernkraft“ eigentlich ist. Verglichen mit der Effizienz, dem genialen Stoffkreislauf und der „Haltbarkeit“ biologischer Systeme ist ein Kernreaktor (und das Energieverteilersystem an sich) ein großer Haufen Mist.

Um das verdeutlichen, könnte man folgendes Bild wählen:

Stellen Sie sich vor, sie kaufen ein Auto, dass zwei Millionen Euro kostet, zwei Jahre zur Produktion braucht, enorme Wartungskosten und ein hohes Unfallrisiko hat, aber nur maximal 6 Jahre gefahren werden kann (mit Schutzanzug und Feuerwehr auf Stand-By). Quasi eine tickende Zeitbombe auf Rädern. Danach müsste es als langlebiger, giftiger Sondermüll teuer entsorgt werden. Sie können das Auto aber nicht einfach stehen lassen und die Schlüssel abgeben, sondern müssten Jahre warten, bis ein Mechaniker es wagen kann, das Auto  zu zerlegen, weil jeder Kontakt mit dem Material eine erhebliche Gesundheitsgefahr darstellt.

Wer wäre so blöd, die Produktion dieses Autos zu forcieren? Wer wäre so blöd, dieses Auto zu kaufen?

Und welcher Idiotenverein würde dieses Auto versichern? (Wir offenbar ….)

Durch die radioaktive Strahlung in Verbindung mit anderen Faktoren werden die Komponenten eines AKWs einer hohen  Dauerbelastung ausgesetzt, sodass sich die Materialeigenschaften negativ verändern und damit die Haltbarkeit bzw. die Erfüllung der jeweiligen technischen Anforderungen nicht mehr gewährleistet ist (wir kommen darauf später  noch zurück).

Hier sind zunächst nur einige Beispiele aus dem gut sortierten Problemkasten der Atomindustrie, die dadurch entstehen:

„WANDVERDÜNNUNG“ (wall thinning)

Aus nur unzureichend verstandenen Gründen werden die Wände von Rohrleitungen in AKWs mit der Zeit immer dünner. Ja, Sie haben richtig gelesen – das ist kein Witz und keine grüne Propaganda, sondern bitterer Ernst. Man erklärt sich das durch die “ kombinierten Effekte der Fließgeschwindigkeit, ungünstiger Materialien und der Wasserchemie“.

THERMISCHE ERMÜDUNG“ (thermal fatigue)

Plötzliche Temperaturänderungen führen zu Problemen, wenn die dadurch ausgelösten Spannungen im Material eine hohe plastische Verformung bewirken, und so Risse entstehen (in Abhängigkeit von physikalischen Größen wie Elastizität, Wärmeleitfähigkeit, Festigkeit, etc.).  Die Fähigkeit eines Materials, sich gegen diese „Ermüdung“ zur Wehr zu setzen, nennt man „Temperaturwechselbeständigkeit“ (TWB) und diese spielt natürlich auch bei Materialien eine Rolle, die in Kraftwerken eingesetzt werden.

Doch mit der TWB  in AKWs sieht es gar nicht gut aus: Defekte Rohrleitungen“  durch „Wandverdünnung“ und „thermische Ermüdung“ sind regelmäßige Vorkommen. Es gibt sogar Fälle, in denen die Wände so dünn geworden sind, (was vorher kaum bemerkt wurde) dass das Rohr plötzlich auseinanderbrach. Andere Inspektionsberichte erwähnen Risse und Lecks, die (nur) durch abwechselnd kaltes und heißes Wasser entstanden. Wenn das schon Probleme verursacht, was soll man dann von den „Sicherheitsstandards“ halten?

Ein besonders schwerer Fall war z.B. die Entstehung eines Lecks durch thermische Ermüdung   in einem Rohrbogen, der zum Notfallsystem eines Druckwasserreaktors gehörte (das sich natürlich einschalten soll, wenn das Kühlsystem des Reaktors ausfällt!)

Die IAEA  meint dazu unter „Bedeutung für die Sicherheit„:

„Ein Defekt im Rohrleitungssystem eines Anlagenteils sollte (eigentlich) nicht zu einem Schaden am Reaktor oder zur Freisetzung von Spaltprodukten führen, weil es ja ein Redundanzprinzip gibt. Solch ein Defekt stellt jedoch ein viel höheres Risiko dar, als wünschenswert ist. Darüber hinaus kommen manche dieser Pannen auf Systemebene vor, was bedeutet, dass die Integrität des ganzen Systems in Gefahr ist.“

Unter „Was man daraus gelernt hat“ heißt es dann u.a.:

„…es gibt mittlerweile neue Bemühungen, um den tatsächlichen Mechanismus der Verdünnung verstehen und um adäquate Inspektionsintervalle festlegen zu können. Es könnten Veränderungen in der Prozesskontrolle und der Überwachung der chemischen Eigenschaften notwendig werden.“

Man kennt zwar die Materialprobleme, die durch die spezielle Umgebung (eben den Atomreaktor) entstehen,  versteht aber nicht wirklich, auf welche Weise sie entstehen. Zwar ist bekannt, dass sich die Materialstruktur (auf Mikro- bzw. Nano-Ebene) verändert, aber das Zusammenspiel der physikalischen und chemischen Kräfte ist so komplex, dass man mit den verwendeten Formeln und Modellen immer nur ein unvollständiges Puzzle   abbilden kann.

THERMISCHES VERKLEBEN (thermal bonding)

Ein Atomkraftwerk kann tausende Ventile haben, die einerseits für die Fließkontrolle und andererseits zur Abtrennung wichtig sind. Defekte an Ventilen werden laufend gemeldet. In vielen Fällen, konnten Sicherheitsventile nicht ihre Funktion erfüllen, weil warmes Wasser, das innerhalb des Ventilkörpers gefangen war, sich erhitzte und dadurch den Druck auf die Ventilteile erhöhte. Dieses technische Versagen wurde in vielen Anlagen im Laufe der letzten Jahre festgestellt.

Äußerst bedenklich ist deshalb, dass in diesen Fällen, die Betriebsvorschriften keinen Funktionstest unter Heißwasser-Bedingungen vorsahen, sodass das Versagen der Ventile erst festgestellt wurde, als eine Inspektion der Aufsichtsbehörde stattfand (die nur alle heiligen Zeiten erscheint).

Besonders kritisch wird es, wenn dieser spezielle Defekt bei allen gleichartigen Ventilen auftritt, denn dann würde ein Dominoeffekt auf  der Systemebene eintreten … das wollen wir uns gar nicht erst vorstellen ..

Defekter Unterbrechungsschalter

Ein Unterbrecher öffnete sich nicht so, wie er sollte, deshalb überhitzte sich das Gehäuse. Der Ausfall des Schutzschalters führte zu einer Explosion eines Luft-Öl-Gemischs.  Durch diesen Vorfall wurde wieder einmal klar, dass mit unerwarteten Interaktionen auf  der Systemebene zu rechnen ist.

Das Versagen eines einzelnen Schutzschalters ist natürlich im Design der Anlage einkalkuliert. Doch die Möglichkeit, dass der Unterbrecher auf diese Weise defekt werden könnte, wurde vorher gar nicht in Betracht gezogen.

Wie lange waren Sie Sicherheitsbeauftragter im AKW?

Fazit des IAEA-Berichts zu diesem Punkt:

„Eine solche Explosion stellt eine Herausforderung für das Brandschutzsystem jedes Kraftwerks dar. Die Erfahrungen aus dem laufenden Betrieb zeigen, wie wichtig es ist, unerwartete Phänomene zu evaluieren, um die Sicherheitsrisiken für ein Kraftwerk abschätzen zu können.

Das Wort „unerwartet“ im Zusammenhang mit „sicheren“ Atomkraftwerken, lässt aufhorchen und verdeutlicht, dass hier bei weitem nicht „alles unter Kontrolle“ ist.

Damit wir beurteilen können, worum es bei  „Ermüdung“ und „Materialversagen“ eigentlich geht, machen wir einen kurzen Ausflug in die Materialkunde und konzentrieren uns dabei auf Metalle (die natürlich in AKWs eine große Rolle spielen):

Dank der modernen Metallurgie können heute z.B. Stähle hergestellt werden, die höchsten Ansprüchen gerecht werden. Je nach Einsatzgebiet werden sie so produziert, dass die chemische Zusammensetzung und die physikalischen Eigenschaften spezifische Anforderungen erfüllen, wie z.B. die Zugfestigkeit, die Streckgrenze, etc. Doch es gibt natürlich Faktoren in der Umgebung, die das Material einem ständigen Stress aussetzen. Dazu gehören z.B. hohe Temperaturen und  wechselnde, mechanische Beanspruchung. Wenn z.B. ein Material bei gleich bleibender Beanspruchung nach 1.000 Betriebsstunden ausgetauscht werden muss, kann es sein, dass bei wechselnder Beanspruchung dies schon viel früher notwendig ist. Man kann also (mehr oder weniger genau) berechnen, nach wie vielen Stress-Zyklen das Material so ermüdet ist, dass es ausgetauscht werden muss.

Dieser „Fatigue Stress“ (Dauerbeanspruchung oder Ermüdungsbelastung)  ist insoweit sehr gefährlich, weil das endgültige Materialversagen oft lange nicht erkennbar ist und dann plötzlich, quasi ohne Warnung, auftritt. Zuerst entstehen winzige Risse, die dann ihrerseits als Stressverstärker wirken (wie auch z.B. Schweißnähte, Lötstellen, etc.), bis es schließlich zum Bruch kommt. Eine korrosive Umgebung – wie sie eben in Atomkraftwerken durch die radioaktive Strahlung vorhanden ist – fördert die Entstehung und Ausdehnung dieser Ermüdungsrisse.

Je höher die Temperatur (Nähe zum Schmelzpunkt des jeweiligen Metalls) und je länger die mechanischen Belastungen dauern desto größer ist der so genannte „creep stress“ (die Zeitdehnspannung): das Kriechverhalten ändert sich, durch diese Kriechdehnung verringert sich die Lebensdauer und die Wahrscheinlichkeit eines „Störfalls“ erhöht sich.

Natürlich können diese beiden Effekte auch in Kombination auftreten, und dann wird es wirklich kompliziert, denn die genauen Mechanismen dieser Synergien versteht man nicht. Tatsache ist aber, dass die Strahlungseffekte die Kristallstruktur der Metalle verändern. Es entstehen so genannte Gitterfehler: es bilden sich Hohlräume, Blasen, „Schwellungen“,  es kommt zu Abscheidungen, etc. und die Mikro- bzw. Nanostruktur des Materials verändert sich so, dass Berechnungen über das Stressverhalten (ohne radioaktive Umgebung) nicht länger verlässliche Aussagen über die effektive Lebensdauer ermöglichen (also wie lange das Material tatsächlich noch seine Funktion erfüllen kann)

Dieser „Radiation Creep“ entsteht z.B. durch die Bildung von Transmutationsgasen wie z.B. Helium, die die Brüchigkeit des Materials erhöhen, und damit den Verlust der Zähigkeit bei niedrigen Temperaturen (unter 350 Grad C) bewirken.

Die Veränderungen der mechanischen Eigenschaften und der dimensionalen Stabilität von Reaktorkomponenten, als Folgen der Strahlenbelastung  sind natürlich ein großes Problem für die Sicherheit.

Es besteht eine sehr komplexe Wechselwirkung zwischen diesen Mikrostrukturen und den physikalischen Eigenschaften. Hohe Strahlenbelastung im Reaktorkern führt zu Veränderungen in Stahllegierungen, die sich in extensiver Verhärtung, einer Reduktion der Dehnvermögens und einer erhöhten Anfälligkeit für IASCC (durch radioaktive Strahlung induzierte  Stress-Korrosions-Brüche) bemerkbar machen.

Komponenten aus rostfreiem Stahl können so bei Strahlendosen, die weniger als 10% der erwarteten „Ende-der-Lebenszeit-Dosis“ ausmachen, anfällig für Brüche werden, und die Wahrscheinlichkeit des Materialversagens wird  mit zunehmender Betriebsdauer immer größer.

Ein fundiertes und genaues Verständnis der Mechanismen, die diese Veränderungsprozesse der Mikro – und Nanostruktur steuern, fehlt bis heute. Aber man tut weiter so, als hätte man alles im Griff …

Die Strahlung bewirkt auch die so genannte RIS (radiation induced segregation), also die Aussonderung chemischer Elemente in Stahllegierungen, was natürlich die chemische Zusammensetzung an sich (und damit die Belastbarkeit) verändert. Während dieser Effekt für die Hauptelemente wie Eisen, Chrom und Nickel einigermaßen erklärbar ist und es dafür realistische „Modelle“ gibt, wird das Verhalten der  sekundären Elemente (die  vermutlich als Zwischengitteratome wirken) kaum verstanden.

Schon wieder müssen wir erkennen, dass hier die Zauberlehrlinge am Werk sind, denn immer wieder trifft man auf die  Formulierung: dieser  komplexe Prozess wird eigentlich nicht verstanden, man müsste noch viel mehr (teure) Grundlagenforschung betreiben, aber trotzdem wird die Atomenergie als „sicher, umweltfreundlich und zukunftsfähig“ propagiert. Trotzdem sollen die Laufzeiten verlängert werden, nur damit die Profite der Energiekonzerne nicht abnehmen?

Wer kann für diesen Irrsinn die Verantwortung übernehmen? Es gibt kein Material auf der Erde, dass dauerhaft solchen Belastungen standhält, schon gar nicht über tausende Jahre, die für ein „Endlager“ ins Auge gefasst werden müssen. Das „lineare Denken“ führt hier in gefährliche Abgründe, denn wenn ein Modell z.B. eine Lebensdauer von 30 Jahren für ein Material errechnet, dann können diese Werte nicht einfach immer weiter extrapoliert werden ….

Die Hybris der Atomlobby und ihrer politischen Lakaien, die aus dem geistigen Gefängnis des Wachstum-& Wettbewerbs-Dogmas nicht ausbrechen können,  ist unerträglich und die Art, wie über diese verhängnisvolle Energiepolitik entschieden wird, ist absolut unvereinbar mit demokratischen Grundsätzen. Die Mehrzahl der Bevölkerung lehnt die Atomenergie als Hochrisikotechnologie ab, wird aber ständig mit Desinformation gefüttert, damit die öffentliche Wahrnehmung des Problems „zugunsten der Unternehmensinteressen“ (der Atomlobby, zu der auch der militärischer Einsatz  gehört)  gesteuert wird.

Konkret heißt das, man nutzt die Klimadebatte und die Schwachpunkte der bewusst jahrelang benachteiligten, alternativen Energiekonzepte  (für erneuerbare und dezentral verwaltete Energien), um für die „Renaissance“ einer Technologie zu plädieren, die man nur als Showcase für grenzenlose Dummheit und blinde Arroganz der Macht bezeichnen kann.

Von allen Seiten wird der „Konsument“ (Staatsbürger gibt es ja nicht mehr) mit der Weisheit beschallt, es gäbe einfach (noch) keine Alternative zur Nutzung der Atomenergie, man müsse die Verlängerung der Laufzeiten also in Kauf nehmen, denn obwohl man grundsätzlich ein Freund der erneuerbaren Energien sei, könnten diese frühestens in …zig Jahren genug Kapazitäten liefern, technisch ausgereift seien, etc.

Dass man schon vor dreißig Jahren über das CO2-Problem und das Ende des fossilen Energie diskutierte und demnach genug Zeit hatte, die erneuerbaren Energien großflächig auszubauen und somit auch weniger von ausländischen Mächten abhängig wäre, die die (auch geostrategisch wichtigen) Rohstoffe kontrollieren (wenn nötig auch durch militärische Gewalt, siehe Afghanistan und Irak), wird tunlichst nicht erwähnt.

Der Gipfel an Idiotie und Volksverdummung  ist wohl der  Begriff der „Übergangslösung“ oder „Brückentechnologie„, der sich ja auch als medialer  Talking-Point eingeprägt hat. Jeder Cent, der jetzt noch in das alte System der Energieoligarchie gesteckt wird, fehlt den Zukunftstechnologien und zementiert weiter den unhaltbaren Status Quo.

Das Grundprodukt für die zivile Atomenergie ist das Element Uran. Uran hat eine Halbwertszeit von 4,5 Milliarden Jahren. Es handelt sich hier also um ein veritables Langzeitproblem (eigentlich für die Ewigkeit, nach menschlichen Dimensionen). In diesem Zusammenhang von einer „Übergangslösung“ zu sprechen, ist absoluter Blödsinn und dient nur der Verschleierung der wahren Absichten und unlösbaren Probleme.

Jedes kg neuer radioaktiver Abfall, jede Freisetzung zusätzlicher Spaltprodukte bedeutet mehr Krankheit, mehr Leiden und oft das Todesurteil für  viele Menschen irgendwo auf der Welt.  Die Krebshäufigkeit nimmt weiter zu (siehe dazu alle Beiträge zum Thema Atom), besonders bei Kindern. (Foto: ein Leukämie-Opfer: der kleine Alexei wurde nur sechs Jahre alt)

Übrigens, die oben geschilderten Probleme verschärfen sich noch erheblich, wenn eine neue Generation von Reaktoren eingesetzt wird, die nicht nur auf Grundlast ausgerichtet sind, sondern nach Nutzlast (also der Output nach dem Bedarf geändert wird) betrieben werden.

Dieses so genannte „load following“  bewirkt natürlich einen dramatischen Anstieg der  thermo-mechanischen Stress-Zyklen (durch häufigeres  Hoch- und Runterfahren) und somit spielen die Materialeigenschaften eine noch größere Rolle. Sie müssen noch mehr aushalten … Das ganze soll aber natürlich „kostengünstig“  (Ethisches Handeln ist teuer ….) ablaufen …

Ironie am Rande: Die mathematische Gleichung, die man zur Berechnung der Materialermüdung (im niedrigen Belastungszyklus) bzw. zur Berechnung der „Lebensdauer“  verwendet heißt

COFFIN-MANSON Modell

coffin = engl. Wort für Sarg; Manson war ein irrer Sektenführer, der Morde angeordnet hat …

… Besser kann man den bedrohlichen  Kontext der Atomwirtschaft nicht in kürze wiedergeben ….

Halten wir also fest: wie lange ein Werkstoff bzw. eine Komponente in einem AKW tatsächlich „durchhält“, bevor ein Schaden eintritt, der unter Umständen das ganze System bedroht, und katastrophale Folgen haben kann, beruht letztlich nur auf Schätzungen und mathematischen Modellen, die nur bedingt der Realität entsprechen.

Da trifft es sich gut, dass Menschen kein Sensorium für Strahlenbelastung haben. Bei „niedrigen“ Dosen merkt es keiner, wenn wieder einmal etwas „austritt“ und selbst wenn (siehe z.B. in Frankreich, wenn radioaktives Kühlwasser unkontrolliert in Flüsse gelangt), heißt es immer: es besteht keine akute Gefahr für die Gesundheit. Das ist ja auch so nicht falsch, die Betonung liegt aber auf dem Wort „akut“. Denn die Gefahr ist natürlich langfristig zu sehen: selbst kleine Mengen über einen längeren Zeitraum stellen eine chronische, schleichende Belastung dar, die unter Umständen viel gefährlicher sein kann, als eine hohe  Dosis, die nur sehr kurz wirkt (z.B. Röntgen). (Siehe dazu meine anderen Beiträge zum Thema Atom)

Von Sicherheit und wissenschaftlicher Beweisführung ist man  bei der Abschätzung der Lebensdauer jedenfalls  weit entfernt, denn die Zusammenhänge sind sehr komplex und ihre Erforschung teuer und langwierig.

Sicher ist jedoch, dass gegen Ende des prognostizierten Lebenszyklus (also für jene Kraftwerke, die bald  abgeschaltet werden müssten) das Risiko eines Versagens (mit verheerenden Folgen) immer größer wird.

Doch der „Markt“ hat keine Zeit für solche Überlegungen, er fordert, dass abgeschriebene AKWs nach der Logik des Profits behandelt werden, nicht nach der Logik der Vernunft oder  im  Sinne einer ethischen Verantwortung für Millionen Menschen und andere Lebewesen, die diesen Planet mit uns teilen.

Bei einem „Spezialisten-Workshop“ zu diesem Thema wurden folgende Schlüsse gezogen:

  • Es besteht ein Bedarf für mehr  Sicherheitstests, detaillierte Analysen und Kontrollen der Aufsichtsbehörden [die bald auch privatisiert sind?].
  • Die Betriebsbedingungen werden angesichts des hohen  Alters immer schwieriger.
  • das Verhalten des Brennstoffs unter diesen erschwerten Bedingungen kann nicht mehr mit Sicherheit vorhergesagt werden

  • Unerwünschte Effekte sind z.B. exzessive Bildung von Korrosionsprodukten, Verformung von Komponenten und Interferenz der Steuerelemente  (diese Stangen bestehen aus chemischen Elementen, die in der Lage sind, Neutronen aufzunehmen, ohne selbst gespalten zu werden. Sie werden in Kernreaktoren verwendet, um die Kettenreaktion (der Spaltung von Uran) zu  kontrollieren

  • Langfristige Korrekturmaßnahmen sind nicht definiert

Na dann ist ja alles klar, oder?

Fazit von Greenpeace:

„Jeder Kabelbrand, jedes geplatzte Rohr kann aus einem Atomkraftwerk innerhalb von Minuten eine Bombe machen. Je komplexer das System, desto anfälliger ist es für Störungen. Überdies steigt mit zunehmender Betriebsdauer das Unfallrisiko. Das Restrisiko existiert weltweit in jeder einzelnen Atomanlage. Trotz des angeblich so hohen Sicherheitsstandards ist es in allen Ländern, die auf die Atomenergie zur Stromerzeugung setzen, wiederholt zu Störfällen gekommen.“

Mehr Info und interessante Links:

Größter bekannt gewordener Störfall in Deutschland (2002)

Nach dem jüngsten und vermutlich bisher gravierendsten Störfall in der Bundesrepublik bleibt das Atomkraftwerk Brunsbüttel auf unbestimmte Zeit abgeschaltet…

Störfall Nummer 65 im tschechischen AKW Temelin (2004)

Wie erst am Montag bekannt wurde, ist im tschechischen Atomkraftwerk Temelin bereits Sonntag am frühen Morgen ein Leck im Primärkreislauf entdeckt worden.…

Rätselraten um Notstrom-Aggregat (2006)

Nicht einmal der Hersteller AEG weiß, warum die Notstrom-Aggregate im schwedischen Atomkraftwerk Forsmark versagt haben …

Schwerer Störfall in einem europäischen Atomkraftwerk (2008)

Die EU-Kommission in Brüssel hat am Mittwoch europaweiten Alarm wegen eines Zwischenfalls im AKW Krsko ausgelöst …

Vattenfall nach AKW-Panne in Erklärungsnot (2009)

Nicht der Betreiber alarmierte die Atomaufsicht, sondern die Polizei:

Wohnen Sie vielleicht in der Nähe eines radioaktiven  „Zwischenlagers“ ohne es zu wissen?

8,5 x 1019 Bequerel Strahlenbelastung? Eine Zahl mit 19 Nullen – Ist doch ein Klacks, oder?

Denken Sie daran, dass natürlich auch das Material der Behälter „ermüdet“ und seine Schutzfunktion nur zeitlich begrenzt erfüllen kann ….

Der AKW-Gefährdungsatlas

THE BIG LIE No.1: Abschalten macht Strom teurer …

THE BIG LIE No. 2: Atomstrom ist billig

P.S. In Ergänzung zu meinem Beitrag über schweren Geburtsdefekte bei Kindern im Irak: EIN MUST-SEE VIDEO … auch das sind die Folgen der Atomwirtschaft (ohne AKWs  gäbe es auch keine Uranwaffen (DU-Waffen)



——–


Todesanzeige

In tiefer Trauer geben wir bekannt, dass unsere liebe Mutter, Schwester, Tochter, Tante und Cousine, „Hope“  (Hoffnung auf bessere Politik) nach langem, schweren Leiden letztes Wochenende von uns gegangen ist.

Hope war seit Jahren eine schwer kranke Frau und lag seit 9. September 2001 längere Zeit im Wachkoma, doch die zahlreichen Angehörigen und Sympathisanten, die im politischen Verein „Sehnsucht nach Wahrheit, Gerechtigkeit, Weitsicht und politischer Verantwortung“ engagiert sind, ließen nichts unversucht, um  sie wieder ins Leben zurückzurufen.

Doch alle Bemühungen wurden durch harte politische Rückschläge zunichte gemacht.

Seit jenem schicksalsschweren Tag im September 2001 wurde Hope massiv unter Druck gesetzt. Die massive Verblödung der Öffentlichkeit durch absurde Szenarien und Begründungen für diese „Attacke auf unsere Freiheit“, herausgegeben vom „Wahrheitsministerium“ in Washington und willfährig verstärkt durch die blökenden Medienschafe, hatten ihre ohnehin schon angeschlagene Gesundheit schwer geschädigt. Der Blutdruck stieg in gefährliche Höhen, Herzrhythmusstörungen setzten immer häufiger ein. Der Arzt verordnete Tranquilizer und Stimmungsaufheller, doch selbst die medikamentöse Ankurbelung des Serotoninspiegels im Gehirn konnte keine Besserung bewirken.

Die unter dem Deckmantel des „War on Terror“  weltweit durchgesetzten, schweren Eingriffe in die Menschen- und Bürgerrechte, der Anblick von „Big Brother on wheels“ (ehemaliger Innenminister Schäuble) als Verkörperung des vordergründig staatlichen Ringens nach mehr „Sicherheit“ – ganz zu schweigen von Darth Vader Klon Dick Cheney seinem Depputy (?#!) „Dschortsch Dubya“ Bush und „stuff happens“ Donald Rumsfeld –  versetzten Hope in einen Zustand, den die Medizin als „posttraumatisches Stresssyndrom“ bezeichnet.

Dank Glasnost, Perestroika, dem Mauerfall 1989 und dem Ende des kalten Krieges hatte sich Hope damals noch in sehr guter Verfassung befunden. Die Aussichten auf eine neue Sicht der Weltordnung, eine mögliche Form der echten Kooperation zur Lösung globaler Probleme schienen gut: Wer brauchte jetzt noch Atomwaffen? Das „Gleichgewicht des Schreckens“, dass Milliarden verschlang, war es nicht obsolet geworden? Die Sowjetunion war pleite, Gorbatschow hatte der Wiedervereinigung Deutschlands zugestimmt, den eisernen Vorhang über Osteuropa gelüftet und als Gegenleistung wurde ihm vom Westen zugesagt, dass die NATO nicht nach Osten, in „den russischen Hinterhof“ erweitert würde.

Doch die USA hatten nie vor, diese Versprechen zu halten. Im Gegenteil, ihre  geostrategischen Ziele, die ein gewisser Herr Brzesinski in seinem Buch „The Grand Chessboard“ für Eurasien formuliert hatte, wurden Schritt für Schritt umgesetzt. Die „bunten“ PR-Revolutionen in Ländern wie Georgien, der Ukraine, etc. der starke wirtschaftspolitische „Washington Consensus“ Einfluss in Osteuropa waren ein klares Signal, wohin die Reise geht. Unter dem Deckmantel der „Demokratieförderung“ wurden diese Länder vom vermeintlichen „Führer der freien Welt“ in die nächste  ideologische „Falle“  gelockt: der Albtraum der Marktherrschaft …(ein totalitäres Gedankenregime der autistischen Ökonomie, das scheinbar „Freiheit“ als oberstes Prinzip verfolgt, doch wessen Handlungsfreiheit hier verteidigt wird, erkennt man erst zu spät …)

Die irreführende Präsentation der völkerrechtswidrigen Aggression in Afghanistan als legitime Jagd nach dem Oberschurken Bin Laden bzw. später als Kampf gegen die Taliban (die auch gerne mit der phantomartigen „Al Kaeda“ gleichgesetzt werden), die ehemaligen „Freiheitskämpfer“ (so damals Präsident Reagan), versetzten Hope einen weiteren Schlag.  Die Taliban hatten die unglaubliche Frechheit besessen, ihre terroristische „Spezialausbildung“  zur Vertreibung der Russen jetzt gegen die ehemaligen US-Sponsoren zu richten, die ihre Landsleute im „Krieg gegen den Terror“ mit staatlichem Bombenterror beglückten. Die Geister, die ich rief …?

(Die ganze Geschichte ist nachzulesen in dem hervorragenden Buch „Ghost Wars“ von Pulitzerpreisträger Steve Coll), kritische  aktuelle Kommentare gibt es HIER.

Ein weiterer, schwerer Schlag für Hope war  auch die Situation im Nahen Osten:

Einen historischen Überblick  bietet dieses erschütternde VIDEO (Englisch)

"Palästina" das gestohlene Land

Die unglaubliche politische Farce, die uns seit Jahren unter dem Orwellschen Begriff „Friedensprozess“ vorgeführt wird, löste bei Hope schwere Depressionen aus. Obwohl völlig klar ist, wer hier seit mehr als 60 Jahren „monumentales Unrecht“ begangen hat, wird die Debatte in den Medien so dargestellt, als ob Täter und Opfer gleichwertige, legitime und akzeptable Argumente vorzubringen hätten.  Journalismus als eine Form des moralischen Autismus?

Der  legitime, gewalttätige Widerstand der Palästinenser gegen eine brutale Besatzung, gegen Vertreibung und schrittweise Annektierung des  verbliebenen Restes des eigenen Landes, gegen die fanatische Gewalt der  orthodoxen „Siedler“, gegen tägliche Menschenrechtsverletzungen und Demütigungen wurde im Kontext des „War on Terror“ natürlich umgemünzt zu einem Kampf zwischen Gut und Böse: „westliche Zivilisation“ („verkörpert“ durch Israel) gegen den rückständigen, unbelehrbaren Islam („verkörpert“ durch Hamas).

Dass Hamas durch demokratische Wahlen (die einzigen im Nahen Osten!) an die politische Macht kam und sogleich eine Einheitsregierung („unity government“) angestrebt hat , wurde  dem historischen Mülleimer zugeführt, stattdessen hieß es immer „Hamas, die im Juni 2007 im Gazastreifen die Macht an sich riss“. [Was sich hier wirklich abspielte? Siehe dazu meine früheren Beiträge zum Thema Israel – Divide et impera in action – und die hervorragend recherchierte Background-Story THE GAZA BOMBSHELL]

Das eiskalte Kalkül der israelischen Regierung, den Gazastreifen in eine Art Freiluftgefängnis bzw. ein von Israel kontrolliertes Riesen-Ghetto zu verwandeln, hat Hope schwer zu schaffen gemacht. Erste Kreislaufzusammenbrüche waren die Folge.  Die mediale Darstellung dieser Unmenschlichkeit ersten Ranges als „großzügige Geste“ Israels, das „den Gazastreifen zurückgegeben hat“,  hat dann zum ersten Herzinfarkt geführt. Der unkritische Papageienjournalismus, der hierzulande ungestraft praktiziert wird, machte es möglich, dass die israelische PR die Wahrnehmung der Öffentlichkeit weitgehend steuern konnte.  Es kamen immer die gleichen Leute zu Wort, die immer die gleichen „Talking Points“ vorbrachten, so lange, bis man sie für wahr hält.  Propaganda durch Totschweigen, durch Weglassen (der wahren Umstände), durch „information dominance“ der Fiktion ist eben sehr effektiv.

Das IDF-Massaker an 1.400 Menschen vor einem Jahr – exakt geplant – bis zur Amtseinführung Präsident Obamas am 20. Jänner 2009, das unter dem Namen „Operation Gegossenes Blei“ als „Krieg“ (Suggestion eines ebenbürtigen militärischen Gegners) gegen Gaza verkauft wurde, führte dazu, dass Hope in die Intensivstation gebracht werden musste.  Der Einsatz abscheulicher Waffen wie weißer Phosphor, DU und Uranmunition in einem extrem dicht besiedelten Ghetto, das zu 99% aus Zivilisten (davon die Mehrheit jünger als 15) besteht, die gezielte Bombardierung von UN-Lagerräumen, Schulen und anderen Gebäuden, die man nur als Kriegsverbrechen und Verbrechen gegen die Menschlichkeit bezeichnen kann, zeigte klar, mit welcher Arroganz und Brutalität ein Staat vorgehen kann, der nichts zu befürchten hat, weil er außerhalb des Rechts steht. Weil er Dank des ständig geschürten „Gedenkens“ an den Holocaust (dessen politischen Missbrauch),  als ewiges Opfer auftreten kann und, egal, welche Verbrechen er begeht, immer auf die schützende Hand – oder sollte man nicht sagen Faust? – Washingtons zählen kann.

Die besten Worte zu dieser unheilvollen, politischen Symbiose zweier Schurkenstaaten, die sich als Verkörperung des Guten und Edlen selbst betrügen und parodieren,  während sie morden und Intrigen schmieden, findet man bei Harold Pinter, der in seiner Dankesrede zum Literaturnobelpreis (2005) über das Totschweigen der zahlreichen, skrupellosen politischen Verbrechen der USA (im Rahmen der  imperialen  „Außenpolitik“) sagte:

Es ist nie passiert. Nichts ist jemals passiert. Sogar als es passierte, passierte es nicht. Es spielte keine Rolle. Es interessierte niemand. Die Verbrechen […] waren systematisch, konstant, infam, unbarmherzig, aber nur sehr wenige Menschen haben wirklich darüber gesprochen.

Das gleiche gilt natürlich für Israel. Das Erscheinen (und  umgehende Versenken) des „Goldstone-Reportes“ vor wenigen Wochen war ein weiteres Signal dafür, dass die Gerechtigkeit auf der Welt keine Chance hat, wenn die Medien von Idioten, Lobbyisten und Lohnschreibern besetzt sind, wenn die Presseagenturen zionistische PR verteilen und niemand sich darüber aufregt (jedenfalls nicht bei uns).

Die so genannten politischen Führer der EU, vor allem Deutschlands, lassen sich seit Jahren von Israel an der Hundeleine führen. Sie wissen schon, eine von denen, die man durch Betätigen eines Hebels, automatisch verkürzen kann … Dieser Hebel ist hier natürlich ein semantischer und heißt „Holocaust“.  Die Gaskammern von Auschwitz wurden nicht von Palästinensern betrieben, auch Herr Hitler kam nicht aus Ramallah und dennoch hat man sich damit abgefunden, dass dieses Volk für die Verbrechen des Dritten Reiches bzw. des britischen Empires büßen muss.

Herr Westerwelle, die Karikatur eines Diplomaten, fuhr also schön brav nach Yad Vashem und machte dort seine Verbeugung, business as usual. Diese Form des „Conditioning“ muss jeder deutsche Politiker durchlaufen, damit sein Auftritt in Israel  immer nur im Kontext der  „ewigen Verantwortung“ Deutschlands für Israel gesehen wird. Westerwelle wiederholte zum 100sten Mal die abgedroschene Phrase, dass „Israel das Recht habe, in sicheren Grenzen zu leben“ aber „ auch die Palästinenser hätten Anspruch auf einen eigenen Staat“.

Dass die Grenzen Israels bis heute nicht endgültig festgelegt wurden, ist an sich ein Witz, dass man seit Jahren das Westjordanland zu einem Puzzle aus voneinander getrennten Bantustans zerlegt hat, das von „araberreinen“ Straßen und Siedlungen durchzogen, und durch den Bau der illegalen Mauer weiteres Land annektiert wurde, braucht ja einen Außenminister nicht weiter zu interessieren. Dass es ohne Gerechtigkeit weder Frieden, noch Sicherheit geben kann, sondern nur brutale Unterdrückung und totale Ausgrenzung, dass der „jüdische Staat“ eine Form systemischer, rassistischer Diskriminierung ist und deshalb mit Demokratie und Menschenrechten unvereinbar,  stört Herrn Westerwelle auch nicht. Die „Freiheitsliebe“ der Liberalen ist eben nur selektiv anzuwenden … [siehe dazu Beiträge unter Stichwort Zionismus)

Dass der angesehen Richter Richard Goldstone, obwohl er selbst Jude ist und dem Zionismus wohlwollend gegenüber steht, von Israel wie ein Scharlatan und übler Betrüger behandelt wird, der aus unerfindlichen Gründen, (ebenso wie der UN insgesamt unterstellt wird,) nur das Ziel verfolge, Israel zu schaden und die Unwahrheit zu verbreiten, war ein weiterer dramatischer Höhepunkt in diesem Theaterstück des Absurden. Zu befürchten ist nur, dass der „Palästinenserstaat“ (der kein lebensfähiges Land mehr zur Verfügung hat) das gleiche Schicksal erleidet, wie jene, die auf „Godot“ warten.

Bald ist es genau ein Jahr her, dass die letzten Bomben auf den Gazastreifen gefallen sind. Die rechtswidrige Blockade Israels geht weiter, die „humanitäre Situation“ ist weiterhin katastrophal, das Leben in Gaza ist nur mehr ein Existieren zwischen zerstörten Häusern,  kontaminierten Feldern, traumatisierten Kindern und einer grenzenlosen Hoffnungslosigkeit. Warum hilft uns niemand? Warum lässt die „Weltgemeinschaft“ zu, dass wir so leiden müssen? Warum haben wir kein Recht, in Frieden und in Würde zu leben? Warum ist unser Leben weniger wert, als das eines Israeli oder Deutschen?   Warum interessieren sich die internationalen Medien nur für uns, wenn es wieder Tote gibt? Warum kann Israel die Blockade (ein kriegerischer Akt nach dem Völkerrecht) ungestraft weiter führen?

Einen kurzen Einblick in das trostlose Leben in Gaza gibt es in diesem

VIDEO

(Mehr von Richard Falk finden Sie hier)

Was kann man darauf antworten?  Wie kann man die Scham bewältigen?

Die Scheinheiligkeit der EU bei der Weiterverfolgung des Goldstone Reportes im Rahmen der UN ist eine Schande für die angebliche „Wertegemeinschaft“. Ebenso die Tatsache, dass Israel als bevorzugter Handelspartner behandelt wird und Deutschland auch noch mit Steuergeldern subventionierte U-Boote liefert.

Hope begann zu halluzinieren. Sie sagte immer wieder, sie befände sich in einem Irrenhaus, in dem das Krankhafte als normal präsentiert werde, und politische Verbrechen als akzeptabel (es käme eben nur darauf an, WER der Verbrecher sei …. Manche „Auserwählten“ mordeten doch „für den guten Zweck“, oder nicht?

Man versuchte, ihr klarzumachen, dass die Vernunft es manchmal sehr schwer in der Politik hätte und dass es trotz allem doch Bemühungen gäbe, für Recht und Gerechtigkeit zu sorgen …

Und dann kam die „Bankenkrise“ ….

Dazu ist ja schon viel gesagt und geschrieben worden, deshalb hier nur ein Hinweis auf ein Video, das in Kürze die wesentlichen Punkte erklärt … (hier handelt es sich nicht um „Fehler“, die jemand gemacht hat, sondern um organisierte Kriminalität:  Unmoralische Handlungen, [modernes „Investmentbanking“ ist mehr oder weniger eine Form des bandenmäßigen Betrugs] die  eben nur deshalb nicht illegal sind, weil man vorher alle Gesetze abgeschafft bzw. verhindert hat, die sie mit strafrechtlichen Konsequenzen belegt hätten …

Das wirtschafts- und monetärpolitische Analphabetentum der Bevölkerung (wozu auch weite Teile der Journalisten zählen) hat sich als stärkste Waffe für die Finanzoligarchie erwiesen: Ignorance is Strength after all!

Als letzter Sargnagel für Hope  erwies sich die mediale und politische  Auseinandersetzung mit dem  „Klimawandel“ (der ja eigentlich nur Symptom für die zugrunde liegende Geisteskrankheit ist, die man „Wirtschaftswissenschaften“ nennt)

[Siehe dazu auch meine vorherigen Beiträge zum Thema Wirtschaft bzw. „Klimawandel“ insbesondere die Hinweise zu Herbert Gruhl und Frederic Vester]

Ein sehr aufschlußreiches Interview mit dem von mir zitierten NASA Wissenschaftler James Hansen gibt es

HIER

Hier nur ein kleiner Auszug: (Auf die Frage, warum er nicht nach Kopenhagen gereist sei, antwortete  Herr Dr. Hansen:

Sie verhandelten dort über ein „Cap & Trade“ System mit „Offsets“ [- meistens fälschlich als „Neutralisierung“ übersetzt], was analog zum Kyoto Protokoll ist, das ein Disaster war. Vor Kyoto stiegendie globalen Co2-Emissionen um 1,5% jährlich, danach sind sie um 3% jährlich gestiegen. Dieser Ansatz funktioniert auf keinen Fall.“

[…] so lange fossile Brennstoffe die billigste Form der Energie sind, werden sie irgendwo verbrannt werden. Die Europäer dachten, sie hätten tatsächlich ihre Emissionen nach Kyoto reduziert, aber was wirklich passierte war, dass ihre Produkte einfach woanders [außerhalb der EU] produziert wurden und zwar in Ländern, in denen die fossilen Brennstoffe am billigsten sind [wie China], also sind die Gesamtemissionen in Wahrheit gestiegen.“

Unsere politische Führungsmannschaft kann das Problem nicht lösen, da sie selbst Teil des Problems sind …

Wie Frederic Vester schon vor 30 Jahren richtig erkannte, ist dazu ein „Neuland des Denkens“ erforderlich, die Fähigkeit  „systemisch“ zu denken, die Welt nicht länger in Schubladen mit Ressorts und Zuständigkeiten zu zerlegen, die sich immer weiter spezialisieren (und immer weniger miteinander kommunizieren können), sondern die unglaubliche Vernetzung aller Prozesse auf diesem Planeten zu erkennen.

Deutschland hat wunderbare visionäre Denker  wie Vester, Gruhl, Erich Fromm, u.a. hevorgebracht, doch was hat es genutzt?

Wenn ich die traurige Gestalt von Herrn Röttgen vor mir sehe, (den laut einer Spiegel Umfrage, mehr als 40% der Befragten gar nicht kennen!), dessen geistiger Horizont sich im Thema „Wirtschaftswachstum“ erschöpft, verstehe ich, warum Hope jetzt endgültig das Handtuch geworfen hat ….

Röttgen hat zwar noch immer nicht verstanden, dass dieses „Wachstum“ das eigentliche Problem ist, aber er arbeitet bereits an der Quadratur des Kreises: Wachstum ohne steigenden Energieverbrauch! Wachstum ohne steigenden Ressourcenverbrauch! Wachstum ohne Zerstörung der Lebensgrundlagen, usw. Wachstum, Wachstum, Wachstum!

Vielleicht könnte man eine neue Krebsart nach ihm benennen? „Morbus Röttgen“ klingt doch beeindruckend, oder? Immerhin verlängert der Mann die Laufzeiten lebensbedrohlicher, maroder Atomkraftwerke [siehe dazu meine letzten Beiträge zum Thema Klimawandel), die übrigens AUCH ZUM KLIMAWANDEL beitragen (s. pdf-Seite 10) und wird sicherlich auch den Schwachsinn von „Clean Coal“ befürworten (obwohl die Umweltschäden ja nicht nur bei der Verbrennung, sondern auch beim Abbau der Kohle entstehen).

Das CDU „Führungspersonal“ bzw. seine angebliche „Wirtschaftskompetenz“ erinnerte Hope immer an die Ingenieure der Titanic, der fast bis zum bitteren Ende behauptet hatten, das Schiff  sei unsinkbar…

So sehen die „Titanics“ des dritten Jahrtausends aus, die dann auch noch als „Innovation“ und „Arbeitsplatzbeschaffer“ gefeiert werden. Umweltverträglichkeitsprüfung? Wer braucht die? War doch nur eine „Umwidmung“?

Gigantischer Energieverbrauch für hirnloses Vergnügen am künstlichen Palmenstrand, die Umweltschäden muss der „Investor“ ja nicht bezahlen, da kommt das Land Brandenburg mit Millionen zu Hilfe …

Gegen die organisierte Idiotie kommt man mit Vernunft nicht an …

In diesem Sinne bitten wir, von Kranzspenden Abstand zu nehmen.( Hope liegt auf dem ehemaligen  Hugenottenfriedhof in Berlin-Wedding…)

Da bleibt einem nur noch der bittere Humor:

Seitdem ich die Hoffnung aufgegeben habe, geht es mir viel besser.

Woody Allen




Bodenlose Dummheit oder Fortschritt am Acker?

DIE GRÜNE REVOLUTION IST BANKROTT

Die meisten Menschen halten die „moderne“ Landwirtschaft für eine Erfolgsstory und so sieht sie auf den ersten Blick auch aus: Eine winzige Zahl von Bauern (gemessen an der Gesamtbevölkerung) ernährt heute etwa 2o0 Millionen mehr Menschen in Europa als 1950 und dazu wird natürlich noch für den Export in außereuropäische Länder produziert. Doch trotz dieses Überflusses macht sich Unbehagen breit: Ernährungsbedingte Krankheiten nehmen zu, Nahrungsmittelallergien steigen stark an;  Verunsicherung durch „Fleischskandale“, BSE, zunehmende Tierseuchen, vermehrter Einsatz von Antibiotika; gesundheitsschädliche Rückstände von Agrargiften in Obst, Gemüse und Gewürzen, usw.

Die extrem wichtige Rolle der Landwirtschaft zur Erhaltung der Volksgesundheit und der Ökosysteme als unsere Lebensgrundlagen wird selten erwähnt und auch im Kontext des „Klimawandels“ wird die industrielle Landwirtschaft ziemlich ignoriert.  Doch diese Bagatellisierung können wir uns nicht mehr leisten:

Ein großes Problem ist etwa der rasant  steigende Einsatz synthetischer Düngemittel, der sich seit 1961 mehr als verfünffacht hat: Bei Stickstoffdünger stieg der Verbrauch von etwa  8 kg pro Hektar auf heute mehr als 60 kg pro Hektar, also um mehr als  700%. Doch dieser exorbitante Stickstoffeintrag endet nicht zur Gänze in der Pflanze, sondern ein Teil davon landet im Grundwasser bzw. in der Luft (man könnte sagen, der Stickstoff wird vom Boden wieder „ ausgeatmet“)

Wozu die Aufregung,  könnte so mancher jetzt denken, deshalb sind ja auch die Erträge pro Hektar  stark gestiegen und man konnte „mehr Menschen satt machen“. War das nicht die Essenz der mit großem Medienecho propagierten „Grünen Revolution“, für die Norman Borlaug den Friedensnobelpreis erhielt?

Ein Siegeszug des wissenschaftlichen „Fortschrittes“ (dank Justus von Liebig), der sich in diesem Fall durch massiven Einsatz von Düngern und Pestiziden manifestierte? Leider ist auch diese „Erfolgsgeschichte“ menschlicher Innovation bei näherem Hinsehen ein Flop und langfristig sogar eine Katastrophe. Warum, das zeigen folgende Zahlen:

Die vier wichtigsten Grundnahrungsmittel auf diesem Planeten sind Weizen, Soja, Mais und Reis.  Sie alleine benötigen etwa ein Drittel der weltweiten  Ackerflächen. Bei allen vier Getreidearten ist der heutige Ertrag, gemessen am Düngereinsatz und im Vergleich zu 1961 um mehr als 70% gesunken:

Per  Kilo Stickstoff wurden folgende Erträge erzielt:

1961 2006
Weizen 126 kg 45 kg
Soja 131 36 kg
Reis 217 kg 66 kg
Mais 226 kg 76 kg

Dass die anfänglich gefeierte Ertragssteigerung durch synthetische Dünger langfristig nicht haltbar ist, weil das Verhältnis zwischen Input und Output eben nur scheinbar linear ist, ist ja nichts Neues. Schon Ende der 1970er Jahre gab es erste Warnungen über die „Grenzen des Wachstums bzw. über die missachteten ökologischen Regelkreise der Natur und das fehlende systemische Denken.

Einer dieser Propheten war Herbert Gruhl, der mit seinem Buch Ein Planet Wird Geplündert“ (1978) für große Furore sorgte, weil er als CDU-Politiker den Wahnsinn des Wachstumsparadigmas anprangerte und dafür wie ein Häretiker und Spinner von seiner Partei und den vermeintlichen „Wirtschaftsexperten“  behandelt wurde.

Doch Gruhl hatte mit allem, was er kritisierte, recht (mehr dazu später) und so zeigte er schon 1978 auf, dass die Erfolgsstory der industriellen Landwirtschaft in Wahrheit ein Märchen ist. Als praktisches Beispiel diente u. a. eine Tabelle über den steigenden Energieaufwand beim Maisanbau:

Aus einer Statistik des Wissenschaftsmagazins Science (Vol. 182, Nov. 1973, 445) ergab sich folgendes Bild:  Die gesamte Aufwandsenergie für Arbeit, Maschinen, Strom, Treibstoff, Dünger (N, P, K) Samen, Bewässerung, Pestizide, Trocknung, Transport wird dem Maisertrag (in Kilokalorien) gegenüber gestellt:  Daraus ergeben sich folgende Verhältnisse:

1945 925.500 kcal Aufwand für     3.427.000 kcal  Ertrag

Verhältnis:        1: 3,7 0

1964 2.242.000 kcal  Aufwand für    6.854.000 kcal Ertrag

Verhältnis:        1: 3,06

1970 2,896.000 kcal Aufwand für     8.165.000 kcal Ertrag

Verhältnis:        1: 2,82

2009: Verhältnis:        2: 1?

Das heutige Verhältnis ist mit Sicherheit inzwischen negativ, man muss also mehr Energie investieren, als im Endeffekt dabei herauskommt.  Soviel zum Thema „Effizienzsteigerung“ in der Landwirtschaft durch „moderne“ Anbaumethoden, die man inzwischen vermehrt den Entwicklungsländern aufs Auge gedrückt hat und die kleinräumige, traditionelle Landwirtschaft als Auslaufmodell  lächerlich macht.

Doch – big surprise – die Hungernden bzw. Unter- oder Mangelernährten auf der Welt werden nicht weniger, der Zugang zu erschwinglichen Nahrungsmitteln wird immer mehr zum Privileg einer wohlhabenden Minderheit, wie auch kürzlich beim „Hungergipfel“ in Rom beklagt wurde (siehe dazu meinen Beitrag Papst, Hunger, Kaffee etc. wo es natürlich auch um Handelspolitik geht)

Aber auch der exponentiell steigende Verbrauch von synthetischen Düngern war bereits damals ein Thema. Gruhl griff noch weiter zurück, bis 1949. Damals wurden weltweit 3,10 Millionen Tonnen Stickstoffdünger verbraucht. Bis 1961 hatte sich dieser Bedarf mehr als verdreifacht, bis 1978  auf  rund 48 Millionen Tonnen gesteigert, das entspricht einer Steigerung von 1.548% in 29 Jahren.

Zum Vergleich, die Weltgetreideernte stieg zwischen 1950 und 1984 um 250%, bis 1994 hatte sie sich verdreifacht. Der Energieeinsatz hatte sich bereits vervierfacht. Seitdem stiegen sowohl der Energieeinsatz als auch der Einsatz von Düngern und Pestiziden, doch die Erträge können nur mehr marginal gesteigert werden und sinken weiter im Verhältnis zum Input wie oben bereits ausgeführt.

Da die fossile Energie immer teurer wird und gleichzeitig die Erzeugerpreise systematisch nach unten getrieben werden (davon profitieren natürlich die großen Food Multis, die sie verarbeiten -siehe dazu meine älteren Beiträge unter „Landwirtschaft“) haben die Bauern keine Chance in diesem System, es sei denn, sie werden zu „Unternehmern“ (die Familie muss durch andere „Projekte“ ernährt werden)  oder Agrarfabriken, die mit „Agrikultur“ nichts mehr zu tun haben und die Zerstörung der Bodenfruchtbarkeit noch mehr beschleunigen.

Heute liegt der N-Düngerverbrauch bei mehr als 90 Millionen Tonnen pro Jahr. Solche Steigerungsraten kann kein System auf Dauer aushalten, weder das komplexe Ökosystem des Ackerbodens, noch die übergeordneten Systeme und natürlich führt diese exorbitante Ausbeutung der Rohstoffe (z.B. Rohphosphat) dazu, dass sie nicht mehr lange vorhanden sein werden.  Den beschränkten, weil viel zu kurzen  Planungshorizont der Politik beklagte Gruhl schon 1978: „Die Bodenschätze sind unser Kapital, nicht unser Einkommen“, (sie werden aber weiter so behandelt)  und schüttelt den Kopf darüber, dass in der ökonomischen Theorie nur die Produktionsfaktoren Kapital und Arbeit Beachtung finden, aber weder „Natur“ noch „Energie“. Dazu kommt noch der Irrsinn, dass industrielle Großverbraucher von Energie durch besonders niedrige Preise belohnt werden.

Graphik 3.17:   Globaler Verbrauchstrend für Stickstoffdünger, 1961–2001 ( in Millionen Tonnen)

Die so genannte gewaltige  “Produktivitätssteigerung in der Landwirtschaft ist also in Wahrheit ein gewaltiger Selbstbetrug, denn der Einsatz der Arbeitskraft ist zwar dramatisch verringert worden und der Ertrag gesteigert, dafür wurde eben immer mehr Energie eingesetzt, wobei das Verhältnis zwischen Input und Output mittlerweile negativ ist! Worin besteht der Fortschritt, wenn man die Ernten vervierfacht, aber den Energieeinsatz verzehnfacht und dabei noch die Bodenfruchtbarkeit und die Biodiversität schrittweise ruiniert?

Man könnte auch sagen, wir „essen“  mit jedem Weizenkorn fossile Energien.  Es gibt Berechnungen, wonach in einem Kilogramm Stickstoffdünger das Energieäquivalent von  etwa 1,4 – 1,8 l Diesel steckt. Für eine Tonne wären das (Mittelwert 1,6) dann 1.600 l Diesel, für die 100 Millionen Tonnen Jahresverbrauch (die wir bald haben) sind das

160. 000. 000. 000 Liter Diesel pro Jahr

nur für Stickstoffdünger

Wenn man noch die Prozessenergie der industriellen Lebensmittelverarbeitung dazurechnet, ist das ganze endgültig ein Irrsinn, weil für jede Nahrungskalorie, die vor allem in  Form diverser Convenience Produkte auf unserem Tisch landet, insgesamt etwa 10 Kalorien Energie verbraucht wurden.

Der Konsum tierischer Produkte (vor allem Fleisch) ist natürlich an sich energieintensiver, denn für eine Fleischkalorie muss man zwischen 3 und 10 Pflanzenkalorien einsetzen.

(Die Tiere bewegungsunfähig zu machen, um Futter zu sparen, ist die perverse Folge einer irrationalen Sichtweise, die Lebewesen (weil sie essbar sind) wie Maschinen behandelt, deren „Effizienz“ dadurch gesteigert wird. Dass diese Form der Tierquälerei als biologischer Bumerang zu uns zurückkommt (Geflügelpest, pardon „Vogelgrippe“ etc.), ist klar, wenn man das Ausbrechen von Tierseuchen  als negatives Feedback erkennt. Diese Rückkopplung sollte ein starkes Indiz dafür sein,  einen unhaltbaren Zustand (Massentierhaltung) zu beenden, doch dazu reicht das Denkvermögen offenbar nicht aus. Stattdessen werden Millionen Tiere getötet und dann macht man weiter, wie bisher ….)

Dass für die Produktion von synthetischen Düngern Energie aus fossilen Quellen verbraucht wird (vor allem Erdöl und Erdgas), macht die Sache noch schlimmer, besonders im Kontext der aktuellen Klimadebatte. Dabei fällt auf, dass die Landwirtschaft in Kopenhagen so gut wie gar nicht erwähnt wird (jedenfalls nicht in den Medien).

Der Energieeinsatz in der „modernen“ Landwirtschaft lässt sich wie folgt aufteilen: (am Beispiel der USA)

  • 31% für die Düngerherstellung
  • 19% für landwirtschaftliche Maschinen (Feldbearbeitung)
  • 17% für Transport
  • 13% für Bewässerung
  • 8% für Tierhaltung (ohne Futter)
  • 5% für Trocknen der Ernte
  • 6 % für Pestizidherstellung

Der Einsatz von organischen Düngern in der biologischen Landwirtschaft, die quasi als Nebenprodukt ohne zusätzlichen Energieeinsatz in einer Kreislaufwirtschaft entstehen,  ist also schon für sich alleine eine gewaltige Verbesserung der Energie- und Stoffbilanz und ein Beitrag zum „Klimaschutz“.

Dass durch den intensiven Einsatz von Agrochemie aber langfristig auch die Bodenfruchtbarkeit abnimmt ist ein Riesenproblem, das viel zu wenig beachtet wird. Die leichte Verfügbarkeit der Nährstoffe wirkt wie ein „Doping“ im komplexen Bodenleben. Die Mikroben vermehren sich explosionsartig, was wiederum den Abbau der organischen Substanz beschleunigt, wodurch vermehrt Kohlendioxid freigesetzt wird. Der ganze Stoffkreislauf wird also auf „Turbo“ gesetzt, was damit endet, dass die organische Substanz immer weniger wird und auch die Bodenorganismen abnehmen, weil der natürliche Regulationsprozess nicht mehr funktioniert. Es kommt zu Bodenverdichtung (auch die Folge schwerer Maschinen), der Boden kann weniger Wasser und Nährstoffe  speichern, die Wurzeln der Pflanzen verkümmern (u.a. auch weil die Symbiose mit Wurzelpilzen gehemmt ist) usw.

Ohne ein ausgewogenes Verhältnis zwischen organischer Masse, Bodenlebewesen und Verfügbarkeit von Mikro-Nährstoffen (die sich alle gegenseitig beeinflussen, dazu kommen natürlich noch andere Faktoren wie das Wetter, die Bodenbearbeitung /  Pflege, negative Umwelteinflüsse (z.B. Industriegifte) u.v.a. nimmt die Bodenfruchtbarkeit ständig ab.  Das „lineare“ Denken, das Frederic Vester schon vor dreißig Jahren angeprangert hat, ist aber immer noch vorherrschend, weshalb die Reaktion auf diese Probleme  völlig falsch ist und den Prozess der Bodendegradierung noch beschleunigt (positive Rückkopplung).

Man bringt noch mehr Dünger aus und wundert sich dann, warum die Erträge nicht mehr gesteigert werden können, während die Produktionskosten weiter nach oben gehen. Nicht selten ist es an diesem Punkt, dass Bauern erkennen, in welche Sackgasse die industrielle Landwirtschaft führt und dass die Kosten – Nutzenbilanz eindeutig negativ ausfällt.

Der hohe Einsatz von Stickstoffdünger hat aber auch für den „Klimawandel“ verheerende Folgen, denn aus dem Ackerboden entweichen Stickoxide, die im Vergleich zum Kohlendioxid   200 mal effektiver sind). Diese Stickoxide sind für  mehr als 40% der Treibhausgase verantwortlich, die die Landwirtschaft erzeugt.

Doch wie oft in einem komplexen System, dessen Selbststeuerung durch menschliche Eingriffe unterminiert wird, kommt es zum Aufschaukeln ungewollter Effekte: Denn die Abnahme organischer Masse behindert nicht nur die Nährstoffaufnahme der Pflanzen sondern reduziert auch die Kapazität des Bodens als Kohlenstoffspeicher. Ein ausgewogenes Verhältnis zwischen Stickstoff und Kohlenstoff kann nicht mehr gewährleistet werden.

Nach konservativen Schätzungen hat die organische Masse um etwa 1-2% abgenommen (in der etwa 30 cm dicken Humusschicht). Das klingt ziemlich mickrig. Doch hochgerechnet auf die gesamte Ackerfläche sind das etwa 200 Millionen Tonnen. Ohne diesen Verlust könnten etwa  330 Millionen Tonnen Kohlendioxid aus der Luft gefiltert und im Boden gespeichert werden.

Versuchen wir nun, den Einsatz von synthetischen Düngern als Paradebeispiel für lineares Denken (man fokussiert auf  eine Ursache  und  eine Wirkung) und die Missachtung des Systemcharakters darzustellen:

Logik für Simple Minds: (die reduktionistische Betrachtung der Natur als Maschine….)

  • Prämisse: Pflanzen brauchen Nährstoffe, die sie dem Boden während des Wachstums entziehen
  • Schlussfolgerung:  ersetzt man diese Nährstoffe durch Dünger, (N, P, K), ist ewige Fruchtbarkeit garantiert; je mehr Dünger, desto größer die Ernte, oder wie?

Völlig ignoriert:

  • Welche anderen Faktoren  beeinflussen die Bodenfruchtbarkeit?
  • Welche Effekte hat der Dünger- und Pestizideinsatz auf diese Faktoren (und damit die Bodenfruchtbarkeit)?
  • Welche Regelkreise werden durch den menschlichen Eingriff  gestört?
  • Welche schädlichen Wirkungen entstehen dadurch (oft zeitverzögert )?
  • Welche „Führungsgröße“ (Ziel) bestimmt das menschliche Verhalten (der Produzenten)?  Maximierung des Ertrags >> Profitstreben
  • Von welchen Zielen werden die ökologischen Regelkreise gesteuert?
  • Erhaltung der Bodenfruchtbarkeit und Artenvielfalt, Stabilität der Ökosysteme, Stabilität des Mikroklimas,  des Wasserhaushaltes, etc.

Doch die Steigerung der Erntemengen ist noch aus anderer Sicht eine Illusion:  Die Pflanzen mögen schneller wachsen, doch die neuen „Hochleistungssorten“ sind weniger wert, als die alten, lokal angepassten Sorten. Warum? Weil sie  weniger Mineral- und Nährstoffe enthalten als früher und weil sie weniger aushalten (an Umweltstress).

In einer Dokumentation („Je suis mal à la terre“) von ARTE, die schon vor einiger Zeit gezeigt wurde, konnte man sehen, dass der angebliche „Fortschritt“ keiner ist: Ein Getreidebauer in Frankreich hat sich auf den Anbau alter Weizensorten (nach „alten“ Methoden, also eigentlich biologisch, spezialisiert (man könnte auch sagen, er hat damit experimentiert, denn offiziell ist dieser Anbau sogar verboten!). Diese sind rein optisch sofort von den modernen Sorten zu unterscheiden: Die Getreidehalme sind sehr hoch (1,50 – 1,70 m), knicken aber trotzdem nicht so leicht um und sind resistenter gegen Pilzkrankheiten.

Sie sind für die maschinelle Verarbeitung in Großbäckereien nicht geeignet, weil sie einen höheren Eiweißanteil haben. „Moderne“ Sorten wurden ja für diese Erfordernisse gezüchtet:

  • durch das Düngerdoping schossen die Halme zunächst in die Höhe, wodurch sie bei Wind leicht umknickten. Deshalb mussten auch „Wachstumshemmer“ eingebaut werden.
  • durch das Ammoniumnitrat (Stickstoff) werden die Wände der Pflanzenzellen aufgedunsen und dünn. Die Pflanze ist durch das „Turbowachstum“ geschwächt und anfällig für Krankheiten.
  • Durch die kurzen, sehr dicht beieinander stehenden Ähren wird zusätzlich die Entstehung von Pilzkrankheiten gefördert. Also mussten Fungizide her.
  • Durch die „modernen“ Monokulturen hatten Schädlinge ein Festmahl (ohne Feinde) vor sich, also mussten Insektizide her, usw.

Das Ende vom Lied sind Weizensorten, die sich prima von und in Maschinen verarbeiten lassen, aber weniger Eiweiß enthalten, als die alten Arten und auch der Mineralstoffgehalt ist gegenüber ökologisch intakten Böden reduziert.  Das heißt also, wir müssen mehr Weizen essen, um die gleiche Menge der Nährstoffe zu bekommen, die in den alten Sorten enthalten waren. Dafür bekommen wir aber Pestizidrückstände „gratis“ dazu ….

Ähnliche Zustände gelten für Gemüse und Obst:  2003 wurde in England ein Bericht veröffentlicht, der zu folgenden Ergebnissen kam: Zwischen 1940 und 1990 betrug der Verlust an Mineralstoffen bei Gemüse im Durchschnitt:  (die Vergleichswerte stammten aus einer Studie aus dem Jahr 1940  des Medical Research Councils, dessen Forschung später vom  britischen Landwirtschaftsministerium fortgeführt wurde)

  • 24% Magnesium
  • -46% Calcium
  • -27% Eisen
  • 76% Kupfer

Nach diesen Untersuchungen müsste man heute  z.B.  8-10 Tomaten essen, um die  gleiche Menge Kupfer aufzunehmen, als mit einer Tomate aus dem Jahr  1940*Das ist doch „Fortschritt“, oder nicht?

(* Quelle: „We Want Real Food“ / Graham Harvey, Chapter 4, page 52)

Fortsetzung folgt ….

Quellen: 

Earth Matters (GRAIN Report)

Millenium Assessment

Agroecology and the Search for a Sustainable Agriculture


Keep Dreaming: Illusionen aus Kopenhagen

NASA Wissenschaftler James Hansen schrieb kürzlich ein op-ed über den Emissionshandel als angebliche  „Klimaschutzmaßnahme“  in der New York Times. Darin hieß es u. a.:

„Weil  das “cap & trade System” durch den Handel mit Emissionsberechtigungen funktioniert, perpetuiert man in Wahrheit die Umweltbelastung, die angeblich dadurch reduziert wird. Wenn die Emissionen aller Verursacher unter die (kontinuierlich sinkende) Obergrenze fielen, würde der Preis der Emissionskredite kollabieren und die wirtschaftlichen Gründe für die Reduzierung der Emissionen würden verschwinden.“

Damit nicht genug, wird auch das so genannte „Offsetting“ (Aufrechnen oder „Neutralisieren“ von Emissionen) als Alternative zu echten Emissionssenkungen gefördert. Dazu gehören z.B. das Pflanzen von Bäumen auf brachliegendem Land oder das Verhindern der Abholzung eines bestehenden Waldes, wobei diese Aktionen in erster Linie in den Entwicklungsländern passieren. Doch es ist kaum zu überprüfen, ob diese tatsächlich stattgefunden haben und die große Armut und Verteilungsungerechtigkeit in den betreffenden Ländern lässt wenig Hoffnung, dass diese „Verrechnung“ mit ökologisch positiven Aktionen ohne gewaltige Korruption stattfinden wird. Außerdem stellt Hansen zu Recht fest, dass das Verzichten auf eine Waldrodung an einer Stelle ja den Bedarf an Holz nicht reduziert, so dass der Wald eben an einer anderen Stelle  abgeholzt wird.

Das ganze ist also eine Charade, ein riesiger Betrug. Ein Urteil, zu dem auch Johan Hari (hervorragender Journalist der britischen Zeitung THE INDEPENDENT) kommt:

Leaders of the rich world are enacting a giant fraud

Hansen weist auch darauf hin, dass die echte Führungsrolle bei der Gestaltung von Klimaschutzgesetzen (gemeint sind hier die USA, doch das gilt auch für die EU)  wieder einmal von den Lobbyisten übernommen wird, denn sie sorgen dafür, dass die Emissionsberechtigungen GRATIS verteilt werden und dass ein Großteil des Geldes, das mit dem Emissionshandel eingenommen wird, für absurde Projekte wie die Erforschung der „sauberen Kohle“ aufgewendet und so wieder die Verwendung fossiler Brennstoffe weitergetrieben wird.

BET AND WIN“ – MIT INDUSTRIEABGASEN

Der Gipfel des Wahnsinns ist aber, dass die Wall Street Spekulanten schon ganz scharf darauf sind, eine neue, gigantische  Blase aus Derivaten zu erzeugen, diesmal ist die Wertbasis eben nicht eine Immobilie (bzw. das aufgeblasene Darlehen dafür) sondern das Kohlendioxid (je Tonne)  wird als solche  gehandelt. Man kann sich vorstellen, wie sich perverse Praktiken wie „naked short selling“ (Verleih bzw. Verkauf von Phantompapieren)  auf diese Preise auswirken werden …

Diesen Irrsinn beklagt auch ein Report der Umweltorganisation „Friends of the Earth mit dem passenden Titel: A Dangerous Obsession: Man muss sich vorstellen, dass die ursprüngliche Idee davon ausgeht, dass nur Betroffene diese Emissionsrechte kaufen bzw. verkaufen.

In der realen (perfiden) Welt der Finanzmärkte und Terminbörsen läuft das Spiel natürlich völlig anders: Die Zertifikate werden selbst zur begehrten Handelsware, denn ihre Preise (fiktiven Werte) können natürlich manipuliert werden (z.B. durch Leerverkäufe, betrügerisches Offsetting, etc.). Das Handeln mit diesen Papieren wird also nicht von den betroffenen Emittern oder unabhängigen Prüfstellen kontrolliert, sondern von Akteuren beherrscht, die nur zum Zweck der Bereicherung daran teilnehmen.  Bereits jetzt gibt es mehr als 80 „Kohlenstoff-Investment“ Fonds, die mehr als 13 Milliarden Dollar verwalten und täglich Transaktionen von Millionen Dollar abwickeln. Wie bei den existierenden Derivaten, ist auch hier Transparenz und Kontrolle reines Wunschdenken, denn die Banklobbyisten sorgen stets dafür, dass jeder Versuch, sie zu kontrollieren, im Keim erstickt wird.

Der größte Umschlagplatz für Emissionspapiere ist natürlich die EU. Mehr als 80% der „Kohlenstoff-Kredite“ und ca. 75% des globalen Wertvolumens werden hier gehandelt. In den USA gibt es bisher nur ein kleines Schema, an dem 10 Bundesstaaten teilnehmen, doch ein Gesetz für eine bundesweite Regelung hat schon die erste Hürde (Repräsentantenhaus) genommen (Waxman-Markey American Clean Energy and Security Act)

International gilt das IET: (International Emissions Trading) für alle Unterzeichner des Kyoto Protokolls, doch die „Vereinbarung“ enthält viele Schlupflöcher, die die Verantwortung für Kohlenstoffemissionen teilweise ad absurdum führen.

Jedes Land bekommt eine „Menge“ an CO² zugeteilt, die es nicht überschreiten darf. Erreicht man weniger Emissionen, kann man die überschüssigen Papiere an andere Länder verkaufen. Überschreitet man die zugewiesene Menge in einem Jahr, wird erwartet, dass dies im nächsten Jahr ausgeglichen wird und man muss eine „Strafe“ zahlen.

WIE FUNKTIONIERT DAS EU ETS?

Das im Jahr 2005 unterzeichnete Abkommen betrifft mehr als 11.500 energieintensive Unternehmen innerhalb der EU. Darunter sind Kraftwerke, Ölraffinerien, Kokereien, Stahlproduktion bzw. Metallindustrie, Fabriken für Zement, Glass, Ziegel, Keramik, Papier und Pappe, etc. Zusammen stellen diese Betriebe etwa 42 % der EU Emissionen dar, die insgesamt rund 4 Milliarden Tonnen CO²  pro Jahr ausmachen.

Rund 800 Unternehmen sind für mehr als 60% der Emissionen verantwortlich und man schätzt, dass etwa 55% der Emissionsrechte von den Energieversorgern gehalten werden.

Das Kyoto-Abkommen wurde von der EU (als Einheit) unterzeichnet und damit sind die Mitgliedsländer verpflichtet, insgesamt 8% weniger CO² zu produzieren als 1990 und zwar im Zeitraum von 2008-2012 (durchschnittlich ca. 5% pro Land)

Die Verantwortung für die Erreichung dieses Ziels ist jedoch nicht gleichmäßig verteilt, sondern im so genannten „Burden-Sharing agreement“ geregelt. Jedes Land bekommt eine bestimmte Menge (AAUs) Emissionen zugeteilt, jeweils für eine Tonne CO² bzw. ein Äquivalent. Jedes Mitgliedsland kann einen Teil der Zertifikate als handelbare „allowances“ (EUA) an energieintensive Betriebe übergeben (diese Zuteilung wird von der EU Kommission abgesegnet).

Einmal im Jahr (im März) werden die beteiligten Unternehmen überprüft: Haben sie ihre Emissionen gesenkt oder nicht? Die große Frage ist natürlich, wer kontrolliert das und wie stellt man sicher, dass diese Prüfer unabhängig sind? Woher kommen diese „Auditoren“ (IAV)?

Wurde der Ausstoß reduziert, kann der Betrieb überschüssige EUA verkaufen oder auf „Lager“ halten, bis der höchste Preis erzielt wird. Dann gibt es noch „zertifizierte Emissionsreduzierungen“ (CER) und Kredite für „Offsetting“, also ein Aufrechnen von klimafreundlichen Maßnahmen (oft tausende km entfernt und kaum überprüfbar) an einem anderen Ort. Wie man berechnen, geschweige denn beweisen kann, dass diese Maßnahmen (so sie denn wirklich stattfinden) einer bestimmten CO² Reduzierung  (in % oder Tonnen) entsprechen, ist an sich eine sehr dubiose Sache. Das ganze ist wohl nur eine PR-Inszenierung, die vorgaukeln soll, man tue wirklich etwas …

Nach Angaben der FSA (UK) wurden Anfang 2008 täglich etwa  7,6 Millionen Tonnen an der ECE (Klimabörse) gehandelt (in Form von Optionen, Futures, etc.), das ist ein Anstieg um fast 200% gegenüber dem Vergleichszeitraum des Vorjahres. Insgesamt wurden 2008  mehr als 3 Milliarden EUA gehandelt, was einem Gesamtwert von etwa 67 Milliarden Euro entspricht.

FUNKTIONIERT DER „KOHLENSTOFF-MARKT“ WIRKLICH?

Dazu eine klare Antwort: NEIN. Die Architekten des bestehenden „Cap & Trade“ Systems können ihre Versprechungen nicht halten. Die effektive Senkung der Emissionen ist eine Fiktion (was man ja wohl auch schon vorher wusste, das ganze Theater ist eine PR-Show und könnte unter dem Titel „The Great Reduction Hoax“ laufen – siehe dazu auch den o.a. Artikel von Johan Hari)

Ohne den Emissionshandel wäre wohl gar keine „Reduktion“ (die ohnehin nur auf dem Papier existiert) erkennbar und damit steht Europe fast auf gleicher Stufe wie die USA: messbarer Erfolg praktisch Null.

Zwar gab es 2008 eine leichte Abnahme bei den Emissionen, aber die ist mit großer Wahrscheinlichkeit auf die Wirtschaftskrise zurückzuführen und nicht auf die Effektivität des Emissionshandels.

Woran liegt es?

(1)    Die Grenzwerte sind zu hoch, wodurch automatisch zu viele Emissionsrechte vergeben wurden, das zeigte sich auch in einem dramatischen Preisverfall in der „Phase I“  zwischen 2005 – 2007.  (siehe dazu auch Hari über die der UDSSR zugeteilten Rechte und ihr anschließender Kollaps in den Anarchokapitalismus unter Jelzin, wodurch natürlich die industrielle Produktion zusammenbrach, die Emissionsrechte hätten also reduziert werden müssen, stattdessen wurden sie verscherbelt …)

Obwohl die Grenzwerte in der Phase II gesenkt wurden, gibt es noch immer zu viele Zertifikate auf dem Markt. Dies sorgte zusammen mit der Kontraktion der Wirtschaft durch die Finanzkrise für einen weiteren Preisverfall (Februar 2009: 8 Euro pro Tonne, das ist ein Verlust von 70% gegenüber dem Höchststand im Juli 2008) Es gibt Schätzungen, wonach mehr als 700 Millionen (Tonnen) überschüssige Emissionsrechte vorhanden sind. Diese „heiße Luft“  im System sorgt dafür, dass man sie billig kaufen kann, ohne echte Anstrengung, die eigenen Emissionen zu senken.

(2) Das „Offsetting“ (Neutralisieren) ist ein gigantischer Betrug.

Im Rahmen des „Clean Development Mechanisms“ (CDM) dürfen nur solche Maßnahmen (hauptsächlich in Entwicklungsländern) eingerechnet werden, die zusätzlich ergriffen werden (nicht ohnehin von der Regierung geplant waren). Doch wie kann man das überprüfen?

Der CDM Ausschuss ist stark unterbesetzt und deshalb auf Dritte angewiesen, wenn es um die Prüfung des behaupteten klimafreundlichen Projekts geht.  In der Praxis heißt das, dass die Kontrolleure von den Projektbetreibern bezahlt werden, was natürlich ein massiver Interessenkonflikt ist. CDM Investoren drängen auf rasche Abwicklung um die Transaktionskosten zu minimieren und so gibt es so gut wie keine neutrale Kontrollinstanz.  Aber damit nicht genug, führen solche Systeme natürlich auch zu „Anreizen“, die kriminelle Energien befördern, also ein Betrug lukrativ ist.

International ist die Lage noch schlimmer: Die Kohlendioxidemissionen nehmen weltweit zu, die Zuwachsrate  betrug seit 2000 mehr als  3%, während sie in den 1990er Jahr etwas mehr als 1% ausmachte., der Trend ist also eindeutig steigend. Das kann niemand verwundern, angesichts des immer noch vorherrschenden Wachstumskultes.  Diese Entwicklung hat selbst  die intensivsten Berechnungen des IPCC noch übertroffen, (A1F1 Scenario) das von einem durchschnittlichen Temperaturanstieg von 2,4 – 6 Grad bis zum Ende dieses Jahrhunderts ausgeht.

Quelle: Raupach, M R et al 2007: Global and regional drivers of accelerating CO2 emissions. PNAS, vol. 104:24, p.10288-10293.

Hansen schlägt eine bessere Alternative vor: „Gebühr und Dividende“. Bei dieser Variante würde eine langsam steigende „Kohlenstoffabgabe für jede eingeführte Einheit Kohl, Öl oder Gas anfallen (eine Art Einfuhrzoll bzw. Karbon-Strafsteuer bei eigener Erzeugung). Dadurch würden natürlich die Preise (fast) aller Produkte steigen und zwar umso mehr, als Kohlenstoffemissionen bei ihrer Erzeugung anfallen.

Diese Einnahmen müssten (nach meiner Ansicht) natürlich in den Ausbau der alternativen Energiesysteme fließen und jegliche Subventionen für die fossilen und atomaren Energieträger müssen gestoppt werden. Damit würde die Wettbewerbsverzerrung im Energiesektor endlich zugunsten klimafreundlicher und ökologisch akzeptabler Systeme umschwenken und nicht länger den Status Quo der etablierten „Fossilien“ (gemeint sind die CEOs der Energieunternehmen  und ihre politischen Freunde) erhalten.

Hansen weist auch an einem praktischen Beispiel darauf hin, wie unsinnig  „cap & trade“ ist: Sagen wir mal, Sie kaufen ein kleines, sparsames Auto. Das reduziert natürlich ihre persönlichen CO²-Emissionen, aber nicht die Ihres Landes. Stattdessen erlaubt es jemand anderem,  ein größeres Auto zu kaufen, weil die Grenze der Emissionen ja schon festgelegt ist und ein Unterschreiten nicht belohnt wird. In einem „Gebühr und Dividende“ System würde jede Aktion, die der Reduzierung von Emissionen dient, belohnt und damit attraktiv für die Nachahmung, wodurch die Werte immer weiter nach unten gingen. Die Vermeidung von Kohlenstoffemissionen würde sich also lohnen und so würden die fossilen Energieträger sich Schritt für Schritt selbst als unrentabel eliminieren.

Doch das allein ist natürlich keine Lösung für das viel größere Problem: Wer steuert die industrielle Produktion insgesamt? Wer bestimmt also, was produziert wird? (Diese Frage stellte auch schon E.F. Schumacher in seinem Klassiker „Small is Beautiful“)

Der „Markt“ hat sich als 100%iger Flop erwiesen, da er  (vor allem seine dominanten Akteure) jegliche Verantwortung für soziale und ökologische Schäden ignoriert (bzw. „externalisiert“) und die „Leistung“ der Führungsetagen nur am erzielten (kurzfristigen) finanziellen Profit gemessen wird.

In einer Gesellschaft,

  • die von Kapitalinteressen beherrscht wird, ist es die höchste Pflicht jedes Managers oder Vorstandsvorsitzenden, die „Anleger“ zufrieden zu stellen, sprich die Dividenden und Gewinne  jährlich zu steigern. Wie es z.B. der Deutschen Bank gelingen konnte, zweistellige Renditen zu erzielen, während die reale Wirtschaft bei 1,2 oder 3% dahindümpelte, hat sich offenbar niemand gefragt, und der Betrug geht weiter …. (dank AIG bailout money und neuen Bilanzierungsregeln…)
  • die vom Kult des ewigen „Wachstums beherrscht wird, ist es absurd über „Klimaschutz“ zu diskutieren, denn die Klimaproblematik ist ja nur ein Symptom dieser „Krankheit“; Wachstum ist ein Begriff aus der Biologie und hat in der Wirtschaft eigentlich nichts verloren. Wachstum bedeutet einen Zyklus von Geburt, Reife, Alter und Tod, wobei ein Fließgleichgewicht im System erhalten werden muss. Alle lebenden Systeme haben ein Prinzip der Selbstbeschränkung und Selbstkontrolle, das notwendig ist, damit das übergeordnete System (als Lebensgrundlage) erhalten werden kann (Mehr zum ökologischen Aspekt im nächsten Beitrag )

Wenn die Beschränkung des Wachstums gestört ist, kommt es zu Wucherungen: die Krebszelle zeigt klar, dass diese scheinbare „Überlegenheit“ im Wettbewerb mit anderen Zellen, zum bitteren Ende führt: der Organismus wird schließlich zerstört und somit auch die „erfolgreiche“ Krebszelle. Da die wirtschaftliche Produktion in den natürlichen Produktionskreis eingebettet ist, kann sie die ökologischen Regelkreise nicht einfach ignorieren bzw. längerfristig sabotieren, ohne dass am Ende die Rechnung präsentiert wird.  Kurz gesagt:  endloses Wachstum IST das Problem, nicht die Lösung. Wie Frederic Vester („Wer steuert den Steuermann?“) so beeindruckend in seinen Büchern gezeigt hat, ist der Mensch ein ziemlicher Idiot, wenn es darum geht, systemisch zu denken. Ein ähnliches Zeugnis stellten auch Herbert Gruhl und Erich Fromm schon vor dreißig Jahren aus. Doch die Politik hat nichts dazu gelernt, im Gegenteil (siehe das bekloppte  „Wachstumsbeschleunigungsgesetz“….)

  • in der die klassischen Wirtschaftstheorien wenig mit beweisbarer Wissenschaft zu tun haben, sondern mehr mit Ideologie und Festhalten an einem Dogma, kann man nicht erwarten, dass „führende“ Wirtschaftsinstitute der „Religion“ abschwören und das Dogma der market society stürzen. Im Gegenteil, selbst nach mehreren schweren Finanz- u. Wirtschaftskrisen hält man an der heiligen Dreifaltigkeit fest und versucht mit der selben Denkweise, die uns in den Abgrund führt, die gewaltigen Probleme zu lösen. Das kann nicht funktionieren.

Deshalb ist es auch sinnlos, Leute wie Herrn Sinn ständig in Talk-Shows einzuladen. Wir brauchen Dissidenten, wirtschaftliche Häretiker wie Gruhl, die endlich klarstellen, dass der bisherige Kurs ein völliger Schwachsinn ist, wenn man endlich die überlebenswichtigen systemisch relevanten Parameter  bei der wirtschaftlichen Erfolgsbilanz  mit einbezieht.

Dass Unternehmen auch Teil eines sozialen und ökologischen Systems sind, wird völlig ausgeblendet. Man spricht nur von „Wettbewerb“ (der Skrupellosigkeit) und „Wachstum“.  Doch worum dreht sich der Wettbewerb? Wer bestimmt, welche Kriterien den Erfolg eines Unternehmens ausmachen? Die Finanzoligarchen (à la Deutsche Bank), die ihre „giftigen“ fiktiven Vermögenswerte auslagern und in großem Stil die Bücher manipulieren („mark to myth„)?

Bereits im alten Griechenland wusste man zu unterscheiden zwischen einer Ökonomie für den Gebrauch (die nützliche Dinge produziert) und einer „Bereicherungskunst“, also Wirtschaften für den Profit, die als „widernatürlich“ angesehen wurde (jedenfalls bei Aristoteles). So gesehen gibt es heute keine echten Ökonomen, die „haushalten“, sondern „Chrematisten“, besonders seit der Übernahme der Welt durch das Wirtschaftscredo der „Chicago Boys bzw. die „Liberalisierung“ der Finanz- und Kapitalmärkte haben sie die Oberhand gewonnen und selbst wenn ihre perfiden Wett-Spiele die ganze Welt in Gefahr bringen, werden sie von der Gesellschaft „als systemrelevant  gerettet“.  Das ist eine Farce der besonderen Art.

Haben unsere Medien eigentlich schon begriffen, was hier gespielt wird? Die Billionen, die man zur „Rettung der Banken“ aufgewendet hat, kommen ja gleichzeitig von den Banken, denn der Staat hat ja das Geld nicht (und kann auch selbst keines „drucken“, wie viele glauben). Er muss also seine bereits hohen Schulden bei den Banken in astronomische Höhen treiben, damit er sie dann damit „retten“ kann. Einfach genial, oder?

In dem Klassiker von Hyman P.Minsky (Stabilizing An Unstable Economy) steht ein sehr simpler, aber fundamentaler Satz:

Banks are not money-lenders. They lend money they do not have.“ (Geld, das gar nicht existiert, sondern erst in Form von „Schulden“ generiert wird …)

Dazu gibt es ein sehr anschauliches Video (eigentlich zwei): Money as Debt (I und II (in Englisch))

Die hiesigen, banalen Medienkommentare zu Kopenhagen sind ein weiteres Indiz für den zunehmenden Trend des „Kindergarten-Journalismus“. Man arbeitet die üblichen „Talking Points“ ab (z.B. Platitüden über China, USA, Frust der ärmeren Länder, Obama’ Rolle, etc.) aber der größere Kontext fehlt völlig.

Die Wirtschaftspolitik muss so radikal umgekrempelt werden, dass ein „Paradigmenwechsel“ schon ein Understatement ist. Wachstum und Wettbewerb sind gefährliche und dumme Schlagwörter, deren Sinn und Auswirkungen kein Journalist mehr hinterfragt, doch darin liegt die Wurzel der großen Probleme (bei Verharren im bisherigen Kurs eine Art kollektiver Selbstmord in Raten), die wir bewältigen müssen.

Normalizing the Abnormal:

Zusammengefasst kann man sagen, dass die Darstellung der gegenwärtigen „Wirtschaftspolitik“ nichts anderes ist, als die Präsentation des Irrationalen, des Irrsinnigen und Krankhaften als vernünftiges Verhalten, das auch noch„Dividende“ abwirft und sich Wörter wie „zukunftsfähig“ gestattet.

Ein schönes Beispiel dafür gab es kürzlich im deutschen Fernsehen. Zuerst zeigte man in der Sendung „Kontraste(ARD), dass der neue „Umweltminister“ Jürgen Röttgen dem gefährlichen, alten Atomreaktor in Biblis einen Persilschein erteilte, obwohl die Probleme mit den minderwertigen Stahlrohren im Kühlwassersystem nicht gelöst wurden und ein erhebliches Sicherheitsrisiko darstellen.

(Anmerkung:  der Link zum Video auf der Homepage von „Kontraste“, ja der ganze Beitrag („Röttgen verhindert Aufklärung“ -Sendung vom 3.12. als Follow-Up)  ist verschwunden – interessant, nicht?)

Wenn man kurz darauf zum ZDF „zappte“, sah man Herrn „Röntgen“  bei Maybrit Illner sitzen, lächelnd, gutmütig dreinschauend,  der „Schwiegersohn“-Typ eben, wo er vom „Energieberater“ der Bundesregierung als Ausnahmepolitiker bezeichnet wurde, weil er sich (im „Gegensatz zu normalen Politikern“) um das Schicksal zukünftiger Generationen Sorgen mache, weil er eben weiter denke als andere, also ein hohes Verantwortungsbewusstsein habe, etc. (weshalb er wohl auch einen der berüchtigtsten Atomlobbyisten als zuständigen Leiter des Bereichs  „Reaktorsicherheit“ ernannte …)

Das war einer der seltenen Momente, wo politische Heuchelei  zur Realsatire wird.

Aber auch der „mündige Bürger“ bietet sich als großartiger Satirestoff an,  so wie heute in Bayern 2, als ein Hörer in der Sendung „Notizbuch“ anrief (Thema: Wechsel des Stromanbieters. Er erkundigte sich nach einem „Tarif“, in dem der Strom ausdrücklich nicht aus „alternativen“Energiequellen stamme (er wollte also nur Kohle und Atom), denn diese seien doch „nur hoch subventionierte Arbeitsplatzbeschaffung“  die nur die Stromkosten verteuerten …

Angesichts der Tatsache, dass die Subventionen für Kohle und Atom etwa fünf mal so hoch sind, als jene für erneuerbare Energien, und die gesundheitlichen und ökologischen Schäden dieser Energiegewinnung enorm, kann man nur mehr George Orwell anrufen:

Ignorance is Strength. Freedom is Slavery.

Oder lassen wir doch Albert Einstein auch  das Schlusswort:

Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher.



Das Böse des Banalen: Klimaverschwörung und Medien

Es überrascht nicht, dass sich ein Großteil der Presse wieder einmal als „Multiplikator“ für einen bewusst erzeugten Medienskandal hergibt und  davon spricht, dass „die Schlacht zwischen Befürwortern und Gegnern der Ansicht, dass der Mensch für globale Erwärmung verantwortlich ist, neu entfacht“. Das ganze könnte auch unter der Überschrift „Context is everything kommentiert werden.

Es geht hier um den „Skandal“, dass Hacker in einen Server einer englischen Universität eingedrungen sind und e-mails von Klimaforschern veröffentlicht haben, die dann als „Beweis“ für Manipulationen dienen sollen. Man will uns also weismachen, es handle sich bei der ganzen Klimadebatte um eine bewußt herbeigeführte Hysterie.

Meistens  sind die wenigen Zeilen über die gehackten Mails im Reportageteil äußerst dürftig, es gibt aber auch Ausnahmen, wie etwa die Süddeutsche, die offenbar „geschnallt“ hat, was hier gespielt wird.

Dass die Wissenschaft nicht sakrosankt ist, und es dort beinharte Konkurrenzkämpfe und menschliche Eitelkeiten gibt, die streng seriöse Forschung gefährden, ist ja nicht neu. Durch die zunehmende Ökonomisierung der Wissenschaft, die mit der Kürzung öffentlicher Haushalte und der neoliberalen Ideologie einhergeht, ist natürlich die Gefahr der Korruption noch größer geworden. „Science for Sale war ja nicht umsonst schon der Titel von Symposia, die sich die Frage stellen, wohin geht die Wissenschaft? Wer bestimmt, was und wozu geforscht wird? (z.B. Wer will, braucht Nanotechnologie in Konsumartikeln und wer weiß über die Risiken Bescheid?)

Im Februar 2007 machte das CRU Schlagzeilen, weil man seinen Wissenschaftlern jeweils 10.000 Pfund angeboten hatte, damit sie den kurz vor der Veröffentlichung stehenden, umfassenden Klimabericht der UN diskreditieren, der die Profiteure der fossilen Energienutzung weiter unter Druck brachte. Nach Berichten des britischen Guardian kam dieses Geld vom AEI, das aber nur als „front group für die Ölkonzerne fungierte, eine PR-Praxis, die die großen Tabakkonzerne schon vor Jahren etabliert haben. Das Geld war als „incentive“ für die Veröffentlichung von Artikeln gedacht war, die das IPCC in Verruf bringen, also seine Glaubwürdigkeit und wissenschaftliche Kompetenz unterminieren sollte.

Generating controversy war auch eines der zentralen Strategien der Tabaklobby, der es gelang, mehr als drei Jahrzehnte lang, die öffentliche Meinung zu manipulieren, indem man mit allen Mitteln eine wissenschaftliche Kontroverse schürte, die es in Wahrheit nie gab: nämlich, die Zweifel an der in wissenschaftlichen Studien festgestellte Schädlichkeit des Rauchens für die menschliche Gesundheit und später auch im Kontext des Passivrauchens. Diese erfolgreiche Strategie inkludierte auch das Abhalten wissenschaftlicher Symposien („Junk science“, die den Namen wirklich verdiente, wie etwa in Wien in den 1980er Jahren), deren Ergebnisse schon von Anfang an feststanden, weil die wissenschaftlichen Leiter auf der Lohnliste von Philip Morris u.a. standen, wie gerichtliche Monsterprozesse in den USA später aufdeckten. Gleichzeitig wurden Kampagnen über „sound science betrieben …

Die „Third Party Technik ist dabei immens wichtig, weil die Lobby selber natürlich keinerlei Glaubwürdigkeit hat, deshalb müssen andere gesellschaftliche Gruppen und scheinbar unabhängige Organisationen, (z.B. Think Tanks) aber vor allem Wissenschaftler in den Medien erscheinen, die die Interessen der Lobby transportieren, die aber medial nie in Erscheinung tritt. Unter dem seriös klingenden Namen eines  „Institutes“ oder einer  „Stiftung“ wird hier der Öffentlichkeit vorgegaukelt, es handle sich um Gruppen, die nur am Fortkommen der Gesellschaft interessiert, und deren „Experten“ nur wissenschaftlichen Prinzipien verpflichtet seien, während sie in Wahrheit ideologisch fragwürdige, wirtschaftliche Dogmen gekoppelt an Profitinteressen repräsentieren (bei uns ist hier wohl an erster Stelle die Bertelsmann-Stiftung zu nennen, die eigentlich der wirkliche Autor von „Hartz IV“ und anderen Stigmatisierungen von Armut und Arbeitslosigkeit ist …).

Dr. David Viner, der Leiter des CRU an der Universität von East Anglia, sagte damals:

“Das IPCC Verfahren ist wahrscheinlich die gründlichste und öffentlichste Bewertung, die jemals in einer [wissenschaftlichen] Disziplin unternommen wurde.  Diese Aktion unterminiert das Vertrauen der Öffentlichkeit in die wissenschaftliche Community und die Fähigkeit der Regierungen, soliden wissenschaftlichen Rat anzunehmen.“

Das Ziel dieser PR-Strategie ist einerseits die Polarisierung der Debatte durch die o.a. Methoden, andererseits die Verstärkung von menschlichen Schwächen, die ohnehin schon vorhanden sind. War es nicht Aldous Huxley, der bemerkte:

„Das erstaunlichste am Menschen ist nicht sein Verstand, sondern seine Neigung, Fakten zu ignorieren (oder in Frage zu stellen), deren Akzeptanz eine massive Verhaltensänderung nach sich ziehen müsste. Man müsste sich eingestehen, dass das eigene Verhalten [oder die Wirtschaftspolitik] dumm, kurzsichtig und langfristig destruktiv ist, das ist aber so unangenehm, eine solche Kränkung für das Ego, das man lieber die Fakten torpediert und weiter macht wie bisher .“

Wer profitiert von diesem Verhalten? Dass ausgerechnet jetzt, 2 Wochen vor dem Klimagipfel in Kopenhagen dieser „Skandal“ rund um das CRU ans Licht der Öffentlichkeit kommt, ist ein starkes Indiz dafür, dass hier Akteure am Werk sind, die im Verborgenen bleiben wollen, und dass es nicht um die Bewahrung ethischer Grundsätze in der Wissenschaft geht, sondern um die Verstärkung von Zweifeln (wie bei der Zigarettendebatte), die die drohenden Paradigmenwechsel in der Energie- und Wirtschaftspolitik verhindern (oder zumindest weiter verzögern) sollen.

Dass die großen PR-Firmen in den USA schon seit Jahren mit äußerst perfiden Methoden im Interesse ihrer corporate clients agieren (und die Medien davon wenig mitkriegen) ist schon schlimm genug. Doch man sinkt offenbar moralisch immer tiefer: das letzte ist „astroturfing“ und die mediale Projektion der eigenen Schandtaten (absolut keine moralische Authorität) auf den Gegner (eine Taktik, die z.B. Israel gegenüber der UN zuletzt erfolgreich praktiziert hat) – die wohl auch hier angewandt wurde.

Die Umstände, unter denen diese Korrespondenz gehackt und veröffentlicht wurde, sind wie gesagt, sehr seltsam und es liegt auf der Hand, dass hier ein „Skandal“ erzeugt wurde, der eigentlich keiner ist. Man darf auch nicht vergessen, wie aggressiv und – häufig unter der Gürtellinie – diese Wissenschaftler von der Energielobby attackiert wurden. Wenn die „Karotte“ nicht wirkt (siehe die erwähnte Guardian -Story aus 2007 ), dann muss wohl der PR- „Knüppel“ ran. Dass man in E-mails unter Kollegen einen (vielleicht zu) lockeren Ton anschlägt, dass man Zitate, die aus dem Zusammenhang gerissen wurden, völlig anders darstellen kann, ist auch nicht neu. Ebenso wenig die Tatsache, dass die Veröffentlichung von brisanten wissenschaftlichen Studien in peer-reviewed Journals ein Politikum geworden ist (siehe z.B. die Chapela Studie über die Kontamination von wildem Mais mit  transgener DNA  in Nature, die – einmalig in der Wissenschaftspublizistik –  vom Herausgeber zurückgezogen wurde) – doch darüber schreiben die Medien nichts, außer, wie im vorliegenden Fall, wenn sich die Forschung gegen bestehende Profitinteressen (hier der fossilen Energielobby) richtet.

Darum sollten sich unsere Medien einmal kümmern: Hat Ethik heute in der Wissenschaft noch Platz, wenn sich alles nur mehr ums Geld dreht oder um die Erhaltung des energie- (u. macht-) politischen Status Quo? (siehe Biotech-Research: schnelles Patent, statt solider Grundlagenforschung;  oder die absurde, völlig schwachsinnige Kernfusionsforschung, die in der Presse meistens völlig kritiklos dargestellt wird. Der Journalist als Lohnschreiber, der es sich nicht leisten kann, Dinge als gefährlichen Schwachsinn zu bezeichnen?

Bitte die Graphik anklicken!

Auch wenn sich herausstellt, dass diese E-mails authentisch sind, und einige Wissenschaftler dieses Institutes „faith-based science“ praktiziert haben, ändert das nichts daran, dass wir vor einer ökologischen Katastrophe stehen, die es in diesem Ausmaß nie vorher gab. Dabei geht es natürlich nicht „nur“ um Temperaturveränderungen, Änderung der Niederschlagsverteilung (von Dürren bis Hochwasser), steigende Meeresspiegel, etc. sondern um die andauernde Zerstörung von Ökosystemen, deren Leistungen für unser Überleben unverzichtbar sind. Dass sich die mediale Debatte nur um CO² dreht, zeigt bereits, wie kurzsichtig und unzulässig vereinfacht, das komplexe Thema angegangen wird, denn die Wachstumsideologie ist unhaltbar und bringt uns alle um (siehe Club of Rome Berichte, etc.).

Nur ein Autist, ein nicht lernfähiger Ignorant oder ein bezahlter Lobbyist bzw. „Tintenknecht“ zweifelt heute noch daran, dass die natürlichen Regelkreise, die das Klima beeinflussen und im größeren Kontext auch die Überlebensfähigkeit der Ökosysteme steuern, vom (ziemlich schwachsinnigen) industriellen Produktionskreis der Menschen überfordert werden und in nicht allzu langer Zeit kollabieren werden.

Dazu braucht es keine neuen Statistiken mehr, keine endlosen Debatten über „Hockeystick-„Kurven“ und Methodologie der Klimaforschung, nur offene Augen und Ohren.

Wer 15 Grad im November noch als normal ansieht, wer die Natur genau beobachtet, kapiert auch so, das hier etwas unheimliches im Gange ist, das mit statistisch normalen Schwankungen nicht mehr erklärt werden kann.

Doch die banale Rhetorik der Talking Points in den Medien lässt der Vernunft wenig Chancen: „Klimawandel oder „globale Erwärmungsind verharmlosende Euphemismen, die das Problem völlig irreführend darstellen. Natürlich ist es richtig, dass sich das Klima langfristig immer ändert, dass es immer wärmere und kältere Phasen gab, entscheidend ist jedoch der Zeitraum, in dem diese Änderungen stattfanden. Waren es früher 10.000ende Jahre, sind es heute Jahrzehnte, in diesem Tempo kann sich die Natur nicht an solche Änderungen anpassen. Dass sich ein Leitartikel damit befasst, um wie viel Grad die Durchschnittstemperatur oder um wie viel cm genau der Meeresspiegel steigen wird, zeigt, dass der Blick auf das Wesentliche völlig fehlt. Auch die Aussage, es sei noch „kein Land von steigenden Meeren überspielt worden“ zeigt eine erschreckende Ignoranz, nach dem Motto, wenn es heute, morgen oder nächste Woche nicht passiert, besteht wohl keine Gefahr oder anders gesagt, das klingt nach: „Erst wenn ich selbst gesehen habe, glaube ich es auch“. Muss ich einen Lungenkrebstoten sehen, damit ich an die Gefährlichkeit des Rauchens glaube? Nein, ich muss nur meinen Verstand einschalten (siehe Huxley).

Für uns sind ein halbes Grad, oder ein Grad ein Witz, für fein abgestimmte biologische Systeme aber nicht. In der Meeresbiologie können Veränderungen von nur einem halben Grad schon Störungen der Fortpflanzung bewirken. Dieses microtuning oder die kurzfristige Veränderung eines Mikroklimas an Land ist wahrscheinlich viel relevanter für die Gefährdung der Stabilität von Ökosystemen, als die ständige Beobachtung globaler Durchschnittstemperaturen. Das Problem dreht sich eben nicht nur um Klimawerte, sondern gleicht einem globalen Zerstörungskrieg (als „Wirtschaft“ bekannt, doch eher die Chrematistik, nicht die „Ökonomie“ der Griechen), der von den Wachstumsfanatikern natürlich nicht beachtet wird, im Gegenteil sie sind irgendwo in den 1980er Jahren stecken geblieben, wo man der aufkeimenden Umweltbewegung noch entgegenhielt: Man müsse doch das Geld erst erwirtschaften, mit dem man den „Umweltschutz“ finanzieren könne. Der „Washington Consensus“, als letztes Stadium des Kapitalismus,  bringt uns letztlich alle um, das ist das Problem.

Den besten und umfassendsten Kommentar dazu lieferte der CDU-Dissident Herbert Gruhl in seinem Buch „Ein Planet wird geplündert“, das man allen Journalisten eindringlich als Lektüre empfehlen müsste, bevor sie sich zum Thema „Klimawandel“ oder Umwelt- und Wirtschaftspolitik äußern …

Dass Herr Langenbach (wie viele andere) anscheinend auch das Opfer der „generating controversy“ Strategie geworden ist, überrascht auch nicht wirklich. Warum sonst würde er schreiben: „Entschieden ist es nicht?“ oder noch besser „die Natur hat viele Rückkopplungen“.

Stimmt, doch hier geht es um positive Rückkopplungen: (z.B. nach Abschmelzen des Polareises kommt es zu einer noch stärkeren Erwärmung, weil die dunklen Flächen mehr Wärme absorbieren und das freiwerdende Methan (vorher Permafrost) den Prozess weiter aufschaukelt). Die Puffersysteme, die eine negative Rückkopplung bewirken könnten,  (z.B. Aufnahme von CO2 durch Wälder und andere Senken) werden gleichzeitig zerstört (so schnell, dass Wiederaufforstung (wieder „Nutzwald“ statt natürliches Ökosystem) zu spät kommt und bei Urwäldern gar nicht möglich ist) und auch die Meere sind schon übersäuert.

Auch das Fazit zur Energiepolitik: „Wir haben die großen Alternativen noch nicht und werden sie so rasch auch nicht haben“ klingt nach Banalität und Resignation. Was haben denn die Medien dazu beigetragen, damit dieser dringend nötige Paradigmenwechsel stattfindet?

Die ersten Warnungen über den Wahnsinn des Wachstums stammen doch schon aus den 1970er Jahren! Erich Fromm (Haben und Sein), E.F. Schumacher (Small is Beautiful), die Berichte des Club of Rome oder des Wuppertal-Institutes, das feststellte, wenn alle den „westlichen Lebensstil“, also den Konsumwahn des Wirtschaftswachstums-Kultes (aus den USA) übernehmen (oder die bevölkerungsreichen Länder wie China), bräuchten wir 6 Planeten, um diese Ressourcen bereitzustellen!

Was unter diesem Aspekt vom „Wachstumsbeschleunigungsgesetz“ der deutschen Bundesregierung zu halten ist, ist wohl klar … Merkel, Westerwelle, „off-balance-sheet accountant“ Schäuble und zu Guttenberg: das Horrorkabinett der neoliberalen Indoktrination geht unbeirrt seinen Weg der Zerstörung weiter, unterstützt von Journalisten, die nichts kapiert haben ….

Vielleicht sollte man statt dem „Economist“ (Wirtschaftsteil der Zeitungen) und den bescheuerten (weil manipulierten) Börsenkursen mal einen „Ecologist“ einführen, der den Leuten klarmacht, dass die herkömmliche Art der „Wirtschaft“  uns direkt in den Abgrund führt!

Aber das kann man wohl von unseren Journalisten nicht erwarten, stattdessen „business madness as usual“ : Wachsdummswahn ohne Ende und das kriminelle „carbon-trading“, das nur der Bereicherung dient …

Quellen:

Scientists Offered Cash to Dispute Climate Study

Hans von Storch Website

Climate sceptics claim leaked e-mails are evidence of collusion

Greenfacts.org