Donnerstag, 24. Mai 2012

Der Atom-GAU: 200mal wahrscheinlicher als gedacht ?Mainzer Forscher publizieren atomare Horrormeldungen.

FIKTIONEN

Zitat einer Artikelunterüberschrift im Handelsblatt am 23.05.2012: "Mainzer Forscher haben berechnet, wann es zur nächsten Atomkatastrophe kommen könnte. Demnach ist das weltweite Risiko für einen katastrophalen Reaktorunfall offenbar deutlich größer als bislang angenommen."

Zitat einer Artikelüberschrift in Welt Online am 23.05.2012: "Atomarer Super-GAU droht alle zehn bis 20 Jahre".


FAKTEN

Die Titel schocken: Alle 10 bis 20 Jahre ein atomarer Super-GAU (Welt Online) und die Mainzer Forscher wüssten sogar wann (Handelsblatt). Na, dann schau'n mer mal genauer hin, damit wir dem atomaren Fallout rechtzeitig mit ökologisch korrekten Elektromobilen entfleuchen können.

Die Forscher des Mainzer Max-Planck-Institutes zählten Kernschmelzen, teilten durch Reaktorjahre, multiplizierten mit Anzahl in Betrieb befindlicher Kernkraftwerke, sind mächtig stolz auf diese Leistung und publizieren das Ganze als Schreckensmeldung einer um bis 200mal größeren Eintrittsrate für einen katastrophalen Reaktorunfall, als bisher geschätzt. Schlechte Nachrichten verkaufen sich besser, als gute Nachrichten. Wissenschaft und Journalismus nach dem Hysterie- und Katastrophenprinzip?

Empirisch zu arbeiten, so wie es die Mainzer Forscher machen, ist bewährt und wissenschaftlich anerkannt. Die gesamte Probabilistik beruht auf diesem Prinzip. Sie nimmt beobachtete Ereignisse ermittelt Wahrscheinlichkeiten, Eintrittsraten, Folgeereignisse, usw. Aus Daten der Vergangenheit werden Risiken berechnet, die für eine überschaubare Zukunft innerhalb bestimmter Vertrauensgrenzen als möglich angenommen werden können.

Alle probabilistischen Berechnungen sind jedoch nur so gut, verlässlich und aussagekräftig, wie es die Datenbasis ist. Große Datenbasen sind besser, als kleine. Ganz kleine Datenbasen sind untauglich. Was machten die Mainzer Forscher den Pressemeldungen zufolge? Sie nahmen die untauglichste aller Datenbasen, die winzigste. Mit 4 beobachteten Ereignissen bei 14.500 Beobachtungszeiträumen Statistik zu machen, ist nicht aussagekräftig.

Wie sieht es mit Beobachtungszeiträumen und Ereignissen aus?

Beobachtungszeiträume: Die Anzahl der Reaktorjahre lässt sich einfach zusammenzählen. Datensammlungen sind weltweit verhanden, die Daten sind verlässlich.

Ereignisse: Was ist mit der Anzahl der Kernschmelzen und deren auslösenden Ursachen? Die Mainzer Forscher nehmen 1mal Tschernobyl (1986) und 3x Fukushima (2011). Solide Datenbasis?

Wie wir wissen, wurde in Tschernobyl unter fahrlässiger, man könnte es auch krimineller nennen, Deaktivierung von Sicherheitsfunktionen experimentiert. Das Ergebnis ist bekannt. Tschernobyl ist ein Reaktor, der für militärische Zwecke gebaut wurde, und der leichtfertig betrieben wurde. Mit Daten eines Reaktors Prognosen zu erstellen, dessen Unfall sich als Folge fahrlässiger (krimineller?) betrieblicher Handlungen entwickelte, ist im probabilistischen Sinne nicht seriös.

Das Fukushima-Unglück ereignete sich infolge von "Einwirkungen von Außen" (EVA), die an diesem Standort bei einer Wahrscheinlichkeit von praktisch 1 in der Anlagenauslegung hätten berücksichtigt sein müssen. Accident-Management-Prozeduren für den Post-Accident-Anlagenbetrieb waren nicht eingerichtet und dementsprechend nicht verfügbar. Die japanischen Betreiber und die japanischen Behörden wussten davon und blieben dennoch untätig. Auch bei Fukushima liegen die Unglücksursachen im (grob?) fahrlässigen Umgang mit Auslegung, Genehmigung, Errichtung und Betrieb der Anlage. Deshalb gehört auch Fukushima nicht in eine solide Datenbasis für probabilistische Bewertungen.

Damit reduziert sich die Anzahl der Kernschmelzen, die als probabilistisch solide Daten für technisch bedingte Ereignisse gelten könnten, von 4 auf 0.

Diese Probabilistik auf der Grundlage kleiner Zahlen ergibt: Null Ereignisse, 14.500 Reaktorjahre = Eintrittsrate eines "katastrophalen Reaktorunfalles" ist Null/Jahr.

Probabilistiker halten nichts von Statistiken, die auf kleinen Datenumfängen beruhen. Deren Aussagekraft ist verschwindend klein und damit für wissenschaftliche Zwecke, für die Auswahl technischer Konzepte und technischer Detaillösungen und für Prognosen untauglich.

Es ist bedauernswert, dass renommierte Institute im Stile des apokalyptischen Klimawandel-Mainstream atomare Katastrophen-Szenarien in die Welt setzen, deren wissenschaftlicher Wert fragwürdig ist.

Wem soll dieses atomare Katastrophenszenarium nützen, verehrte Forscher des Mainzer Max-Planck-Institutes?

Ergänzende Literatur:
Günter Keil: Die Energiewende ist schon gescheitert