Kernkraftwerke und Wahrscheinlichkeitsrechnung
Ein Mißverständnis.
Im Fernsehen kommt gerade eine Sendung über die Risiken der Kernkraft. Da kritisieren Leute, daß man sagt, daß die Fehlerwahrscheinlichkeit sonundso niedrig läge, und trotzdem wären die in Japan in die Luft geflogen.
Darin liegt ein erstaunliches Mißverständnis (auf beiden Seiten).
Die Aussage, daß ein Ereignis eine niedrige Wahrscheinlichkeit hat, sagt gar nichts darüber aus, ob es bei der nächsten Stichprobe auftreten wird oder nicht. Man kann wunderbar ausrechnen, daß die Wahrscheinlichkeit, im Lotto 6 Richtige zu habe, so und so niedrig ist, und trotzdem kann man weder voraussagen noch ausschließen, welche Kombination in der nächsten Ziehung kommt. Entgegen landläufiger Meinung haben nicht einmal die 6 Richtigen von letzter Woche eine niedrigere Wahrscheinlichkeit als die anderen, denn obwohl der Volksmund glaubt, daß der Blitz nicht zweimal an derselben Stelle einschlägt (was übrigens gar nicht so zufällig ist) oder zweimal dieselben Lottozahlen kommen, haben alle Zahlen die gleiche Wahrscheinlichkeit. (Da die Zahlen zwar beim der Ziehung, nicht aber beim Tippen der Bevölkerung gleichverteilt sind, ist zwar die reine Gewinnwahrscheinlichkeit, nicht aber die Zahl der Gewinner und damit auch die Gewinnhöhe nicht über die Zahlen gleichverteilt.)
Was ist also eine Wahrscheinlichkeit, wenn sie nichts über das Eintreten eines Ereignisses sagen kann? Sie ist ein Grenzwert. Zu sagen, daß ein bestimmtes Ereignis mit der Wahrscheinlichkeit p eintritt, sagt deshalb überhaupt nichts darüber aus, ob es bei der nächsten Probe eintritt, sondern daß sich die Quote der Proben, bei denen das Ereignis eintrat, immer mehr an p annähert (konvergiert), je mehr Proben man zieht (gegen unendlich laufen läßt). Wahrscheinlichkeinten in der Wahrscheinlichkeitsrechnung haben deshalb immer damit zu tun, daß man sehr viele Proben zieht. Hat man nur wenige Proben, dann gibt es zwar wieder wahrscheinlichkeitstheoretische Aussagen darüber, mit welcher Wahrscheinlichkeit man mit sowas richtig liegt, was aber auch nur wieder was darüber sagt, ob man sich eine Aussage in der Vielzahl der Fälle leisten kann, aber nicht, ob sie in diesem Fall zutreffend ist.
Bemerkenswerterweise wissen selbst viele der Leute, die technisch-mathematische Fächer studiert haben nicht, daß ein Ereignis mit Wahrscheinlichkeit 0 nicht ausgeschlossen ist. Zwar ordnet man einen ausgeschlossenen Ereignis die Wahrscheinlichkeit 0 zu, der Umkehrschluß ist aber nicht in jedem Fall richtig und hängt davon ab, welche Menge von Ereignissen möglich ist. Wählt man beispielsweise zufällig eine reelle Zahl zwischen 0 und 10, dann ist die Wahrscheinlichkeit, dabei genau die Wurzel aus 3 zu treffen, offentlichtlich gleich Null. Ausgeschlossen ist es aber nicht.
Und mir kommt es gerade so vor, als ob wir auf dieser Welt nicht genug Kernkraftwerke (insbesondere nicht genug in relevanten Situationen wie Erdbeben) haben, um überhaupt die nötige Stichprobenbreite zu haben, um sich Aussagen zur Wahrscheinlichkeit des Eintritts eines bestimmten Störfalls leisten zu können.
Man kommt in solchen Fragen meist auch nicht dadurch zu solchen Wahrscheinlichkeiten, indem man betrachtet, wie wahrscheinlich es ist, daß das Kraftwerk explodiert oder das Flugzeug vom Himmel fällt. Man betrachtet solche Fälle als eine Verkettung, ein Zusammentreffen gewisser anderer Ereignisse, über die man mehr weiß, und die man dann nach den Rechenregeln der Stochastik und der Kombinatorik miteinander verknüpft. Man baut beispielsweise Flugzeuge so, daß sie normalerweise bei einem Systemversagen nicht abstürzen, sondern immer mehr als ein Problem auftreten muß, und kann dann durch Anwendung der Rechenregeln ausrechnen, wie wahrscheinlich es ist, daß dieses mit jenem zusammentrifft. Das ist also Entscheidungstheorie.
Das ist so aber nicht haltbar.
Erstens wieder aus dem besagten Grund, weil Entscheidungstheorie selbst wieder wahrscheinlichkeitstheoretische Aussagen trifft. Würde man sehr, sehr viele Kraftwerke, Flugzeuge, Flüge führen, dann sagt einem die Entscheidungstheorie, mit welcher Entscheidung man die höchste Erfolgsquote über alle diese Objekte hat (Konvergenz). Sie sagt aber nichts bzw. nicht viel darüber, was die bessere Entscheidung im Einzelfall ist. Ein Beispiel: Bin ich ein Unternehmen, das 10.000 Gebäude besitzt, ist es sinnvoll, auf eine Feuerversicherung zu verzichten, weil die Prämien ja auch nur das Risiko verteilen, aber zusätzlich die Versicherung mitverdient. Da fahre ich günstiger, das Risiko selbst zu übernehmen, weil ich so viele Gebäude habe, daß ich in die Konvergenz komme. Habe ich aber nur ein Haus, dann ist die Wahrscheinlichkeit, daß es abbrennt, immer noch dieselbe. Aber das Kostenrisiko runiert mich im Brandfall. Obwohl die Entscheidungstheorie bzw. das Controlling zu dem Ergebnis käme, daß es besser wäre, auf die Versicherung zu verzichten, ist es im Einzelfall ein Fehler, darauf zu verzichten, obwohl sogar bei der Betrachtung von nur einem Haus die Versicherung im Mittel teuerer ist als der Hausbrand (was nun wieder eine Aussage ist, die sich auf viele Hausbesitzer beziehen muß). Wenn wir also sagen, daß die Wahrscheinlichkeit einer schweren Panne in einem Kraftwerk bei p liegt, dann kann man daraus die Aussage folgern, daß uns von (theoretisch angenommenen) 1 Million Kernkraftwerke eben 1000000 * p Kraftwerke um die Ohren fliegen, aber nicht, daß uns von 100 Kraftwerken keines um die Ohren fliegt.
Der zweite häufige Fehler ist, daß die Rechenregeln für unabhängige Einzelereignisse verwendet (oder die Abghängigkeiten unterschätzt) werden, die Ereignisse aber gar nicht so unabhängig sind, wie man glaubt. Es kann zwar sein, daß ein Ereignis A diese und ein anderes Ereignis B eine andere Wahrscheinlichkeit hat, man die Wahrscheinlichkeit für eine Katastrophe aus dem Zusammentreffen A und B nicht einfach durch multiplizieren finden kann, weil die Wahrscheinlichkeit von B bei Eintreten von A viel höher ist als bei separater Betrachtung, eben weil sie nicht unabhängig sind. Bricht die Schraube A, könnte auf der Schraube B eine höhere Belastung liegen, womit sie dann eher ebenfalls bricht, als bei allgemeiner Betrachtung. Oder daß die Schrauben aus der selben Charge stammen und dieselbe Macke haben. Oder einfach gleich alt sind und gleich ermüden.
Dazu gehört auch, daß man den Unterschied zwischen Safety und Security oft übersieht. Ich wurde im IT-Security-Umfeld häufig gefragt, wie hoch ich die Wahrscheinlichkeit angeben würde, daß dies oder jenes aufgebrochen würde. Man möchte dann oft so eine Aussage haben, daß bei zwei kaskadierten Firewalls die Wahrscheinlichkeiten bei p und q liegen, daß sie durchdrungen werden, um daraus zu folgern, daß die Wahrscheinlichkeit für das Durchdringen beider Firewalls bei p*q liegt. Ich habe dann immer darauf hingewiesen, daß man in der IT-Security einen aktiven, geplant vorgehenden Angreifer und kein zufälliges, aleatorisches Ereignis hat. Wenn der angreift, dann greift er hier und nicht woanders an, und hat eine Strategie. Und ich habe (in der Regel) nur den Einzelfall, komme also erst gar nicht in den Konvergenzbereich, in dem ich Wahrscheinlichkeitsüberlegungen anstellen kann. Und aufgrund der Angriffs-Strategie sind Ereignisse wie das Durchbrechen einer Firewall nicht unabhängig. Wer die erste Firewall durchdrungen hat, wird die zweite mit einer deutlich höheren Wahrscheinlichkeit durchdringen, als der durchschnittliche Angreifer. Vielleicht hat er auch einen Angriff gefunden, gegen den Firewalls überhaupt nichts nutzen, und der Schutz daher nicht mit der Zahl der Firewalls steigt. Und wenn der Angreifer vorher an anderen Firewalls geübt hat, was ich nicht beobachtet habe, kann ich auch keine Aussage mehr treffen. Es hilft gar nichts, wenn von einer Million verschiedener Angriffstypen nur einer durchkommt, wenn der Angreifer weiß, welcher das ist. Und wenn ein Angriff nur mit einer Wahrscheinlichkeit von eins zu einer Million funktioniert, hilft mir das auch nichts, wenn der Angreifer es einfach eine Million mal probiert. Ein Passwort zu erraten ist ziemlich unwahrscheinlich, trotzdem geht es verblüffend häufig, gibt es Rainbow-Tabellen usw. Und die vermeintlich hohe Sicherheit eines Authentifikationstokens kann baden gehen, wenn der Angreifer an geheime Informationen des Herstellers kommt.
Drittens können in der Wahrscheinlichkeitsrechnung erstaunliche Effekte auftreten, die Gefühl, Erfahrung und „gesundem Menschenverstand” widersprechen. Das Geburtstagsparadoxon ist so ein schönes Beispiel.
Wahrscheinlichkeitsrechnung ist eine heikle Sache. Und im Ergebnis häufig falsch, weil falsch angewendet. Sie ist aber trefflich geeignet, um der Öffentlichkeit zu suggerieren (oder die sich selbst einzureden), daß etwas nicht passieren würde, weil als Ergebnis irgendeiner Rechnung irgendwo irgendeine unfassbar kleine Zahl herauskommt.
Wichtigste Grundregel: Was eine Wahrscheinlichkeit hat, kann auch passieren. Könnte es nämlich nicht passieren, könnte man erst gar keine Wahrscheinlichkeitsrechnung anstellen oder Wahrscheinlichkeitsaussagen treffen. Dann wäre es ausgeschlossen und nicht unwahrscheinlich.
15 Kommentare (RSS-Feed)
| Ich kenne auch keinen Trick, der es erlaubt eine Ziehung
| zu simulieren. Nicht bei reellen Zahlen in einem Intervall.
Man muß für die Berechnung und den Test das gleiche Interval nehmen.
> Man muß für die Berechnung und den Test das gleiche Interval nehmen.
Was ist damit gemeint? Mach mal vor!
| Mach mal vor!
Wie will man denn eine Zahl wie Wurzel Drei treffen? Entweder ich teile den Zielbereich in Intervalle, mit denen ich die Wahrscheinlichkeiten ausrechne und die ich auch zum Test verwende oder ich muß ein Ende der irrationalen Zahl festlegen, sonst treffe ich sie im Test nie. Habe ich ein Ende festgelegt, so habe ich den Zielbereich unbewußt wieder in Intervalle zerlegt. Die Wahrscheinlichkeit, Wurzel Drei zu treffen ist dann eben nicht Null.
Ich muß etwas mit dem Ziel verbinden. Es muß etwas eintreten. Dazu muß ich sagen, wann Wurzel Drei getroffen ist. Dazu muß es ein Interval sein. Ein Diracstoß hätte sonst außerhalb der Mathematik auch keine Bedeutung. Damit stellt man den mathematischen Ansatz in Frage.
Wenn man so wie oben herangeht wär niemand in der Lage, Wurzel Drei auf ein Papier zu schreiben, denn das ist auch ein Treffen.
Daß Wurzel Drei die Wahrscheinlichkeit von Null hat ist ein Scheinproblem. In der Realität gibt es Nadelimpulse, auch wenn sie mathematisch eine Breite von Null haben.
Carsten
—
“The easiest person to fool is yourself.”
Richard Feynman
@Stefan: Der “Trick” heist Auswahlaxiom und die Wahrscheinlichkeit ist nahezu 0, aber natürlich nicht gleich 0.
@Michael: Inwiefern hilft hier das Auswahlaxiom?
@Carssten: Mit Wurzel auf’s Papier schreiben hat es nichts zu tun, weil ich das intentional tue, nicht zufällig.
Wenn ich sage, dass Wurzel 3 im Intervall von [1-2[ liegt, dann wird Wurzel 3 in 1/10-tel der Fälle getroffen. Ja. Das verwundert dann nicht, in der Tat.
Halbiert man das Intervall Millionen Male, so sieht das nicht mehr nach einem ganz so plumpen Betrug aus, aber das Prinzip bleibt das gleiche – man hat eben nicht die Zahl gewählt, sondern ein Intervall drumrum. Das ist aber trivial, und dafür muss man es nicht 1 Mio. mal halbieren. Nur, dass man Wurzel 3 überhaupt auswählen kann, oder eine beliebige andere Zahl mit gleicher Wahrscheinlichkeit, hat man nicht gezeigt.
Ich denke die Wahrscheinlichkeit für ein Ereignis ist die erwartete, relative Häufigkeit des Ereignisses. Dazu bestimmt man die Zahl günstiger Ereignisse in der Grundgesamtheit, wenn man, wie hier, von einer Gleichverteilung ausgeht. Die Grundgesamtheit ist aber unendlich, und nicht weiter bestimmbar.
Ich sehe das Problem der Wahrscheinlichkeitsrechnung bzgl. Kernkraftwerke und deren Sicherheit eher darin, dass es ja nie einen ernsthaften Versuch gab, die Wsk eines schwerwiegenden Reaktorunglückes zu berechnen, eben weil das zu komplex wäre und der Fehler zu groß. Dass solche Zahlen dennoch in Studien errechnet wurden liegt mehr am poplitischen Willen, der seine Formulierung von “unsere Kernkraftwerke sind die sichersten der Welt” gerne als wissenschaftlich korrekt darstellen wollte. Zudem wollte man gerne die Polarisierung im Denken von etwas Sicherem und etwas Unsicherem bedienen. Viele Menschen können eben nicht (korrekt) in Wahrscheinlichkeiten denken, so wie man es in der Finanzkrise gesehen hat. Das Bedienen der Politik von einer 100 prozeitigen Sicherheitsannahme ist dort auch aufgeblüht, auch wenn das reine Scharlatanerei ist.
Hallo Hadmut,
FULL ACK.
Danke für den Text. Ich bin übrigens aus dem technischen Bereich,
und mir ist dies alles sehr wohl bekannt. Die letzten Tage hatte ich auch drüber nachgedacht, das mal in Worte zu fassen… aber nun stehrt’s ja hier schon.
Was mich wundert: das Erstaunen der Physikerin Merkel. Und beim Röttgen… naja brauchen Juristen Wahrscheinlichkeitsrechnung und Statistik?
Bei der Merkel wundert’s einen aber… oder hat die die selbe Arbeitsmoral wie Guttenberg und hat bei den Wahrscheinlichkeits- und Statistik-Vorleseungen gepennt?
Ist ja auch schon seltsam, daß da in der Politik so Sache aufkommen, wie “das Unmögliche ist möglich geworden”, und wenn das von der CDU kommt, muss man wohl annehmen, Gott steckt dahinter, denn nur der kann ja Wunder vollbringen und unmögliches möglich machen 😉
Dem widerspricht aber die Käßmann heute im Fernsehen, als sie meinte, Gott wäre nicht der strafende Gott, dondern nur der, der den Opfern beisteht.
Naja, jeder bastelt sich seine Welt zurecht, wie ers braucht, aber immer mit Allgemeinheitsanspruch.
Zu dem Unmöglichen, das möglich wurde ein Zitat:
“Nicht das Unmögliche ist möglich geworden, sondern
das Mögliche ist wirklich geworden.”
( Volker Zastrow )
Es ist wohl überfällig, daß Politiker, die Entscheidungen in dieser Welt treffen, die reale Auswirkungen haben und sich nicht nur bei SimCity ausleben, sich mit den naturwissenschaftlichen und mathematischen Dingen auskennen, stat nur in Gruppen-Macker-Manier die horden hinter sich versammeln zu wollen.
Von Religioten braucht man aber eh nicht annehmen, daß sie daran besonders interessiert sind…
Der Spruch vom Möglichen ist gut, aber den habe ich in den letzten Tagen mehrfach gehört und gelesen, und war mir nicht mehr sicher, von wem der ursprünglich stammt.
Wobei ich es auch anders formuliert hätte: Wenn das für Unmöglich gehaltene möglich und das undenkbare denkbar geworden ist, dann heißt das einfach nur, daß man vorher nicht richtig nachgedacht hat.
@Stefan: nimm an, dass Du ein Wahrscheinlichkeitsmaß P hast, mit dem
Du jeder (geeigneten) Teilmenge B von [1,10] die Wahrscheinlichkeit P(B)
zuordnen kannst, dass die gewählte Zahl in B liegt. Insbesondere ist
also P([1,10]) = 1.
Wenn man dann verlangt, dass jede Zahl die _gleiche_ Wahrscheinlichkeit q hat,
gewählt zu werden (so ist wohl Hadmuts “zufällig” zu verstehen), dann
erzwingt die Additivität von P, dass jede Teilmenge S mit n Elementen
bereits P(S) = nq erfüllt. Aber nq ist nach oben durch 1 beschränkt und
das ist nur durchzuhalten wenn q = 0 ist.
@quarc: Ich weiß jetzt nicht, wie das weiterhelfen soll.
Die Wahrscheinlichkeit ist definiert als die Zahl der günstigen Ereignisse (bei Wurzel 3 ist das 1 günstiges Ereignis in [0,10[ (können wir 0-10 nehmen, statt 1?)) dividiert durch die Zahl aller möglichen Ereignisse. Letzteres sind unendlich viele – da kommt man also nicht weiter.
Wenn ich Intervalle nehme, also etwa [0,1[, [1,2[, …, dann kann ich zwar sagen, dass es ein günstiges Intervall dieser Breite in 10en gibt, aber ich muss unendlich oft die Größe des Intervalls verfeinern, um zur gesuchten Zahl zu kommen.
Die Unterstellung ist doch immer, dass man ein Ziel schon erreicht hat, aber man muss es sich immer blos vorstellen – in Wahrheit kann man es einfach nicht machen. Es mag ja in manchen Gebieten der Mathematik zulässig sein die heikle Unendlichkeit oder Null zu verwenden – für Wahrscheinlichkeitsbetrachtungen sehe ich keinen Sinn.
@Stefan:
> Ich weiß jetzt nicht, wie das weiterhelfen soll.
>
> Die Wahrscheinlichkeit ist definiert als die Zahl der günstigen
> Ereignisse (bei Wurzel 3 ist das 1 günstiges Ereignis in [0,10[ (können
> wir 0-10 nehmen, statt 1?)) dividiert durch die Zahl aller möglichen
> Ereignisse. Letzteres sind unendlich viele – da kommt man also nicht
> weiter.
Unter anderem deshalb ist Wahrscheinlichkeit i.A. so _nicht_ definiert
(abgesehen davon, dass es auch für endliche Ereignismengen verschiedene
Wahrscheinlichkeitsmodelle gibt).
Bei beliebigen Ereignismengen verwendet man anstelle der Mächtigkeit
von Teilmengen andere endliche Maße, und definiert das resultierende
Wahrscheinlichkeitsmaß gegebenfalls nicht mehr für jede Teilmenge.
Im vorliegenden Beispiel liegt es nahe, die Länge von Intervallen als
Ausgangspunkt zu nehmen.
> Wenn ich Intervalle nehme, also etwa [0,1[, [1,2[, …, dann kann ich
> zwar sagen, dass es ein günstiges Intervall dieser Breite in 10en gibt,
> aber ich muss unendlich oft die Größe des Intervalls verfeinern, um zur
> gesuchten Zahl zu kommen.
Brauchts Du nicht. Du bist schon beinahe auf dem richtigen Pfad:
frage erst einmal, wie hoch die Wahrscheinlichkeit ist, dass die von
Dir gewählte Zahl in einem vorgegebenen Teilintervall [a,b] von [0,10]
liegt. Das sollte doch proportional zur Länge des Intervalls sein.
Andererseits ist Deine Wahl immer in [0,10].
Also nehme man einfach P([a,b]) = (b-a)/10 als diese Wahrscheinlichkeit
(und genauso für offene oder halboffene Teilintervalle).
Anschaulich ersetzt Du also die “Anzahl der Fälle” durch die
“Länge des zu treffenden Intervalls”.
Dann ergibt sich P({a}) = P([a,a]) = 0 schon automatisch.
Allgemein ist das ganze seit fast 80 Jahren axiomatisch unter dem
Stichwort <a href="http://de.wikipedia.org/wiki/Wahrscheinlichkeitsma%C3%9F"Wahrscheinlichkeitsmaß beschrieben.
Aber ganz egal, welches Wahrscheinlichkeitsmaß man wählt, wenn
all einelementigen Teilmengen einer unendlichen Menge messbar sind
und unter dem Maß den gleichen Wert haben, dann muss der Wert gleich 0 sein.
Reaktorsicherheit
Nach Fukushima stellt sich die Frage des Risikos neu
Entschuldigung, da fehlte die schließende spitze Klammer:
Allgemein ist das ganze seit fast 80 Jahren axiomatisch unter dem
Stichwort Wahrscheinlichkeitsmaß beschrieben.
Auch nach Tschernobyl, Fukushima (schlimmstmöglicher Ausgang hochgerechnet) und all den anderen ist die Wahrscheinlichkeit, dass etwas passiert (gemessen in Toten pro Energie) numerisch immer noch klein (AFAIK 0.04/TWh bei AKW, 160/TWh bei Kohle, alle anderen Energiequellen dazwischen). Man kann also anstelle irgendwelcher akademischer Studien durchaus die Häufigkeiten (der relative Schätzfehler dabei sollte in der Größenordnung des Kehrwertes der Wurzel der Stückzahl liegen) nehmen. Die Ursache liegt u.a. in den 200000 Toten beim Supergau in einem chinesischen Wasserkraftwerk und den vielen Unfalltoten im Kohlebergbau (und Kohlenrauchtoten hinterher). Solarzellen schneiden mittelmäßig ab, weil zwar nur selten ein Monteur vom Dach fällt, aber die installierte Leistung pro Stück so klein ist.
Das Problem ist, dass es bei platzenden AKWs sich um eine extrem gräßliche Todesart handelt und massenhaft Langzeitkrankheiten bei den Überlebenden und ihren Nachkommen auftreten, sodass man nicht einfach Zahlen vergleichen kann.
Dem meisten stimme ich zu. Aber…
> Wählt man beispielsweise zufällig eine reelle Zahl zwischen 0 und 10, dann ist die Wahrscheinlichkeit, dabei genau die Wurzel aus 3 zu treffen, offentlichtlich gleich Null. Ausgeschlossen ist es aber nicht.
Die Frage ist: Wie wählt man zufällig eine reelle Zahl zwischen 0 und 10? Wenn Hadmut 10 relle Zahlen aufschreibt, und ich ziehe von den Zetteln, dann treffe ich die Wurzel 3 mit 1/10-tel Wahrscheinlichkeit, wenn sie übehaupt dabei ist.
Wenn aber alle reelle Zahlen gleichverteilt in der Stichprobe sind, dann ist diese unendlich groß, und man kann gar keine davon ziehen. Und dann ist es also ausgeschlossen überhaupt irgendwas zu ziehen.
Ich kenne auch keinen Trick, der es erlaubt eine Ziehung zu simulieren. Nicht bei reellen Zahlen in einem Intervall.