Apps
EN — EnglishLogin

🧪 Diese Plattform befindet sich in der Beta-Phase. Funktionen können sich ändern und es können Fehler auftreten. Danke für dein Feedback!

← Zurück zur Bibliothek
blog.category.aspect 29. März 2026 6 Min. Lesezeit

Wahrscheinlichkeitsvernachlässigung: Flugangst, Haie und die Kokosnuss-Statistik

Jeden Sommer dasselbe Spektakel: Ein Hai-Angriff irgendwo auf der Welt — Schlagzeilen, Talkshows, Strandverbote, verstörte Touristen. Im selben Sommer fallen irgendwo auf dieser Welt schätzungsweise 150 Menschen Kokosnüssen zum Opfer. Kein Talkshow-Thema, kein Strandverbot, keine Panik. Dieselbe Todesursache "Tod durch herabfallendes Objekt auf Urlaubsreise" — vollkommen verschiedene emotionale Reaktion. Das ist Wahrscheinlichkeitsvernachlässigung.

Was ist Wahrscheinlichkeitsvernachlässigung?

Wahrscheinlichkeitsvernachlässigung (Neglect of Probability) bezeichnet die Tendenz, bei Risikoentscheidungen die tatsächliche statistische Wahrscheinlichkeit eines Ereignisses zu ignorieren oder erheblich zu unterschätzen — und stattdessen andere Kriterien zu verwenden: Wie dramatisch ist es? Wie gut kann ich mir es vorstellen? Habe ich persönlich jemanden gekannt, dem es passiert ist? Hatte ich keinen Einfluss darauf?

Das Konzept wurde insbesondere von Cass Sunstein geprägt, der es im Kontext von Risikoregulierung und politischen Entscheidungen analysiert hat. Es steht in enger Verwandtschaft mit der Verfügbarkeitsheuristik (Kahneman & Tversky) — aber geht einen Schritt weiter: Es geht nicht nur darum, dass wir uns an lebhafte Beispiele erinnern, sondern dass wir bei bestimmten Risikoklassen die Wahrscheinlichkeit schlicht aus der Bewertung ausklammern.

Flugangst: Das rationaler-irrationaler Befund

Etwa 25–35% der Menschen berichten von signifikanter Flugangst, rund 6,5% von Flugphobie. Im selben Atemzug sitzen dieselben Menschen täglich im Auto, ohne messbare Angstsymptome — obwohl das Risiko, bei einem Autounfall zu sterben, in Deutschland etwa 50–100-mal höher ist als das Risiko bei einem Flugunfall.

Das Todesrisiko pro Flugstunde in der kommerziellen Luftfahrt liegt bei etwa 0,07 Todesfällen pro Milliarde Passagierkilometer. Das Risiko im PKW: rund 4 pro Milliarde Fahrzeugkilometer. Wer von München nach Hamburg fliegt statt zu fahren, reduziert sein statistisches Sterberisiko für diese Strecke erheblich.

Warum fühlt sich Fliegen trotzdem gefährlicher an?

  • Kontrollverlust: Im Auto sitzt man am Steuer (oder glaubt, es zu tun). Im Flugzeug: hilfloser Passagier. Der wahrgenommene Kontrollverlust erhöht die gefühlte Gefahr — unabhängig von der tatsächlichen.
  • Katastrophenpotenzial: Ein Flugzeugabsturz tötet viele Menschen auf einmal. Das macht ihn psychologisch schwerer — nicht statistisch. Die Wahrscheinlichkeit interessiert das Gehirn weniger als die vorstellbare Schrecklichkeit.
  • Mediale Sichtbarkeit: Abstürze sind Weltmeldungen. Die 3.000 Deutschen, die jährlich im Straßenverkehr sterben, sind Statistik. Der einzelne Absturz ist Ereignis.
  • Unnatürlichkeit: Fliegen fühlt sich nicht natürlich an. Menschen liefen, schwammen, kletterten — aber flogen nie. Evolutionäre Fremdheit erzeugt Misstrauen.

Das "Dread Risk"-Prinzip

Paul Slovic, einer der bedeutendsten Risikoforscher, hat in jahrzehntelanger Arbeit gezeigt, dass Menschen Risiken entlang zweier Dimensionen bewerten, nicht anhand von Wahrscheinlichkeiten:

  1. Dread Risk: Wie unkontrollierbar, katastrophal, unweigerlich? (Nuklearkatastrophe: hoch. Haushaltsunfall: niedrig)
  2. Unknown Risk: Wie wenig verstanden, neu, unbekannt? (Genmodifizierte Lebensmittel: hoch. Autofahren: niedrig)

Diese zwei Dimensionen erklären Risikobewertungen besser als Sterbestatistiken. Kernkraftwerke ranken extrem hoch auf beiden Achsen — obwohl sie pro erzeugter Kilowattstunde eine der niedrigsten Todesfallraten aller Energiequellen haben. Kohlekraftwerke ranken niedrig — obwohl Feinstaubemissionen und Arbeitsunfälle weit mehr Todesfälle verursachen. Die Wahrscheinlichkeit ist bei der öffentlichen Risikowahrnehmung nahezu irrelevant.

Haie, Kokosnüsse und der selektive Schrecken

Haiangriffe töten weltweit etwa 5–10 Menschen pro Jahr. Kokosnüsse: geschätzte 150 Todesfälle (durch herabfallende Nüsse). Bienen und Wespen in Deutschland: jährlich etwa 20 Todesfälle durch allergische Reaktionen. Haushaltsunfälle: über 9.000 pro Jahr in Deutschland. Der häufigste Unfallort für Männer über 60: das eigene Badezimmer.

Niemand fordert Badezimmer-Verbote. Niemand verlangt Kokosnuss-Schutzhelme an Stränden. Haibecken in Zoos sind gesichert wie Atomanlagen.

Der Grund liegt nicht in den Zahlen — er liegt in der Qualität des Schreckens. Ein Hai-Angriff aktiviert uralte Angst: Ein Raubtier, das einen von unten angreift, unsichtbar, im fremden Element. Die Wildheit, das Blut, die Hilflosigkeit. Das ist biologisch programmierte Panik — Jahrmillionen alt, vollkommen immun gegen Wahrscheinlichkeitsüberlegungen.

Wahrscheinlichkeitsvernachlässigung in der Politik

Sunstein hat aufgezeigt, wie Wahrscheinlichkeitsvernachlässigung Regulierungspolitik verzerrt. Nach dem 11. September 2001 wurden Milliarden Dollar in Sicherheitsmaßnahmen investiert, die auf das spezifische Szenario "Flugzeug als Waffe" zielten — weil es das Ereignis war, das emotional dominierte. Gleichzeitig wurden statistisch weit tödlichere Risiken (Straßenverkehr, Luftverschmutzung, Herzerkrankungen durch Fehlernährung) mit einem Bruchteil der Ressourcen adressiert.

Das ist kein Zufall und kein Versagen einzelner Politiker. Es ist Strukturprinzip demokratischer Entscheidungsfindung: Politik reagiert auf wahrgenommene Risiken, nicht auf berechnete. Wahrgenommene Risiken sind das Produkt von Aufmerksamkeit, Lebhaftigkeit und emotionalem Gewicht — nicht von Wahrscheinlichkeitstabellen.

Sunsteins Fazit: Regulierung nach dem Prinzip "Was fürchten wir am meisten?" ist teuer, ineffizient und oft kontraproduktiv. Die Ressourcen fehlen dann für die Bekämpfung statistisch erheblicher Risiken.

Der "Zero-Risk-Bias": Null ist magisch

Ein Spezialfall der Wahrscheinlichkeitsvernachlässigung ist der Zero-Risk-Bias: Menschen bevorzugen die vollständige Eliminierung eines kleinen Risikos gegenüber der starken Reduzierung eines großen Risikos — selbst wenn Letzteres statistisch mehr Leben retten würde.

Beispiel: Maßnahme A reduziert das Krebsrisiko durch Chemikalie X von 0,004% auf 0,002% (Halbierung). Maßnahme B reduziert das Krebsrisiko durch Chemikalie Y von 0,001% auf 0% (Elimination). Menschen bevorzugen regelmäßig Maßnahme B — obwohl A mehr Leben rettet. "Kein Risiko" hat einen irrationalen Reiz, der weit über seinen mathematischen Wert hinausgeht.

Diese Präferenz erklärt den politischen Erfolg von "Null-Toleranz"-Politiken in Bereichen, wo statistisch geringe Risiken emotional hochbesetzt sind, während die Kosten der Null-Toleranz (entgangene Ressourcen für größere Probleme) abstrakt und unsichtbar bleiben.

Emotionale Intensität als Risiko-Proxy

Der tiefere kognitive Mechanismus hinter Wahrscheinlichkeitsvernachlässigung ist das, was Slovic "Affect Heuristic" nennt: Wir bewerten Risiken nicht durch Kalkulation, sondern durch Gefühl. Was sich schlimm anfühlt, ist schlimm. Was sich harmlos anfühlt, ist harmlos. Die tatsächliche Wahrscheinlichkeit wird dann post-hoc rationalisiert — oder schlicht ignoriert.

Das ist nicht dumm. In einer Welt ohne Statistiken und Wahrscheinlichkeitsrechnung war emotionale Intensität ein vernünftiger Proxy für Risiko: Dinge, die starke Angst auslösten, waren häufig tatsächlich gefährlich. Das Problem ist, dass die emotionale Intensitätsbewertung in der modernen Welt durch Medien, Unterhaltung und Überlieferung geprägt wird — und nicht durch persönliche Bedrohungserfahrung.

Wir haben nie einen Hai gesehen. Wir haben tausend Hai-Angriffe im Film gesehen. Die emotionale Intensität ist dieselbe — und verzerrt die Risikowahrnehmung entsprechend.

Was hilft?

Wahrscheinlichkeitsvernachlässigung vollständig zu überwinden, ist vermutlich unmöglich — und vielleicht auch nicht wünschenswert. Emotionen sind wichtige Signale. Aber sie können durch analytische Rahmung ergänzt werden:

  • Mikroleben-Konzept: David Spiegelhalter empfiehlt, Risiken in "Mikromorten" (ein Mikrotod = ein-in-einer-Million-Wahrscheinlichkeit zu sterben) auszudrücken. Das macht Vergleiche möglich: Ein Motorradkilometer entspricht 0,5 Mikromorte. Ein Autokilometer: 0,03. Ein Flugkilometer: 0,003.
  • Relative Rahmung: "Erhöht das Risiko um 50%" — aber 50% von was? Ein 50%-iger Anstieg bei einem Ein-in-einer-Million-Risiko ist anders als bei einem Ein-in-hundert-Risiko. Absolute Zahlen verlangen.
  • Vergleichsrisiken benennen: Was tötet Menschen in meinem Alter und Land tatsächlich? Statistiken des Robert Koch-Instituts, der WHO oder Eurostat liefern Antworten, die das emotionale Risiko-Ranking oft auf den Kopf stellen.
  • Medienkonsum reflektieren: Häufigkeit in den Nachrichten ≠ Häufigkeit in der Realität. Was oft berichtet wird, ist in der Regel überrepräsentiert in der Risikowahrnehmung.

Fazit

Wir bewerten Risiken nach einer Skala von "gruselig oder nicht" — nicht nach einer Skala von "wahrscheinlich oder nicht". Das ist menschlich, evolutionär nachvollziehbar und in vielen Kontexten folgenreich. Der erste Schritt ist die Anerkennung: Mein Bauchgefühl zu Risiken ist ein kulturelles Produkt — geformt von Medien, Filmen und überlieferten Ängsten, nicht von persönlicher Statistik. Der zweite Schritt: Zahlen holen und vergleichen. Der Hai wartet. Die Kokosnuss auch.

Quellen & Weiterführendes

  • Sunstein, Cass R. Laws of Fear: Beyond the Precautionary Principle. Cambridge University Press, 2005.
  • Sunstein, Cass R. "Probability Neglect: Emotions, Worst Cases, and Law." The Yale Law Journal, 112(1), 2002, S. 61–107.
  • Slovic, Paul. "Perception of Risk." Science, 236(4799), 1987, S. 280–285.
  • Slovic, Paul, Melissa Finucane, Ellen Peters & Donald MacGregor. "The Affect Heuristic." In: Gilovich, T., Griffin, D. & Kahneman, D. (Hrsg.), Heuristics and Biases. Cambridge University Press, 2002.
  • Spiegelhalter, David. The Art of Statistics: Learning from Data. Pelican Books, 2019.
  • Gigerenzen, Gerd. Risiko: Wie man die richtigen Entscheidungen trifft. C. Bertelsmann, 2013.
  • Wikipedia: Verfügbarkeitsheuristik

Verwandte Artikel