Apps
EN — EnglishLogin

🧪 Diese Plattform befindet sich in der Beta-Phase. Funktionen können sich ändern und es können Fehler auftreten. Danke für dein Feedback!

← Zurück zur Bibliothek
blog.category.aspect 29. März 2026 6 Min. Lesezeit

Vernachlässigung der Basisrate: Das Taxi-Problem und warum wir Statistik ignorieren

Stellen Sie sich vor: In einer Stadt gibt es 100 Taxis. 85 sind grün, 15 blau. Nachts passiert ein Unfall mit einem Taxi, das flüchtet. Ein Zeuge sagt aus: Das Taxi war blau. Tests zeigen: Der Zeuge identifiziert die Farbe unter ähnlichen Bedingungen in 80% der Fälle korrekt — und irrt sich in 20% der Fälle. Frage: Wie wahrscheinlich ist es, dass das Taxi tatsächlich blau war?

Die meisten Menschen antworten: 80%. Schließlich hat der Zeuge das gesagt, und er liegt in 80% der Fälle richtig. Die korrekte Antwort lautet: etwa 41%. Willkommen bei der Vernachlässigung der Basisrate.

Das Taxi-Problem: Basisrate trifft Einzelfall

Das "Taxi-Problem" wurde 1982 von Amos Tversky und Daniel Kahneman als Demonstrationsaufgabe für Basisraten-Vernachlässigung entwickelt und ist seitdem eines der meistzitierten Beispiele der Kognitionspsychologie. Die Rechnung, die die meisten Menschen auslassen:

Von 100 Fällen, in denen ein blauer Unfallwagen behauptet wird:

  • Das Taxi war wirklich blau (15 Fälle): Zeuge sagt korrekt "blau" in 80% → 12 korrekte Identifikationen
  • Das Taxi war grün (85 Fälle): Zeuge irrt sich und sagt "blau" in 20% → 17 falsche Identifikationen

Von den 29 Fällen, in denen der Zeuge "blau" sagt, hat er also in 12 Fällen recht und in 17 Fällen unrecht. Die Wahrscheinlichkeit, dass das Taxi tatsächlich blau war: 12/29 ≈ 41%.

Das Erschreckende: Das Gehirn übersieht die 85 grünen Taxis fast vollständig. Es fixiert sich auf die lebhafte Zeugenaussage — die repräsentative Information — und ignoriert die statistische Grundrate. Diese Tendenz nennt Kahneman "Base Rate Neglect" oder Basisratenvernachlässigung.

Warum unser Gehirn Basisraten ignoriert

Die Vernachlässigung der Basisrate hängt eng mit der Repräsentativitätsheuristik zusammen, die Tversky und Kahneman beschrieben haben: Wir beurteilen Wahrscheinlichkeiten nicht nach statistischen Grundlagen, sondern danach, wie typisch oder repräsentativ eine Information für eine Kategorie erscheint.

Die Zeugenaussage — konkret, spezifisch, von einer Person — fühlt sich informativer an als die abstrakte Statistik über die Flotte. Das ist psychologisch verständlich: In unserem Alltag sind persönliche Berichte und direkte Beobachtungen häufig tatsächlich aussagekräftiger als Basisraten. Das Problem entsteht, wenn wir diesen Instinkt in Situationen anwenden, wo Statistik und Basisrate entscheidend sind.

Kahneman unterscheidet in seinem Zwei-Systeme-Modell: System 1 (schnell, intuitiv, narrativ) reagiert auf die Zeugenaussage und findet sofort eine plausible Geschichte. System 2 (langsam, analytisch) müsste die Basisrate einrechnen — tut es aber nur, wenn man ausdrücklich darauf hingewiesen wird. Im Alltag läuft meist System 1.

Medizinische Tests: Die stille Katastrophe der Fehlinterpretation

Basisratenvernachlässigung hat medizinische Konsequenzen, die direkt über Leben und Tod entscheiden können. Ein klassisches Beispiel: Ein Test auf eine seltene Krankheit.

Angenommen, eine Krankheit tritt bei 1 von 1.000 Menschen auf (Basisrate: 0,1%). Ein Test hat eine Sensitivität von 99% (erkennt 99% der Erkrankten) und eine Spezifität von 99% (1% Falsch-Positiv-Rate). Ein Patient testet positiv. Wie wahrscheinlich ist es, dass er tatsächlich krank ist?

Intuitiv antworten die meisten: "99% wahrscheinlich." Die tatsächliche Antwort:

  • Von 100.000 Menschen: 100 sind krank, 99.900 sind gesund.
  • Von den 100 Kranken: 99 testen positiv (Sensitivität 99%).
  • Von den 99.900 Gesunden: 999 testen falsch-positiv (1% von 99.900).
  • Von 1.098 positiven Tests: nur 99 sind echt krank.
  • Wahrscheinlichkeit tatsächlicher Erkrankung bei positivem Test: ~9%.

Neun Prozent, nicht neunundneunzig. Ein positiver Test bei einer seltenen Erkrankung ist häufiger ein Fehlalarm als ein echter Befund — selbst bei einem sehr guten Test. Studien zeigen, dass Medizinstudenten und praktizierende Ärzte diesen Fehler regelmäßig machen. Die Konsequenzen: unnötige Überweisungen, Folgeuntersuchungen, Angst, manchmal invasive Eingriffe bei gesunden Menschen.

Dieses Problem ist strukturell: Je seltener eine Erkrankung, desto mehr falsch-positive Tests gibt es bei jeder sinnvollen Spezifität. Massenscreenings auf seltene Erkrankungen erzeugen systematisch mehr Fehlalarme als echte Diagnosen. Wer Basisraten ignoriert, versteht das nicht.

Sicherheitskontrollen und der Preis der seltenen Bedrohung

Dasselbe Problem gilt für Sicherheitssysteme aller Art. Stellen Sie sich ein Terrorismusfrüherkennungssystem vor, das 99% der echten Terroristen erkennt und nur 0,01% der Unbescholtenen fälschlicherweise markiert. Klingt beeindruckend. Aber:

Bei 100 Millionen Menschen und (angenommen) 100 echten Terroristen:

  • 99 echte Terroristen werden erkannt.
  • 10.000 unschuldige Menschen werden fälschlicherweise markiert (0,01% von 100 Millionen).

Für jeden echten Treffer gibt es 101 falsche Alarme. Das Verhältnis von Signal zu Rauschen ist katastrophal — nicht wegen des schlechten Tests, sondern wegen der extremen Seltenheit des Ziels. Basisraten-blindes Vertrauen in "hohe Genauigkeit" führt zu massiven Fehlinvestitionen in Überwachung und zu massenhaften unberechtigten Verdächtigungen.

Das Linda-Problem: Repräsentativität schlägt Logik

Ein weiteres Kahneman-Tversky-Klassiker verdeutlicht die Mechanik: Das "Linda-Problem" von 1983. Linda ist 31 Jahre alt, Single, eloquent, sehr intelligent. Als Studentin interessierte sie sich für Diskriminierungsfragen und beteiligte sich an Anti-Atomkraft-Demonstrationen. Was ist wahrscheinlicher?

  • A: Linda ist Bankkassiererin.
  • B: Linda ist Bankkassiererin und aktive Feministin.

In Studien wählen 85–90% der Befragten Option B. Das ist mathematisch unmöglich: Die Wahrscheinlichkeit von A&B kann nie größer sein als die Wahrscheinlichkeit von A allein. Die Konjunktion zweier Ereignisse ist immer kleiner oder gleich jedem einzelnen Ereignis. Aber B klingt so viel mehr nach Linda.

Das ist Repräsentativitätsheuristik pur: B passt besser zum Bild von Linda — also bewerten wir es als wahrscheinlicher, obwohl es logisch weniger wahrscheinlich ist. Die statistische Grundregel (Konjunktionsregel) wird schlicht ignoriert.

Basisraten im Alltag — und in der Wirtschaft

Investoren ignorieren Basisraten genauso zuverlässig wie Juroren. Wer ein Startup bewertet, das "das nächste Airbnb" sein könnte, fokussiert sich auf die Erfolgsgeschichte und blendet die Basisrate aus: 90% aller Startups scheitern innerhalb von fünf Jahren. Die lebhafte Gründerpersönlichkeit, das strahlende Deck, die plausible Story — all das aktiviert System 1 und drängt die kühle Basisrate in den Hintergrund.

Auf Versicherungsmärkten zeigt sich das Spiegelbild: Menschen über- oder unterversichern sich, weil sie Basisraten falsch einschätzen. Flugzeugabsturzversicherungen am Gate verkaufen sich gut — obwohl die Todeswahrscheinlichkeit auf dem Weg zum Flughafen höher ist als die im Flugzeug. Die Wahrscheinlichkeitsvernachlässigung und die Verfügbarkeitsheuristik arbeiten hier Hand in Hand mit der Basisratenvernachlässigung.

Gegenmittel: Basisraten sichtbar machen

Die gute Nachricht: Basisratenvernachlässigung ist kein unvermeidliches Schicksal. Sie lässt sich durch strukturierte Denkwerkzeuge reduzieren:

  • Explizit nach der Basisrate fragen: Wie häufig ist das Phänomen in der relevanten Population? Diese Frage zwingt System 2 ins Spiel.
  • Natürliche Häufigkeiten verwenden: "1 von 100" statt "1%" ist kognitiv zugänglicher. Studien zeigen, dass ärztliche Entscheidungen besser werden, wenn Statistiken als Häufigkeiten statt als Prozentzahlen präsentiert werden.
  • Bayes' Theorem anwenden: Die formale Methode, Prior-Wahrscheinlichkeit (Basisrate) mit neuer Information (Zeuge, Test) zu kombinieren. Schwer zu verinnerlichen, aber sehr wirkungsvoll wenn angewandt.
  • Referenzklasse bestimmen: Bei Prognosen: Welche Klasse ähnlicher Situationen gibt es? Wie endeten sie im Durchschnitt? Das ist die Outside View — Daniel Kahnemans Empfehlung gegen Planungsoptimismus.

Fazit

Die Vernachlässigung der Basisrate zeigt, wie anfällig menschliches Urteilsvermögen für die Verführungskraft konkreter Einzelinformation ist. Das Taxi, das der Zeuge gesehen hat, fühlt sich realer an als die 85 grünen Taxis, die statistisch dominieren. Der positive Testbefund fühlt sich überzeugender an als die niedrige Krankheitsprävalenz.

Wer Basisraten beachtet, denkt langsamer — und richtiger. Das ist das Kernversprechen statistischer Kompetenz: nicht mehr Daten, sondern bessere Fragen. Die erste und wichtigste: "Wie oft passiert das eigentlich — im Durchschnitt?"

Quellen & Weiterführendes

  • Tversky, Amos & Daniel Kahneman. "Judgments of and by Representativeness." In: Kahneman, D., Slovic, P., & Tversky, A. (Hrsg.), Judgment Under Uncertainty: Heuristics and Biases. Cambridge University Press, 1982.
  • Tversky, Amos & Daniel Kahneman. "Extensional Versus Intuitive Reasoning: The Conjunction Fallacy in Probability Judgment." Psychological Review, 90(4), 1983, S. 293–315.
  • Kahneman, Daniel. Schnelles Denken, langsames Denken. Siedler Verlag, 2012. (Kap. 14–16)
  • Gigerenzen, Gerd. Das Einmaleins der Skepsis: Über den richtigen Umgang mit Zahlen und Risiken. Berliner Taschenbuch Verlag, 2004.
  • Gigerenzen, Gerd & Ulrich Hoffrage. "How to Improve Bayesian Reasoning Without Instruction: Frequency Formats." Psychological Review, 102(4), 1995, S. 684–704.
  • Wikipedia: Basisratenvernachlässigung

Verwandte Artikel