Apps
EN — EnglishLogin

🧪 Diese Plattform befindet sich in der Beta-Phase. Funktionen können sich ändern und es können Fehler auftreten. Danke für dein Feedback!

← Zurück zur Bibliothek
blog.category.aspect 29. März 2026 5 Min. Lesezeit

Komplexe-Prognose-Illusion: Mehr Detail klingt nach mehr Wahrheit

Eine Wettervorhersage sagt: "Morgen 30% Regenwahrscheinlichkeit." Eine andere sagt: "Morgen zwischen 14:20 und 16:45 Uhr: 34,7% Regenwahrscheinlichkeit, Niederschlagsmenge 2,3–4,1 mm, Windgeschwindigkeit 12–18 km/h aus Nordnordwest, gefühlte Temperatur 14,2°C." Welche klingt zuverlässiger? Und welche ist es tatsächlich? Die zweite beeindruckt — aber ihre Nachkommastellen-Präzision suggeriert eine Vorhersagegenauigkeit, die das zugrunde liegende Wettermodell gar nicht leisten kann.

Was ist die Komplexe-Prognose-Illusion?

Die Komplexe-Prognose-Illusion beschreibt die Tendenz, detailreichen, mit Zahlen und Fachbegriffen angereicherten Prognosen mehr Glaubwürdigkeit und Genauigkeit zuzuschreiben — unabhängig davon, ob diese Komplexität tatsächlich zu besseren Vorhersagen führt. Mehr scheinbare Präzision wird mit mehr tatsächlicher Zuverlässigkeit verwechselt.

Das Muster funktioniert auf zwei Ebenen gleichzeitig:

  • Beim Publikum: Komplexe Modelle wirken kompetenter und wissenschaftlicher. Wer eine elaborate Prognose hört, ist weniger geneigt, ihre Grundlagen zu hinterfragen.
  • Beim Prognostiker: Das Erstellen komplexer Modelle erzeugt das Gefühl, die Realität besser erfasst zu haben — selbst wenn die Komplexität nur Rauschen formalisiert hat.

Falsifikation durch Rückblick: Wie gut sind Prognosen wirklich?

Philip Tetlock, Politikwissenschaftler an der Universität Pennsylvania, untersuchte über zwanzig Jahre systematisch die Vorhersagen von Experten — Ökonomen, Politikanalysten, Außenpolitik-Experten — und verglich sie mit einfachen Baselines: Fortschreibung des Status quo, Zufallsprognosen, einfache Basisraten.

Das Ergebnis, publiziert 2005 in Expert Political Judgment, war ernüchternd: Experten schnitten kaum besser ab als Zufallsprognosen. Und eine kritische Beobachtung: Die Experten mit den elaboriertesten, konsistentesten Weltmodellen — die "Igel", die alles durch eine große Idee erklären — schnitten schlechter ab als die "Füchse", die pragmatisch verschiedene Heuristiken nutzten und ihre Unsicherheit explicit machten.

Komplexe Kohärenz ist kein Qualitätsmerkmal von Prognosen. Sie kann sogar ein Warnsignal sein: Wer ein elegantes, konsistentes Weltmodell hat, ist anfällig für Bestätigungsfehler — er sieht, was sein Modell vorhersagt, nicht was tatsächlich passiert.

Das McNamara-Fallacy-Problem

Der McNamara Fallacy beschreibt das verwandte Problem, dass man misst, was messbar ist — und dann annimmt, man hätte alles Relevante erfasst. Im Vietnam-Krieg wurde Erfolg an Body-Count-Zahlen gemessen, weil die eigentlich relevante Größe — politische Legitimität, Bevölkerungsrückhalt, Gesprächsbereitschaft — nicht messbar war. Das Modell war präzise. Die Realität war anders.

Komplexe Prognosen leiden häufig an demselben Problem: Sie sind präzise in Bezug auf die Variablen, die sich gut formalisieren lassen — und blind für alles, was sich nicht formalisieren lässt, aber trotzdem relevant ist. Das erzeugt den Schein von Vollständigkeit, der täuscht.

Overfitting: Wenn Komplexität die Realität verfehlt

In der Statistik und im maschinellen Lernen gibt es einen gut verstandenen Mechanismus, der zeigt, warum mehr Komplexität oft schlechtere Prognosen erzeugt: Overfitting.

Ein Modell, das sehr viele Parameter hat, kann Trainingsdaten perfekt beschreiben — inklusive des zufälligen Rauschens. Aber es generalisiert schlecht auf neue Daten, weil es das Rauschen gelernt hat, nicht die Struktur. Ein einfacheres Modell, das die wesentlichen Muster erfasst und Rauschen ignoriert, ist für neue Situationen oft treffsicherer.

Das gilt nicht nur in der Informatik. Wirtschaftsprognosen, die auf hundert Variablen basieren, haben dasselbe Problem: Viele der Variablen erklären vergangene Daten post hoc — aber ihr Zusammenspiel in der Zukunft ist nicht dasselbe. Das Modell ist präzise beschreibend für das, was war; als Prognose ist es schlechter als eine einfachere Heuristik.

Kalibration: die wichtigere Eigenschaft als Präzision

Was unterscheidet gute von schlechten Prognosen? Nicht Komplexität — Kalibration. Eine kalibrierte Prognose gibt korrekte Unsicherheitsbereiche an: Wenn ein Prognostiker bei hundert Ereignissen sagt "70% Wahrscheinlichkeit", sollten etwa 70 dieser Ereignisse eintreten. Kalibrierte Prognostiker wissen, was sie wissen und was nicht.

Das klingt trivial, ist aber selten. Finanzmarktanalysten, Meteorologen, Politikberater — die wenigsten überprüfen systematisch, ob ihre Konfidenzintervalle tatsächlich kalibriert sind. Wer nie nachschaut, ob seine 80%-Prognosen 80% der Zeit stimmen, hat keine empirische Basis für sein Selbstvertrauen. Und der Overconfidence Effect garantiert: Fast jeder schätzt sich präziser ein, als er ist.

Scheinpräzision im Alltag

Die Komplexe-Prognose-Illusion erscheint in vielen Gewändern:

Wirtschaftsprognosen: "Das BIP wird im nächsten Jahr um 1,7% wachsen." Die Nachkommastelle suggeriert Präzision; der tatsächliche Konfidenzintervall ist ±2 Prozentpunkte. Die Zahl ist eine Punktschätzung aus einem Modell voller Annahmen — aber sie klingt wie Wissen.

Ernährungswissenschaft: "Täglich 47g Vollkorngetreide reduzieren das Herzerkrankungsrisiko um 19%." Solche Zahlen aus Beobachtungsstudien klingen präzise — sind aber oft hochgradig unsicher, durch zahlreiche Confounder beeinflusst und selten replizierbar. Die Scheinpräzision verdeckt die methodologischen Grenzen.

Kriminalprädiktion und Risiko-Scores: Algorithmen, die Rückfallwahrscheinlichkeiten auf zwei Dezimalstellen ausgeben, klingen nach Wissenschaft. Tatsächlich basieren sie auf Korrelationen, nicht auf kausalen Modellen, und ihre Genauigkeit ist oft kaum besser als die eines informierten Richters — bei deutlich weniger Transparenz.

Unternehmensplanung: Excel-Modelle mit 15 Tabellenblättern und detaillierten Szenarien erzeugen das Gefühl solider Analyse. Aber das Modell ist so präzise wie seine Annahmen — und die Annahmen sind oft Wunschdenken in Tabellenformat.

Das Gegenmittel: explizite Unsicherheit

Ironischerweise klingt eine ehrliche Prognose oft weniger überzeugend als eine geschönte. "Wir haben keine Ahnung, ob der Markt nächstes Jahr steigt oder fällt, aber unsere beste Schätzung liegt in diesem Bereich, mit dieser Unsicherheit" ist informativer als "Wir erwarten ein Wachstum von 2,3%." Aber die erste Version gewinnt selten Mandatspräsentationen.

Meteorologie hat als eines der wenigen Felder gelernt, Unsicherheit kommunizierbar zu machen: Regenwahrscheinlichkeiten, Konfidenzstreifen, Ensemble-Prognosen. Das sollte Modell sein für wirtschaftliche, politische und medizinische Prognosen — mit expliziten Wahrscheinlichkeiten, Annahmenlisten und regelmäßigem Genauigkeits-Tracking.

Wer eine komplexe Prognose präsentiert bekommt, sollte fragen: "Wie genau waren Ihre letzten zehn Prognosen in dieser Kategorie?" Die Antwort ist erhellend — wenn es eine gibt.

Quellen & Weiterführendes

  • Tetlock, Philip E. Expert Political Judgment: How Good Is It? How Can We Know? Princeton University Press, 2005.
  • Tetlock, Philip E. & Dan Gardner. Superforecasting: The Art and Science of Prediction. Crown Publishers, 2015.
  • Silver, Nate. The Signal and the Noise: Why So Many Predictions Fail — but Some Don't. Penguin Press, 2012.
  • Taleb, Nassim Nicholas. The Black Swan: The Impact of the Highly Improbable. Random House, 2007.
  • Meehl, Paul E. Clinical Versus Statistical Prediction. University of Minnesota Press, 1954.
  • Kahneman, Daniel, Paul Slovic & Amos Tversky (Hrsg.). Judgment Under Uncertainty: Heuristics and Biases. Cambridge University Press, 1982.
  • Wikipedia: Überanpassung (Overfitting)

Verwandte Artikel