Apps
EN — EnglishLogin

🧪 Diese Plattform befindet sich in der Beta-Phase. Funktionen können sich ändern und es können Fehler auftreten. Danke für dein Feedback!

← Zurück zur Bibliothek
blog.category.aspect 29. März 2026 6 Min. Lesezeit

McNamara-Fallacy: Wenn nur zählt, was sich zählen lässt

McNamara-Fallacy: Wenn nur zählt, was sich zählen lässt

Robert McNamara war einer der klügsten Männer, die je das US-Verteidigungsministerium führten. Er glaubte an Daten, Systeme und rationale Analyse. Im Vietnamkrieg ließ er Leichen zählen — weil das die einzige Größe war, die sich zuverlässig messen ließ. Das Ergebnis war eine der größten strategischen Katastrophen des 20. Jahrhunderts.

Der Body-Count als Steuerungsinstrument

Als US-Verteidigungsminister unter den Präsidenten Kennedy und Johnson (1961–1968) brachte Robert McNamara einen Ansatz mit, den er zuvor als Ford-Manager perfektioniert hatte: Manage, was du messen kannst. Alles andere ist Meinung.

In Vietnam bedeutete das: Wie misst man Fortschritt in einem asymmetrischen Guerillakrieg ohne Frontlinien, ohne Territoriumsgewinne, ohne klare Schlachten? McNamaras Antwort: durch die Anzahl getöteter Feinde. Der sogenannte Body Count — die Zahl feindlicher Gefallener — wurde zur zentralen Kennzahl der Kriegsführung.

Feldkommandanten wurden nach dieser Zahl bewertet. Einheiten mit hohem Body Count wurden befördert, gelobt, mit Ressourcen ausgestattet. Die Logik schien stimmig: Je mehr Feinde getötet werden, desto schneller bricht der Widerstand zusammen.

Was passierte: Einheiten begannen, jede getötete Person als feindlichen Kämpfer zu zählen. Zivilisten, Frauen, Kinder. Wer tot war, war per Definition feindlich — sonst wäre er nicht tot. Die Zahl stieg. Der Krieg wurde schlimmer.

Was ist die McNamara-Fallacy?

Der Begriff geht auf den Soziologen Daniel Yankelovich zurück, der den Denkfehler 1972 in vier Schritten beschrieb:

  1. Messe, was leicht zu messen ist. Das ist in Ordnung, so weit es geht.
  2. Ignoriere, was sich nicht leicht messen lässt, oder weise ihm einen willkürlichen quantitativen Wert zu. Das ist künstlich und irreführend.
  3. Nehme an, dass das, was sich nicht leicht messen lässt, nicht wirklich wichtig ist. Das ist Blindheit.
  4. Sage, was sich nicht leicht messen lässt, existiert nicht. Das ist Selbstmord.

Die Fallacy beschreibt also nicht Messungenauigkeit oder schlechte Daten — sie beschreibt das strukturelle Problem, dass die Wahl der Messgröße die Wirklichkeit verzerrt, sobald sie zur Steuerungsgröße wird.

Goodharts Gesetz: Der Messende verändert das Gemessene

Ein verwandtes Prinzip formulierte der britische Ökonom Charles Goodhart 1975, bekannt als Goodharts Gesetz: „Wenn eine Kennzahl zur Zielvorgabe wird, hört sie auf, eine gute Kennzahl zu sein."

Der Mechanismus ist simpel: Sobald Menschen wissen, wonach sie gemessen werden, optimieren sie auf genau diese Zahl — nicht auf das Ziel dahinter. Im Vietnamkrieg: Nicht „besiege den Feind", sondern „erhöhe den Body Count". Im Unternehmen: Nicht „mache Kunden zufrieden", sondern „verbessere den Net Promoter Score". In der Schule: Nicht „lerne etwas", sondern „bestehe den Test".

McNamara-Fallacy in der Praxis: Drei moderne Felder

Bildungspolitik: Das Schulsystem und seine Tests

Seit den 1990er-Jahren dominiert ein Paradigma die Bildungspolitik vieler Länder: standardisierte Tests als Maß für Bildungsqualität. PISA-Ergebnisse, Zentralabitur-Noten, Vergleichsarbeiten — messbar, vergleichbar, steuerungsrelevant.

Das Problem: Bildung ist mehr als das, was Tests erfassen können. Neugier, Kreativität, kritisches Denken, soziale Kompetenz, Selbststeuerung — all das lässt sich kaum standardisiert messen. Also wird es kaum gesteuert. Was zählt, ist die Testnote. Schulen „lehren zum Test". Schüler werden auf Prüfungsformate trainiert. Die Testergebnisse steigen — die eigentlichen Bildungsziele werden verfehlt.

In den USA hat das No Child Left Behind-Gesetz (2001) diesen Effekt systematisch erzeugt: Schulen mit schlechten Testergebnissen wurden bestraft, Schulen mit guten belohnt. Konsequenz: massive „teaching to the test"-Kulturen, Curriculum-Verengung, in einigen Fällen sogar Testfälschungsskandale durch Lehrkräfte.

Unternehmenssteuerung: KPIs, die am Ziel vorbeigehen

Jede größere Organisation kennt das Phänomen: Dashboards voller Kennzahlen, Quartalsziele, OKRs. Gemessen wird, was sich messen lässt — Umsatz, Conversion Rate, durchschnittliche Bearbeitungszeit, Ticket-Schließungsrate.

Ein Call-Center-Beispiel: Die Kennzahl „durchschnittliche Gesprächsdauer" soll Effizienz messen. Mitarbeiter optimieren: Sie kürzen Gespräche ab, lösen Probleme oberflächlich, legen schnell auf. Die Gesprächsdauer sinkt. Die Kundenzufriedenheit sinkt ebenfalls — aber die wird erst im Quartalsbericht sichtbar, wenn es schon zu spät ist.

Oder: Anzahl abgeschlossener Beratungsaufträge als Erfolgsmaß für Unternehmensberater. Qualität, Nachhaltigkeit, echter Mehrwert für den Klienten — nicht messbar, also nicht gesteuert.

Gesundheitspolitik: Verweildauer und Fallpauschalen

In vielen Gesundheitssystemen werden Krankenhäuser nach Fallpauschalen bezahlt: eine Pauschale pro Behandlungsfall, abhängig von Diagnose und Behandlungsart. Das soll Effizienz erzeugen. Was passiert: Patienten werden früher entlassen (senkt die Kosten pro Fall), Diagnosen werden so dokumentiert, dass sie in besser vergütete Kategorien fallen, und Fälle werden aufgeteilt, die früher als einer abgerechnet worden wären.

Das Messsystem steuert das Verhalten — aber nicht in die Richtung guter Patientenversorgung.

Warum passiert dieser Fehler?

Die McNamara-Fallacy entsteht nicht aus Böswilligkeit. Sie entsteht aus einer echten Schwierigkeit: Komplexe Wirklichkeit lässt sich nicht vollständig in Zahlen fassen. Wer trotzdem steuern, vergleichen und rechenschaftspflichtig sein will, muss vereinfachen. Vereinfachung ist notwendig — aber sie hat Grenzen.

Das Problem beginnt, wenn die Vereinfachung nicht mehr als Vereinfachung behandelt wird, sondern als Wirklichkeit selbst. Wenn der KPI das Ziel ersetzt statt es zu approximieren. Wenn die Maßzahl wichtiger wird als das, was sie messen sollte.

Dazu kommt der institutionelle Druck: Wer entscheiden und Ressourcen verteilen muss, will Vergleichbarkeit. Zahlen erzeugen den Anschein von Objektivität. „Unsere Testergebnisse sind gestiegen" klingt nach Fortschritt — auch wenn die eigentliche Bildung schlechter geworden ist.

Wie vermeidet man die McNamara-Fallacy?

Einige praktische Prinzipien:

  • Trenne Messung von Steuerung. Nicht alles, was gemessen wird, sollte zur Zielgröße werden. Indikatoren dienen der Orientierung, nicht der Optimierung.
  • Frage nach dem, was nicht gemessen wird. Jedes Kennzahlensystem hat blinde Flecken. Wer sind sie? Welche Werte, Prozesse, Wirkungen bleiben unsichtbar?
  • Qualitative Ergänzung. Interviews, Fallanalysen, ethnografische Beobachtung — nicht statt quantitativer Daten, aber neben ihnen. Das Nicht-Messbare hat trotzdem Wirklichkeit.
  • Rotiere deine Kennzahlen. Wer immer nach denselben Zahlen steuert, erzeugt Goodhart-Effekte. Überraschende oder wechselnde Kennzahlen sind schwerer zu manipulieren.
  • Frage nach dem ursprünglichen Ziel. Was wollten wir eigentlich erreichen — bevor wir anfingen zu messen?

McNamaras eigene Einsicht

Robert McNamara lebte lang genug, um seine Fehler zu reflektieren. In Errol Morris' Dokumentarfilm The Fog of War (2003) äußerte er sich schonungslos selbstkritisch: Er habe die falsche Seite der Komplexität gemessen. Er habe nicht verstanden, was der Krieg wirklich war. Die Zahlen hatten ihn blind gemacht.

Das macht die McNamara-Fallacy so gefährlich: Sie befällt gerade die Klügsten, die Rationalen, die Systemdenker. Wer am stärksten an Daten glaubt, ist am anfälligsten dafür, das Nicht-Messbare zu vergessen.


Verwandte Denkfehler

  • Confirmation Bias — Wir suchen Daten, die unsere Annahmen bestätigen — auch bei KPIs
  • Sunk-Cost-Fallacy — Warum Organisationen trotz schlechter Kennzahlen weitermachen
  • Overconfidence Effect — Wenn Messsysteme das Gefühl falscher Kontrolle erzeugen
  • P-Hacking — Die verwandte Tendenz, Daten so zu formen, dass sie das Gewünschte zeigen

Quellen & weiterführende Literatur

  • Yankelovich, D. (1972). Corporate Priorities: A continuing study of the new demands on business. Stamford, CT.
  • Morris, E. (Regisseur). (2003). The Fog of War: Eleven Lessons from the Life of Robert S. McNamara. [Dokumentarfilm]. Sony Pictures Classics.
  • Muller, J. Z. (2018). The Tyranny of Metrics. Princeton University Press.
  • Goodhart, C. A. E. (1975). Problems of Monetary Management: The U.K. Experience. In: Papers in Monetary Economics. Reserve Bank of Australia.
  • Strathern, M. (1997). 'Improving ratings': Audit in the British University System. European Journal of Education, 32(3), 305–321. [Formuliert Goodharts Gesetz in seiner heute geläufigen Form]
  • Halberstam, D. (1972). The Best and the Brightest. Random House. [Über McNamara und das Vietnam-Desaster]

Verwandte Artikel