Apps
EN — EnglishLogin

🧪 Diese Plattform befindet sich in der Beta-Phase. Funktionen können sich ändern und es können Fehler auftreten. Danke für dein Feedback!

← Zurück zur Bibliothek
blog.category.aspect 29. März 2026 6 Min. Lesezeit

Feuerwehrschlauch der Falschheiten: Wahrheit durch Überflutung besiegen

Es geht nicht darum, die Wahrheit zu besiegen. Es geht darum, sie zu ertränken. Der Feuerwehrschlauch der Falschheiten — im Englischen Firehose of Falsehood — ist eine Propagandastrategie, die nicht auf Überzeugung zielt, sondern auf Desorientierung. Das Ziel ist nicht der Glaube an eine Lüge, sondern der Verlust des Glaubens an irgendetwas.

Der RAND-Report und der Begriff

Den Begriff prägten die Forscher Christopher Paul und Miriam Matthews in einem 2016 veröffentlichten Report der RAND Corporation: "The Russian 'Firehose of Falsehood' Propaganda Model: Why It Might Work and Options to Counter It." Anlass war die Analyse russischer Propagandaoperationen im Kontext der Annexion der Krim und des Ukraine-Konflikts.

Paul und Matthews identifizierten ein Modell, das sich grundlegend von klassischer Propaganda unterschied. Klassische Propaganda arbeitet mit einer konsistenten Botschaft, die intensiv wiederholt wird. Das Firehose-Modell dagegen arbeitet mit:

  • Hohem Volumen: Nicht eine Botschaft, sondern viele — gleichzeitig, kontinuierlich
  • Multikanalität: Verbreitung über alle verfügbaren Medien gleichzeitig
  • Fehlendem Wahrheitsanspruch: Widersprüchliche Botschaften werden gleichzeitig verbreitet
  • Schamlosigkeit: Offensichtliche Falschheiten werden ohne Bedauern verbreitet

Die klassische Lüge und ihre Grenze

Traditionelle Propaganda funktioniert nach dem Prinzip der Wiederholung: Eine Botschaft, intensiv genug wiederholt, wird zur "Wahrheit". Das erfordert eine interne Konsistenz — die Botschaft darf sich nicht selbst widersprechen, sonst verliert sie Glaubwürdigkeit.

Das Firehose-Modell bricht mit dieser Logik. Es braucht keine Konsistenz, weil es nicht auf Überzeugung zielt. Wenn in einer Woche behauptet wird, die ukrainischen Demonstranten seien von westlichen Geheimdiensten gesteuert, und in der nächsten, sie seien fanatische Nationalisten, und in der übernächsten, es habe keine wirklichen Demonstrationen gegeben — dann sind diese Botschaften inhaltlich unvereinbar. Aber das ist kein Problem, weil das Ziel nicht ist, dass irgendjemand allen dreien glaubt. Das Ziel ist, dass niemand mehr weiß, was stimmt.

Warum Richtigstellungen zu spät kommen

Die Asymmetrie zwischen Lügen und Wahrheit ist fundamental. Eine Falschbehauptung benötigt einen Satz. Eine seriöse Richtigstellung benötigt Kontext, Belege, Quellen, Differenzierung — und Zeit. Bis die Richtigstellung erscheint, hat die Falschbehauptung bereits mehrere Zyklen der Verbreitung durchlaufen.

Das Illusion-of-Truth-Effekt verstärkt das Problem: Aussagen, die oft genug gehört werden, fühlen sich wahrer an — unabhängig von ihrem tatsächlichen Wahrheitsgehalt. Wiederholung erzeugt Vertrautheit, Vertrautheit erzeugt Akzeptanz. Das gilt sogar für Aussagen, von denen die Menschen wissen, dass sie falsch sind.

Journalisten sprechen manchmal vom Brandolinis Gesetz (auch bekannt als Bullshit Asymmetry Principle): "The amount of energy needed to refute bullshit is an order of magnitude bigger than to produce it." Die Energie für eine Richtigstellung übersteigt die Energie für die ursprüngliche Falschbehauptung um ein Vielfaches. Das ist kein zufälliges Ungleichgewicht — es ist ein strategischer Vorteil des Firehose-Modells.

Politische Desorientierung als Ziel

Paul und Matthews beschreiben das entscheidende Ziel der Firehose-Strategie als Epistemische Korrosion: nicht die Menschen von einer falschen Version der Realität zu überzeugen, sondern ihren Glauben an die Möglichkeit verlässlicher Information zu untergraben.

Wenn auf jede Nachricht sofort mehrere Gegennachrichten folgen, wenn Experten und Fakten-Checker als parteiisch dargestellt werden, wenn "beide Seiten" auch dann konstruiert werden, wenn eine Seite offensichtlich falsch liegt — dann entsteht ein Klima, in dem viele Menschen zum Schluss kommen: "Man kann eh nicht wissen, was stimmt." Und wer das glaubt, hört auf, Unterschiede zwischen Quellen zu machen. Alle Informationen werden gleich glaubwürdig — oder gleich unglaubwürdig.

Das ist politisch verheerend. Demokratie setzt ein Minimum an geteilter Faktenbasis voraus. Wenn diese Basis erodiert, gewinnen nicht Wahrheit und Vernunft — sondern Lautstärke und Macht.

Russland als Fallstudie

Der RAND-Report analysierte konkret die russischen Informationsoperationen ab 2014. Merkmale:

  • Parallele Narrative: Zum MH17-Abschuss wurden in kurzer Zeit mindestens vier verschiedene russische Erklärungs-Narrativen verbreitet — eine ukrainische Kampfjet, eine ukrainische Buk-Rakete, eine fehlerhafte Rakete, ein CIA-Komplott. Keine musste endgültig "gewinnen". Es reichte, Verwirrung zu stiften.
  • Staatliche Multikanal-Struktur: RT (Russia Today), Sputnik, Troll-Farmen (Internet Research Agency, St. Petersburg), Social-Media-Bots — alle gleichzeitig, auf verschiedene Zielgruppen zugeschnitten.
  • Keine Scham bei Widerlegung: Wenn eine Falschbehauptung widerlegt wurde, wurde sie nicht korrigiert. Oft wurde einfach ein neues Narrativ eingeführt.

Das ist qualitativ verschieden von klassischen Propagandastrategien. Sovietische Propaganda war konsistent und monolithisch. Das russische Modell ab 2014 ist chaotisch und adaptiv.

Social Media als Verstärker

Die Firehose-Strategie war schon vor Social Media möglich — aber Social Media hat ihre Reichweite, Geschwindigkeit und Effizienz exponentiell gesteigert. Einige Mechanismen:

Algorithmische Verstärkung

Plattformen wie Facebook, Twitter/X und YouTube sind darauf optimiert, Engagement zu maximieren. Emotionale, kontroverse und empörende Inhalte erzeugen mehr Engagement — und werden algorithmisch bevorzugt. Falschbehauptungen, die emotional aktivieren, performen oft besser als nüchterne Richtigstellungen.

Geschwindigkeit der Verbreitung

Eine Falschmeldung kann in wenigen Stunden Millionen Menschen erreichen. Institutionelle Fakten-Checker brauchen Stunden oder Tage. Bis die Richtigstellung erscheint, hat das soziale Netzwerk die Falschmeldung bereits als "bekannte Information" etabliert.

Echo-Kammern und Fragmentierung

In fragmentierten Medienumgebungen muss eine Falschmeldung nicht alle überzeugen — nur die eigene Zielgruppe. Richtigstellungen erscheinen im falschen Feed und erreichen die falsche Zielgruppe. Die Filterblase macht den Firehose gezielter.

Über Russland hinaus: Das Muster als allgemeine Strategie

Obwohl Paul und Matthews den Begriff am russischen Modell entwickelten, ist die Strategie nicht auf staatliche Akteure beschränkt. Ähnliche Muster finden sich:

  • In Wahlkampfkommunikation, die auf Demoralisierung statt Überzeugung zielt
  • In der Desinformation rund um Klimawandel, Impfungen und Pandemien
  • In der taktischen Überflutung von sozialen Debatten durch koordinierte Online-Trolle
  • In Unternehmenskommunikation nach Skandalen (vgl. Tabakindustrie in den 1950er-70er Jahren)

Das verbindende Element: Nicht Überzeugung, sondern Verwirrung. Nicht eine Botschaft, sondern viele widersprüchliche.

Psychologische Schutzfaktoren

Laterales Lesen

Fact-Checking-Forscher an der Stanford Internet Observatory empfehlen "laterales Lesen": Statt einer Quelle tief zu folgen, schnell weitere Quellen zu einer Aussage zu suchen. Das erschwert die Manipulation durch einzelne Kanäle.

Verlangsamung und Prüfpauken

Die menschliche Reaktion auf Informationen ist in Stresssituationen oberflächlicher. Bewusstes Verlangsamen vor dem Weiterleiten einer Meldung — "Woher kommt das? Wann wurde das veröffentlicht? Wer hat es verifiziert?" — reduziert das eigene Mitmachen bei der Verbreitung.

Mediale Kompetenz und Vorbildung

Studien zeigen, dass Menschen, die über Desinformationsstrategien informiert sind, resistenter dagegen sind. Das Kennen des Musters ist ein Schutzfaktor — auch wenn es keinen vollständigen Schutz bietet.

Institutionelle Gegenmittel

Der RAND-Report empfiehlt eine Reihe institutioneller Gegenstrategien:

  • Voraus-Widerlegung (Prebunking): Über Desinformationsstrategien informieren, bevor spezifische Falschbehauptungen ankommen — damit das Muster erkennbar ist.
  • Nicht widerlegen, sondern analysieren: Falschbehauptungen einzeln zu widerlegen kann kontraproduktiv sein (Streisand-Effekt, Backfire-Effekt). Stattdessen: Das übergeordnete Täuschungsmuster beschreiben.
  • Plattform-Verantwortung: Algorithmische Änderungen, die virale Verbreitung von Falschmeldungen bremsen, sind auf institutioneller Ebene wirksamer als individuelle Richtigstellungen.

Verbindung zu anderen Manipulationsmustern

Der Firehose arbeitet oft in Kombination mit anderen Mechanismen. Der emotional aufgeladene Sprachgebrauch erhöht die emotionale Wirkung. Die soziale Konformität sorgt dafür, dass viele Menschen eine oft gehörte Behauptung für wahr halten. Das Strohmann-Prinzip wird eingesetzt, um legitime Gegenpositionen zu verzerren. Und der Illusion-of-Truth-Effekt macht das Fundament der gesamten Strategie aus.

Fazit

Der Feuerwehrschlauch der Falschheiten ist ein Modell, das unsere epistemischen Grundannahmen angreift: dass Fakten korrumpierbar sind, dass Richtigstellungen ankommen, dass Aufmerksamkeit und Wahrheit sich gegenseitig stärken. Das Modell zeigt, dass all das unter den Bedingungen von Massenmedien und Social-Media-Algorithmen fragil ist.

Die Antwort ist nicht Verzweiflung — sondern informiertes Misstrauen, verlangsamtes Denken und institutionelle Gegenmaßnahmen. Das Muster zu kennen, ist der erste Schritt. Es nicht weiterzuverbreiten, der zweite.

Quellen & Weiterführendes

  • Paul, Christopher & Matthews, Miriam. The Russian "Firehose of Falsehood" Propaganda Model. RAND Corporation, 2016. rand.org
  • Wardle, Claire & Derakhshan, Hossein. Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking. Council of Europe, 2017.
  • Roozenbeek, Jon et al. "Susceptibility to misinformation about COVID-19 across 26 countries." Royal Society Open Science, 7, 2020.
  • Vosoughi, Soroush et al. "The spread of true and false news online." Science, 359(6380), 1146–1151, 2018.
  • Stanford Internet Observatory: cyber.fsi.stanford.edu
  • Wikipedia (DE): Firehosing

Verwandte Artikel