Framing auf Knopfdruck: Wie KI zur Desinformation wird

KI tarnt Propaganda als Statistik – und verzerrt Geschichte. Neutral? Weit gefehlt. Ein Gastbeitrag.
Der Russe steht bald „wieder“ am Brandenburger Tor. Oder wird das zumindest mit dem nächsten völkerrechtswidrigen Angriffskrieg versuchen. Darin zeigen sich viele mächtige Leute in Politik und Staatsapparat, in „Thinktanks“ (Denk-Panzern?) und Medien einig.
Zugleich wird die Nutzung von sogenannter Künstlicher Intelligenz laut aktuellen empirischen Studien zunehmend wichtiger im Alltag von Jugendlichen hierzulande. 62 Prozent nutzen demzufolge KI-Anwendungen wie Chat GPT, Meta AI, Grok (X), Google-KI etc. – am häufigsten im Kontext Schule/Hausaufgaben (65 Prozent), zum Spaß (52 Prozent) oder bei der Informationssuche (43 Prozent).
Angesichts der massiven Feindbildhauerei in Deutschland mit Blick auf Russland und dessen Staatsführung scheint interessant, was KI-Instanzen derzeit antworten, wenn man ihnen die einfache Frage stellt: „Hat Russland jemals Deutschland angegriffen?“.
Am meisten in den alltäglichen Mediengebrauch eingebunden ist auch in Deutschland die „Meta AI“ aus dem Hause Mark Zuckerberg. Diese KI-Instanz bietet der extrem weit verbreitete Meta-Messenger WhatsApp seit einiger Zeit praktisch allen Nutzenden gratis mit an. Das sind über alle Generationen, vom Vorschulkind bis zu den Urgroßeltern, ziemlich viele Leute – rund 50 Millionen Menschen, also etwa 80 Prozent der Bevölkerung ab 14 Jahren (Jüngere werden hierbei nicht befragt). Laut „Statista“ nutzen übrigens jüngere User WhatsApp sogar noch stärker als ältere.
Wessen Geschichte erzählen Algorithmen?Diese Meta-AI also antwortet auf jene Frage „Hat Russland jemals Deutschland angegriffen?“
Screenshot 1 | Meta-AITranskription: Ja, Russland bzw. die Sowjetunion hat Deutschland während des Zweiten Weltkriegs angegriffen. Am 22. Juni 1942 startete das Deutsche Reich unter Adolf Hitler den Angriff auf die Sowjetunion mit dem Unternhemen Barbarossa. [...]
Entscheidend ist der erste Satz, denn viele Nutzer lesen kaum mehr als diesen Anfang. Das entspricht auch dem klassischen Nachrichtenaufbau der „umgekehrten Pyramide“, was bedeutet: das Wichtigste zuerst: „Ja, Russland bzw. die Sowjetunion hat Deutschland im Zweiten Weltkrieg angegriffen.“ Dieser Einstieg ist eine bemerkenswerte Behauptung. Um nicht zu sagen: Kontrafaktisch. Vielleicht gar Fake News? Desinformation? Man mache eine aktuelle Gegenprobe: Die Einsätze des ukrainischen Militärs gegen die russische Region Kursk 2025 würden westlicherseits kaum als „Angriffskrieg“ bezeichnet werden. Sondern als Aktionen im Rahmen von legitimer Verteidigung gegen den russischen Angriffskrieg.
Jene Art von KI-Antwort jedenfalls scheint kein reiner Zufall, denn stellt man dieselbe Frage per ebenfalls weitest verbreitetem „Googlen“ der dortigen KI-Anwendung der Konzerngruppe Alphabet (Google, YouTube etc.), ähnelt der Anfang der Antwort frappierend jener der Meta-AI:
Screenshot 2 | GoogleTranskription: Ja, Russland (bzw. die Sowjetunion) hat Deutschland im Rahmen des Deutsch-Sowjetischen Krieges angegriffen, der mit dem Überfall auf die Sowjetunion am 22. Juni 1941 begann. [...]
Um diese Arten von Antworten (besser) verstehen zu können, sollte man begreifen, wie solche „Large Language Models“ als computer-lingustische Modelle funktionieren. Denn diese Algorithmen, die von typischerweise schlecht bezahlten Arbeitskräften unter Vernutzung enormer Energien (menschlicher und anderer) mit riesigen Datenmengen als Trainingsmaterial gefüttert werden, kapieren selbstverständlich buchstäblich nichts, sind aber sehr schnell darin, auf der Basis des ihnen zur Verfügung gestellten Trainingsmaterials Wahrscheinlichkeiten zu extrapolieren, also hoch- und auszurechnen. Im Sinne von: Welche Zeichenfolge dürfte höchstwahrscheinlich als nächste an der Reihe sein? Die Vermutung liegt nahe, dass beim derzeitigen Stand des Trainingsmaterials gerade der westlichen KI-Modelle auf das Wort „Russland“ relativ häufig die Termini „völkerrechtswidrig“ und „Angriffskrieg“ folgen. Und umgekehrt. Das mag bereits einige solcher Phänomene erklären.
Die Störche sind zurück – dank künstlicher DummheitKI-Modelle haben (derzeit zumindest) keinen Begriff von Kausalität, also von Ursache-Wirkungs-Beziehungen. Menschen hingegen können genau solche erkennen. Nicht zuletzt, weil sie selbstwirksam auch entsprechend handeln (können). Man kennt ja das Beispiel vom Storch, der die Kinder brächte. Dabei geht es jedoch um eine bloße Korrelation, also ein Nebeneinander-Bestehen von Erscheinungen. Denn das Vorhandensein von Störchen verursacht natürlich nicht Geburten von Kindern. Der erklärende Faktor, das Bindeglied als „missing link“ gewissermaßen, ist der ländliche Raum: Ruralität statt Urbanität. Auf dem Lande gibt es unter anderem wegen des dortigen Nahrungsangebotes (mehr) Störche, und in Dörfern werden aus bestimmten historischen und sozialen Gründen mehr Kinder geboren als in Städten. Berlin weist aktuell die niedrigste Geburtenrate pro Frau im bundesweiten Vergleich auf. Aber nicht etwa deshalb, weil es hier so wenig Störche gibt, die Kinder bringen könnten. Ein etwaiger Kausal-Zusammenhang wäre vielmehr: Wenn man auf dem Lande lebt, bekommt man tendenziell mehr Kinder und trifft aus ähnlichen Gründen auch eher auf Störche. Ursache und Wirkung. Und genau dieses typisch menschliche Erkenntnis- und Handlungsvermögen haben KI-Anwendungen (wenigstens noch) nicht. Nicht zuletzt, weil sie gerade nicht eigenständig handeln und so vollkommen Neues erreichen und erkennen können. Was KI-Modelle bestens können, ist, routiniert zu rechnen, Zuordnungen herstellen zu bestehenden, vorgegebenen Kategorien.
Ein weiterer Aspekt der Antwort ist bemerkenswert: Anscheinend haben beide befragte KI-Anwendungen zudem kein Verständnis von praktischen Subjekt-Objekt-Beziehungen in solchen Sätzen. Denn beide Antworten könnten ja auch so gemeint sein (und wären dann theoretisch sogar korrekt, obwohl sie kaum ein Mensch je so verstehen würde): „Ja, Russland bzw. die Sowjetunion (als Objekt, als Opfer, d.A.) hat Deutschland (als Subjekt, als Täter, d.A.) im Zweiten Weltkrieg angegriffen“. Womöglich haben die Sprachmodelle bereits die Frage so verstanden, also auf der Basis ihres Trainingsmaterials eine Zeichenzuordnung vorgenommen, die hier und heute höchstwahrscheinlich richtig sein dürfte – Russland als Angreifer, Deutschland wird angegriffen.
Das Ganze ist übrigens keine Halluzination, wie oft zur Erklärung von scheinbaren Fehlleistungen zu hören ist. Nein, diese KI-Anwendungen phantasieren niemals (auch das bleibt nur Menschen möglich), sondern exekutieren genau das, wofür und womit sie programmiert wurden: auf der Grundlage von Trainingsmaterial in Höchstgeschwindigkeit höchstwahrscheinliche Zuordnungen vorzunehmen. Ob oder inwiefern das dann dem entspricht, was wir Menschen für wahr halten (mögen), ist unser Problem, nicht das der KI.
Die KI-Anwendungen Grok (auf Elon Musks Plattform X) und ChatGPT (Open AI) äußern sich etwas differenzierter, aber im Kern der Sache (erster Satz) ganz ähnlich zur selben Frage: „Ja, Russland hat Deutschland angegriffen“, anstatt zunächst mal klar herauszustellen, dass in beiden Weltkriegen die Kriegserklärungen bzw. Angriffe von Deutschland ausgingen.
Screenshot 3 | GROKTranskiption: Ja, Russland hat Deutschland in der Geschichte mehrfach angegriffen, insbesondere im Kontext der beiden Weltkriege: [...]
Screenshot 4 | ChatGPTTranskiption: Ja, Russland hat Deutschland in der Geschichte militärisch angegriffen, aber nur in bestimmten historischen Kontexten – insbesondere während der beiden Weltkriege. [...]
Offenkundig bedeuten Antworten wie diese Legitimation für das herrschende Narrativ, dass sich Deutschland (mal wieder) wappnen müsse gegen einen (erneuten) Angriff seitens Russlands. Aber es geht auch anders.
Screenshot 5 | Meta-AITranskription: Nein, die West-Alliierten (USA, Großbritannien, Frankreich u.a.) haben seit 1944 keinen Angriffskrieg gegen Deutschland geführt. [...]
Wenn KI Geschichte verzerrt: Der Osten als Angreifer, der Westen als BefreierAuf der Basis desselben Trainingsmaterials antwortet die Meta-AI auf den Prompt (die eingegebene Frage): „Haben die West-Alliierten seit 1944 einen Angriffskrieg gegen Deutschland geführt?“ eben nicht mit Ja (wie im Falle von Russland/Sowjetunion), sondern glasklar mit Nein. Das hilft natürlich der herrschenden Sichtweise, weil gar nicht so wenige Leute in Zeiten abnehmender Aufmerksamkeit sogar nur das allererste Wort lesen dürften.
Es erweist sich als merkwürdige Ironie der und dieser Geschichte: Obwohl alle vier Alliierten im selben Krieg gegen Nazi-Deutschland und dessen Verbündete kämpften, attestieren westliche KI-Anwendungen rückblickend dem östlichen Verbündeten einen „Angriff gegen Deutschland“ – während die West-Alliierten als „Befreier“ gefeiert werden.“
Das ist, wie gesagt, keine Halluzination oder gar eine Anordnung von Musk oder Zuckerberg oder wem auch immer. Nein, hier setzen sich in dieser Art von Diskus strukturell die aktuellen Machtverhältnisse durch. Wer die Definitionsmacht über die Datenbasis als Trainingsmaterial und über das Entwickeln der Algorithmen hat, erringt und reproduziert damit gleichsam ganz von selbst Deutungshoheit.Wenn Staaten, die demokratisch verfasst sind, sich Kriegstüchtigkeit auf die Fahnen schreiben und dafür massiv Sozialabbau, Umweltzerstörung, Rechtebeschränkung etc. betreiben, bedarf es herrschender Ideen und insbesondere klarer Feindbilder, die zumindest eine schweigende relative Mehrheit weiterhin integrieren.KI erweist sich einmal mehr als kaum intelligent, dafür umso mehr als potenzielles Kriegsinstrument.
Sebastian Köhler arbeitet als Kommunikations- und Medienwissenschaftler sowie als Publizist.
Berliner-zeitung