Wie KI tatsächlich einen Atomkrieg auslösen könnte

Solange es künstliche Intelligenz gibt, fürchten sich die Menschen vor KI und Atomwaffen. Filme veranschaulichen diese Ängste eindrücklich. Skynet aus der Terminator -Reihe erlangt Bewusstsein und feuert Atomraketen auf Amerika ab. WOPR aus WarGames löst beinahe einen Atomkrieg aus, weil es zu einem Kommunikationsfehler kommt. Kathryn Bigelows jüngster Film, House of Dynamite , wirft die Frage auf, ob KI in einen Atomraketenangriff auf Chicago verwickelt ist.
Künstliche Intelligenz ist bereits in der Nuklearindustrie präsent, erklärt Josh Keating von Vox im Gespräch mit Noel King, dem Moderator von „Today, Explained “. „Computer waren von Anfang an Teil davon“, sagt er. „Einige der ersten jemals entwickelten Digitalrechner wurden beim Bau der Atombombe im Rahmen des Manhattan-Projekts eingesetzt.“ Doch wir wissen noch nicht genau, wo und wie sie involviert ist.
Müssen wir uns also Sorgen machen? Nun, vielleicht, argumentiert Keating. Aber nicht davor, dass sich die KI gegen uns wendet.
Hier ein Auszug aus ihrem Gespräch, gekürzt und zur besseren Lesbarkeit bearbeitet. Die vollständige Folge bietet noch viel mehr. Hören Sie „Today, Explained“ auf Ihrer bevorzugten Podcast-Plattform, zum Beispiel bei Apple Podcasts , Pandora oder Spotify .
In einer Szene von „ A House of Dynamite“ versuchen sie herauszufinden, was passiert ist und ob künstliche Intelligenz involviert ist. Steckt in diesen Filmen, die solche Ängste thematisieren, vielleicht etwas Wahres dahinter?
Das Interessante an Filmen, wenn es um Atomkrieg geht, ist: Es handelt sich um eine Art Krieg, der so noch nie stattgefunden hat. Es gibt keine Atomkriegsveteranen außer den beiden Atombomben, die wir auf Japan abgeworfen haben – ein völlig anderes Szenario. Ich denke, Filme haben in Debatten über Atomwaffen schon immer eine überproportionale Rolle gespielt. Man denke nur an die 60er-Jahre, als das Strategic Air Command eine eigene Antwort auf „Dr. Seltsam oder: Wie ich lernte, die Bombe zu lieben“ und „Angriffsziel Erde“ veröffentlichte. In den 80er-Jahren wirkte der Fernsehfilm „The Day After“ als Katalysator für die Bewegung gegen Atomwaffen. Präsident Ronald Reagan war nach dem Ansehen des Films offenbar sehr beunruhigt, und er beeinflusste seine Haltung zur Rüstungskontrolle mit der Sowjetunion.
Im Kontext des Themas, mit dem ich mich beschäftige – KI und Atomwaffen –, gibt es überraschend viele Filme, die dieses Thema aufgreifen. Auch in den politischen Debatten darüber spielt es eine wichtige Rolle. Befürworter der Integration von KI in das nukleare Führungssystem sagen: „Keine Sorge, das wird kein Skynet.“ General Anthony Cotton, der derzeitige Kommandeur des Strategischen Kommandos – des für die Atomwaffen zuständigen Teils des Militärs – plädiert hingegen für einen verstärkten Einsatz von KI-Werkzeugen. Er bezog sich dabei auf den Film „WarGames“ von 1983 und sagte: „Wir werden mehr KI haben, aber es wird kein WOPR im Strategischen Kommando geben.“
Was die Filme meiner Meinung nach etwas verfehlen, ist die Angst, die oft darin besteht, dass eine superintelligente KI unsere Atomwaffen übernehmen und uns damit auslöschen könnte. Im Moment ist das eine theoretische Befürchtung. Die viel realere Sorge ist meiner Ansicht nach, dass die Menschen, die für die Entscheidungen über Atomwaffen verantwortlich sind, wirklich verstehen, wie die KIs funktionieren, wenn sie immer mehr Bereiche des Kommando- und Kontrollsystems durchdringen. Und wie wird sich das auf ihre Entscheidungsfindung auswirken, die – ohne Übertreibung – zu den wichtigsten Entscheidungen der Menschheitsgeschichte gehören könnte?
Verstehen die Menschen, die an Atomwaffen arbeiten, die KI?
Wir wissen nicht genau, welchen Stellenwert KI in der Nuklearindustrie einnimmt. Viele werden jedoch überrascht sein, wie einfach die Technologie des nuklearen Führungs- und Kontrollsystems tatsächlich war. Bis 2019 nutzten sie Disketten für ihre Kommunikationssysteme. Und ich meine nicht die kleinen Plastikdisketten, die wie das Speichersymbol unter Windows aussehen. Ich meine die alten, biegsamen Dinger aus den 80ern. Sie wollen diese Systeme vor Cyberangriffen von außen schützen und daher nicht alles mit der Cloud verbinden.
Da derzeit ein milliardenschwerer Modernisierungsprozess des Nuklearwaffenarsenals läuft, ist die Aktualisierung dieser Systeme ein wichtiger Bestandteil. Mehrere Kommandeure des Strategischen Kommandos (StratCom), darunter auch einige, mit denen ich gesprochen habe, sind der Meinung, dass KI dabei eine Rolle spielen sollte. Sie alle betonen jedoch, dass KI nicht die Entscheidung über den Einsatz von Atomwaffen treffen sollte. Sie glauben, dass KI riesige Datenmengen analysieren und dies deutlich schneller tun kann als Menschen. Der Film „A House of Dynamite“ zeigt eindrücklich, wie schnell der Präsident und seine engsten Berater äußerst schwierige und außergewöhnliche Entscheidungen treffen müssen.
Was sind die wichtigsten Argumente gegen eine Kombination aus KI und Atomwaffen?
Selbst die besten KI-Modelle, die uns heute zur Verfügung stehen, sind noch fehleranfällig. Eine weitere Sorge ist die mögliche Einmischung von außen in diese Systeme. Das könnte Hacking oder ein Cyberangriff sein, oder ausländische Regierungen könnten Wege finden, falsche Informationen in die Modelle einzuschleusen. Es gibt Berichte, wonach russische Propagandanetzwerke aktiv versuchen, Desinformationen in die Trainingsdaten westlicher KI-Chatbots für Endverbraucher einzuschleusen. Hinzu kommt die Frage, wie Menschen mit diesen Systemen interagieren. Viele Forscher haben auf ein Phänomen hingewiesen, das als Automatisierungsbias bezeichnet wird: Menschen neigen dazu, den Informationen von Computersystemen zu vertrauen.
Die Geschichte bietet zahlreiche Beispiele für Situationen, in denen Technologie beinahe zu nuklearen Katastrophen geführt hätte und es Menschen waren, die eine Eskalation verhinderten. So wurde beispielsweise 1979 der US-amerikanische Sicherheitsberater Zbigniew Brzezinski mitten in der Nacht durch einen Anruf geweckt, der ihn darüber informierte, dass Hunderte von Raketen von sowjetischen U-Booten vor der Küste Oregons abgefeuert worden waren. Kurz bevor er Präsident Jimmy Carter anrufen und ihm mitteilen wollte, dass Amerika angegriffen werde, erhielt er einen weiteren Anruf, der ihm mitteilte, dass es sich um einen Fehlalarm gehandelt hatte. Einige Jahre später ereignete sich in der Sowjetunion ein bekannter Fall. Oberst Stanislaw Petrow, der in der Raketenabwehrinfrastruktur arbeitete, wurde vom Computersystem über einen angeblichen US-amerikanischen Atomraketenstart informiert. Gemäß den Protokollen hätte er daraufhin seine Vorgesetzten benachrichtigen müssen, die möglicherweise einen sofortigen Gegenschlag angeordnet hätten. Es stellte sich jedoch heraus, dass das System Sonnenlicht, das von Wolken reflektiert wurde, fälschlicherweise als Raketenstart interpretiert hatte. Es ist also sehr gut, dass Petrov sich dazu entschlossen hat, einige Minuten zu warten, bevor er seine Vorgesetzten anrief.
Ich höre mir diese Beispiele an, und wenn ich es ganz einfach betrachte, könnte ich daraus schließen, dass es die Menschen sind, die uns vom Abgrund zurückhalten, wenn die Technologie versagt.
Das stimmt. Und ich denke, es gibt einige wirklich interessante aktuelle Tests mit KI-Modellen in militärischen Krisenszenarien, und diese neigen tatsächlich dazu, aggressiver zu agieren als menschliche Entscheidungsträger. Wir wissen nicht genau, warum das so ist. Wenn wir uns ansehen, warum wir keinen Atomkrieg geführt haben – warum 80 Jahre nach Hiroshima niemand eine weitere Atombombe abgeworfen hat, warum es nie einen nuklearen Schlagabtausch auf dem Schlachtfeld gab –, dann liegt das meiner Meinung nach zum Teil einfach daran, wie furchterregend diese Vorstellung ist. Wie die Menschen das Zerstörungspotenzial dieser Waffen und die möglichen Folgen einer Eskalation verstehen. Dass bestimmte Schritte unbeabsichtigte Konsequenzen haben können, und die Angst spielt dabei eine große Rolle.
Aus meiner Sicht müssen wir dafür sorgen, dass Angst im System verankert ist. Es müssen diejenigen Institutionen die entscheidenden Entscheidungen über deren Einsatz treffen, die von der Zerstörungskraft von Atomwaffen absolut entsetzt sind.
Es klingt, als ob man beim Ansehen von „A House of Dynamite“ den Eindruck gewinnt, dass wir KI vielleicht komplett aus diesem Bereich verbannen sollten. Es klingt, als ob Sie sagen würden: KI ist Teil der nuklearen Infrastruktur – für uns und andere Nationen – und das wird wohl auch so bleiben.
Ein Befürworter von mehr Automatisierung sagte mir: „Wenn man nicht glaubt, dass Menschen eine vertrauenswürdige KI entwickeln können, dann haben sie nichts mit Atomwaffen zu tun.“ Ich denke aber, dass auch diejenigen dieser Aussage zustimmen würden, die für eine vollständige Abschaffung aller Atomwaffen plädieren. Anfangs hatte ich vielleicht die Sorge, dass KI die Kontrolle übernehmen und Atomwaffen einsetzen würde, aber mir ist klar geworden, dass ich mir mittlerweile genug Sorgen darüber mache, was die Menschen mit Atomwaffen anstellen werden. Es geht nicht darum, dass KI Menschen mit Atomwaffen töten wird. Es geht vielmehr darum, dass KI die Wahrscheinlichkeit erhöhen könnte, dass Menschen sich gegenseitig mit Atomwaffen töten. Bis zu einem gewissen Grad ist die KI unser geringstes Problem. Ich finde, der Film zeigt sehr gut, wie absurd das Szenario ist, in dem wir über den Einsatz von Atomwaffen entscheiden müssten.
Vox

