Anzeige
Besorgnis um Künstliche Intelligenz

KI könnte über Atomkrieg bestimmen: USA fordern Putin und Xi zum Handeln auf

  • Aktualisiert: 08.05.2024
  • 11:23 Uhr
  • Joachim Vonderthann
Das Iskander-M-System gehört zu den mächtigsten Waffen Russlands und kann Atomsprengköpfe transportieren.
Das Iskander-M-System gehört zu den mächtigsten Waffen Russlands und kann Atomsprengköpfe transportieren. © REUTERS/Maxim Shemetov

Der militärische Einsatz von Künstlicher Intelligenz schreitet voran. Österreichs Außenminister warnt vor einem "Oppenheimer-Moment". Doch die Nuklear-Mächte sind uneins. 

Anzeige

Das Wichtigste in Kürze

  • Wer entscheidet künftig über den Einsatz von Atomwaffen? Der Mensch oder die Künstliche Intelligenz?

  • Die USA, Frankreich und Großbritannien schließen KI in dieser Frage aus - Moskau und Peking lassen ein klares Bekenntnis vermissen.

  • Auch Terroristen und Kriegsverbrecher könnten autonome Waffen einsetzen, warnen Expert:innen.

Die USA fordern von China und Russland ein Bekenntnis dazu, dass Künstliche Intelligenz nicht über einen Einsatz von Atomwaffen entscheiden darf. Die Vereinigten Staaten hätten sich "klar und deutlich" dazu bekannt, dass der Mensch die volle Kontrolle über Atomwaffen haben müsse, sagte der im US-Außenministerium für Rüstungskontrolle zuständige Vizeabteilungsleiter Paul Dean in einem Online-Briefing.

Frankreich und Großbritannien hätten das auch getan. Das von Präsident Xi Jinping regierte China und Russland unter Kremlherrscher Wladimir Putin sollten sich dem anschließen. "Wir würden eine ähnliche Erklärung Chinas und der Russischen Föderation begrüßen", sagte Dean. Dies sei eine wichtige Norm für verantwortungsvolles Verhalten, hinter der alle fünf ständigen Mitglieder des Sicherheitsrates der Vereinten Nationen stehen sollten.

Im Video: Lukaschenko schockiert mit Aussage zu Olympia

Geschmackloser Appell: Lukaschenko schockiert mit Aussage zu Olympia

Drückt KI auf den roten Atom-Knopf?

In Wien hat sich gerade erst eine Konferenz zur internationalen Kontrolle von autonomen Waffen mit diesen Fragen beschäftigt. Auch dort wurde eindringlich gewarnt. So sagte die Präsidentin des Internationalen Komitees vom Roten Kreuz, Mirjana Spoljaric Egger, es könne aktuell nicht garantiert werden, dass diese mit Künstlicher Intelligenz betriebenen Systeme nicht in die Hände von Terroristen und Kriegsverbrechern gerieten.

Das von Österreich organisierte Treffen von Diplomaten und Fachleuten aus etwa 150 Ländern sollte Schwung in die langjährigen Bemühungen zur Regulierung von autonomen Waffen bringen. In den vergangenen zehn Jahren hatten Expertengespräche am Sitz der Vereinten Nationen in Genf zu keinen diplomatischen Verhandlungen über ein Regelwerk geführt. Österreichs Außenminister Alexander Schallenberg mahnte: "Die Technologie schreitet rasant voran und die Diplomatie kommt nicht nach." In Anspielung auf den gleichnamigen "Vater" der Atombombe und den Beginn des nuklearen Wettrüstens fügte er hinzu: "Dies ist der Oppenheimer-Moment unserer Generation."

Anzeige
Anzeige
:newstime

"Oppenheimer-Moment unserer Generation"

Waffensysteme, die mithilfe von Künstlicher Intelligenz selbstständig Ziele auswählen oder bekämpfen können, stehen derzeit wegen der Konflikte im Gazastreifen und in der Ukraine im Zentrum der Aufmerksamkeit. Israels Armee setzt nach eigenen Angaben ein KI-gestütztes System ein, das in kurzer Zeit viele mögliche Angriffsziele vorschlagen kann. Die Ukraine verwendet laut Medienberichten und Informationen aus diplomatischen Kreisen Drohnen, die mittels KI ihr Ziel auch dann finden, wenn ihre Funksteuerung von russischer Seite elektronisch gestört wird.

Der estnische IT-Investor und Risikoforscher Jaan Tallinn wies in einer Rede darauf hin, dass der Einsatz von KI in Konfliktregionen offensichtlich nicht dazu beitrage, die Zahl von Toten und Verletzten zu reduzieren. "Man kann vorhersagen, dass Autonomie in Waffen Kriege einfach nur verlängern wird, weil es billiger wird, Gegner zu töten", sagte er.

Während sich eine Reihe von Ländern bislang offen für Prinzipien oder einen unverbindlichen Verhaltenskodex zu autonomen Waffen gezeigt haben, hat sich Russland gegen rasche Einschränkungen auf diesem Gebiet und gegen Gespräche außerhalb der Genfer Expertengruppe ausgesprochen.

Anzeige
Anzeige
Mehr zum Thema
Wie gefährlich sind Putins Atomdrohungen?
News

Angst vor Atomkrieg

Putins Atomdrohungen: Bluff oder Gefahr? Geheimdienst-Berichte klären auf

Wladimir Putin droht in regelmäßigen Abständen mit dem Einsatz von Nuklearwaffen. Verbreitet er nur Angst und Schrecken oder steckt da eine tödliche Absicht dahinter? Ein Blick in US-amerikanische Geheimdienst-Akten gibt Aufschluss.

  • 15.03.2024
  • 09:58 Uhr
  • Verwendete Quellen:
  • Nachrichtenagentur Reuters
  • Nachrichtenagentur dpa
Ähnliche Inhalte
urn:newsml:dpa.com:20090101:241017-935-293182
News

Trump-Nichte erhebt schwere Vorwürfe: Ist Donald Trump eine "verliebte Marionette" Putins?

  • 21.11.2024
  • 17:48 Uhr
Mehr News und Videos