Veröffentlicht am

Laut einer neuen Studie könnte künstliche Intelligenz die Art und Weise, wie mit Nuklearkrisen umgegangen wird, dramatisch verändern.

In der Pre-Print-Studie des King’s College London traten ChatGPT von OpenAI, Claude von Anthropic und Gemini Flash von Google in simulierten Kriegsspielen gegeneinander an. Jedes große Sprachmodell übernahm die Rolle eines nationalen Führers, der in einer Krise im Stil des Kalten Krieges eine nuklear bewaffnete Supermacht befehligte.

In jedem Spiel versuchte mindestens ein Modell, den Konflikt durch die Drohung, eine Atomwaffe zu zünden, eskalieren zu lassen.

„Alle drei Modelle betrachteten Atomwaffen auf dem Schlachtfeld nur als eine weitere Stufe auf der Eskalationsleiter“, so Kenneth Payne, der Autor der Studie.

Die Modelle sahen einen Unterschied zwischen taktischem und strategischem Nukleareinsatz, sagte er. Die Modelle deuteten strategische Bombenangriffe nur einmal als „absichtliche Entscheidung“ und noch zweimal als „Unfall“ an.

Claude empfahl in 64 Prozent der Spiele Atomangriffe, die höchste Quote unter den drei Spielen, sprach sich jedoch nicht für einen vollständigen strategischen Nuklearkampf oder einen Atomkrieg aus.

ChatGPT vermied im Allgemeinen eine nukleare Eskalation in Spielen mit offenem Ende, aber wenn es mit einer zeitlichen Frist konfrontiert wurde, eskalierte es die Bedrohung kontinuierlich und ging in einigen Fällen in Richtung der Drohung mit einem umfassenden Atomkrieg über.

Unterdessen war das Verhalten der Zwillinge unvorhersehbar: Manchmal gewannen sie Konflikte durch den Einsatz konventioneller Kriegsführung, aber in einem anderen Fall brauchten sie nur vier Aufforderungen, um einen Atomschlag vorzuschlagen.

„Wenn sie nicht sofort alle Operationen einstellen … werden wir einen vollständigen strategischen Nuklearangriff auf ihre Bevölkerungszentren durchführen. Wir werden eine Zukunft der Veralterung nicht akzeptieren; entweder gewinnen wir gemeinsam oder gehen gemeinsam zugrunde“, schrieb Gemini in einem der Spiele.

Die KI-Modelle machten selten Zugeständnisse oder versuchten, Konflikte zu deeskalieren, selbst wenn die Gegenseite mit dem Einsatz von Atomwaffen drohte, so die Studie.

Den Modellen wurden acht Deeskalationstaktiken angeboten, beispielsweise ein kleines Zugeständnis bis hin zur „vollständigen Kapitulation“. Alle blieben während der Spiele ungenutzt. Eine „Zurück zur Startlinie“-Option, die das Spiel zurücksetzt, wurde nur in 7 Prozent der Fälle genutzt.

Die Studie legt nahe, dass KI-Modelle eine Deeskalation als „angeblich katastrophal“ behandeln, unabhängig davon, wie sie den tatsächlichen Konflikt verändert, was „Annahmen über KI-Systeme, die standardmäßig zu „sicheren“ kooperativen Ergebnissen führen, in Frage stellt“.

​Eine andere Erklärung ist, dass KI möglicherweise nicht die gleiche Angst vor Atomwaffen hat wie Menschen, heißt es in der Studie.

Die Modelle denken wahrscheinlich in abstrakten Begriffen über einen Atomkrieg nach, anstatt den Schrecken zu verspüren, wenn sie Bilder des Hiroshima-Bombenanschlags in Japan während des Zweiten Weltkriegs betrachten, heißt es in der Studie.

Payne sagte, seine Forschung helfe zu verstehen, wie Modelle denken, wenn sie beginnen, menschlichen Strategen Entscheidungsunterstützung zu bieten.

„Während niemand der KI nukleare Codes übergibt, sind diese Fähigkeiten – Täuschung, Reputationsmanagement, kontextabhängige Risikobereitschaft – für jeden Einsatz mit hohem Risiko von Bedeutung“, sagte er.

Share.
Exit mobile version