Von Anna Desmarais mit AP
Veröffentlicht am
Die US-Regierung droht damit, Militärverträge mit dem Unternehmen Anthropic zu beenden, sofern es seine KI-Technologie nicht für den uneingeschränkten militärischen Einsatz öffnet.
Anthropic macht den Chatbot Claude und ist der letzte seiner Kollegen, der seine Technologie nicht an ein neues internes Netzwerk des US-Militärs liefert.
CEO Dario Amodei hat wiederholt seine ethischen Bedenken hinsichtlich des unkontrollierten Einsatzes von KI durch die Regierung deutlich gemacht, einschließlich der Gefahren völlig autonomer bewaffneter Drohnen und einer KI-gestützten Massenüberwachung, die abweichende Meinungen verfolgen könnte.
Anthropic erhielt im vergangenen Juli vom US-Verteidigungsministerium einen Auftrag über 200 Millionen US-Dollar (167 Millionen Euro), um „Prototypen von KI-Fähigkeiten zu entwickeln, die die nationale Sicherheit der USA voranbringen“, sagte Anthropic. Das Unternehmen ging 2024 eine Partnerschaft mit Palantir Technologies ein, um Claude in US-Geheimdienstsoftware zu integrieren.
Berichten zufolge sagte Verteidigungsminister Pete Hegseth am Dienstag, er werde den 200-Millionen-Dollar-Vertrag (167 Millionen Euro) kündigen und das Unternehmen als „Lieferkettenrisiko“ bezeichnen, wenn Anthropic sich nicht daran hält.
Wenn Anthropic nach US-amerikanischem Beschaffungsrecht als Lieferkettenrisiko eingestuft wird, könnte die Regierung das Unternehmen von der Auftragsvergabe ausschließen, die Produkte des Unternehmens von der Prüfung ausschließen und Hauptauftragnehmer anweisen, diesen Lieferanten nicht zu nutzen.
In Berichten über Hegseths Treffen mit Dario Amodei, dem CEO und Mitbegründer von Anthropic, hieß es auch, Hegseth habe damit gedroht, den Defence Production Act gegen das Unternehmen anzuwenden, ein Gesetz, das dem US-Präsidenten weitreichende Befugnisse einräumt, private Unternehmen anzuweisen, nationale Sicherheitsbedürfnisse zu priorisieren, wozu auch der Zugang zu ihrer Technologie gehört.
Euronews Next wandte sich an Anthropic und das Verteidigungsministerium der US-Regierung, um die Vorwürfe zu bestätigen, erhielt jedoch keine sofortige Antwort.
Anthropic macht das zentrale Sicherheitsversprechen rückgängig
Anthropic präsentiert sich seit langem als das verantwortungsbewusstere und sicherheitsbewusstere der führenden KI-Unternehmen, seit seine Gründer OpenAI verlassen haben, um 2021 das Startup zu gründen.
Am Dienstag sagte Anthropic in einem Interview mit dem Time Magazine, dass es sein Sicherheitsversprechen aufgeben werde, kein KI-System herauszubringen, es sei denn, es könne garantieren, dass die Sicherheitsmaßnahmen angemessen seien.
Stattdessen wurde eine neue Version seiner Richtlinie zur verantwortungsvollen Skalierung eingeführt, die den Rahmen des Unternehmens zur Minderung katastrophaler KI-Risiken umreißt.
Jared Kaplan, Chief Science Officer von Anthropic, sagte der Veröffentlichung, dass es ihnen nicht helfen würde, im KI-Wettbewerb mitzuhalten, wenn sie das Unternehmen davon abhielten, neue Modelle auszubilden, während ihre Konkurrenten ohne Sicherheitsvorkehrungen die Nase vorn hatten.
„Wenn ein KI-Entwickler die Entwicklung unterbricht, um Sicherheitsmaßnahmen zu implementieren, während andere mit der Schulung und dem Einsatz von KI-Systemen ohne starke Abhilfemaßnahmen fortfahren, könnte dies zu einer weniger sicheren Welt führen“, heißt es in der neuen Richtlinie von Anthropic.
„Die Entwickler mit den schwächsten Schutzmaßnahmen würden das Tempo vorgeben, und verantwortungsbewusste Entwickler würden ihre Fähigkeit verlieren, Sicherheitsforschung zu betreiben und den öffentlichen Nutzen voranzutreiben.“
Die Richtlinie trennt die Hoffnungen von Anthropic, Sicherheitsstandards in die Branche zu bringen, von seinen eigenen Zielen als Unternehmen, bei denen Sicherheit für sie immer noch Priorität hat.
Anthropic sagte, seine neue Richtlinie bedeute, dass das Unternehmen „ehrgeizige, aber erreichbare“ Sicherheitspläne für seine Modelle festlegen und Risikoberichte veröffentlichen werde, die die erwarteten Risiken aufzeigen und zeigen, ob die Veröffentlichung eines Modells gerechtfertigt sei.











