Veröffentlicht am
Den Stellenausschreibungen beider Unternehmen zufolge sind die Unternehmen für künstliche Intelligenz (KI), Anthropic und OpenAI, auf der Suche nach Waffen- und Sprengstoffexperten, um den Missbrauch ihrer Technologie zu verhindern.
Anthropic gab in einem LinkedIn-Beitrag bekannt, dass das Unternehmen auf der Suche nach einem Politikexperten für chemische Waffen und Explosionen sei, um einen „katastrophalen Missbrauch“ seiner Technologie zu verhindern, indem es die Art und Weise gestaltet, wie seine KI-Systeme mit sensiblen Informationen in diesen Bereichen umgehen.
Die bei Anthropic eingestellte Person wird die Leitplanken dafür entwerfen und überwachen, wie KI-Modelle auf Aufforderungen zu chemischen Waffen und Sprengstoffen reagieren. Sie werden auch „schnelle Reaktionen“ auf alle Eskalationen durchführen, die Anthropic bei Waffen und Explosionen feststellt.
Bewerber sollten über mindestens fünf Jahre Erfahrung im Bereich „Abwehr gegen chemische Waffen und/oder Sprengstoffe“ sowie Kenntnisse über „radiologische Sprengvorrichtungen“ oder schmutzige Bomben verfügen. Die Aufgabe besteht darin, neue Risikobewertungen zu entwerfen, denen die Unternehmensführung „bei risikoreichen Markteinführungen vertrauen kann“.
In der Stellenausschreibung von OpenAI Anfang dieses Monats hieß es, dass das Unternehmen nach Forschern für sein Preparedness-Team sucht, das „katastrophale Risiken im Zusammenhang mit Grenz-KI-Modellen“ überwacht.
Es wurde auch für einen Threat Modeler geworben, der einer Person die Hauptverantwortung „für die Identifizierung, Modellierung und Prognose von Grenzrisiken“ geben und als „zentraler Knotenpunkt dienen würde, der technische, Governance- und politische Perspektiven zur Priorisierung, Fokussierung und Begründung unseres Ansatzes für Grenzrisiken durch KI verbindet“.
Euronews Next kontaktierte Anthropic und OpenAI bezüglich der Stellenausschreibungen, erhielt jedoch keine sofortige Antwort.
Diese Einstellungen erfolgen, nachdem Anthropic eine Klage gegen die US-Regierung eingereicht hatte, nachdem diese das Unternehmen als „Lieferkettenrisiko“ eingestuft hatte, eine Bezeichnung, die es der Regierung erlaubt, Verträge zu blockieren oder Abteilungen anzuweisen, nicht mit ihnen zusammenzuarbeiten.
Der Konflikt begann am 24. Februar, als das Kriegsministerium (DOW) uneingeschränkten Zugang zum Claude-Chatbot von Anthropic forderte.
CEO Dario Amodei sagte, dass DOW-Verträge keine Fälle beinhalten sollten, in denen Claude zur Massenüberwachung im Inland eingesetzt und in völlig autonome Waffen integriert wird.
Kurz nach dem Konflikt mit Anthropic unterzeichnete OpenAI einen Vertrag mit dem Kriegsministerium (DOW) über den Einsatz seiner KI in geheimen Umgebungen. Das Unternehmen sagte, der Deal enthalte strenge rote Linien, etwa den Verzicht auf den Einsatz seiner Systeme zur Massenüberwachung oder autonomen Waffen.










