Veröffentlicht am
Die Regierung der Vereinigten Staaten wird nun neue Tools für künstliche Intelligenz (KI) testen, bevor sie der Öffentlichkeit zugänglich gemacht werden.
Die Technologiefirmen Google, Microsoft und xAI haben zugestimmt, dass das US-Handelsministerium ihre Modelle durch das Center for AI Standards and Innovation (CAISI) prüfen lässt.
Die Bewertungen umfassen „Tests, gemeinsame Forschung und Best-Practice-Entwicklung im Zusammenhang mit kommerziellen KI-Systemen“, heißt es in der Erklärung.
Laut seiner Website wird CAISI auch „nachweisbare Risiken“ bewerten, die mit KI-Systemen verbunden sind, etwa Cybersicherheit, Biosicherheit und Risiken chemischer Waffen.
„Unabhängige, strenge Messwissenschaft ist für das Verständnis der Grenz-KI und ihrer Auswirkungen auf die nationale Sicherheit von entscheidender Bedeutung“, sagte CAISI-Direktor Chris Fall in einer Erklärung. „Diese erweiterten Branchenkooperationen helfen uns, unsere Arbeit in einem kritischen Moment im öffentlichen Interesse zu skalieren.
Microsoft sagte in einer öffentlichen Erklärung, dass die CAISI-Bewertungen ihnen helfen werden, Risiken wie KI-Cyberangriffen für ihr KI-Modell Copilot einen Schritt voraus zu sein.
Schwerpunktverlagerung für Trump
Die Ankündigung, dass KI-Unternehmen bewertet werden, ist eine Abkehr von Präsident Trump, der seit langem argumentiert, dass eine übermäßige Regulierung von KI-Systemen die Innovation des Landes beeinträchtigen und China einen Vorteil verschaffen könnte.
Im März veröffentlichte Trump sein AI National Policy Framework, in dem es heißt, dass die Vereinigten Staaten „Innovationsbarrieren beseitigen“ und den Einsatz von KI in verschiedenen Sektoren „beschleunigen“ werden.
Darin heißt es auch, dass der Kongress nicht „einige wenige föderale Regulierungsbehörden zur Regulierung der KI“ schaffen werde, sondern stattdessen bestehende Regulierungsbehörden und Experten in bestimmten Bereichen damit beauftragen werde, die Modelle zu prüfen.
CAISI hat bereits 40 Bewertungen anderer Modelle durchgeführt, darunter einige „hochmoderne Modelle, die noch unveröffentlicht sind“, hat jedoch nicht angegeben, auf welche Modelle es sich bezieht.
„Neuverhandlung“ bestehender Vereinbarungen
OpenAI und Anthropic unterzeichneten im Jahr 2024 unter dem ehemaligen Präsidenten Joe Biden Vereinbarungen für diese Evaluierungen. CAISI sagte, bestehende Vereinbarungen seien „neu ausgehandelt“ worden, ging jedoch nicht näher auf die Änderungen ein.
Chris Lehane, Chief Global Affairs Officer bei OpenAI, sagte auf LinkedIn, dass das Unternehmen der Regierung ChatGPT5.5 vor seiner öffentlichen Veröffentlichung diese Woche zur Verfügung gestellt habe, um „nationale Sicherheitstests und -bewertungen zu unterstützen“.
Lehane sagte, OpenAI arbeite mit CAISI an Testmodellen wie GPT-5.5-Cyber, einem spezifischen Modell, das die Cyber-Abwehrfähigkeiten stärken wird und das nur für eine begrenzte Gruppe von Erstbenutzern verfügbar ist.
OpenAI sagte, es sei auch an der Entwicklung einer „verantwortungsvollen Einsatzstrategie“ für das Cybersicherheitsmodell beteiligt, einschließlich eines Playbooks zur Verbreitung dieser Modelle im gesamten öffentlichen Dienst.











