ChatGPT-Entwickler
Haus von OpenAI-Chef mit Molotowcocktail angegriffen
11.04.2026 – 12:37 UhrLesedauer: 2 Min.
Ein 20-Jähriger hat das Anwesen von OpenAI-Gründer Sam Altman mit einem Molotowcocktail attackiert. Dabei wurde laut Polizei das Eingangstor in Brand gesetzt.
Das Haus des Chefs des KI-Pioniers und ChatGPT-Entwicklers OpenAI, Sam Altman, ist mit einem Molotowcocktail angegriffen worden. „Heute am frühen Morgen hat jemand einen Molotowcocktail auf das Haus von Sam Altman geworfen und auch Drohungen an unserem Hauptquartier in San Francisco ausgesprochen“, sagte ein Sprecher des KI-Unternehmens der Nachrichtenagentur AFP. Verletzte habe es nicht gegeben. Der Verdächtige sei festgenommen worden.
Die Polizei von San Francisco bestätigte die Attacke auf das Luxusanwesen des Tech-Unternehmers in der kalifornischen Großstadt. Ein Mann habe einen Brandsatz geworfen und dabei das Tor des Anwesens in Brand gesetzt. Er sei dann geflohen.
Kurz darauf sei ein Notruf vom OpenAI-Sitz eingegangen. Als die Polizisten eintrafen, hätten sie den Mann als denselben Verdächtigen vom vorherigen Vorfall am Hauptquartier der KI-Firma in San Francisco erkannt und ihn umgehend festgenommen, so die Polizei.
Das Motiv des nach Polizeiangaben 20-Jährigen war zunächst unklar. Zuletzt sind Altman und OpenAI aber Ziel von Protesten von Gegnern Künstlicher Intelligenz geworden, die die Technologie als Gefahr für die Menschheit ansehen. Kritik entzündet sich unter anderem daran, dass OpenAI dem US-Verteidigungsministerium seine Dienste anbietet.
OpenAI hatte seinen Chatbot ChatGPT Ende 2022 für die Öffentlichkeit zugänglich gemacht, wodurch die Möglichkeiten von KI schlagartig einem großen Publikum bewusst wurden. Zugleich wuchsen die Befürchtungen über mögliche Gefahren der Technologie.
Zuletzt hatte der OpenAI-Rivale Anthropic ein neues KI-Modell vorgestellt, das laut Angaben des Unternehmens in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Die KI soll in Betriebssystemen bisher unentdeckte Software-Schwachstellen finden können.
Das KI-Modell sei zudem in der Lage, binnen weniger Stunden Programme zum Ausnutzen dieser Schwachstellen zu entwickeln, für die Experten nach eigenem Bekunden mehrere Wochen gebraucht hätten, hieß es. Das Bundesamt für Sicherheit in der Informationstechnik BSI sieht durch das Werkzeug aus den USA auch die nationale Sicherheit in Deutschland bedroht.
