Der Iran-Krieg hat deutlich gemacht, wie sich die Produktion von Videos mit künstlicher Intelligenz (KI) in Zeiten des höchsten Nachrichtenkonsums auf die Wahrnehmung der Öffentlichkeit auswirken kann und auch die am Konflikt beteiligten Länder versuchen, ihre eigene Erzählung zu gestalten.
Doch dieses Phänomen kann in Ländern, die am Krieg beteiligt sind, sehr emotionale Auswirkungen haben und deren Regierungen dazu veranlassen, strenge Eindämmungsmaßnahmen zu ergreifen.
Der einfache und kostengünstige Zugang zu KI-Videotechnologien hat die sozialen Medien seit Beginn des Iran-Krieges mit KI-gefälschten Videos und Fotos von Kämpfen, Auswirkungen auf zivile Gebiete oder Erklärungen überschwemmt und so Desinformation angeheizt, die einen erheblichen Einfluss auf die Wahrnehmung des Krieges und die tatsächliche Realität vor Ort haben kann.
„Dramatische Bilder und Videos, die angeblich Echtzeit-Kampfszenen und Raketenangriffe zeigen, überschwemmen Social-Media-Feeds, verbreiten sich schnell und führen Millionen in die Irre“, sagte Marc Owen Jones, außerordentlicher Professor für Medienanalyse an der Northwestern University in Katar, gegenüber Euronews Next über die Online-Entwicklung des Krieges.
Das digitale Schlachtfeld
Jones, der sich darauf spezialisiert hat, wie soziale Medien, Desinformation und Online-Politik die öffentliche Meinung beeinflussen, sagte, soziale Medien seien zu einem Schlachtfeld für konkurrierende Narrative in diesem Konflikt geworden, da alle Seiten und ihre Unterstützer nun soziale Medien nutzen, um „Herzen und Köpfe“ zu gewinnen.
In Bezug auf die amerikanische Seite sagte Jones: „Videos werden mit Hollywood-Clips eingefügt, eine Art Memeifizierung der Kommunikation, die eine rechtsextreme Ästhetik ansprechen soll, die Empathie zugunsten von Demütigung ablehnt.“
Auf der anderen Seite zeigt es auch, dass „Iran sich dem Spiel angenommen hat und die Vereinigten Staaten oft mit ihren Memes verspottet, aber viele KI-generierte Bilder scheinen Irans militärische Erfolge zu übertreiben, wohl um den Druck auf die Golfstaaten zu erhöhen, Druck auf eine Deeskalation auszuüben“, sagte er.
KI-generierte Deepfakes
Fortschritte in der künstlichen Intelligenz machen Fehlinformationen einfacher und überzeugender. KI-Tools können von jedem genutzt werden, um in Sekundenschnelle hochwertige Videos, Bilder und Audio zu erstellen.
Beispiele hierfür sind Videos, die angeblich den auf See brennenden US-Flugzeugträger USS Abraham Lincoln zeigen. Die Videos waren so überzeugend, dass Präsident Donald Trump sagte, er habe seine Generäle angerufen, um zu überprüfen, ob die Videos echt seien.
Trump ging später auf seine Plattform Truth Social und sagte: „Es hat nicht nur nicht gebrannt, es wurde nicht einmal darauf geschossen, der Iran weiß es besser, als das zu tun!“
Weitere Beispiele sind inzwischen entlarvte Videos, in denen angeblich weinende US-Truppen und die Zerstörung von Gebäuden in den Golfstädten zu sehen sind.
„Der Einsatz von KI ist zahlreich und immer schwerer zu erkennen“, sagte Jones.
Geschwindigkeit und Verifizierung
Die Geschwindigkeit, mit der sich Inhalte online verbreiten, macht es für den Normalbürger schwieriger, zu überprüfen, was echt ist.
„In einem schnelllebigen Konflikt werden überprüfte Informationen oft verzögert, wodurch ein Vakuum entsteht, das durch Fehlinformationen sofort gefüllt wird“, sagt Jones. „Wenn Menschen besorgt sind, sehnen sie sich nach Informationen, aber diese Informationen sind oft falsch“, fügte er hinzu.
Nicht verifizierte Inhalte können innerhalb von Minuten Millionen von Menschen erreichen, und die Öffentlichkeit steht vor der schwierigen Aufgabe, Inhalte zu überprüfen, die oft sehr realistisch sind oder auf mehreren Websites geteilt werden.
Virale Gerüchte
Neben KI-generiertem Kampfmaterial kursierten letzte Woche zahlreiche Spekulationen darüber Der israelische Ministerpräsident Benjamin Netanjahu ist tot.
Einige Benutzer wiesen auf visuelle Mängel in einem Video von geringer Qualität hin, das am 13. März von Netanyahus Büro veröffentlicht wurde. Benutzer behaupteten, Netanyahu scheine sechs Finger an einer Hand zu haben, ein verräterisches Zeichen für den Einsatz von KI.
„Gerüchte, dass Netanjahu gestorben sei, gingen mit Vorwürfen einher, dass seine Rede tatsächlich ein KI-Video sei“, sagte Jones.
Netanjahu veröffentlichte später mehrere „Proof-of-Life-Style“-Videos, um Gerüchte zu zerstreuen. Allerdings halten sich im Internet weiterhin Spekulationen über seinen Tod.
Bots und koordinierte Kampagnen
Einige online verbreitete Inhalte könnten Teil koordinierter Kampagnen sein, die darauf abzielen, die öffentliche Meinung abzulenken, zu überzeugen oder zu beeinflussen.
„Es gibt lückenhafte, anonyme Konten mit der Historie mehrerer Namensänderungen und ohne erkennbare Identität, die Fake News und KI-Videos teilen“, sagte Jones.
Diese Berichte mögen glaubwürdig erscheinen, aber sie stehen oft im Zusammenhang mit staatlich unterstützten Akteuren oder Personen, die von aufsehenerregenden Inhalten profitieren wollen, erklärte er.
In manchen Fällen verstärken automatisierte Konten oder Bots bestimmte Narrative, indem sie Beiträge teilen und kommentieren, wodurch sie beliebter erscheinen, als sie sind.
Parodie und Satire
Nicht alle KI-Videos sind darauf ausgelegt, zu täuschen. Einige Videos sind bewusst als Parodie und Satire angelegt.
Diese Clips verspotten oder ahmen oft Weltführer wie Trump und Netanjahu nach, können aber dennoch mit echten Videos verwechselt werden.
Laut Jones haben „KI-generierte Deepfakes eine kritische Schwelle überschritten, frühere verräterische Störungen wurden beseitigt und diese Technologie ist jetzt für jeden mit einem Smartphone zugänglich.“
Zu den Beispielen, die online kursieren, gehören ein Video, das Trump als neuen obersten Führer Irans darstellt, sowie Clips, in denen Netanjahu als Roboter mit Fehlfunktionen oder mit mehreren Fingern dargestellt wird.
Andere Videos zeigen NATO-Mitglieder, die sich weigern, Präsident Trump bei der Freigabe der Straße von Hormus zu helfen, und den ukrainischen Präsidenten Wolodymyr Selenskyj, der mit Anti-Drohnen-Technologie in der Golfregion ankommt, nur um von einer Rakete abgeschossen zu werden.
In sich schnell verändernden Konflikten können solche Videos ein Eigenleben entwickeln und sich schnell über ihren ursprünglichen Kontext hinaus verbreiten.
Vertrauensverlust
Die zunehmende Menge irreführender Informationen im Internet macht es für Menschen immer schwieriger, zwischen Fakten und Fiktionen zu unterscheiden.
„Falsche Informationen können sich bis zu zehnmal schneller verbreiten als genaue Berichterstattung in sozialen Medien, und Korrekturen werden selten so weit verbreitet oder geglaubt wie die ursprüngliche falsche Behauptung“, sagte Jones.
„Empörung treibt den Austausch voran, bevor Fakten überprüft werden können, und das ist genau das, was böswillige Akteure ausnutzen“, sagte er.
Jones sagt, dass dramatische Aufnahmen mit der gleichen Skepsis behandelt werden sollten wie unbestätigte Behauptungen.
„Die Tatsache, dass es echt aussieht, reicht nicht länger als Beweis dafür aus“, fügte er hinzu.
Mit dem Fortdauern des Konflikts nimmt auch der Kampf in den sozialen Medien zu und überlässt es den einfachen Menschen, sich in der komplexen Mischung aus Fehlinformationen, Satire und manipulierten Inhalten zurechtzufinden.










