Die Nachrichtenagentur AFP hat ein viral verbreitetes Video, das angebliche iranische Raketenangriffe auf die israelische Stadt Tel Aviv zeigen soll, als höchstwahrscheinlich KI-generiert entlarvt. Das Video verbreitete sich seit dem 4. März 2026 millionenfach auf Plattformen wie Facebook, X und YouTube, in mehreren Sprachen und häufig mit dem impliziten oder expliziten Anspruch, reale Kriegsbilder zu zeigen.

AFP-Analysen fanden jedoch zahlreiche typische Artefakte synthetischer Inhalte: deformierte und aneinandergeklebte Autos, identische und verzerrte Solarpaneele auf Dächern, unterbrochene Rauchspuren der Raketen und Baukräne, die erst beim Heranzoomen plötzlich erscheinen.

Mehrere spezialisierte Erkennungstools – darunter InVID WeVerify, DeepFake-O-Meter der Universität Buffalo und Hive Moderation – klassifizierten das Material mit hoher Wahrscheinlichkeit als KI-generiert. Eine umfassende Recherche ergab zudem keinerlei Berichte lokaler oder nationaler Medien über einen Angriff dieses Ausmaßes in Tel Aviv, keine weiteren Videos desselben Ereignisses und keine im Clip hörbaren Luftschutzsirenen, wie sie sonst typisch wären.

Die früheste identifizierte Version des Videos stammt von einem Instagram-Account, der den Clip ausdrücklich als mittels Künstlicher Intelligenz (KI) erzeugten „Unterhaltungsinhalt“ kennzeichnete; der beigefügte Text ähnelte einem Prompt für einen Bild- oder Videogenerator. Brisant ist, dass der KI-Chatbot Grok auf X auf Nutzeranfragen zunächst wiederholt bestätigte, das Video sei echt, bevor die Falschinformation korrigiert wurde.

Der Fall illustriert eindrücklich, wie generative KI gleichzeitig zur Produktion, Verbreitung und vermeintlichen „Verifizierung“ von Kriegspropaganda beitragen kann – und wie wichtig robuste Faktenprüfungsstrukturen bleiben.

Quelle: AFP Faktencheck, 2026-03-06, Lesezeit: ca. 5 Minuten.


    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert