Link Beschreibung
Zusammenfassung
Correctiv-Faktencheck zu einem angeblichen Satellitenbild, das massive Brände an Öl- und Gasanlagen in mehreren Golfstaaten nach iranischen Angriffen zeigen soll. Das Bild wurde ab dem 18. März 2026 auf Facebook, Instagram, X, russischen Blogs und chinesischen Nachrichtenseiten verbreitet und erreichte hunderttausende Aufrufe.
Bewertung von Correctiv: Manipuliert. Autor: Max Bernhard.
Faktenfackel Bewertung
Einordnung
Das Bild behauptet, gleichzeitige Brände an Öl-Anlagen in Saudi-Arabien, Katar, Kuwait, den Vereinigten Arabischen Emiraten und Oman zu zeigen. Obwohl Iran im März 2026 tatsächlich Angriffe auf Energieinfrastruktur durchführte — darunter die Ras-Tanura-Raffinerie in Saudi-Arabien, die Al-Ahmadi-Raffinerie in Kuwait und die Ruwais-Raffinerie in Abu Dhabi — waren die tatsächlichen Brände deutlich kleiner und traten nicht gleichzeitig auf.
Correctiv hat mehrere Beweise für die Fälschung zusammengetragen:
KI-Erkennung: Im Bild ist das Google Gemini-Logo in der rechten unteren Ecke erkennbar. Ein verstecktes „SynthID"-Wasserzeichen bestätigt, dass das Bild mit Googles KI-Modellen erstellt wurde. Gemini selbst identifizierte das Bild als „bearbeitete Satellitenaufnahme" mit künstlich eingefügtem Rauch und Feuer.
Geografische Fehler: Die Stadt Mesaieed wird im Bild fälschlicherweise zweimal in Saudi-Arabien verortet, liegt aber tatsächlich in Katar. Al-Dschubail, Ra's Tanura und Khobar sind laut Google Maps-Vergleich zu weit nördlich positioniert.
NASA-Satellitenvergleich: MODIS-Satellitenaufnahmen der NASA vom 17. bis 19. März 2026 zeigen keine der im Fake-Bild behaupteten massiven Rauchformationen. Auch ab dem 28. Februar waren keine derartigen Großbrände sichtbar.
Das Bild reiht sich in eine Serie KI-generierter Propaganda zum Iran-Konflikt ein — ähnliche Fälschungen wurden zuvor von der Tehran Times verbreitet.
Fazit
Eindeutig KI-generiertes Propagandabild mit nachweisbaren geografischen Fehlern und fehlendem Abgleich mit echten NASA-Satellitenaufnahmen. Der Fall zeigt, wie KI-generierte Bilder im Kontext realer Konflikte zur Desinformation eingesetzt werden — die Existenz echter Angriffe macht die Fälschung auf den ersten Blick glaubwürdig. Correctivs Analyse mit SynthID-Wasserzeichen und NASA-Daten ist methodisch vorbildlich.
