Bemærk Denne artikel blev udgivet for over en måned siden

Ny type misinformation: Ægte krigsbilleder bliver gjort tydeligere med kunstig intelligens, men fordrejer virkeligheden

Indsigt 10. mar 2026  -  3 min læsetid
Tjekdet
Efter nedskydningen af et amerikansk kampfly i Kuwait blev dette foto delt på nettet. Til højre ses en AI-forbedret version, hvor ansigt og detaljer fremstår tydeligere end i det oprindelige billede til venstre. Foto: Skærmbilleder fra opslag på sociale medier
  • Eksperter advarer, at nye billedværktøjer kan fremhæve eller tilføje detaljer i autentiske fotos og dermed ændre, hvordan en begivenhed fremstår. Det kan skabe ny misinformation.

Skrevet af: AFP

Krigen i Mellemøsten har udløst en strøm af misinformation lavet med kunstig intelligens. Ud over fabrikerede billeder spreder der sig også en anden type indhold. Det er autentiske billeder, der er blevet “forbedret” med kunstig intelligens på måder, som ifølge eksperter kan forvrænge opfattelsen af, hvad der faktisk sker på landjorden. Det skriver det franske telegrambureau AFP.

På et opsigtsvækkende foto ses en knælende amerikansk pilot blive konfronteret af en lokal kuwaiter kort efter, at piloten har forladt sit fly med faldskærm. Billedet af nærmest uvirkelig god kvalitet blev delt bredt på sociale medier og endte også i flere mediers dækning. Men noget er underligt. Piloten ser ud til kun at have fire fingre på hver hånd.

AFP analyserede billedet med værktøjer til at opdage AI-indhold og fandt en såkaldt SynthID, der er et usynligt vandmærke, som bruges til at stemple billeder skabt med Googles AI-værktøjer. Det er dog ikke hele forklaringen.

Selve situationen ser nemlig ud til at være ægte. En video af den samme hændelse begyndte at cirkulere på sociale medier den 2. marts, og satellitbilleder bekræftede , hvor hændelsen fandt sted. Motivet på billedet stemte også overens med rapporter fra samme dag om, at Kuwait ved en fejl havde skudt tre amerikanske kampfly ned.

AFP fandt desuden en tidligere version af fotoet på Telegram. Det matchede det højopløste billede bortset fra, at billedet på Telegram var uskarpt.

AI-verifikationsværktøjer vurderede, at billedet, hvor man ikke kunne se detaljerede træk i pilotens ansigt, var ægte. Det tyder på, at netop dette foto kan have været udgangspunktet for den senere version, som AI-værktøjer reagerede på, hvor pilotens ansigt var tydeligere. 

“Forbedringer af billeder med kunstig intelligens kan subtilt ændre teksturer, ansigter, lys eller baggrundsdetaljer og skabe et billede, der ser mere virkeligt ud end originalen,” siger Evangelos Kanoulas, professor i kunstig intelligens ved University of Amsterdam.

Ifølge ham kan sådanne ændringer være med til at styrke en bestemt fortælling om en begivenhed. For eksempel få en demonstration til at se mere voldelig ud, en menneskemængde til at fremstå større end den er eller ansigtsudtryk til at virke mere klare.

I et andet tilfælde delte brugere på sociale medier et dramatisk billede af en enorm brand nær lufthavnen i Erbil i Irak efter iranske angreb på området den 1. marts.

Også her registrerede SynthID-værktøjer brugen af Google-AI i billedet, men det var ikke et helt falsk billede. Den oprindelige version viser samme scene - dog med langt mindre ild og røg og med mindre intense farver.

Tjekdet
Et opslag på det sociale medie Reddit kritiserer den amerikanske tv-station MSNBC for at have vist et AI-forbedret billede af Alex Pretti - den 37-årige intensivsygeplejerske fra Minneapolis, der blev skudt og dræbt af føderale immigrationsbetjente i januar 2026. I den AI-forbedrede version ændrede ansigtets form og detaljer sig. Foto: Skærmbillede af opslag fra Reddit

En helt anden historie

Eksperter advarer om, at grænsen mellem både bevidst og ubevidst billedforbedring og egentlig billedgenerering er særdeles hårfin.

“Selv små ændringer kan ende med at fortælle en helt anden historie,” siger James O’Brien, professor i datalogi ved University of California i Berkeley. 

Ifølge ham kan det ændre vores opfattelse af begivenheder.

Generativ kunstig intelligens er desuden stadig tilbøjelig til fejl og kan hallucinere elementer, der ikke fandtes i det oprindelige billede, tilføjer Evangelos Kanoulas.

Det skete efter skyderiet på Alex Pretti i den amerikanske stat Minneapolis i januar, hvor et AI-forbedret billede af hændelsen gik viralt.

Billedet byggede på et udsnit af en ægte video af skyderiet, hvor Alex Pretti falder på knæ med betjente omkring sig, mens en af dem holder en pistol mod hans hoved.

I det grynede originalbillede holder Alex Pretti en genstand, som i virkeligheden var en telefon. I den AI-bearbejdede version mente nogle brugere på sociale medier fejlagtigt at kunne se et våben i hans hånd.

Mens krigen udløst af amerikansk-israelske angreb på Iran fortsætter, advarer eksperter om, at AI-forbedrede billeder uden tydelig mærkning kan svække offentlighedens tillid yderligere.

Den slags indhold har allerede “en enorm indvirkning på mennesker og deres evne til at stole på sandheden,” siger James O’Brien.

“Folk begynder også at tvivle på autentiske billeder,” istemmer Evangelos Kanoulas.

Denne artikel er skrevet af det franske nyhedsbureau AFP. TjekDet har ikke medvirket i tilblivelsen. Få mere information her afp.com.

Hvis du kan lide TjekDets artikler og vil være sikker på ikke at gå glip af den nyeste, så følg os på Facebook ved at klikke her. Du kan også tilmelde dig TjekDets gratis nyhedsbreve, hvor vi tipper dig om vores seneste faktatjek, advarer om digital svindel og deler seneste nyt om mis- og desinformation – direkte i din mailindbakke. Tilmeld dig nyhedsbrevene her.

Opdateret 12. mar 2026