Bemærk Denne artikel blev udgivet for over en måned siden

AI’s blinde vinkel: Værktøjer formår ikke at opdage deres egne falske billeder

Indsigt 21. nov 2025  -  3 min læsetid
Tjekdet
Flere og flere vender sig mod chatbots, når de skal tjekke, om billeder er fabrikeret eller manipuleret. Men ofte vurderer chatbots, at billeder er ægte, selvom de selv har genereret dem. Foto: Ian Maule/AFP
Skrevet af: AFP

Da vrede filippinere for nylig brugte en AI-drevet chatbot til at tjekke et viralt billede af en politiker, der var involveret i en korruptionsskandale, formåede chatbotten ikke at opdage, at billedet var fabrikeret – selv om det faktisk var den selv, der havde skabt det.

Flere og flere internetbrugere vender sig mod AI-chatbots for at få verificeret billeder i realtid. Men de automatiske værktøjer fejler ofte, og i en tid hvor techgiganter skærer ned på menneskelige faktatjekkere, stiller det spørgsmål ved deres evne til at debunke billeder

I mange tilfælde vurderer chatbotterne nemlig forfalskede billeder som ægte, selvom billederne er genereret med selv samme værktøj, og det er med til at gøre et i forvejen forvirrende onlinemiljø endnu mere uigennemskueligt.

Tilmeld dig TjekDets nyhedsbrev

Et eksempel er et manipuleret billede, der i foråret florerede på sociale medier i Filippinerne, af den tidligere politiker Elizaldy Co, som er tiltalt i en omfattende korruptionssag om et milliardanlægsprojekt, der førte til store protester. Alizaldy Co havde været forsvundet siden efterforskningen begyndte, men billedet viste, at han angiveligt befandt sig i Portugal.

Da netbrugere bad Googles nye AI-funktion vurdere, om billedet var ægte, svarede den fejlagtigt, at det var rigtigt.

AFP’s faktatjekkere fandt senere frem til personen, der havde lavet billedet, og konkluderede, at billedet var blevet genereret ved hjælp af Googles AI-værktøj.

"Disse modeller er først og fremmest trænet med sproglige mønstre og mangler den specialiserede visuelle forståelse, der skal til for præcist at identificere AI-genererede eller manipulerede billeder," siger Alon Yamin, direktør for AI-detektionsplatformen Copyleaks, til AFP.

"Selv når billedet stammer fra den samme generative model, giver chatbotter ofte upræcise eller alt for generelle vurderinger, hvilket gør dem upålidelige til faktatjek og autentificering."

Google har ikke reageret på AFP’s henvendelser.

Ikke muligt at skelne fra virkeligheden

AFP har fundet flere tilfælde, hvor AI-værktøjer ikke kunne gennemskue deres egne fabrikationer.

Under de dødelige demonstrationer i den pakistansk-administrerede del af Kashmir-regionen sidste måned delte brugere et falsk billede på sociale medier, der tilsyneladende viste mænd marcherende med flag og fakler.

En analyse fra AFP afslørede, at billedet var skabt med Googles AI-model Gemini.

Alligevel identificerede både Gemini og Microsofts ColePilot det fejlagtigt som et ægte foto fra protesterne.

“Denne manglende evne til at genkende AI-genererede billeder skyldes, at modellerne kun er programmeret til at være god til at efterligne,” forklarer Rossine Fallorina fra tænketanken Sigla Research Center til AFP.

“I bund og grund kan de kun skabe noget, der ligner. De kan ikke fastslå, om ligheden rent faktisk kan skelnes fra virkeligheden."

Tidligere på året testede Tow Center for Digital Journalism ved Columbia University syv forskellige AI-chatbots – herunder ChatGPT, Perplexity, Grok og Gemini – i at verificere ti pressefotos fra nyhedsbegivenheder.

Ifølge undersøgelsen fejlede samtlige modeller i at fastslå billedernes oprindelse.

“Jeg var chokeret"

AFP opsporede kilden til billedet af den tidligere politiker Alizaldy Co, der fik over en million visninger på tværs af sociale medier - en midaldrende webudvikler fra Filippinerne, som sagde, at han lavede det "for sjov" ved hjælp af Nano Banana, Gemini's AI-billedgenerator.

"Desværre troede mange mennesker på det," siger han til AFP. Han bedt om anonymitet for at undgå modreaktioner.

"Jeg redigerede mit opslag - og tilføjede 'AI-genereret' for at stoppe spredningen - fordi jeg var chokeret over, hvor mange delinger det fik."

Sådanne tilfælde viser, hvordan AI-genererede fotos, der oversvømmer sociale platforme, kan se stort set identiske ud med rigtige billeder.

Tendensen har givet næring til bekymringer, fordi undersøgelser viser, at onlinebrugere i stigende grad bruger AI-værktøjer frem for traditionelle søgemaskiner til at finde og verificere information.

Samtidig har techgiganten Meta tidligere i år meldt ud, at virksomheden stopper samarbejdet med eksterne tredjepartsfaktatjekkere i USA og i stedet vil overlade verifikationen til brugere gennem funktionen “Community Notes”.

Menneskelig faktatjek har længe været et brændpunkt i hyperpolariserede samfund, hvor konservative fortalere beskylder professionelle faktatjekkere for liberal bias, en anklage de afviser.

Menneskeligt faktatjek har længe været et stridspunkt i stærkt polariserede samfund, hvor konservative aktører beskylder professionelle faktatjekkere for at have en venstreorienteret bias – en anklage, de selv afviser.

AFP arbejder i dag med faktatjek på 26 sprog som en del af Metas program, blandt andet i Asien, Latinamerika og EU.

Forskere påpeger, at AI-modeller kan være nyttige som hjælpeværktøj for professionelle faktatjekkere – for eksempel til hurtigt at geolokalisere billeder og finde visuelle spor for at fastslå ægthed. Men de advarer også om, at AI-værktøjer ikke kan erstatte menneskelig vurdering.

“Vi kan ikke på lang sigt stole på, at AI bekæmper AI,” siger Rossine Fallorina.

Hvis du kan lide TjekDets artikler og vil være sikker på ikke at gå glip af den nyeste, så følg os på Facebook ved at klikke her. Du kan også tilmelde dig TjekDets gratis nyhedsbreve, hvor vi tipper dig om vores seneste faktatjek, advarer om digital svindel og deler seneste nyt om mis- og desinformation - direkte i din mailindbakke. Tilmeld dig nyhedsbrevene her.
 

Opdateret 26. nov 2025