Bemærk Denne artikel blev udgivet for over en måned siden

AI-generede billeder deles efter offentliggørelse af efterlyst mand i Charlie Kirk-sag

Faktatjek 12. sep 2025  -  3 min læsetid
Tjekdet
Foto: Jim Urquhart/Reuters/Ritzau Scanpix
  • FBI offentliggjorde torsdag billeder af “en person af interesse” i forbindelse med skuddrabet på den konservative aktivist Charlie Kirk.

  • Kort efter begyndte brugere på sociale medier at manipulere det originale billede med kunstig intelligens.

  • Billederne gav et misvisende indtryk af, hvordan den efterlyste mand ser ud.

Onsdag blev den konservative aktivist og vigtige Donald Trump-støtte Charlie Kirk skudt og dræbt til et arrangement på et universitet i den amerikanske delstat Utah.

Siden da har politiet anholdt to personer, men de blev begge løsladt igen kort efter anholdelsen.

Det betyder, at gerningsmanden stadig er på fri fod.

Torsdag offentliggjorde det amerikanske forbundspoliti, FBI, overvågningsbilleder af “en person af interesse”. Billederne viser en ung mand iført en kasket, solbriller og mørkt tøj. På hans trøje kan man se et amerikansk flag og det, der ser ud til at være en ørn.

Siden offentliggørelsen af billederne af den unge mand, har brugere på sociale medier brugt kunstig intelligens i et forsøg på at hjælpe politiet med at finde frem til gerningsmanden.

TjekDet giver dig her eksempler på, hvordan billederne bliver manipuleret og misbrugt med kunstig intelligens.

Tilmeld dig TjekDets nyhedsbrev

Ændret motiv på trøjen

Kort tid efter, at FBI deler de første billeder, skriver en bruger på det sociale medie X, at vedkommende har brugt Grok til at forbedre kvaliteten af billedet.

Grok er X’s indbyggede chatbot, som også kan bruges til at fremstille billeder.

I opslaget kan man til højre se originalbilledet, som FBI har offentliggjort. Til venstre ses billedet, som Grok har fremstillet på baggrund af originalbilledet. Opslaget har 1,8 millioner visninger.

At brugeren har brugt Grok til at forbedre billedet betyder, at kunstig intelligens ud fra originalbilledet har forestillet sig, hvordan personen ser ud.

Det resulterer ofte i fejl, hvilket også er tilfældet her. For sammenligner man motivet på trøjen på de to billeder, kan man se, at billedet genereret med kunstig intelligens har ændret motivet.

På billedet, som Grok har lavet, kan man ikke længere se det amerikanske flag og det, der på originalbilledet ser ud til at være en ørn. Nu ser det nærmere ud til at være en flyvende robot med en kappe.

En omvendt billedsøgning af originalbilledet leder til en sort trøje med det amerikanske flag og en ørn. Her kan man se, at teksten på trøjen er “Land of the Free. Home of the Brave”. Den ser identisk ud med den trøje, man kan se på billederne, som FBI har offentliggjort.

Ser man på området rundt om mandens solbriller ser det også en anelse mystisk ud, og manden har fået monobryn, der svæver over solbrillekanten.

Det samme billede blev senere torsdag aften videredelt af den amerikanske konspirationsteoretiker Alex Jones. Han nævner dog ikke, at billedet er fremstillet med hjælp fra kunstig intelligens. Hans opslag har fået 2,7 millioner visninger på X.

En anden bruger på X har også brugt Grok til at gøre stillbillederne til levende videoer. Hans opslag har fået 7,2 millioner visninger.

I videoen har personen, som politiet er interesserede i at få identificeret, pludselig fået en gul genstand i den ene hånd. Det har han ikke på billederne, som politiet har offentliggjort.

Billederne og videoen i opslagene tjener som gode eksempler på, hvilken risiko der ligger i at bruge kunstig intelligens på billeder, som skal være med til at identificere personer. Billeder eller videoer, som kunstig intelligens fremstiller ud fra originale billeder, vil nemlig ofte afvige fra originalbilledet, hvilket har potentiale til i sidste ende at udpege forkerte gerningspersoner.

Hvis du kan lide TjekDets artikler og vil være sikker på ikke at gå glip af den nyeste, så følg os på Facebook ved at klikke her. Du kan også tilmelde dig TjekDets gratis nyhedsbreve, hvor vi tipper dig om vores seneste faktatjek, advarer om digital svindel og deler seneste nyt om mis- og desinformation – direkte i din mailindbakke. Tilmeld dig nyhedsbrevene her.

Opdateret 15. sep 2025