Bemærk Denne artikel blev udgivet for over en måned siden

Falske "faktatjek" fra chatbots skaber stor forvirring efter attentatet på Charlie Kirk

Indsigt 12. sep 2025  -  3 min læsetid
Tjekdet
Den amerikanske konservative aktivist og politiske influencer Charlie Kirk blev skudt og dræbt onsdag den 10. september. Siden har misinformation om hans mord bredt sig på sociale medier - ikke mindst som følge af falske og vildledende svar fra chatbots. Foto: Rebecca Noble/Getty Images/AFP
  • AI-chatbots har bidraget til mængden af misinformation på sociale medier efter drabet på den amerikanske højrefløjsaktivist Charlie Kirk.

Skrevet af: AFP

Med en stor mængde misinformation i kølvandet på mordet på den amerikanske højrefløjsaktivist Charlie Kirk har brugere på sociale medier vendt sig mod AI-chatbots for at få troværdige opdateringer – blot for at støde på modstridende eller unøjagtige svar, hvilket har gjort forvirringen online endnu større.

Det understreger, hvordan chatbots ofte leverer selvsikre svar, selv når verificerede oplysninger ikke er tilgængelige under nyhedsbegivenheder, som udvikler sig time for time. Chatbots bidrager dermed til at styrke misinformation på platforme, der i vid udstrækning har nedskaleret faktatjek, som er lavet af mennesker og samtidig nedprioriteret indholdsmoderation.

En dag efter at Charlie Kirk -  en 31-årig fremtrædende allieret af USA's præsident Donald Trump - blev dræbt af et skud på et universitet i Utah, skrev AI-chatbotten Perplexitys konto på X ifølge NewsGuard fejlagtigt, at aktivisten aldrig var blevet skudt og stadig var i live.

Tilmeld dig TjekDets nyhedsbrev

Da opslag med en autentisk video af Kirk, der bliver skudt, florerede online, hævdede Elon Musks AI-chatbot Grok på X, at der var tale om et satirisk klip.

“Videoen er en meme-redigering – Charlie Kirk debatterer, og effekterne får det til at se ud, som om han bliver skudt midt i en sætning for komisk effekt. Ingen reel skade er sket; han har det fint og er lige så aktiv som altid,” skrev Grok.

Grok hævdede også fejlagtigt, at en registreret demokrat fra Utah ved navn Michael Mallinson var blevet identificeret som gerningsmanden, og tilskrev fejlagtigt oplysningerne til store nyhedsmedier som CNN og New York Times.

Mallinson er i virkeligheden en 77-årig pensioneret canadisk bankmand bosat i Toronto, som sagde, at han var “chokeret” over tusindvis af opslag på sociale medier, der udpegede ham som gerningsmand.

Nyheder fra højaktuelle begivenheder udløser ofte en hektisk søgen efter nye oplysninger på sociale medier, hvilket hyppigt fører til falske informationer, som chatbots derefter gentager og dermed bidrager til yderligere misinformation.

Strømmen af misinformation bliver spredt midt i et ustabilt politisk miljø i USA efter Kirks mord, hvor mange højrefløjsinfluencere fra Trumps politiske base - den såkaldte MAGA-bevægelse - opfordrer til vold og “hævn” mod venstrefløjen.

Motiverne hos den gerningsmand, der står bag skudepisoden – som stadig er på fri fod – er ukendte.

Løgnerens udbytte

I mellemtiden har nogle konspirationsteoretikere uden belæg hævdet, at videoen, der viser Kirk blive skudt, er AI-genereret, og at hele hændelsen var iscenesat.

Påstanden understreger, hvordan udbredelsen af billige og let tilgængelige AI-værktøjer har givet spredere af misinformation mulighed for at så tvivl om ægtheden af ægte indhold – en taktik forskere har døbt “løgnerens udbytte”.

“Vi har analyseret flere af de videoer (hvor Kirk bliver skudt), der cirkulerer online, og finder ingen beviser for manipulation eller forfalskning,” siger Hany Farid, medstifter af GetReal Security og professor ved University of California, Berkeley.

Hany Farid rapporterede også at have set nogle AI-genererede videoer.

“Dette er et eksempel på, hvordan falsk indhold kan mudre vandene og dermed så tvivl om legitimt indhold,” sagde han.

Usandhederne understreger, hvordan fakta i stigende grad er under angreb i et internetlandskab fyldt med misinformation – et problem, der forværres af offentlighedens mistillid til institutioner og traditionelle medier.

Ifølge eksperter blotlægger det et akut behov for stærkere AI-detekteringsværktøjer, da store techplatforme i vid udstrækning har svækket sikkerhedsforanstaltninger ved at reducere investeringerne i faktatjek lavet af mennesker.

Chatbots har ifølge forskerne tidligere begået fejl i verificeringen af information relateret til andre kriser som Israel-Hamas-krigen i Mellemøsten, den seneste konflikt mellem Indien og Pakistan og anti-immigrationsprotester i Los Angeles.

En nylig gennemgang fra NewsGuard viste, at 10 førende AI-chatbots gentog falsk information om kontroversielle nyhedsemner næsten dobbelt så ofte som for et år siden.

“En nøglefaktor bag den øgede fejlfrekvens er den voksende tilbøjelighed hos chatbots til at besvare alle forespørgsler i stedet for at afvise visse spørgsmål,” sagde NewsGuard i en rapport i sidste uge.

“De store sprogmodeller (LLM’er) trækker nu fra søgninger på internettet i realtid – hvor nogle af resultaterne bevidst er iscenesat af store netværk af ondsindede aktører.”

Denne artikel er skrevet af det franske nyhedsbureau AFP. TjekDet har ikke medvirket i tilblivelsen. Få mere information her afp.com.

© Agence France-Presse

Opdateret 28. okt 2025