Nye tal peger på stigning i brug af AI som desinformationsvåben – videoerne ligner virkeligheden
-
AI-teknologi bliver i større og større omfang brugt som et middel til at sprede desinformation.
-
Det Europæiske Observatorium for Digitale Medier har i 2025 registreret det hidtil højeste antal sager, hvor AI bliver brugt til desinformation.
-
Vi står over for en udfordring, som vi som samfund og demokrati slet ikke er godt nok rustet til at håndtere, mener TjekDets chefredaktør.
“Forestil dig at se Donald Trump erklære atomkrig mod Nordkorea i en video på Facebook. Eller se russiske tropper vade over grænsen til Baltikum i en video delt på Twitter”, sådan lød det i en artikel, TjekDet udgav tilbage fra 2017, hvor AI-teknologiens potentiale mest var noget, vi forestillede os.
Otte år efter står vi et sted, hvor eksemplerne sagtens kan gøres til virkelighed. Faktisk på få minutter med de rigtige programmer.
For AI-teknologien har været i rivende udvikling i de seneste år, og alene i 2025 er der kommet flere værktøjer til, som med ganske få inputs kan skabe videoer og billeder, som ikke kan skelnes fra virkeligheden med det blotte øje.
Og værktøjerne bliver brugt. Fra at have ligget på et nogenlunde konstant niveau de sidste år, er antallet af sager, hvor AI bliver brugt til at sprede desinformation, nu stigende. Det fremgår af en opgørelse foretaget af Det Europæiske Observatorium for Digitale Medier.
Udviklingen bekymrer TjekDets chefredaktør Thomas Hedin.
“Vi står i et helt nyt scenarie", siger han.
En stigning i AI-genereret desinformation
Der er adskillige eksempler på, hvordan AI-teknologien bliver misbrugt til desinformation.
I slutningen af marts ramte et jordskælv med en styrke på 7,7 Myanmar i det sydøstlige Asien. Efter jordskælvet blev flere katastrofebilleder fra andre steder i verden delt i kontekst af jordskælvet - og billederne var - ved hjælp af AI - blevet lavet til korte videoklip, som blev spredt på sociale medier som dokumentation.
Der florerede også andre billeder, som angiveligt dokumenterede jordskælvet, men som helt og aldeles var skabt med kunstig intelligens.
Under en måned senere var den gal igen. En tragisk massakre i Indien, hvor 26 mennesker blev dræbt, sendte også flere AI-genererede billeder i omløb - billeder, som angiveligt skulle vise de dræbte.

Dette billede skulle angiveligt stamme fra den brutale massakre i Kashmir i Inden i april i år. Men billedet er skabt med kunstig intelligens og en del af en stigende tendens, hvor AI bruges til at udbrede desinformation. Foto: AI.
Eksemplerne kan dog ikke måle sig med brugen af AI, da Iran og Israel lå i krig med hinanden fra den 13. juni til den 24. juni. Her var meget af den efterfølgende propaganda - særligt fra iransk side - drevet af AI-genereret indhold.
Ofte var det forsøg fra iransk side på at overdrive, hvor store ødelæggelser deres missilangreb mod Israel var skyld i - og hvor voldsomme militære kapaciteter de selv havde.
En video af de angivelige ødelæggelser i den israelske storby Tel-Aviv gik blandt andet viralt på det sociale medie X - men videoen var skabt med AI.
En anden viral video skulle angiveligt vise utallige iranske raketter, som Iran snart ville sende afsted mod Israel fra et bjergkompleks, mens et billede skulle dokumentere, at Iran havde haft succes med at skyde en højteknologisk israelsk jægerfly ned. Men igen var begge dele AI-genereret.
Getting ready for tonight's show pic.twitter.com/ArxNGaWjzQ
— Global Affairs (@hehe_samir) June 18, 2025
Videoen her viser angiveligt iranske raketter, der skal sendes afsted mod Israel. Men også her er der tale om en AI-genereret video.
Det Europæiske Observatorium for Digitale Medier (EDMO) udgiver hver måned en oversigt over, hvilke emner der bliver spredt mest misinformation om, og hvordan spredningen finder sted. Og her var netop brugen af AI i konflikten mellem Iran og Israel en højdespringer tilbage i juni.
“Falsk indhold om denne konflikt omfattede en hidtil uset brug af kunstig intelligens, hvilket bidrog til rekorden af AI-genereret indhold registreret af EDMO”, lød det blandt andet i deres rapport fra juni.
EDMO skriver, at det er usikkert, hvorfor det skete, men at det højst sandsynligt er, fordi teknologien til at skabe AI-genereret indhold er blevet mere tilgængelig.
I 2025 er der også kommet flere værktøjer, som gør det langt nemmere for internetbrugere at lave AI-genereret indhold.
Eksempelvis kan både chatbotten “Grok” på det sociale medie X, ChatGPT's værktøj "Sora" og Googles nyligt lancerede Veo 3 på få sekunder skabe et visuelt indhold ud fra en kort prompt.
Teknologien og kompetencerne til at skabe AI-genereret indhold er altså ved at blive allemandseje, og derfor kan vi også forvente, at sociale medier i fremtiden vil flyde med AI-genereret desinformation i forbindelse med større begivenheder, vurderer Thomas Hedin, som er chefredaktør ved TjekDet.
“Det er blevet nemt at sprede desinformation. Vi er et sted, hvor man sagtens kan forestille sig, at nogle personer 24 timer før en valgdag sætter en AI-video i omløb, hvor man for eksempel ser en politiker modtage nogle suspekte penge på gaden i Nyhavn, og hvor verificeringen er tidskrævende, så ægtheden ikke kan afklares før valgstederne lukkes, hvilket potentielt kan påvirke vælgerne og en politikers mulighed for at blive valgt”, forklarer han.
Ifølge ham er 2025 blevet året, hvor teknologien har nået det punkt, som man kunne frygte for år tilbage.
"Teknologien har været diskuteret i mindst 6-7 år, og det har taget længere tid, end jeg forventede at nå hertil, hvor den har reelt kan skade den offentlige debat. Nu står vi i et helt nyt scenarie. Vi vil se en dobbelt risiko, at falske videoer kan blive taget for ægte, og at reelle optagelser bliver afvist som ‘AI-fup’. Det er en udfordring, vi som samfund og som demokrati slet ikke er godt nok rustet til at håndtere,” siger Thomas Hedin.
Fejlene er blevet færre
Før i tiden havde AI-programmerne flere generelle fejl, som man ofte kunne se efter for at detektere, om det pågældende billede var skabt med AI. I mange tilfælde så man, at AI havde svært ved at genskabe eksempelvis fingre, ører og tænder. Ofte var der for få - eller for mange - fingre på en hånd, og tænderne så underlige ud.
Og selvom AI-modeller stadig begår fejl, sker det sjældnere og sjældnere. I dag er det ikke længere en farbar ved alene at forsøge at detektere AI-genereret indhold med det blotte øje alene.
For nogle måneder siden udgav TjekDet en artikel om billeder af AI-generede ukrainske soldater, som havde fået amputeret flere lemmer grundet krigen mod Rusland. Det mest delte billede i den sammenhæng var en ukrainsk kvinde, som fejrede sin fødselsdag i en kørestol.
Kvaliteten af visuelt AI-genereret indhold er nu så høj, at de gavne råd om eksempelvis at se efter deforme tænder, ører og fingre ofte ikke længere er relevant. I mange tilfælde skal andre værktøjer nu i brug. Det demonstrerer dette AI-genererede billede eksempelvis. Foto: AI.
Billedet fremstod uden nogle af de graverende fejl, som man tidligere så i forbindelse med AI-skabt indhold. Og ovenikøbet gav de programmer og forskellige værktøjer, som vi normalt bruger til at spotte AI, også tvetydige resultater.
Noget af det, man kunne slå ned på ved en gennemgang af billedet, var, at det var “for perfekt”, og det er et af de kendetegn, man i dag fortsat kan holde øje med for at spotte AI-genereret indhold. Teknologien er nemlig skabt til at lave perfekte billeder.
Det kan være en udvisket baggrund, unaturlig glat hud, ualmindeligt glatte overflader og andre mærkelige teksturer, der kan give en fornemmelse af, at billedet er “kunstigt”. Det kan også være en urealistisk detaljegrad og usædvanligt stærke farver.
Det sker dog stadig, at AI-billeder med åbenlyse fejl bliver spredt på sociale medier. Et nyligt billede, som angiveligt viser de europæiske ledere til møde i Det Hvide Hus, er et eksempel på det. Billedet viser de europæiske ledere sidde pænt på rad og række og vente på Donald Trump. Men flere fejl afslører at der er tale om AI. For eksempel bestod Emmanuel Macrons sidemakker kun af et sæt ben.
Sådan kan du undersøge det
Det er sjældent, at man kan lade øjetesten stå alene i at afkode et AI-genereret billede. Et godt sted at starte er ofte at bruge omvendt billedsøgning til at finde frem til billedets oprindelige kilde.
Med en omvendt billedsøgning kan du søge efter et specifikt billede og finde ud af, om det optræder andre steder på internettet - og hvor det i så fald kan findes.
Der findes forskellige programmer til det formål - blandt de mest populære er Google Images og Google Lens, der trawler internettet ved hjælp af Googles søgemaskine. På Googles startside skal du blot uploade det billede, som du gerne vil lave en omvendt billedsøgning af.
Drejer det sig om at lave omvendte ansigter, kan man enten bruge Yandex eller TinEye, da Google ikke tillader søgninger på ansigter.
På den måde kan du finde frem til, hvilken sammenhæng billedet optrådte i, da det første gang blev lagt online. Det kan for eksempel være, at den oprindelige kilde til billedet gør tydeligt opmærksom på, at det er genereret ved hjælp af et AI-værktøj.
Det kan også være, at troværdige kilder har delt billedet, hvilket kan give dig et praj om, at billedet ikke er AI-genereret - og hvis ikke - kan det pege i modsatte retning.
Gratis værktøjer til AI-analyse
Der er flere fine værktøjer, som man kan bruge til at analysere billeder, man har under mistanke for at være AI-genererede. Dog er det vigtigt at understrege, at disse værktøjer langtfra er ufejlbarlige - og ikke kan stå alene. Derfor er det vigtigt, at disse værktøjer kombineres med omvendte billedsøgninger.
Et eksempel på et værktøj er Hive AI Detector, som du kan hente til din Google Chrome-browser. Når du har downloadet programmet, kan du med et højreklik på musen analysere et billede, som en af dine bekendte har delt på Facebook.
TEKST HER.
Hive vil derefter give dig en procentsats på med hvor stor sandsynlighed, at billedet er skabt med AI.
En anden mulighed er hjemmesiden sightengine. Her har du nogle gratis forsøg til at uploade billeder, som værktøjet analyserer, og ligesom med Hive, så får du en procentsats.
Et tredje og mere avanceret værktøj hedder com-press. På siden skal man uploade sit billede, inden forskellige programmer vil analysere billedet for manipulation. Dette kan altså bruges til både AI-generede billeder og billeder, som blot er blevet manipuleret eller redigeret. Programmerne TruFor, FOCAL, Noiseprint og Comprint plejer at give de mest retvisende resultater.
