Fupopkald lavet med kunstig intelligens er et voksende problem - sådan fungerer det
Af Oliver Buckley, lektor i cybersikkerhed, East Anglia Universitet, Storbritannien
Fupopkald, der bruger kunstig intelligens til at efterligne stemmer fra folk, du måske kender, bliver brugt til at udnytte intetanende borgere. Svindlerne bag opkaldene bruger det, der hedder generativ kunstig intelligens. Det er systemer, der er i stand til at skabe tekst, billeder eller videoer, som en bruger har efterspurgt.
De seneste år har særligt deepfakes fået stor opmærksomhed, hvor kendte personer har fået misbrugt deres navn til at medvirke i falske reklamer. Blandt andre er skuespilleren Emma Watson blevet brugt i en række reklamer med seksuelle undertoner, der florerede på Facebook og Instagram.
Også den ukrainske præsident, Volodymyr Zelenskyj, blev offer for en deepfakevideo i 2022, da en falsk video, hvor han opfordrede ukrainerne til at lægge deres våben og overgive sig, blev delt vidt og bredt.
Men nu har teknologien udviklet sig videre til også at kunne efterligne personers stemmer med ganske stor overbevisning, og det bliver mere og mere udbredt. For at lave en realistisk kopi af en andens stemme skal man bruge masser af data til at træne algoritmen. Mere specifikt betyder det, at du skal have utallige lydoptagelser af den stemme, du ønsker at efterligne. Jo flere lydoptagelser af personens stemme, du kan stoppe ind i algoritmen, jo bedre og mere overbevisende bliver det endelige resultat.
Mange af os deler allerede ting fra vores hverdagsliv på internettet. Og det betyder, at de lyddata, der kræves for at skabe en realistisk kopi af vores stemme, kan være let tilgængelige på vores sociale medier. Men hvad sker der, når først den kopi er ude på nettet? Og hvad er det værste egentlig, der kan ske?
Med en deepfake-algoritme er det muligt for hvem som helst i besiddelse af dine lyddata at få "dig" til at sige, hvad de vil. I praksis kan det være så simpelt som at skrive noget tekst og få computeren til at sige det højt med en stemme, der lyder som din.
Store udfordringer
Den nye teknologi medfører risiko for øget udbredelse af lydbaseret mis- og desinformation. Det kan blive brugt til at forsøge at påvirke den internationale eller nationale offentlige debat, som vi så det med "videoerne" af Volodymyr Zelenskyj.
Men udbredelsen og tilgængeligheden af disse teknologier udgør også betydelige udfordringer på lokalt niveau - især i den voksende tendens med "AI-svindelopkald". Mange mennesker har prøvet at modtage et svindel- eller phishing-opkald, hvor en fremmed for eksempel ringer og fortæller, at din computer er blevet kompromitteret, og at du straks skal logge ind på et eller andet, hvilket potentielt giver svindleren adgang til din data.
Det er ofte forholdsvist nemt at opdage, at der i disse tilfælde er tale om svindel. Personen, der ringer dig op, vil nemlig ofte bede dig om at gøre ting, som en person fra en legitim organisation ikke ville gøre. Men forestil dig nu, at stemmen i den anden ende af telefonen ikke bare er en fremmed, men lyder præcis som en ven eller en, du har kær. Det tilfører en helt ny grad af kompleksitet til svindelnummeret og skaber panik for den uheldige modtager.
For nylig kunne den amerikanske tv-station CNN berette om, at en mor modtog et opkald fra et ukendt nummer. Da hun tog telefonen, var hendes datter i den anden ende. Datteren var angiveligt blevet kidnappet og ringede derfor til sin mor for at videregive et krav om løsesum.
Men faktisk var pigen i sikkerhed. Svindlerne havde lavet en deepfake af hendes stemme, og det er langt fra et isoleret tilfælde. Et eksempel på den slags svindel er en påstået bilulykke, hvor offeret ringer til sin familie for at få penge til hjælp efter en kollision.
Gammel fidus bruger ny teknologi
Det er ikke i sig selv en ny form for svindel. "Virtuel kidnapningssvindel" har eksisteret i flere år og kan tage sig ud i mange forskellige former, men en udbredt tilgang er at narre ofre til at betale en løsesum for at befri en nært bekendt, som de tror er truet.
Svindleren forsøger at etablere et ukritisk samarbejde for at få offeret til at betale en hurtig løsesum, før bedrageriet bliver opdaget. Ikke desto mindre har fremkomsten af stærke og tilgængelige AI-teknologier gjort, at svindlerne har perfektioneret indsatsen betydeligt - og gjort det mere personligt. Én ting er at smække røret på, når en anonym fremmed ringer, men det kræver anderledes tillid til ens dømmekraft at lægge på, hvis personen i røret lyder som ens barn eller partner.
Der findes software, som kan bruges til at identificere deepfakes, og som skaber en visuel repræsentation af lyden kaldet et "spektrogram". Når du lytter til opkaldet, kan det virke umuligt at skelne det fra den virkelige person, men stemmer kan adskilles, når spektrogrammer analyseres side om side. Mindst én virksomhed har tilbudt at udbyde software, der kan opdage deepfakes af lyd, men en sådan løsning kræver stadig en vis teknisk kunnen at bruge.
De fleste mennesker vil ikke være i stand til at generere spektrogrammer, så hvad kan du gøre, når du ikke er sikker på, om det, du hører, er ægte? Som med enhver anden form for medie, du støder på, er det vigtigste at være skeptisk.
Hvis du modtager et opkald fra en, du har kær, ud af det blå, og vedkommende beder dig om penge eller tjenester, der virker usædvanlige, så ring tilbage til vedkommende eller send en sms for at bekræfte, at det virkelig er den person, du tror, du taler med.
Efterhånden som mulighederne med kunstig intelligens udvides, vil grænserne mellem virkelighed og fiktion i stigende grad blive udvasket. Og det er ikke sandsynligt, at vi er i stand til at bremse teknologien. Det betyder, at folk bliver nødt til at være mere forsigtige.
Denne artikel blev første gang bragt hos det britiske forskningsmedie The Conversation, der formidler nyheder og synspunkter inden for det britiske akademiske miljø. Både mediet og forfatterne har givet tilladelse til denne genudgivelse.
This article is republished from The Conversation under a Creative Commons license. Read the original article.