Antallet af Deepfake-videoer stiger med 900 procent hvert år

Antal Deepfake-videoer øger procentdelen hvert år
Antallet af Deepfake-videoer stiger med 900 procent hvert år

Ifølge World Economic Forum (WEF) stiger antallet af online deepfake-videoer med 900 % hvert år. Adskillige bemærkelsesværdige tilfælde af deepfake-svindel skabte nyhedsoverskrifterne med rapporter om chikane, hævn og krypto-svindel. Kaspersky-forskere kaster lys over de tre bedste fidusordninger ved hjælp af deepfakes, som brugere skal passe på.

Brugen af ​​kunstige neurale netværk, dyb læring og dermed deepfake bedrageriteknikker giver brugere over hele verden mulighed for digitalt at ændre deres ansigter eller kroppe og dermed producere realistiske billeder, video- og lydmaterialer, hvor enhver kan ligne en anden. Disse manipulerede videoer og billeder bruges ofte til at sprede misinformation og andre ondsindede formål.

økonomisk bedrageri

Deepfakes kan være genstand for social engineering-teknikker, der bruger billeder skabt af kriminelle til at efterligne berømtheder for at lokke ofre i deres fælder. For eksempel spredte en kunstigt skabt video af Elon Musk, der lover høje afkast fra en tvivlsom cryptocurrency-investeringsordning, sig hurtigt sidste år, hvilket fik brugerne til at tabe penge. Svindlere bruger billeder af berømtheder til at skabe falske videoer som denne, sammenføje gamle videoer og lancere livestreams på sociale medieplatforme og lover at fordoble enhver cryptocurrency-betalinger, der sendes til dem.

pornografisk deepfake

En anden anvendelse af deepfakes er at krænke en persons privatliv. Deepfake-videoer kan oprettes ved at overlejre en persons ansigt på en pornografisk video, hvilket forårsager stor skade og angst. I et tilfælde dukkede deepfake videoer op på internettet, hvor nogle berømtheders ansigter blev overlejret på pornografiske skuespillerinders kroppe i eksplicitte scener. Som følge heraf skades ofrenes omdømme i sådanne tilfælde, og deres rettigheder krænkes.

Forretningsrisici

Ofte bruges deepfakes til at målrette virksomheder mod forbrydelser såsom afpresning fra virksomhedsledere, afpresning og industrispionage. For eksempel lykkedes det cyberkriminelle ved at bruge en deepfake-stemme at bedrage en bankchef i UAE og stjæle 35 millioner dollars. I det pågældende tilfælde krævede det kun en lille optagelse af hans chefs stemme at blive fanget for at skabe en overbevisende deepfake. I et andet tilfælde forsøgte svindlere at bedrage den største kryptovalutaplatform Binance. Binance-direktør sagde "Tak!" om et Zoom-møde, han aldrig deltog i. Han blev overrasket, da han begyndte at modtage beskeder. Angriberne formåede at skabe en deepfake med offentlige billeder af lederen og implementere den ved at tale på lederens vegne i et onlinemøde.

FBI advarer personaleledere!

Generelt omfatter formålene med svindlere, der bruger deepfakes, desinformation og offentlig manipulation, afpresning og spionage. Ledere af menneskelige ressourcer er allerede på vagt over brugen af ​​deepfakes af kandidater, der ansøger om fjernarbejde, ifølge en FBI-advarsel. I Binance-sagen brugte angriberne billeder af rigtige mennesker fra internettet til at skabe deepfakes og tilføjede endda deres billeder til CV'er. Hvis det lykkes dem at snyde personaleledere på denne måde og så får et tilbud, kan de efterfølgende stjæle arbejdsgiverdata.

Deepfakes er fortsat en dyr form for fidus, der kræver et stort budget og er stigende i antal. En tidligere undersøgelse af Kaspersky afslører omkostningerne ved deepfakes på darknet. Hvis en almindelig bruger finder software på internettet og forsøger at deepfake det, vil resultatet være urealistisk og svigagtigt er indlysende. De færreste tror på en deepfake af lav kvalitet. Han kan straks bemærke forsinkelser i ansigtsudtryk eller sløret hageform.

Derfor har cyberkriminelle brug for store mængder data som forberedelse til et angreb. Gerne billeder, videoer og stemmer af den person, de vil efterligne. Forskellige vinkler, lysstyrke, ansigtsudtryk spiller alt sammen en stor rolle for den endelige kvalitet. Der kræves en opdateret computerkraft og software, for at resultatet er realistisk. Alt dette kræver en stor mængde ressourcer, og kun et lille antal cyberkriminelle har adgang til denne ressource. Derfor er deepfake stadig en yderst sjælden trussel, på trods af de farer, det kan udgøre, og kun et lille antal købere har råd til det. Som følge heraf starter prisen på et minuts deepfake ved $20.

"Nogle gange kan omdømmerisici have meget alvorlige konsekvenser"

Dmitry Anikin, Senior Security Specialist hos Kaspersky, siger: "En af de mest alvorlige trusler, Deepfake udgør for virksomheder, er ikke altid tyveri af virksomhedsdata. Nogle gange kan omdømmerisici have meget alvorlige konsekvenser. Forestil dig en video, hvor din leder kommer med polariserende bemærkninger om (tilsyneladende) følsomme emner. For selskabet kan det føre til et hurtigt fald i aktiekurserne. Men selvom risikoen for en sådan trussel er ekstrem høj, er chancerne for at blive hacket på denne måde ekstremt lave på grund af omkostningerne ved at skabe en deepfake, og meget få angribere kan skabe en deepfake af høj kvalitet. Hvad du kan gøre ved det, er at være opmærksom på nøglefunktionerne ved deepfake-videoer og at være skeptisk over for voicemails og videoer, der kommer til dig. Sørg også for, at dine medarbejdere forstår, hvad en deepfake er, og hvordan de kan få øje på det. For eksempel vil tegn som rykkende bevægelser, skift i hudfarve, mærkelige blink eller ingen blink være vejledende."

Kontinuerlig overvågning af darknet-ressourcer giver værdifuld indsigt i deepfake-industrien, hvilket giver forskere mulighed for at følge de seneste trends og aktiviteter fra trusselsaktører i dette rum. Ved at overvåge darknet kan forskere afdække nye værktøjer, tjenester og markedspladser, der bruges til at skabe og distribuere deepfakes. Denne type overvågning er en kritisk komponent i deepfake-forskning og hjælper os med at forbedre vores forståelse af det udviklende trussellandskab. Kaspersky Digital Footprint Intelligence-tjenesten inkluderer denne type overvågning for at hjælpe sine kunder med at være et skridt foran, når det kommer til deepfake-relaterede trusler.