
Image generated with DALL·E through ChatGPT
Meninger: Deepfake Svindel Utnytter Kjærlighet og Tillit Som Aldri Før
AI-drevne svindler er på vei oppover, med nettkriminelle som bruker deepfake-teknologi for å lage overbevisende videoer og bilder som manipulerer ofrene. Fra en fransk kvinne som trodde hun hjalp Brad Pitt, til et offer overbevist av en høykvalitets deepfake, blir linjene mellom virkelighet og bedrag mer og mer utydelige. Ettersom AI-verktøy utvikler seg, øker også risikoen.
Mange av oss så det på nyhetene i januar: en fransk kvinne mistet over 850 000 dollar til svindlere fordi hun trodde hun ga pengene til Brad Pitt – mannen hun trodde hun hadde vært i et forhold med i over et år.
Svindlerne brukte avansert generativ kunstig intelligens for å lage «selfies» og fabrikkere bevis, og klarte å overbevise sitt offer, Anne—en 53 år gammel designer som gjennomgår en skilsmisse—om den tragiske historien om en falsk Pitt med akutte medisinske behov. De hevdet at hans midler var frosset på grunn av hans skilsmisse fra Angelina Jolie.
Anne tok den modige—og risikable—beslutningen om å dele sin historie offentlig, til tross for millioner av spott, fornærmelser og virtuelle angrep. «Som en tulling, betalte jeg… Hver gang jeg tvilte på ham, klarte han å oppløse tvilene mine,» sa hun i et fransk Youtube-show, som rapportert av BBC. «Jeg ble rett og slett lurt, jeg innrømmer det, og det er derfor jeg står frem, fordi jeg er ikke den eneste.»
Hun er ikke det. Noen måneder senere arresterte det spanske politiet 5 personer som lurt to andre kvinner ved å utgi seg for å være Pitt. For noen dager siden ble også en kinesisk mann lurt til å tro at hans nettbaserte kjæreste trengte penger til medisinske prosedyrer og til å finansiere bedriften hennes.
Ofrene mottok personlige videoer og fotografier – bilder som ikke var tilgjengelige noe annet sted på nettet – noe som ytterligere overbeviste dem om svindlernes intrikate løgner.
En nylig rapport fra Entrust antyder at Deepfake forsøk skjer hvert 5. minutt. Nye tilfeller av mennesker som blir lurt med generativ AI dukker opp hver dag – en bekymringsfull trend, spesielt med tanke på de tusenvis, eller til og med millioner, av mennesker som er begravet i gjeld og skam og som ikke tør å rapportere det til myndighetene, for ikke å nevne å gjøre det offentlig.
Økning i DeepFake-svindel
Flere studier og rapporter har slått alarm om økende svindel og cyberangrep drevet av AI. Nylige data fra TrustPair’s 2025 Fraud Trends and Insights viste en økning på 118% fra år til år i AI-drevet svindel, som rapportert av CFO.
Hei, Hiya, et amerikansk selskap som spesialiserer seg på sikkerhets- og ytelsesløsninger for tale, delte nylig resultatene fra en undersøkelse, som avdekket at 31% av kundene i seks land mottok deepfake-oppringninger i 2024, og 45% av dem ble svindlet – 34% av denne gruppen mistet penger og 32% fikk stjålet personlig informasjon. I gjennomsnitt taper ofrene over $500 hver på telefonsvindel.
For noen dager siden avslørte The Guardian at et organisert nettverk i Georgia – i Øst-Europa – brukte falske annonser på Facebook og Google for å svindle over 6 000 mennesker over hele Europa, Canada og Storbritannia, og tjente $35 millioner på operasjonene sine.
Omtrent 85 godt betalte georgiske svindlere brukte offentlige figurer som den engelske journalisten Martin Lewis, forfatter og eventyrer Ben Fogle, og Elon Musk for sine bedrag. Svindlerne promoterte falsk kryptovaluta og andre investeringsordninger, og fikk ofrene til å overføre penger gjennom digitale banker som Revolut—som nylig fikk en banklisens i Storbritannia.
Avansert AI, Mer Sofistikerte Svindel
Nettkriminelle har de siste årene brukt generativ AI, og utnyttet verktøy som ChatGPT for å lage og oversette engasjerende e-poster og generere overbevisende tekstbasert innhold. Nå, som AI-verktøyene utvikler seg, har bruken av AI-genererte bilder og videoer økt.
For noen uker siden introduserte ByteDance sitt nyeste AI video-verktøy, OmniHuman-1, i stand til å generere en av de mest realistiske deepfake-ene på markedet. Samtidig utvikler flere AI-selskaper lignende teknologier. Det synes bare å være et spørsmål om tid før disse verktøyene også blir brukt for svindel.
Selv om disse teknologiene kan brukes “i god tro” og til og med for å motvirke økningen av svindel—som O2s AI ‘Bestemor’ Daisy, designet for å engasjere svindlere i sanntidssamtaler og distrahere dem fra virkelige ofre—ser konsekvensene av deres skadelige bruk ut til å være umålbare.
Hos Wizcase rapporterte vi nylig en 614% økning i “Scam-Yourself Attacks”, der vi bemerket hvordan hackere bruker deepfake teknologier for å få falskt innhold til å se “mer realistisk” ut, og hvordan sosiale medieselskaper som Meta har måttet gripe inn i svindler med slakting av griser, ettersom mange trusselaktører bruker disse plattformene. I forskningen bemerket Meta at mange svindler startet i datingapper, noe som beviser hvordan romantisk kjærlighet er blant de mest vanlige agnene – nå og historisk sett.
Kjærlighet: Et kraftig agn
Nettkriminelle er ikke bare dyktige på å forstå og bruke avansert kunstig intelligens – de har også en dyp forståelse av menneskelig intelligens. Trusselaktører vet hvordan man identifiserer sårbarheter, bygger tillit og retter forespørslene sine på akkurat rett tidspunkt.
Studien Elsker du meg? Psykologiske karakteristikker hos ofre for romantiske svindler, publisert i 2018 av PhD Monica T. Whitty, forklarer hvordan internasjonale kriminelle grupper har utført romantiske dating svindler i mange år—selv før internett—, og hvordan middelaldrende, godt utdannede kvinner er sannsynlig å falle for denne typen svindel—akkurat som Anne.
Hva kan vi forvente nå, åtte år etter denne studien, med vitenskapsfiksjon-lignende teknologi? Sannsynligvis er vi alle mer sårbare enn vi tror.
«Ofre for denne typen svindel er ofte mennesker på søken etter mening, som er emosjonelt sårbare,» skrev Annie Lecompte, assosiert professor ved Universitetet i Quebec i Montreal (UQAM), i en nylig artikkel publisert i The Conversation. «Selv om det blir latterliggjort og misforstått, er romantikk svindel basert på komplekse psykologiske mekanismer som utnytter ofrenes tillit, følelser og sårbarhet.»
Et knust hjerte, en tom lommebok
Liu – etternavnet til den kinesiske mannen som nylig mistet 200 000 yuan, rundt 28 000 dollar, i en AI-drevet svindel – trodde virkelig at hans AI-kjæreste var ekte, da han så personaliserte bilder og til og med videoer. Han bygget en stadig sterkere emosjonell tilknytning… til hans svindlere.
Selv om han ikke ga flere detaljer om konteksten i rapportene, gjorde et annet offer, den 77 år gamle kvinnen Nikki MacLeod, det. Hun trodde også at hun var i et ekte forhold med en AI-kjæreste og sendte henne £17,000 – omtrent $22,000 – gjennom bankoverføringer, PayPal og gavekort.
«Jeg er ikke en dum person, men hun klarte å overbevise meg om at hun var en ekte person og at vi skulle tilbringe livene våre sammen,» sa MacLeod til BBC.
MacLeod følte seg ensom og trist da hun møtte Alla Morgan i en gruppechat. Etter en stund ba MacLeod om en direktesendt video, men Morgan sa at det ikke var mulig siden hun jobbet på en oljeplattform. Da MacLeod begynte å mistenke, begynte Morgan å sende realistiske videoer. “Hun sendte meg en video for å si ‘Hei Nikki, jeg er ikke en svindler, jeg er på oljeplattformen min’, og jeg ble helt overbevist av det,” forklarte MacLeod. Innholdet er tilgjengelig på BBCs nettsted, og det er lett å se hvorfor MacLeod trodde det var ekte – det er en høykvalitets deepfake.
BBC ba en ekspert i cybersikkerhet og menneske-datamaskin interaksjon ved Abertay University, Dr. Lynsay Shepherd, om å analysere bildene og videoene MacLeod mottok. «Ved første øyekast ser det legitimt ut, hvis du ikke vet hva du skal se etter, men hvis du ser på øynene – øyebevegelsene er ikke helt riktige,” sa Dr. Shepherd.
«Dokumentene så ekte ut, videoene så ekte ut, banken så ekte ut,» sa MacLeod. «Med introduksjonen av kunstig intelligens, kan absolutt alt være falskt.»
Legg igjen en kommentar
Avbryt