De massale aandacht voor de positieve, creatieve mogelijkheden van artificiële intelligentie (AI) neemt niet weg dat kwaadwillenden AI-innovaties gebruiken om steeds betere deepfakes te creëren. Deze video's klonen het uiterlijk en de stem van een persoon, doorgaans met de bedoeling om het slachtoffer (veel) geld afhandig te maken. Door de verbeteringen in software zijn deepfakes steeds lastiger van echte videogesprekken of reclames te onderscheiden, zo blijkt ook deze week weer.
Gratis iPhones, maar deze keer niet
Wie MrBeast een beetje kent, weet dat de grootste individuele YouTuber ter wereld (189 miljoen abonnees) succesvol is omdat zijn video's draaien om absurde uitdagingen, het weggeven van hagelnieuwe auto's of iPhones aan voorbijgangers en het organiseren van massale prijzenfestivals. Niet zo gek dus dat er laatst op TikTok een advertentie draaide waarin MrBeast aangaf tienduizend iPhones weg te geven aan kijkers. Toch rapporteerden genoeg kijkers de advertentie aan TikTok en aan MrBeast, want zij vonden het verdacht dat de YouTube-ster vroeg om een inleg van twee dollar om een gratis iPhone te claimen.
MrBeast bleek van niets te weten; de reclame op TikTok was een deepfake. En blijkbaar zo realistisch dat hij door de spamfilter van TikTok is gekomen. Of de moderatie op het platform is minder effectief, dat wordt uit dit verhaal niet duidelijk. Hoeveel mensen er in de deepfake getrapt zijn is ook onbekend. De YouTuber deelt de deepfake-video op X (Twitter) en noemt deepfake-scams een serieus probleem. 'Zijn socialmediaplatforms klaar voor de opmars van AI-deepfakes?', vraagt hij zichzelf af.
Dochter gekidnapt
Waar de deepfake van MrBeast nog relatief onschuldig lijkt - twee dollar per persoon aftroggelen -, kan de pagina waarop het slachtoffer betaalt ook technisch gemanipuleerd zijn. En bijvoorbeeld de betaalgegevens stiekem opslaan om snel erna een groot bedrag van de bankrekening af te boeken.
Andere kwaadwillenden richten zich juist heel zorgvuldig op één persoon. En ook op dit vlak kan de steeds betere AI tot angstaanjagende situaties leiden. Zo werd een Amerikaanse moeder eerder dit jaar gebeld door een anoniem nummer, precies in de week dat haar dochter op vakantie was. Door de telefoon klonk de paniekerige stem van het meisje, dat naar eigen zeggen ontvoerd was door een paar mannen. Vervolgens hoorde de moeder door de telefoon een man schelden en dreigde hij het meisje te vermoorden als de moeder niet een miljoen dollar zou overmaken. De moeder stond op verschillende momenten tijdens het gesprek doodsangsten uit, maar kwam er toch achter dat het een scam was. Toen haar man hun dochter op haar eigen nummer belde, bleek die te genieten op vakantie.
Het verhaal - ouders zullen de angst ongetwijfeld herkennen - was voor de Amerikaanse overheid reden om de moeder uit te nodigen om te spreken op een senaatszitting over de gevaren van scams door AI. Software om iemands stem mee te klonen is breed en legaal beschikbaar, betaalbaar en heeft doorgaans minder dan één minuut aan iemands stem nodig om een kloon alles te laten zeggen. Deepfake-video's zijn via dergelijke programma's ook steeds eenvoudiger te creëren.
AI-kloon richt zich op Bunq
De innovaties met deepfakes vinden ook hun weg naar Nederland, positief en negatief. Zo hebben oplichters het beeld en de stem van Bunq-topman Ali Niknam nagemaakt met de bedoeling om de bank geld afhandig te maken. Niknam meldt op LinkedIn hoe een Bunq-medewerker vorige week in een videogesprek met een digitale kloon van Niknam belandde. In het gesprek vroeg 'Niknam' de medewerker om een 'aanzienlijk geldbedrag' over te maken. Daar trapte de medewerker niet in. Niknam noemt de deepfake desalniettemin 'enorm overtuigend' en wil met zijn LinkedIn-post anderen waarschuwen.
Volgens NRC is het vermoedelijk de eerste keer dat er zo'n deepfake van een Nederlandse topman gecreëerd is. Een strategisch specialist digitaal bij de politie geeft tegenover de krant aan dat het 'belangrijk is om niet zomaar te vertrouwen op wat je hoort en ziet.' Ze heeft ook tips. 'Heb het erover met elkaar, en leer jezelf aan om, zodra iets onomkeerbaars wordt gevraagd zoals het overmaken van geld of delen van vertrouwelijke of persoonlijke gegevens, eerst zelf contact op te nemen.'
Een Amerikaanse beveiligingsexpert geeft nog een andere tip: bedenk als gezin of organisatie een geheim woord dat alle leden kennen, maar dat criminelen niet kunnen raden. Een makkelijk woord dus dat tegelijkertijd niet op jullie sociale media staat. Twijfel je of je een deepfake voor je hebt, dan kun je dat checken door om het geheime woord te vragen.