Opgelicht?! opgelicht-logo

meer NPO start
Opgelicht?!
  • Kind in nood of een belletje van je baas: zo bedonderen oplichters jou met nagebootste stemmen

    Kind in nood of een belletje van je baas: zo bedonderen oplichters jou met nagebootste stemmen

    Een van de snelle ontwikkelingen op het gebied van kunstmatige intelligentie (AI) is het nabootsen van stemmen. De kans om zomaar gebeld te worden door een AI-gegenereerde kloon van je baas, moeder of bijvoorbeeld je zoon of dochter is steeds realistischer. Misschien ben je er nu van overtuigd dat je daar niet intrapt,  maar reageer je nog zo wanneer je de stem van een vriend of familielid in nood hoort? 

    Afgelopen mei spreekt RTL Nieuws met Marion, die de schrik van haar leven krijgt. Ze krijgt een telefoontje van haar zoon die iemand heeft doodgereden op de motor. “Ze is dood mam! Ze is dood!”, hoort ze hem compleet in paniek door de telefoon zeggen. 

    Het slachtoffer zou zijn overleden en Marion’s zoon wordt niet opgepakt, mits zij de uitvaartkosten betaalt. Ze moet hiervoor haar gegevens delen met de officier van justitie. Hoe echt de stem ook klinkt, het blijkt iemand te zijn die met een gekloonde stem van haar zoon haar probeert op te lichten. 

    Zo wordt jouw stem gekloond  

    Het nabootsen van stemmen wordt ook wel voice-cloning genoemd. Volgens onderzoeksjournalist Anthony van der Meer is het klonen van stemmen niet moeilijk. “Het is vrij makkelijk om van een willekeurig persoon stemgeluid te vinden. Om een stem goed te trainen, heb je tussen de dertig seconden en drie minuten geluid nodig. Die audio is makkelijk te ontfutselen. Bijvoorbeeld uit een filmpje op Instagram, een telefoongesprek dat wordt opgenomen of uit een Whatsapp spraakbericht.” 

    “Online zijn er tal van applicaties te vinden waarmee je die stemopnames vervolgens kunt klonen”, vervolgt Van der Meer. “Deze waren eerst gratis, nu kost het wel geld. Maar iedere oplichter heeft natuurlijk wel vijf euro en een creditcard.” 

    Steeds realistischer  

    Voor cybercriminelen bieden deze technologische ontwikkelingen nieuwe mogelijkheden om oplichtingstrucs nog realistischer te laten lijken. In Nederland worden voornamelijk meldingen gedaan van whatsapp belletjes met de zogenoemde ‘kind in nood’ truc, zoals in het verhaal van Marion. 

    Een andere oplichtingspoging met voice-cloning die dit jaar het nieuws haalde was de nagebootste stem van Bunq-topman Ali Niknam, die in een online meeting aan een van zijn medewerkers vraagt om een grote geldsom over te maken. Helaas voor de oplichter trapte de medewerker hier niet in. 

    Codewoord 

    In tegenstelling tot deepfakes of gegenereerde foto’s, waarbij tips om dit te herkennen snel hun relevantie verliezen, is er bij voice-cloning wel één tip volgens Van der Meer: een codewoord. Hierbij spreek je een woord af met bijvoorbeeld je ouders of je partner, die je geheim houdt en kunt vragen aan de ander op het moment dat je twijfelt bij een belletje. 

    Maar ben je nog in staat om aan een codewoord te denken wanneer je een telefoontje krijgt dat een dierbare iets vreselijks is overkomen? Hoe ontwikkel je gezond wantrouwen? 
    Van der Meer: "Uit onderzoeken blijkt dat je in stresssituaties slechtere keuzes maakt,  je IQ kan zelfs tijdelijk omlaag gaan. Oplichters maken gebruik van stress en autoriteit, dus het is best lastig om op je onderbuikgevoel te vertrouwen in zo’n situatie.” 

    Lees ook 

  • Ook interessant