Opgelicht?! opgelicht-logo

meer NPO start
Opgelicht?!
  • BN’ers de dupe van deepfake pornovideo’s, zo voorkom je dat jij slachtoffer wordt

    BN’ers de dupe van deepfake pornovideo’s, zo voorkom je dat jij slachtoffer wordt

    Tientallen bekende Nederlanders, politici en leden van het Koninklijk Huis zijn in deepfake pornovideo’s te zien, blijkt uit onderzoek van het AD. Wat kun jij doen om te voorkomen dat jij ook slachtoffer wordt?

    Pornovideo’s met de gezichten van tientallen bekende Nederlanders schieten momenteel als paddenstoelen uit de grond. Lang niet iedereen is van de beelden op de hoogte. In de deepfake pornovideo’s worden de gezichten van slachtoffers met behulp van kunstmatige intelligentie op lichamen van pornoacteurs geplakt. 

    Tegenwoordig hoef je dus helemaal geen echte naaktfoto gestuurd te hebben om anderen te laten denken dat je dit wel hebt gedaan. Doodnormale foto’s kunnen met simpele apps tot realistische naaktbeelden worden bewerkt. Als het zo eenvoudig is om neppe naaktbeelden te creëren, kun je dan nog wel voorkomen om slachtoffer te worden?

    ‘Des te meer materiaal, des te makkelijker’

    In tegenstelling tot bekende Nederlanders is het voor de ‘gewone burger’ een stuk makkelijker om te voorkomen dat hun gedeelde foto's worden gebruikt voor het maken van deepfake pornografisch materiaal, laat cybersecurity-expert Maria Genova weten. “Des te meer materiaal, des te makkelijker het is om een geloofwaardig filmpje te maken.” 

    Een aantal tips van Genova om te voorkomen dat jouw foto’s voor verkeerde doeleinden worden gebruikt:

    • Omdat AI steeds beter wordt, moet je nu al beginnen met oude foto’s en video’s van social media te verwijderen. Vaak staan daar ook beelden op van jaren geleden. Zoveel foto’s bij elkaar is ontzettend veel beeldmateriaal en een goudmijn voor kwaadwillenden. 
    • Deel je foto’s niet in de hoogste resolutie op social media. Des te vager een foto, des te lastiger te misbruiken. 
    • Zet een slotje op je social media-accounts.
    • Wees voorzichtig met wie je ‘als vriend’ accepteert. 

    Bescherm ook je kinderen

    Tegenwoordig wordt er ook steeds vaker kinderpornografisch materiaal gemaakt met (behulp van) AI, zegt Ben van Mierlo in de NPO Radio 1-podcast Het Misdaadbureau, meldt RTL Nieuws. Van Mierlo is landelijk coördinator van het Team Bestrijding Kinderpornografie en Kindersekstoerisme (TBKK). 

    Om de kans te verkleinen dat een foto van jouw kind wordt gebruikt in een deepfake pornovideo, waarschuwt Genova ouders om niet te veel foto’s van hun kinderen op social media te delen. “Wil je toch een foto plaatsen, haal deze er dan na een tijdje af.” Op Facebook kun je ook selecteren wie jouw foto’s mag zien. Genova: “Mijn man deelt bijvoorbeeld af en toe foto’s van onze kinderen, maar dan vinkt hij aan dat die alleen te zien zijn voor vrienden en familie.”

    Slachtoffer van deepfake porno?

    Als slachtoffer doe je er verstandig aan om aangifte te doen, vertelt advocaat en voorzitter van stichting LANGZS, aan de Volkskrant. Ook kun je als slachtoffer een klacht indienen bij de Autoriteit Persoonsgegevens (AP) wegens schending van privacy

    Lees ook

  • Ook interessant