Het nieuwe wapen van Poetin: deepfake p0rno.
Poetin wil met deepfake-porno een nieuwe frontlinie openen in zijn strijd tegen westerse democratieën. Nina Jankowicz - voormalig hoofd van de desinformatietaskforce van het Amerikaanse ministerie van Binnenlandse Veiligheid - komt in ‘The Sun’ met een verontrustende waarschuwing en zegt "echt bezorgd" te zijn over de dreiging van AI in handen van Rusland.
Heel erg fout, maar net echt.
Deepfake-porno - valse naaktbeelden/video’s van echte mensen gecreëerd door kunstmatige intelligentie – zou een perfect wapen zijn voor politieke destabilisatie. Professor Jankowicz, die de Russische operaties heeft bestudeerd om democratieën te verzwakken, onthult dat Rusland al deepfake-porno heeft gebruikt om politieke vijanden aan te vallen. Moeilijk is het niet. Je hebt slechts één echt beeld nodig om deze nepbeelden te genereren.
Een geseksualiseerd draaiboek
De tactiek van deepfake-porno maakt deel uit van Ruslands 'geseksualiseerde draaiboek' om democratieën in het Westen te ondermijnen. Volgens Jankowicz handelen Russische cybercriminelen op direct bevel van Poetin zelf.
Cherchez la femme
Het doel is duidelijk: door het seksualiseren en belasteren van prominente vrouwen in de politiek en samenleving, probeert Rusland de geloofwaardigheid en integriteit van democratische instellingen te ondermijnen. Het resultaat? Vrouwen worden ontmoedigd om publieke of leidende posities in te nemen, waardoor het evenwicht en de gezondheid van een democratische samenleving worden verstoord.
Loopt ‘ons Melissa’ gevaar?
Er zijn al gevallen bekend van deepfake-porno die zijn ingezet tegen vrouwelijke politici. Het Oekraïense parlementslid Svitlana Zalishchuk werd ermee onderuit gehaald. In 2017 werden nep-AI-posts van haar online verspreid, waarin ze beloofde naakt door de straten van Kiev te lopen. Dit leidde zelfs tot interpellaties tijdens een VN-bijeenkomst.
De dreiging van deepfake-porno zou internationaal van invloed kunnen zijn op de komende verkiezingen. Kijk straks dus niet op als je – zeg maar -Melissa Depraetere stoute dingen ziet doen op je PC.
De opkomst van AI
De term deepfake-porno dook voor het eerst op in 2017, toen gezichten van spraakmakende personen werden gefotoshopt of gemonteerd op pornografisch materiaal. In het begin werden hiervoor ‘machine-learning-algoritmen’ gecombineerd met AI-software. Maar naarmate AI geavanceerder wordt, kunnen nu zelfs zeer realistische beelden worden gecreëerd met eenvoudige foto's.
Taylor Swift
Onlangs werd megaster Taylor Swift het slachtoffer van expliciete deepfake-beelden. Een van de beelden werd maar liefst 45 miljoen keer bekeken. Andere bekende vrouwen die door de jaren heen het doelwit zijn geweest, zijn onder meer Gal Gadot, Emma Watson, Natalie Portman en Scarlett Johansson.
Professor Jankowicz is bekend met vier grote websites die gespecialiseerd zijn in deze afbeeldingen, maar er zijn nog talloze subthreads, kopieën en sites op internet. Het reguleren van deze technologie blijkt een uitdaging te zijn voor overheden, wetenschappers en inlichtingenanalisten zoals Jankowicz, die steeds meer op zoek zijn naar manieren om deze verontrustende trend te bestrijden. Maar het is dweilen met de kraan open. We weten allemaal dat een verbod tot verspreiden van verboden spul weinig indruk maakt. Denk maar aan de wilde avonturen van onze heilige driegeiligheid Peter Van de Veire, Stan Van Samang en Sean Dhondt. Die beelden mocht niemand verspreiden. maar wie heeft ze niet gezien?