Alles wat je wil weten over deepfake-technologie

‘Niet alles geloven wat er op het internet staat’ is een veelgebruikte zin in dit digitale tijdperk. We vertellen onszelf dat we nepnieuws makkelijk herkennen, maar toch wordt dit ons steeds moeilijker gemaakt. Vooral bij foto en video treden steeds meer problemen op. Ons brein leert ons namelijk dat wanneer je iets met je eigen ogen ziet dit echt is, terwijl dit al lange tijd niet meer zo vanzelfsprekend is. Beelden worden gemanipuleerd door kunstmatige intelligente software, oftewel: deepfake. Deepfake technologie wordt steeds groter en brengt risico’s met zich mee, vooral wanneer je niet op de hoogte bent van deze nieuwe technologie. Lees snel verder en ontdek welke risico’s deepfake met zich meebrengt en hoe jij jezelf tegen deepfake kan beschermen met handige tips.     

Hoe fake?

Deepfake is het gebruik van slimme software voor creatie of manipulatie van beeld of geluid. Het brengt de term nepinformatie naar een hoger niveau. Bij deepfake worden beschikbare gegevens gebruikt om (bijvoorbeeld) een nieuw gezicht over een al bestaand beeld te plaatsen. Hoewel de term deepfake vrij nieuw is, is de technologie alles behalve dat. Al jaren worden foto’s en video’s bewerkt met peperdure technologie. Wat eerder alleen in Hollywood werd gemaakt door special-effectexperts ligt nu binnen ieders handbereik. Dit in combinatie met een tijdperk van desinformatie maakt de deepfake-technologie steeds beangstigender. Daarom moeten we snel leren herkennen wat deepfake is en weten welke risico’s deze technologie met zich meebrengt.

Het grootste, overkoepelende risico van deepfake is dat we niet meer kunnen vertrouwen op de feiten. Feiten zijn in een wereld met deepfake-technologieën namelijk net zo veel waard als fabels. Dit leidt tot ongeloofwaardigheid van media, politici en zelfs onze gewaardeerde democratie. 

Chantage & reputatieschade
Theo Gevers, onderzoeker aan de Universiteit van Amsterdam, deelt de zorgen om de deepfake technologie. Zo vertelt hij aan NOS.nl “Zolang het bij leuke apps blijft, is het vrij onschuldig, maar als het wordt toegepast op bijvoorbeeld chantage, is dat heel gevaarlijk.” 

Alleen al de bedreiging van deepfake-video’s zijn genoeg als chantagemiddel. Het idee dat er een video in omloop wordt gebracht waar jij opstaat, zonder dat dit echt is, kan iemand radeloos maken. Zo zijn verschillende vrouwen al slachtoffer geworden van deepfake-pornovideo’s. Een deepfake tool verving gezichten van pornoactrices met die van beroemde vrouwen. Dezelfde tool werd ingezet voor wraakporno. In veel gevallen werd de video zelf niet uitgebracht omdat de dreiging van deze video op zichzelf al genoeg was.

Deepfake kan naast chantagemiddel ook daadwerkelijk worden ingezet om iemands reputatie te schaden. Wanneer de video’s waarmee ook gechanteerd wordt daadwerkelijk online komen, kan een goede, vaak zorgvuldig opgebouwde, reputatie in één keer afgebroken worden. Zelfs wanneer wordt aangetoond dat de video’s nep zijn kunnen deze voor eeuwig rondzwerven op het internet en alsnog veel schade aanrichten.

Sociale onrust
Deepfake kan ook politiek gericht zijn. Politiek gerichte deepfake-video-opnamen kunnen een serieus bedreigende strategie zijn om verdeeldheid te zaaien in landen of binnen groepen. Dit wordt gedaan door het aanwakkeren van tegenstellingen en hiermee het aantasten van de samenhorigheid. Deze bedreiging tast het fundament van de democratische staat aan, wat schadelijk is voor ons allemaal! In een democratie waar iedereen vrij is om zijn eigen mening te vormen moeten wij altijd kunnen vertrouwen op de feiten. 

In de praktijk 
Maar hoe gaat dit er in de praktijk aan toe? De Amerikaanse komiek en acteurJordan Peele geeft een duidelijke demonstratie over de werking van deepfake wanneer hij zichzelf verandert in Obama. In de video zie je een speech van Obama over de gevaren van deepfake, alleen is dit niet echt Obama, maar de komiek die met behulp van de technologie net zo klinkt en er net zo uit ziet als de voormalig president. Een onschuldige video die bedoeld is als educatie over deepfake. Helaas zijn niet alle gevallen zo onschuldig. Zo wordt het gezicht van Scarlett Johansson al jaren gebruikt in deepfake-pornovideo’s. Ondanks dat de actrice deze acties probeert te stoppen, lijkt er nooit een eind aan te komen. Zo vertelt Johansson aan de Washington Post dat het stoppen van deepfake-pornovideo’s een verloren zaak is. 

Hoe kunnen wij onszelf beschermen tegen deepfake?
Vele risico’s dus, maar hoe zorg je er dan voor dat jij hier zelf geen slachtoffer van wordt? Gelukkig is deepfake nog altijd te onderscheiden van echt, hoe moeilijk dit ook is. Train bijvoorbeeld je ogen om de volgende fouten te herkennen:

  • Deepfake-video’s hebben geen echte ogen en daarom zal het knipperen van de personages er onnatuurlijk uit zien.
  • Let op de mond. Beweegt deze in een vloeiende beweging of robotachtig?
  • Kijk goed naar de huidtinten en belichting. Wanneer beelden snel bewegen kan de technologie het soms niet meer bijbenen. Hierdoor kan het zijn dat een huid opeens van tint veranderd. 
  • Hoe meer beweging, hoe moeilijker het voor de technologie is om het beeld overtuigend te vervangen. Elke beweging geeft namelijk een mogelijkheid om fouten te spotten.

En onthoud: niet alles geloven wat er op het internet staat!

Tip! Ben je nieuwsgierig geworden naar deepfake? Lees dan ook eens dit artikel, wat je meer vertelt over de invloed van deepfake tijdens de coronacrisis, of kijk dan eens naar deze documentaire van VPRO Tegenlicht.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *