Deepfake en Digital Humans: focus op de kansen, niet alleen op de bedreigingen

Stel je eens voor. Je wilt dolgraag een keer mee met een luchtballonvaart, maar er is één probleem: je durft niet. Je hebt ontzettend erge hoogtevrees en krijgt het al benauwd als je aan een ladder denkt. Toch moet en zal je een keer mee gaan met zo’n bijzondere ballonvaart. Puur om je angst te overwinnen. Je besluit filmpjes te gaan kijken waarin je jezelf op je gemak in een luchtballon ziet zitten. Hoog, héél hoog, in de lucht. Je krijgt een voldaan gevoel. Je ziet het tenslotte met je eigen ogen: je kan het, je durft het. Je angst is overwonnen!

Klinkt best onrealistisch, niet? Toch wordt het in de praktijk al gebruikt. Het concept is bedacht door Yori Ettema. Hij creëert deepfakevideo’s om mensen een drempel over te helpen. Deepfake is een techniek waarbij op basis van Artifical Intelligence videobeelden worden gecombineerd tot een nieuwe video. Dankzij algoritmes die steeds verfijnder worden, lijken de beelden levensecht. Nu hoor ik je denken, wat is Artifical Intelligence (AI)? AI is een machine of programma dat zelf leert van zijn ervaring en zijn omgeving, zelfstandig zijn gedrag daarop aanpast en hierdoor menselijke taken kan uitvoeren.

Deepfake is een combinatie van de woorden deep learning en fake. Deep learning is een techniek die valt onder kunstmatige intelligentie. Dit houdt in dat computers nieuwe dingen kunnen leren op basis van grote hoeveelheden data. Deepfake is dus een verzamelnaam voor software waarmee nepvideo’s gemaakt kunnen worden die bijna niet van echt te onderscheiden zijn. Zo kun je iemand dingen laten zeggen of doen die hij of zij in werkelijkheid nooit heeft gezegd of gedaan.

Dit kan leuk en grappig uitpakken, maar helaas kent deepfake ook bijzonder veel nadelen. Zo wordt deepfake toegepast voor identiteitsfraude. Het is namelijk mogelijk om door middel van een kunstmatig intelligent systeem – een zogenoemde voice cloning deepfake – iemand anders zijn stem na te kunnen maken voor misbruik. Een telefoontje naar de CEO van een groot bedrijf met de vraag naar persoonsgegevens is dan zo gedaan. Maar daarnaast is de meest voor de hand liggende toepassing van deepfake, nepnieuws. Hier wordt misleidende informatie verspreid. En zeg nou eens eerlijk… Deepfake leent zich hier perfect voor. Zo kun je Premier Mark Rutte laten zeggen dat hij toch volledig achter Geert Wilders staat, maar het niet durft toe te geven. En kun je Koning Willem Alexander zijn ontslag zien indienen.

Misbruik van de technologie zorgt voor verwarring en onrust en dan voornamelijk voor de journalistiek en de democratie. Want wanneer weet je nu nog of iets echt of nep is? Het grootste risico dat we lopen, is dat we niet meer kunnen vertrouwen op feiten. Dit leidt tot ongeloofwaardigheid van media, politici en de democratie. Zo kwam bij de opkomst van deepfake in 2017 voornamelijk het negatieve gebruik van hiervan in het nieuws. Er werden nepvideo’s van politici verspreid, pornovideo’s van celebrities geplaatst en nepnieuws de wereld in gebracht.

Toch zijn er ook onschuldige toepassingen van deepfake. Deepfake technologie heeft een positieve invloed op het onderwijs. Het zou zelfs wel eens een revolutie teweeg kunnen brengen in de geschiedenislessen met interactiviteit. Het kan verhalen bewaren en de aandacht trekken met deepfake beelden van historische figuren. In 2018 creëerde het Illinois Holocaust Museum and Education Center een hologrammatisch interview. Dit maakte het voor bezoekers mogelijk om te communiceren met overlevenden van de Holocaust. Bezoekers konden vragen stellen en hun verhalen aanhoren. Daarnaast laten positieve deepfake-voorbeelden ook zien hoe de technologie taalbarrières tot het verleden kan maken. Een goed voorbeeld hiervan is de malaria-campagne met David Beckham. Hier spreekt David Beckham in maar liefst negen verschillende talen. Je hoort weliswaar andere stemmen, maar zijn lippen bewegen precies op het ritme van de taal. Dit resultaat is te danken aan AI-technologie. Met behulp van deepfake-technologie kunnen de feiten in geschiedenisboeken bewaard blijven en taalbarrières doorbroken worden, waardoor inhoud toegankelijker wordt.

Maar afgezien van deepfake in de filmindustrie, zijn er ook positieve deepfake voorbeelden in de kunstwereld. AI-technologie kan namelijk virtuele musea creëren. Zo heeft het AI-onderzoekslaboratorium van Samsung de Mona Lisa in staat gesteld haar hoofd, ogen en mond te bewegen. Daarnaast zou deepfake-technologie ook nuttig kunnen zijn in allerlei trainingsomgevingen. Zoals bijvoorbeeld een klantenservice training waarbij je in gesprek gaat met realistische deepfake virtuele mensen. Op die manier is het mogelijk om teamleden te trainen, zonder ze in echte klantinteracties te plaatsen.

Waar deepfake uiteindelijk heen zal gaan, is nauwelijks te voorspellen. Wat volgens kenners wel vaststaat, is dat digital humans en deepfakes een belangrijke rol in de samenleving zullen gaan spelen. We zullen het tegenkomen op allerlei verschillende vlaktes. Van klantenservice tot trainingsdoeleinden en van porno tot onderwijs. Moeten we er bang voor zijn? Nee, we moeten wel alert zijn op de risico’s die het met zich meebrengt. Ondanks dat vaak de negatieve kanten van deepfake worden belicht, kent het ook onschuldige toepassingen die de wereld juist een stukje mooier maken. Deepfake en Digital Humans: focus op de kansen, niet alleen op de bedreigingen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *