Skip to main content

Deepfake; een oplossing of een probleem?

Door Bert de Jong | 23 maart 2021

Deepfake krijgt steeds meer aandacht. Arjan Lubach besteedde er onlangs een uitzending aan, en ook via andere media horen we regelmatig over de snelle opmars van deze techniek. Maar wat houdt deze ontwikkeling in? En welke vragen brengt dit met zich mee?

Wat fake?

Deep verwijst naar de kunstmatig intelligente deep learning-netwerken. Kunstmatig intelligente software manipuleert beelden, geluiden en teksten. Maar de software kan ook nieuwe beelden en audio maken, dus geen samenvoeging van bestaande beelden.

Een bekend voorbeeld van een deepfake is de kersttoespraak van de Engelse koningin die eindelijk eens vertelt hoe ze er écht over denkt.

(Wil je weten hoe dit allemaal precies werkt? Check dan deze informatieve website.)

Door deep learning kan software het menselijk brein verslaan. Daardoor dreigen we controle te verliezen. Maar ligt het gevaar daar wel? Of bieden deepfakes, en deep learnings in het algemeen, vooral voordelen? Zo maakt Google Translate gebruik van deep learning. Dat vinden we toch vaak een handige tool. En in de medische wereld beoordeelt software succesvol scans van patiënten. Een vooruitgang die levens redt. Maar waar is de grens?

Rekensom of creatief?

De website Thispersondoesnotexist.com toont bij elke verversing van de pagina een afbeelding van iemand die niet bestaat. Compleet ontwikkeld door computers. Dus niet de neus van A en de ogen van B, nee, het is echt een geheel nieuw gezicht, ontwikkeld op basis van aanwezige kennis over gezichten. Wij gebruiken regelmatig stockfoto’s. Een afbeelding van iemand die niet bestaat lijkt heel handig. Maar is het wenselijk om iemand die wel representatief lijkt, maar totaal niet bestaat, te gebruiken in je communicatie? Een verzameling pixels, een product van een rekensom?

Wat voor foto’s kan, kan ook voor tekst. De “Generative Pretrained Transformer 3” (GPT-3) is een model waarmee compleet nieuwe tekst geproduceerd kan worden op basis van bestaande tekst. Bijvoorbeeld een samenvatting of vertaling.

Theselyricsdonotexist.com is vergelijkbaar met de website waar foto’s gegenereerd worden, maar dan voor tekst. Je vult een paar woorden in en de software maakt een songtekst waar je de muziek al bijna bij hoort klinken. Dit is een gratis tool en de eerste tekst die eruit rolt is misschien niet geweldig, maar wat als je honderd keer ververst? Misschien zit er dan wel eens een mooie vondst tussen. Wat doet dat met je creativiteit?

Wat is nog waar?

Dat foto’s bewerkt of onecht kunnen zijn, daar zijn de meeste mensen wel van doordrongen. Maar video is alweer een stap verder. Door deepfake is zelfs bewegend beeld totaal onbetrouwbaar geworden. Waar bij de Britse kersttoespraak vrij snel helder is dat de koningin dit niet zelf heeft gezegd, kun je bij andere video’s echt en nep niet meer van elkaar onderscheiden. Video’s die niet echt waar zijn, kunnen als waarheid worden aangenomen, terwijl echte video’s niet geloofd worden. De laatste tijd doen wereldwijd veel complottheorieën opgang. Door nepnieuws te verpakken in een deepfake video, zullen steeds meer mensen geloven dat onzin de waarheid is.

Wat geloof je dan nog? Alles staat straks op losse schroeven. Hoe kunnen journalisten dan hun bronnen nog controleren? Als je iemand belt, kan er een computer terugpraten. Een opgenomen filmpje of videocall kan nep zijn. Alleen als je het met eigen ogen ziet, kun je (waarschijnlijk) aannemen dat het echt waar is.

Naast het feit dat de betrouwbaarheid van nieuws in gevaar komt, maken oplichters ook met veel plezier gebruik van deze techniek. Je zult maar gechanteerd worden met beelden van jezelf, die door middel van deep learning in elkaar zijn gebouwd. Of je krijgt een filmpje of telefoontje van je “dochter” die vraagt om een financiële bijdrage. Dat wordt steeds makkelijker, en minder goed te herkennen.

Natuurlijk kunnen gegenereerde video’s en foto’s soms een uitkomst zijn in de communicatie. Zo scheelt het veel tijd en geld voor filmmakers. Dankzij deepfake kan je relatief makkelijk en goedkoop dezelfde acteur in verschillende leeftijdsfasen in één film laten zien. Zonder deepfake heb je daar complexe software en extreem dure apparatuur voor nodig. Of je overbrugt taalbarrières. Zo nam David Beckham een video op voor een goed doel, waarin hij aandacht vraagt voor de ziekte malaria. Dankzij de deepfake techniek spreekt hij negen talen.

Deep learning biedt veel voordelen. Maar laten we onze ogen niet sluiten voor de ethische vragen bij deze ontwikkeling.

Meer informatie en hoe je deepfake kunt herkennen lees je hier.

Meer weten?

Wil je nou meer weten over deep fake of ben je benieuwd welke ontwikkelingen interessant zijn voor jou organisatie? Laat het me weten, ik denk graag met je mee!

Bert de Jong
Communicatieadviseur

Mail Bert