Van eerst doen naar eerst denken bij gebruik deepfake
Er is een kentering gaande in het toepassen van deepfake. Deepfake is een techniek om onder andere met kunstmatige intelligentie (AI) video’s te maken van een persoon door gebruik te maken van bestaande beelden. Zo zijn er filmpjes van Mark Rutte bekend die vanuit het Torentje een speech houdt over de klimaatcrisis en daarin dingen zegt die hij nooit heeft uitgesproken.
Tijdens de vorige verkiezingen werd er een door AI gegeneerde afbeelding gemaakt van Frans Timmermans in een vliegtuig, genietend van een royale maaltijd. Deze was overduidelijk nep maar de reacties waren er niet minder om. De foto paste in het beeld dat mensen van hem hadden. De reactie was daarom ook: het is niet echt maar wel realistisch.
Op dit gebied is er een nogal schokkende kentering gaande. U herinnert zich de beelden nog wel van de overstromingen in Spanje een aantal weken geleden. De regenhoeveelheid voor een jaar viel in één dag. Het effect was verwoestend. Auto’s lagen opgestapeld in straten met het puin ertussen. Er waren mensen die deze foto’s zo surreëel vonden dat ze dachten dat deze door AI waren gegenereerd en die daarom niet geloofden dat de overstromingen echt zo heftig waren. De ontwikkeling hierin gaat zo snel dat het steeds moeilijker wordt om nep van echt te onderscheiden. Daarmee neemt ook het wantrouwen toe.
Een andere kentering die ik zie, is het gebruik van deepfake bij overleden personen. Vier jaar geleden schreef Techthics een kritisch artikel over het toepassen van deepfake bij rouwverwerking ( RD 23-11-2020 ). Beelden van een overleden persoon werden op een rouwtherapeut geprojecteerd en daarmee leek het of je een gesprek had met de overleden persoon. Een van de vragen die gesteld werden, luidde: „Heb je spijt van wat je hebt gedaan?” Ethisch onaanvaardbaar.
In Groot-Brittannië was er een vrouw die tijdens haar uitvaartceremonie een ‘gesprek’ voerde met de aanwezige familie. Hier werd gebruik gemaakt van beelden en vragenlijsten die de vrouw zelf voor haar overlijden had ingevuld. Naar deze informatie kon worden gevraagd en ze was beperkt tot wat de vrouw wilde delen. Het grote verschil in dezen is dat in het eerste geval de overleden persoon hier niet mee heeft ingestemd. Er worden woorden in de mond gelegd die nooit zijn uitgesproken. In het tweede geval is er een bewuste keuze van de vrouw geweest om dit na te laten aan haar familie en vrienden.
Ook bij de politie is er meer ervaring en doordenking gekomen bij het toepassen van deepfake. In 2022 plaatste de politie een video waarin een dodelijk slachtoffer aan de getuigen en de dader de oproep deed om zich te melden. Hij spreekt de woorden: „Weet je meer, spreek dan nu.” Een krachtig, schokkend beeld. Het was in de wereld de eerste keer dat de politie dit deed.
Begin november startte de politie een campagne in het wallengebied in Amsterdam om meer te weten te komen rond de coldcasezaak van een vermoorde sekswerker, Bernadett ”Betty” Szabó. Er werd een levensgroot hologram ontwikkeld om zo veel mogelijk aandacht voor de zaak te krijgen. Hier koos de politie er bewust voor om geen exact beeld van haar weer te geven maar een beeld neer te zetten van een vrouw die geïnspireerd is op Betty. In overleg met de nabestaanden en partijen binnen en buiten de politie werd zorgvuldig nagedacht over hoe dit zo waardig mogelijk weergegeven kon worden.
Deze ontwikkelingen laten zien dat er van tevoren steeds meer bezinning plaatsheeft over de impact van kunstmatig gegenereerde beelden. Maar hoewel er steeds meer nagedacht wordt over de ethische implicaties ervan, moet er toch meer toegewerkt worden naar ”ethics-by-design” (ethiek geïntegreerd in het ontwerp) in plaats van, zoals ik het dan maar noem, ”ethics-on-the-fly” (ethiek op het moment zelf).
De auteur is medeoprichter van stichting Techthics, een platform dat nadenkt over de impact van nieuwe technologie op ethiek en christelijke religie.