Opinie

Schrijven of herschrijven we geschiedenis met generatieve AI?

Via kunstmatige intelligentie om informatie vragen, is zeker nuttig. Wel moet de mens zelf de regie houden. Bij een tool van Gemini bleek dat niet overbodig.

Rick Bouter
4 March 2024 16:28
AI-afbeeldinggenerator Gemini zorgde voor onjuistheden in historische beeldgeneraties. beeld Google
AI-afbeeldinggenerator Gemini zorgde voor onjuistheden in historische beeldgeneraties. beeld Google

Vandaag de dag wordt er geschiedenis geschreven met generatieve Artificial Intelligence. (Schijnbaar) baanbrekende toepassingen worden in hoog tempo gelanceerd. Generatieve AI maakt het mogelijk om nieuwe gegevens, zoals teksten, beelden en geluiden, te creëren op basis van patronen en data die het heeft ontleend aan bestaande gegevens. Van Chat GPT voor tekst, van Mid Journey voor afbeeldingen, van GitHub Co-pilot voor codes, van Synthesia voor video’s en ga zo maar door. Deze toepassing is niet van zichzelf intelligent, maar verbaast ons wel. Enerzijds omdat we dit soort technologische toepassingen op deze rafelenschaal nog niet kenden, anderzijds omdat de mate van beschikbaarheid ongekend groot is.

„Compleet onacceptabel”

Een van de bekende big tech(nology)partijen, Google, doet ook mee, met Gemini. Gemini (voorheen Bard geheten) „biedt directe toegang tot AI van Google” en belooft „ondersteuning bij schrijven, plannen, leren en meer”. Gemini is ontwikkeld door Google DeepMind en concurreert met bijvoorbeeld GPT-4 van OpenAI.

Google zette in februari AI-afbeeldinggenerator Gemini tijdelijk stop na ”problemen”. Aanleiding hiervoor waren onjuistheden in historische beeldgeneraties. Sundar Pichai, CEO van Google, noemde de uitkomsten van de tool „compleet onacceptabel”. Pichai stak de hand in eigen boezem. Hij gaf aan dat Google verkeerd zat en de werking van Gemini volkomen onaanvaardbaar was. Ondertussen is het big techbedrijf bezig om de ”vangrails” van de tool te verbeteren. De aandelen van moederbedrijf Alphabet kelderden ondertussen met 3,5 procent. Google voorziet een herintroductie van de tool van Gemini over enkele weken.

Inclusieve geschiedenis

Gemini sloeg de plank behoorlijk mis bij onder andere afbeeldingen van Duitse nazisoldaten, de paus, de Founding Fathers (grondleggers van de VS), Vikingen en een Schots echtpaar uit het jaar 1850. Gemini wiste geschiedkundige feiten en kwam met andere beelden dan je zou verwachten. Het resultaat was een veel inclusievere afspiegeling dan de geschiedenis ons leert. Gemini ‘toverde’ afbeeldingen op het scherm van nazi’s met een Aziatisch uiterlijk, de paus als Afrikaan en Vikingen met een donkere huidskleur. Gemini herschreef dus op een ongelukkige manier onze geschiedenis. Reden hiervoor was dat Gemini wel de diversiteit aan mensen meenam, maar niet de context en de feiten die bij historische figuren horen. In de Google-blogpost getiteld ”Gemini image generation got it wrong. We’ll do it better” belooft het bedrijf dan ook verbetering en legt het uit dat de AI wel was getraind om een diversiteit aan mensen op te nemen in de resultaten, maar niet wist wanneer er geen diversiteit getoond moest worden.

Brongegevens verankeren

De definities Responsible Technology, Responsible AI en Technology Ethics worden allemaal gebruikt om aan te geven dat technologie op een ethisch verantwoorde manier toegepast moet worden. Dat betekent bij het verantwoord toepassen van inclusieve technologie dat de geschiedenis ongewijzigd moet blijven.

Brongegevens mogen we in het kader van generatieve AI niet wijzigen; we moeten ze juist verankeren. Aan de historische feiten vasthouden is cruciaal, ook als die feiten verontrustend of ongemakkelijk zijn. Uiteraard beweer ik niet dat Google onze geschiedenis bewust wil herschrijven. Niettemin droeg de tool van Gemini wel bij aan de verspreiding van afwijkende informatie over de (historische) werkelijkheid. Bijvoorbeeld voor kinderen maakt dit het er niet gemakkelijker op om het waarheidsgehalte van digitaal beschikbare bronnen te beoordelen. Hoe meer versies van een gebeurtenis er te vinden zijn, hoe lastiger het wordt de waarheid te achterhalen. Dit brengt me bij een belangrijk en steeds terugkerend punt.

Verantwoording nemen

Technologie kan een handig hulpmiddel zijn. Via generatieve tools om informatie en suggesties vragen, lijkt me nuttig en tijdbesparend. Wel moet de mens zelf aan het stuur blijven en de regie houden. Technologie kan en mag ons niet gaan overstemmen en een doel op zich worden. Wij hebben de belangrijke rol van waarheidsvinding en moeten alles wat technologieën voortbrengen aan tekst, audio, video, codes enzovoorts beoordelen. We dienen te allen tijde verantwoording te nemen voor de door AI gegenereerde inhoud. En laten we wat betreft Google Gemini over enkele weken kijken hoe waarheidsgetrouw en ethisch verantwoord zijn producten zijn.

De auteur is medeoprichter van Techthics, een platform dat nadenkt over de impact van nieuwe technologie op ethiek en christendom.

RD.nl in uw mailbox?

Ontvang onze wekelijkse nieuwsbrief om op de hoogte te blijven.

Hebt u een taalfout gezien? Mail naar redactie@rd.nl

Home

Krant

Media

Puzzels

Meer