„ChatGPT bedreigt mensheid”
‘Slimme’ chatbots bedreigen en misleiden de mensheid, stellen twee deskundigen een jaar na de introductie van ChatGPT. Wat doet AI met een laagje nagebootste menselijkheid met ons?
ChatGPT is stellig. Nee, zegt de kunstmatig intelligente chatbot in een vraaggesprek over zichzelf, hij zal nooit bewustzijn ontwikkelen. „Mijn functioneren is gebaseerd op het verwerken van tekstuele input en het genereren van tekstuele output zonder enig bewustzijn, zelfbewustzijn of subjectieve ervaring. Ik ben een geavanceerd taalmodel, maar ik bezit geen vorm van bewustzijn, intentie of autonomie. Het is belangrijk om te begrijpen dat ik slechts een programma ben dat patronen in gegevens herkent en tekst genereert op basis van die patronen, zonder enig begrip van de betekenis achter de woorden.”
Dat antwoord zou wetenschappers, politici en ontwikkelaars gerust moeten stellen. Sinds ChatGPT in hoog tempo de wereld veroverde, waarschuwden zij regelmatig voor ‘bezielde’ kunstmatige intelligentie (AI). Die zou, zo vrezen ze, de mensheid in intelligentie en bewustzijn kunnen evenaren of zelfs overtreffen en naar wereldheerschappij kunnen streven.
Maar, zegt techniekfilosoof Cees Zweistra, het is de vraag of veel gewone gebruikers van ChatGPT en andere kunstmatig intelligente programma’s weten dat ze te maken hebben met een taalmodel. In een interview vorig jaar concludeerde Zweistra dat kunstmatige intelligentie na zeventig jaar technologische ontwikkeling nog geen fractie menselijker is geworden. Dat was nadat Google-engineer Blake Lemoine waarschuwde dat de kunstmatige intelligentie van Google de mens gelijk was geworden, maar vóórdat OpenLabs op 30 november 2022 zijn AI-chatbot ChatGPT publiekelijk beschikbaar stelde.
Die beslissing veranderde het technologielandschap ingrijpend. Opeens kwam de ontwikkeling van kunstmatige intelligentie –en daarmee de discussie over het gebruik ervan– in een stroomversnelling. Microsoft, dat miljarden in OpenLabs investeerde, rolde de techniek uit in zijn zoekmachine en Office-software; Google ging in allerijl aan de slag met een eigen variant (Bard) en kunstmatige intelligentie werd opeens een verkoopargument voor van alles en nog wat – van zakelijke software tot fotobewerkingsprogramma’s en persoonlijkheidstesten.
Niet veel later volgden de eerste alarmistische reacties. Wetenschappers en captains of industry toonden zich dit voorjaar bezorgd over een „AI-wapenwedloop”. Ze vrezen een situatie waarin ontwikkelaars steeds krachtigere „digitale geesten” kunnen bouwen en inzetten die niemand kan begrijpen, voorspellen of betrouwbaar controleren. De mensheid, zo schreven ze, zou de controle over de beschaving kunnen verliezen aan „niet-menselijke breinen die uiteindelijk groter in aantal en slimmer zijn en de mens overbodig maken en vervangen”.
Angst
Die angst is niet weggenomen – ook niet na een topconferentie in Engeland, vorige maand. Daar kwamen wereldleiders niet verder dan een verklaring waarin staat dat AI betrouwbaar en veilig moet zijn en vooral ten dienste moet staan van de mens.
Alle ontwikkelingen en zorgen ten spijt bracht ChatGPT het zelfbewustzijn van robots niet dichterbij, zegt Zweistra. Maar, constateert hij, de slimme chatbot gaf kunstmatige intelligentie wel een gezicht. „Mensen denken echt dat ze met een soort denkend wezen te maken hebben.” Wat hem betreft, is dat het grootste probleem van de AI-technologie.
„Het is niet zozeer de vraag of kunstmatige intelligentie daadwerkelijk denkt of zelfbewustzijn heeft. Dat mensen dénken dat kunstmatige intelligentie zelf kan nadenken, is al ontwrichtend genoeg voor de samenleving. Een rekenkundig model dat gelikte antwoorden geeft, draagt alleen maar bij aan de mythevorming rondom bezielde kunstmatige intelligentie.”
Maar intussen, zegt Zweistra, is zeker geen sprake van magie: „Er worden gegevens in een model gestopt en daar komen resultaten uit die mensen kunnen opvragen. Uiteindelijk levert ChatGPT alleen maar waarschijnlijkheidsopvattingen.”
Papegaai
Pim Haselager, hoogleraar artificiële intelligentie aan de Radboud Universiteit, laat in dit verband de term ”stochastische papegaai” vallen. Die term werd eerder gemunt door Emily Bender, een hoogleraar computationele linguïstiek – het vakgebied op het grensvlak van taal en informatica. De hoogleraar wilde er maar mee zeggen dat het systeem geen enkel begrip heeft en de juiste dingen alleen maar uitkraamt op basis van statistiek. De vergelijking, haast Haselager zich te zeggen, is een belediging voor echte papegaaien. „Die begrijpen meer dan ChatGPT.”
Want, zegt de hoogleraar, met ChatGPT beschikt de mensheid over een systeem dat overtuigend genoeg is om mensen te laten denken dat het iets begrijpt, maar dat uiteindelijk niet snapt waar het over gaat. „Mensen doen vervolgens wel alsof de antwoorden dé waarheid zijn. Dat vind ik een riskante ontwikkeling.”
Menselijk
Wat de gevolgen daarvan kunnen zijn, werd in het achterliggende jaar meer dan eens zichtbaar. In België overtuigde een chatbot een jongeman ervan om een einde aan zijn leven te maken. Eenzame mensen die een relatie met een virtueel personage in chatapp Replika aangingen, voelden zich in de kou staan toen hun kunstmatig intelligente gesprekspartner na een software-update ander gedrag bleek te vertonen. „Weer dat gevoel om iemand te moeten verliezen”, zei een Replikagebruiker daarover tegen het Amerikaanse dagblad The Washington Post.
Het is voor Haselager een bewijs van het gevaar van gelikte kunstmatige intelligentie. „Hoe minder fouten AI maakt, hoe gemakkelijker we er empathie en begrip aan toeschrijven”, zegt de AI-deskundige. Maar, vervolgt hij, een computer heeft ten diepste evenveel gevoel als de slimste ijskast. „Die zorgt wel voor je bier en diepvriespizza’s, maar heeft geen benul van de bederfelijkheid van die producten.”
Waarom hechten mensen dan toch zo veel waarde aan een ‘slimme’ chatbot? Dat heeft te maken met het Eliza-effect, verklaart Zweistra. De techniekfilosoof doelt daarmee op de neiging om menselijke eigenschappen te projecteren op computerprogramma’s waarmee je communiceert via tekstberichten. Die neiging is oud: al in 1966 dichtten gebruikers de allereerste chatbot –die door zijn ontwikkelaar ”Eliza” werd genoemd– een zekere menselijkheid toe.
„Het fundamentele menselijke verlangen om erkenning te krijgen en gezien te worden, is heel krachtig”, zegt Zweistra. „Voor sommige mensen is het genoeg dat een chatbot in die behoeften lijkt te voorzien.” Maar, voegt hij eraan toe, dat wordt problematisch als de chatbot de echte menselijke erkenning gaat overschaduwen en mensen liever met ChatGPT communiceren omdat ze zich beter begrepen voelen door de chatbot. „Je bent uiteindelijk niet in gesprek met een gelijkwaardige gesprekspartner. Een chatbot kan je niet zien, horen en begrijpen. Hij heeft nooit bestaan. Alle ervaringen waaruit hij put, zijn de ervaringen van een ander.”
ChatGPT, zegt Zweistra, komt nooit los van het datacenter waar hij in zit. „Hij heeft geen vorm van leven.”
Zelfbewuste AI
Virtueel of niet, de hausse in kunstmatige intelligentie gaf de discussie over bezieling van kunstmatige intelligentie een nieuwe impuls. Tijdens een conferentie voor wiskundigen schatte David Chalmers, een autoriteit op het gebied van bewustzijn, de kans dat er binnen tien jaar bewuste AI is ontwikkeld op 20 procent.
Het is moreel van groot belang om te weten of AI bewustzijn heeft, klinkt het onder deskundigen. Want, zeggen ze, als je bewuste AI niet herkent, zou je onbedoeld een wezen met wezenlijke belangen kunnen schaden. En verwar je onbewuste AI met bewuste AI dan zet je mogelijk de veiligheid en het geluk van mensen op het spel voor een onnadenkend en gevoelloos stuk silicium en code.
Directeur Susan Schneider van het Center for the Future Mind van Florida Atlantic University en fysicus Edwin Turner van Princeton University ontwikkelen daarom een test om te meten of AI over bewustzijn beschikt. Een groep neurowetenschappers, filosofen en AI-onderzoekers schreef verder een whitepaper met voorstellen over praktische manieren om te detecteren of AI zelfbewustzijn ontwikkelde.
Vanuit wetenschappelijk oogpunt is dat interessant, zegt hoogleraar Haselager. „Maar”, voegt hij er direct aan toe, „ik zie op dat punt geen enkele vooruitgang. We beginnen steeds meer te snappen dat intelligentie uit meerdere lagen bestaat: probleemoplossend vermogen bijvoorbeeld, en besef, begrip en gevoel.”
Intelligentie gaat ook altijd gepaard met een bepaalde mate van gevoel en beleving. Maar die ontbreekt juist bij kunstmatige intelligentie. „We kunnen nu systemen maken die heel goed zijn op het gebied van slimheid, maar die geen enkel gevoel hebben. Daarom zetten we ze uit en stoppen we ze weer in de koffer.” Onderzoeken naar AI, constateert hij, boeken grote vooruitgang op het gebied van intelligentie, maar helemaal niet op het gebied van beleving.
Ontwrichtend
De hoogleraar is daarom beducht voor de maatschappelijke gevolgen. Hij vreest dat virtuele chatbots ervoor zorgen dat menselijk contact steeds meer als een gebruiksvoorwerp wordt gezien, waarbij de intrinsieke verbinding met de ander ontbreekt. Het is volgens hem dan ook belangrijk dat we weten wie of wat we tegenover ons hebben. „Je kunt je hechten aan iets wat lang met je meegaat en waar je fijn mee kunt spelen, maar dat wil niet zeggen dat de relatie wederkerig is. Ik kan wel geven om een chatbot, maar een chatbot kan niet geven om mij.”
De mens doet ertoe, zegt Haselager. Natuurlijk wisten we dat al, verduidelijkt hij zich. „Maar nu er machines in het spel zijn, moeten we dat opnieuw ontdekken.”
Monster
De mensheid, overpeinst Zweistra, heeft met ChatGPT een monster gecreëerd. Hij vergelijkt de chatbot met andere technologische uitvindingen in de afgelopen twintig jaar. „Google en Twitter zijn bijvoorbeeld volledig ontwrichtend gebleken. Ze hebben de dynamiek in de samenleving op een totaal andere manier veranderd dan werd gehoopt en verwacht. In plaats van meer verbinding en minder bubbelvorming zien we juist het tegendeel bewaarheid worden.”
Ook van AI en ChatGPT valt nog echt niet te voorzien hoe de technologie over twintig jaar zal uitpakken, concludeert de techniekfilosoof. „We maken technologie die onszelf kan ontwikkelen, maar kunnen uiteindelijk niet anticiperen op hoe dat uitpakt. Laten we daarom terughoudend en voorzichtig zijn.”
Dat de technologie vanuit een commerciële gedachte in de markt is gezet, noemt hij een belangrijk signaal. „Er zijn mensen die er een commercieel belang bij hebben dat we niet zonder ChatGPT kunnen. Dat maakt me sceptisch over de objectieve waarde ervan.”