Nemen robots het straks over? Hoogleraar bezorgd over snelle ontwikkeling kunstmatige intelligentie
Zorgt kunstmatige intelligentie ervoor dat we straks allemaal een digitale beschermengel op onze schouder hebben, of maakt AI meer kapot dan ons lief is? Hoogleraar informatica Frits Vaandrager pleit voor strengere wettelijke regels.
Frits Vaandrager wijst uit het raam naar het Radboud Ziekenhuis, schuin tegenover zijn werkkamer aan de Radboud Universiteit. „Daar wordt kunstmatige intelligentie gebruikt om tumoren te herkennen op foto’s. Computers worden daarin steeds beter en werken samen met specialisten om tumoren eerder op te sporen.” De hoogleraar informatica aan de Nijmeegse Radboud Universiteit kent nog vele andere toepassingen waar kunstmatige intelligentie –computersoftware die op basis van allerlei data, beelden of geluiden zelfstandig opdrachten uitvoert– buitengewoon nuttig is. Zijn onderzoeksgroep werkt onder meer aan de betrouwbaarheid van kunstmatige intelligentie voor robots in pakhuizen of voor satellieten in hun baan om de aarde. „Zo kunnen we botsingen voorkomen. Als een botsing dreigt, stuurt één van de satellieten een klein beetje bij.”
Maar hij ziet zeker ook de risico’s van de snelle ontwikkeling van toepassingen als ChatGPT, die op verzoek allerlei toespraken, analyses en zelfs gedichten oplepelt. „Voor criminelen biedt het eindeloos veel mogelijkheden. Tijdens een hoorzitting van de Amerikaanse senaat vertelde een moeder hoe ze werd gebeld door haar dochter die huilend vertelde dat ze gegijzeld was. Daarna hoorde ze een blaffende mannenstem die dreigde haar dochter wat aan te doen. Dat bleek allemaal nep: kunstmatige intelligentie had op basis van enkele zinnen de stem van de dochter volledig nagebootst.”
Een ander „groot gevaar” is dat kunstmatige intelligentie de politiek beïnvloedt. Bij het schandaal rond het bedrijf Cambridge Analytica werden karakteristieken van miljoenen Facebook-gebruikers zonder hun toestemming ingezet voor de politieke campagne van Donald Trump. „Deze ongewenste beïnvloeding is kinderspel vergeleken met de mogelijkheden die nu ontstaan door kunstmatige intelligentie. Dat is een groot gevaar voor de democratie.”
Slimmer dan mensen
Vaandrager was eind maart een van de ondertekenaars van een petitie om een pauze in te lassen van minimaal zes maanden in de snelle ontwikkeling van gevaarlijke kunstmatige intelligentie. AI –artificial intelligence– kan namelijk leiden tot computers die slimmer zijn dan mensen en tot het verspreiden van onwaarheden en propaganda. Behalve door wetenschappers werd de petitie ook onderschreven door onder meer ondernemer Elon Musk. Hij is eigenaar van autobedrijf Tesla, X (voorheen Twitter) en een van de oprichters van OpenAI, het bedrijf achter ChatGPT.
„Op dit gebied is een grote concurrentie- slag gaande tussen de grote techbedrijven Microsoft en OpenAI aan de ene kant en Google aan de andere kant”, zegt de hoogleraar informatica. „Ook Facebook probeert daarin een rol te spelen. Intussen loopt de wetgeving van Europa achter. Dus is het tijd voor een pauze.”
Bij traditionele software kun je precies achterhalen wat het doet, zegt Vaandrager, maar kunstmatige intelligentie is minder voorspelbaar. „Het is een complex netwerk met duizenden knooppunten dat leert van informatie die van internet is gehaald. Vaak gaat dat goed, maar er is geen enkele garantie dat het altijd goed werkt.”
We zijn nu ruim vier maanden verder: heeft ook maar één van de grote techbedrijven zich aan die pauze van zes maanden gehouden?
„Dat is moeilijk te zeggen. Ik weet ook niet of die periode van zes maanden nou de meest goede keuze was. De impact van de brief is veel groter dan we hadden gedacht. Het is een hele stap dat grote techbedrijven zeggen dat er regulering moet komen. Het signaal dat er risico’s aan kunstmatige intelligentie kleven, is goed aangekomen.
De handtekening van Elon Musk onder de petitie zou zomaar een strategie kunnen zijn om de concurrentie stil te zetten en zelf hard door te lopen. Ook al wijst hij op de gevaren, hij is een zakenman in hart en nieren.”
Welke reacties kreeg u op uw eigen handtekening?
„Nadat ik op televisie had verteld dat bedrijven kwalijke dingen kunnen doen met kunstmatige intelligentie, spraken tientallen mensen mij daarover aan; collega’s en bekenden op straat. Iedereen deelt mijn bezorgdheid over de snelle ontwikkeling van kunstmatige intelligentie.
Ik vind de opstelling van de techbedrijven een beetje hypocriet. Microsoft-topman Brad Smith geeft hoog op van alle ethische principes die zijn bedrijf hanteert bij de ontwikkeling van kunstmatige intelligentie en benadrukt dat grote bedrijven zich niet boven de wet mogen stellen. Maar Microsoft brengt wel een nieuwe versie op de markt van zijn zoekmachine Bing, waarin kunstmatige intelligentie is verwerkt terwijl nog nauwelijks onderzoek is gedaan naar de negatieve gevolgen van deze technologie. Ook loopt er een rechtszaak tegen Microsoft en OpenAI, omdat bij het leren van de modellen voor Bing en ChatGPT grote hoeveelheden privédata zonder toestemming zouden zijn gestolen van internet.”
Hoe snel gaat de ontwikkeling van kunstmatige intelligentie?
„Heel snel. Het is fascinerend wat de nieuwste versie van ChatGPT al kan. Onderzoekers hebben het programma een puzzel voorgelegd die niet op internet te vinden was. Stel dat je ergens ter wereld een tent hebt opgezet, vervolgens 40.000 kilometer westwaarts vliegt, weer bij je tent uitkomt en ziet dat die is vernield door een tijger: wat voor tijger is dat dan? Het programma wist dat op te lossen. Het beredeneerde dat de evenaar de enige plek is waar je na 40.000 kilometer vliegen weer op dezelfde plek terechtkomt, en dat daar twee soorten tijgers leven. Dat is behoorlijk knap. Het programma ging ervan uit dat op die plek geen circus aanwezig was met een ander soort tijger.
Kunstmatige intelligentie kan ook menselijk gedrag interpreteren, omdat OpenAI het hele internet heeft leeggetrokken om het model te voeden. Op basis van enkele kenmerken van een ruzie kan de computer analyseren wat er waarschijnlijk aan de hand is.
Wetenschappers verschillen van mening over de gevolgen hiervan. Sommigen zeggen dat kunstmatige intelligentie niet meer is dan een intelligente papegaai: het praat na wat het ergens anders heeft gehoord. Maar anderen zeggen: het systeem kan zelf nadenken. Ik zit daar een beetje tussenin.”
Vaandrager legt het boek ”Superintelligentie” van de Zweedse filosoof Nick Bostrom op tafel. Daarin worden de gevaren beschreven van zogeheten superintelligentie. „Veel toepassingen met kunstmatige intelligentie zijn slechts goed in één ding. Zo is ChatGPT slecht in rekenen. Bij superintelligentie wordt echter alles aan elkaar gekoppeld en kunnen computers of robots net als mensen zelf gaan redeneren.”
Bent u daar bang voor?
„Ja, ik ben daar wel bang voor. Kijk, je kunt zeggen dat mensen er in deze wereld een enorme puinhoop van maken; denk aan de opwarming van het klimaat. Optimisten stellen dat superintelligentie kan zorgen voor een soort paradijs waarin alle problemen zijn opgelost. Of ervoor zorgt dat iedereen straks een digitale beschermengel op zijn schouder heeft die je adviseert, waarschuwt voor gevaar en rekening houdt met je slechte eigenschappen. Het kan dus grandioos goed gaan, maar het kan ook grandioos fout gaan.”
Waar denkt u dan aan?
„Het gevaar is dat iemand die techniek gaat misbruiken voor eigen gewin, en dat het uit de hand loopt. In het boek van Nick Bostrom staan allerlei negatieve scenario”s. Een daarvan is dat een robot mensen weet te manipuleren om dingen voor hem te doen. Het geld dat hij daarmee verdient, gebruikt hij vervolgens om nieuwe robots te maken. Een ziek voorbeeld is dat van een superintelligente robot die de opdracht heeft gekregen zoveel mogelijk paperclips te maken. Die robot denkt op een gegeven moment: „De mens staat maar in de weg, die roei ik uit zodat ik nog meer paperclips kan maken”. Dan zit je toch al snel op het niveau van de Terminator-films waarin robots de macht overnemen.”
De Britse natuurkundige Stephen Hawking heeft eens gezegd dat kunstmatige intelligentie het einde van de mensheid kan betekenen. Denkt u dat ook?
„Ik denk dat we nog heel ver van super- intelligentie af zitten. Dat kan nog wel vijftig jaar duren, maar het kan ook sneller gaan. Ik denk dat mijn kleinkinderen het mogelijk nog wel gaan meemaken. Het zijn in elk geval gevaren waar we serieus over moeten nadenken. Je moet er bijvoorbeeld ook niet aan denken dat iemand als de Russische president Vladimir Poetin als eerste toegang krijgt tot zulke superintelligentie.”
Hoe kunnen we zulke negatieve scenario’s voorkomen en tegelijk de positieve effecten van kunstmatige intelligentie, zoals in de zorg, behouden?
„We kunnen veel doen om AI een beetje onder controle te krijgen. Op dit moment worden de beste experts op het gebied van kunstmatige intelligentie allemaal opgekocht door de grote bedrijven. Daar kunnen ze tegen ongekende salarissen hun ding doen. Maar bij de Nederlandse overheid zitten nauwelijks specialisten. Dat is zorgwekkend en triest om te zien. We moeten dus zorgen dat die experts ook bij de overheid gaan werken. Overigens ben ik daar nog niet eens heel pessimistisch over. Ik hoor studenten zeggen dat ze ook best voor de overheid willen werken om AI te reguleren.
Net als anderen pleit ik voor een interna- tionaal agentschap op het gebied van kunstmatige intelligentie, vergelijkbaar met het Internationale Atoomenergie Agentschap. Daar kun je een hoop expertise bij elkaar brengen, en kan worden nagedacht over mogelijke negatieve gevolgen en wetgeving. De Europese Unie is daar al goed mee bezig.”
Verhuizen bedrijven niet naar landen met de minst strenge regels?
„Ja, maar we kunnen dan wel hun producten hier in Europa tegenhouden. In het verleden zijn ook internationale afspraken gemaakt over het beperken van technologie die potentieel gevaarlijk is voor mensen, zoals de mogelijkheid mensen te klonen. Daar wordt nog redelijk de hand aan gehouden.”
Zo’n agentschap kan garanties eisen van softwarebedrijven. Nu worden nieuwe producten zoals ChatGPT direct op de markt gebracht, zodat burgers en bedrijven daar de voordelen van zien en het willen gaan gebruiken. Dat levert de makers geld op en kan ervoor zorgen dat een lobby naar de overheid ontstaat om dat niet in de weg te zitten. Je zou bedrijven kunnen opleggen dat ze eerst aantonen dat bepaalde grenzen nooit worden overschreden, en hun product betrouwbaar is.”
Wat kunnen we nog meer doen?
„We moeten niet naïef zijn. Met kunstmatige intelligentie kun je goede én slechte dingen doen. Soms zie je dat niet gelijk.
Recent werd ik benaderd door het Chinese bedrijf Huawei dat graag met mij wilde samenwerken aan toepassingen van kunstmatige intelligentie. Na overleg met de decaan van onze faculteit heb ik dit geweigerd. Huawei verkoopt technologie waar we in Europa kritisch over zijn, omdat het de Chinese overheid toegang zou geven tot vertrouwelijke informatie.
Je moet dus steeds goed nadenken wat je doet. Toen ik nog student was, dacht ik dat informatica alleen maar positieve effecten had. Natuurkunde kon worden gebruikt voor het maken van een atoombom en chemie zou slechts leiden tot vervuiling en de productie van chemische wapens. Informatica was helemaal clean en zou dingen alleen maar efficiënter maken, dacht ik toen. Achteraf is dat vreselijk naïef geweest.”