EU-wet beschermt burger tegen risico’s kunstmatige intelligentie
De Europese Unie krijgt in de AI Act als eerste ter wereld een wet die burgers moet beschermen tegen de risico’s van kunstmatige intelligentie. Het Europees Parlement gaf daarvoor woensdag definitief groen licht. Zeven vragen.
Wat is AI?
AI staat voor artificial intelligence, kunstmatige intelligentie. Simpel gezegd gaat het om computerprogramma’s die gegevens interpreteren, daarvan leren en vervolgens bepaalde taken uitvoeren. Net zoals een mens dat zou doen, vandaar de naam. Er bestaan inmiddels tal van toepassingen, waar heel veel geld in omgaat. Een voorbeeld is ChatGPT, dat eind 2022 op de markt kwam. Dit programma schrijft op verzoek teksten over de meest uiteenlopende onderwerpen, razendsnel. Dat spreekt bij veel mensen tot de verbeelding.
Waarom een speciale wet?
Wie in China bij rood licht de straat oversteekt, kan zonder dat er een politieman aan te pas komt een boete op de mat verwachten. Camera’s die overal in de steden hangen, herkennen de gezichten van de mensen die voorbij lopen. Ook dat is een toepassing van AI. In Europa willen we dit niet.
Bescherming van onze privacy is één reden. Een andere is veiligheid. We moeten er niet aan denken dat belangrijke beslissingen door AI worden gemanipuleerd. Dat kan tot ongelukken of ernstige misstanden leiden. Denk bijvoorbeeld aan de toeslagenaffaire. AI-systemen van de Belastingdienst bleken mensen bij voorbaat als fraudeur aan te merken op grond van bijvoorbeeld hun huidskleur of afkomst uit en bepaald land.
Wat houdt de nieuwe wet in?
Eurocommissaris Thierry Breton (Interne markt) vatte dat op X zo samen: „We reguleren zo min mogelijk, maar zoveel als nodig is.”
Dit betekent dat de ontwikkeling van AI kan doorgaan, maar wel onder voorwaarden. Toepassingen van AI worden ingedeeld naarmate ze meer of minder risico’s met zich meebrengen voor veiligheid en mensenrechten. Des te groter de risico’s, des te strenger de regels. Een paar voorbeelden:
Er komt een verbod op het verzamelen van gezichten van internet of van beveiligingscamera’s. Opsporingsdiensten mogen die beelden soms wel gebruiken, bijvoorbeeld als ergens een aanslag dreigt of iemand is ontvoerd.
Bedrijven mogen niet met AI controleren of iemand aan het werk is.
Een algoritme waarmee een werkgever het cv van een sollicitant doorlicht, mag niet discrimineren.
Makers van AI moeten transparant zijn over wat hun programma kan en hoe het wordt getraind. Ook moeten ze misbruik melden.
Wat voor straffen staan er op overtreding?
Hoge boetes. Die kunnen oplopen tot 35 miljoen euro of 7 procent van de wereldwijde omzet van de betreffende onderneming.
Is de wet wel te handhaven?
Dat is een van de punten waar nog discussie over is. Een AI-systeem uit de categorie met een hoog risico mag straks pas op de markt komen na toetsing op mensenrechten. Maar hoe meet je precies of iets aan mensenrechten voldoet? En hoe controleer je of een systeem discriminatie in hand werkt? Het is de bedoeling dat een nieuwe toezichthouder zich hierop gaat storten.
De ontwikkelingen op dit terrein gaan razendsnel. Is zo’n wet niet snel verouderd?
Dat risico is er inderdaad. Daarom is het belangrijk dat er steeds updates komen, benadrukt bijvoorbeeld de SGP-fractie in het Europees Parlement.
Wanneer is de wet van kracht?
De goedkeuring van het parlement was de laatste horde. Eerder stemden de EU-lidstaten al in. De wet wordt naar verwachting in mei gepubliceerd. De diverse bepalingen treden daarna stapsgewijs in werking.