Zorgen bij toezichthouder over risico’s AI, weinig zicht op incidenten


ChatGPT op een telefoon

NOS Nieuws

  • Nando Kasteleijn

    redacteur Tech

  • Nando Kasteleijn

    redacteur Tech

De risico’s van het gebruik van kunstmatige intelligentie (AI) zijn dit jaar sterk toegenomen, waarschuwt de Autoriteit Persoonsgegevens in zijn eerste jaarrapport over AI. De zorgen betreffen met identify de opkomst van generatieve AI, technologie die op foundation van een opdracht tekst, afbeeldingen of foto’s genereert. Een bekend voorbeeld hiervan is ChatGPT.

“Wat algoritmes doen, is dat ze voorspellen. Ze delen mensen in in groepen of ze profileren ze”, zegt Sven Stevenson, programmadirecteur AI bij de Autoriteit Persoonsgegevens in gesprek met de NOS. “En dat brengt het risico mee dat de uitkomst voor jou oneerlijk is. Dat je soms wordt gediscrimineerd. Of dat je zelfs fysieke risico’s hebt.”

Gevraagd naar een voorbeeld waarbij het met AI fout gaat, verwijst Stevenson naar scanauto’s die rondrijden in gemeenten en op foundation van een kenteken controleren of er wel wordt betaald voor een parkeerplek. “Dat pakt soms helemaal verkeerd uit. Mensen die honderden parkeerboetes krijgen van één incident omdat die scanauto maar langs blijft rijden.”

Wereldwijd grote stijging AI-incidenten

In het rapport haalt de toezichthouder knowledge aan over het aantal geregistreerde AI-incidenten. Dat is vertienvoudigd. Het gaat om wereldwijde cijfers, afkomstig van de Organisatie voor Economische Samenwerking en Ontwikkeling. Het vermoeden is dat het slechts gaat om een topje van de ijsberg.

Nederlandse cijfers zijn er niet. “Het eerlijke antwoord is dat we dat gewoon heel slecht weten”, zegt Stevenson. Dat is zorgelijk, erkent hij. “Daar gaan we wel met z’n allen mee aan de slag. Maar het is wat dat betreft ook echt een oproep aan burgers en bedrijven: als er iets aan de hand is waarvan iemand het gevoel heeft van: ‘hee dit klopt niet, dit is raar’, stel dan de vraag of controleer of er een algoritme in het spel is.”

Deltaplan 2030

In het rapport pleit de Autoriteit Persoonsgegevens voor een Deltaplan voor 2030, om algoritmes en AI onder controle te krijgen. “Het betekent allereerst dat mensen die werken met AI ondersteund gaan worden, bijvoorbeeld politieagenten, docenten en artsen. Zij moeten goed snappen hoe algoritmes en AI werken, wat de sterke en wat de zwakke punten zijn”, zegt Stevenson.

En misschien wel het belangrijkst: het betekent volgens de toezichthouder dat burgers straks moeten begrijpen hoe een besluit van een AI-systeem tot stand is gekomen. “Dat er bijvoorbeeld in zo’n temporary staat ‘het AI-systeem was een bepalende consider de voorbereiding van dit besluit'”, zegt Stevenson.

De waakhond noemt de komst van de Europese AI Act een belangrijke mijlpaal. Maar dat het toezicht in Nederland nog in de kinderschoenen staat, is af te lezen aan de grootte van het coördinerende AI-team binnen de Autoriteit Persoonsgegevens. Er zijn zeven mensen mee bezig, inclusief Stevenson. Volgend jaar moet dit aantal verdubbelen. Wel wordt benadrukt dat het hier gaat om ‘pionierswerk’, het group is een van de eerste in Europa.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top