Als Europarlementariër is Kim van Sparrentak succesvol in het reguleren van techbedrijven.
Van Sparrentak beet zich de afgelopen jaren vast in de regulering van techbedrijven. Daaronder valt AI, oftewel kunstmatige intelligentie, maar ook digitale privacy en het beschermen van gebruikers, bijvoorbeeld tegen verslavende algoritmes. “Ik wilde altijd dat Europa meer voor mensen was, en door de digitalisering worden we steeds meer ontmenselijkt. Dit past daar precies bij.”
Ze stortte zich de afgelopen jaren op de verwezenlijking van een EU-brede AI-wet, de AI Act (AIA), die Europese burgers, overheden en bedrijven moet beschermen.
“We hebben in de Europese Unie productrichtlijnen en grondrechten. Medicijnen moeten ook worden getest voordat ze kunnen worden voorgeschreven. Dus waarom zou dat voor technologie niet gelden?”
Het stoort haar dat er al zoveel ongereguleerde AI in Europa in gebruik is. Bedrijven beweren dat ze ‘pas echt weten wat hun product doet’ als mensen er mee aan de slag gaan, aldus Van Sparrentak.
Als gevolg was een generatieve AI-toepassing als ChatGPT ineens gewoon beschikbaar. “We brengen het op de markt, of het mag weten we eigenlijk niet, maakt ook niet uit”, verwoordt ze het standpunt van de AI-ontwikkelaars. “Wij maken de wereld beter, dus accepteer het maar, hoe durf jij te zeggen dat dingen niet mogen. Je blokkeert innovatie!”
Ze trok de AIA vorig jaar met bloed, zweet en tranen over de finish. De uiteindelijke tekst werd goedgekeurd tijdens een onderhandelingssessie met lidstaatvertegenwoordigers die 38 uur duurde. “Niemand keek op het einde meer recht uit zijn ogen, maar het is wel gelukt.”
Tijdens een paneldiscussie op de rechtenfaculteit van Stanford legt ze aan een zaal vol Amerikaanse toehoorders uit hoe de wet werkt. Daarin worden AI-toepassingen ingedeeld in risicocategorieën. Op basis daarvan wordt bepaald in hoeverre producten mogen worden ingezet op de Europese markt. “Neem massasurveillance in de openbare ruimte met gebruik van biometrie.” Dit valt in de hoogste verboden risicocategorie: “Te riskant, en gaat in tegen onze fundamentele rechten. Dat willen we dus helemaal niet.”
Dan zijn er hoogrisicosystemen, die voordelen hebben mits ze op de juiste manier worden ingezet. AI als onderdeel van de beveiliging in een kerncentrale, bijvoorbeeld.
Wat generatieve AI betreft, tot slot, zijn er twee categorieën: “Kleine modellen moeten met name aantonen dat ze transparant zijn, grote modellen als ChatGPT ook dat hun systemen veilig zijn”.
Om het belang van toetsen en testen door mensen te onderstrepen, vertelt ze het publiek over de toeslagenaffaire, die in 2019 in Nederland aan het licht kwam. “De overheid gebruikte discriminerende algoritmes om fraudeurs op te sporen, mensen werden in de schulden gestort en kinderen zelfs uit huis geplaatst”, legt ze uit. De zaal is doodstil. “Maar mensen die ten onrechte als fraudeur werden aangemerkt en vroegen hoe dat kan, kregen keer op keer geen antwoord. Alleen: de computer zegt het nou eenmaal.”
“Wat een verschrikkelijk waarschuwingsverhaal”, zegt de discussieleider even later op sombere toon. Van Sparrentak knikt. Voor haar is de toeslagenaffaire nog altijd een north star, zegt ze, het morele ijkpunt waarop ze zichzelf in haar werk oriënteert. “Want zoiets mag echt nooit meer gebeuren.”
Alles bij de bron; Trouw