Beslissingen worden steeds vaker deels of volledig geautomatiseerd genomen met algoritmen en kunstmatige intelligentie. Om het gebruik van kunstmatige intelligentie in goede banen te leiden heeft de Europese Commissie een wetsvoorstel gepubliceerd dat gaat over kunstmatige intelligentie. Dé aangewezen plek om ervoor te zorgen dat ook (deels) geautomatiseerde beslissingen transparant, gemotiveerd en controleerbaar zijn, dachten wij. Maar daar dacht de Europese Commissie anders over. Voor mensen die door uitkomsten van kunstmatige intelligentie geraakt kunnen worden, wordt in het wetsvoorstel geen enkele mogelijkheid geboden om die uitkomsten te begrijpen of te controleren. Mensen mogen hooguit in sommige gevallen geïnformeerd worden over het feit dat ze te maken hebben met kunstmatige intelligentie (artikel 52 van het wetsvoorstel).

Er wordt wel wat geregeld voor gebruikers van AI-systemen, zoals gemeenten of banken die kunstmatige intelligentie afnemen van een ontwikkelaar. Zij mogen wel weten hoe het systeem tot uitkomsten is gekomen, maar kunnen alsnog niet afdwingen dat ze ook kunnen controleren of een beslissing juist en rechtmatig is genomen.

Hiermee gaat de Europese Commissie op een ontzettend laag beschermingsniveau zitten, die geen recht doet aan ons mensenrechtelijk kader. Dit terwijl de Commissie juist de uitgesproken wens heeft met deze wet fundamentele rechten goed te beschermen en te zorgen voor een mensgerichte benadering bij het gebruik van kunstmatige intelligentie. We hebben daarom de Europese Commissie opgeroepen daad bij woord te voegen en voor een passend beschermingsniveau te zorgen.

Hoewel we vanuit een juridisch en ethisch oogpunt transparantie, motivering en controleerbaarheid onmisbaar vinden, zijn we ons er ook van bewust dat die behoefte nog niet aansluit bij de technische werkelijkheid. Vind in een algoritme maar terug welke van de honderden 'beslisbomen' doorslaggevend was voor de beslissing. Bij kunstmatige intelligentie, waarin een systeem (deels) zelfstandig aan de slag gaat met data, is het nog moeilijker grip te krijgen op wat er binnen het systeem gebeurt. 

We vinden daarom dat algoritmen en kunstmatige intelligentie niet gebruikt mogen worden als onvoldoende openheid gegeven kan worden over de totstandkoming, juistheid en rechtmatigheid van de beslissingen die daaruit komen. 

We hebben daarom de Nederlandse ministeries en de Europese Commissie opgeroepen ervoor te zorgen dat er goede wetgeving komt voor het gebruik van kunstmatige intelligentie, waarin recht wordt gedaan aan onze rechten en vrijheden. Het goede nieuws is dat zowel de ministeries als de Europese Commissie zich daar al op vastgelegd hebben. Nu moeten ze wel nog hun beloften inlossen.

Lees hier onze positie die we hebben ingediend bij de Europese Commissie

Alles bij de bron; Bits-of-Freedom