In een rechtsstaat moet de macht gecontroleerd kunnen worden en moeten burgers toegang hebben tot de rechter. Maar daarvoor is het ook nodig dat burgers weten wát er gecontroleerd moet worden en waaróm ze zich niet kunnen vinden in bijvoorbeeld een besluit van de overheid.

Beslissingen die iemands leven beïnvloeden moeten transparant, uitlegbaar en controleerbaar zijn. Mensen die erdoor geraakt worden moeten in staat gesteld worden om een beslissing inhoudelijk aan te vechten. Zonder inhoudelijke kennis over de totstandkoming van een beslissing, is het immers niet mogelijk om je te verdedigen, of argumenten aan te dragen waarom er een andere beslissing genomen had moeten worden. Het is een vanzelfsprekendheid, die ook verankerd is in ons Bestuursrecht (art. 3:46 Awb e.v.). En terecht, want zonder dat inzicht is effectieve rechtsbescherming niet mogelijk.

Maar als het om (deels) geautomatiseerde beslissingen gaat, blijkt het helemaal niet zo vanzelfsprekend te zijn dat die beslissingen uitlegbaar moeten zijn. Dan leggen mensen zich opeens neer bij het feit dat technologieën, zoals kunstmatige intelligentie nu eenmaal niet zo transparant zijn. En daarmee wordt de lat voor rechtsbescherming wel erg laag gelegd.

Wat ons betreft zijn er twee dingen mogelijk: of ontwikkelaars worden uitgedaagd om kunstmatige intelligentie toepassingen zo te ontwikkelen dat ze alsnog uitlegbaar en controleerbaar zijn, of het wordt niet gebruikt bij het maken van beslissingen die mensen raken. Wij zetten ons in voor Europese wetgeving waarin mensenrechten worden beschermd, onder andere door het recht op transparantie, uitlegbaarheid en controleerbaarheid af te dwingen. Ook willen we effectieve rechtsbescherming als mensen het niet eens zijn met een (deels) geautomatiseerde beslissing.

Alles bij de bron; Bits-of-Freedom