De toepassing van AI en algoritmes geven het veiligheidsbeleid een te technologisch karakter. In de Nacht van de Sociologie waarschuwt de Rotterdamse hoogleraar Digital Surveillance Marc Schuilenburg voor de risico’s hiervan voor publieke waarden.

Begin dit jaar verscheen zijn boek Making Surveillance Public: Why You Should Be More Woke About AI and Algorithms. Daarin citeert hij de Britse socioloog Anthony Giddens: surveillance is een van de vier institutionele ontwikkelingen van de moderne tijd - naast industrialisatie, kapitalistische economie en militaire macht.

In haar klassieke betekenis staat surveillance voor ‘het oog houden op’ en is volgens Schuilenburg geleidelijk veranderd in ‘zichtbaar en voorspelbaar maken’. Dat wil zeggen dat nu met AI en algoritmes grote hoeveelheden data worden verzameld, die vervolgens worden geanalyseerd en geïnterpreteerd binnen het kader van veiligheidsbeleid.

Een ander verschil met de klassieke surveillance is dat de dataverzameling, voor het grote publiek, zelf steeds onzichtbaarder wordt.

‘Doordat data steeds meer deel uitmaken van vernetwerkte datastromen, is surveillance vloeibaar en continu geworden. De digitalisering via AI en algoritmes komt daar nog eens overheen.’ en de inzet van AI en algoritmes bij (big data) policing, ofwel het veilig maken van de samenleving, heeft geleid tot een intensivering van omvang en diepgang van surveillance. ‘Surveillance graaft dieper dan ooit in het privéleven van burgers. Ze worden van alle kanten en door iedereen bekeken.’

Dat bekijken gebeurt overigens niet alleen door politie en gemeenten; maar ook naast (private techbedrijven), boven (EuroJust, Europol) en onder de politie, door burgers zélf. 

Een van de partijen die steeds vaker en indringender de Nederlandse veiligheidszorg faciliteren, is Amazon. Ruim 1,2 miljoen Nederlandse huishoudens hebben er een digitale deurbel van: de Amazon Ring Bel. Gebruik van een digitale deurbel is allesbehalve onschuldig, zegt Schuilenburg. Integendeel, ‘het zet de verhoudingen en de grenzen tussen privé en publieke belangen op scherp’.

Zowel Amazon als de politie kan door de Amazon Ring Bel meekijken wat er gebeurt rond een woning. Is dat wenselijk? Om die vraag te beantwoorden, moeten we, stelt Schuilenburg, ‘publiek maken wat tot dan onzichtbaar is gebleven’.

Publiek maken is synoniem voor het zichtbaar maken van wat wij niet (meer) als surveillance zien of ervaren. ‘We moeten dieper nadenken over zelfsurveillance van burgers met luxeproducten als de Apple Watch en Fitbit, waarbij dataverzameling en analyse automatisch plaatsvinden.

Ook moeten we meer aandacht hebben voor algoritmes die werken op basis van machine learning (computers leren zelf hoe ze moeten leren zonder expliciet geprogrammeerd te worden, red.) en zelf een weg zoeken door de datastromen heen waarbij zij niet alleen zich onttrekken aan het zicht van buitenstaanders, maar ook door de gebruikers zelf niet meer worden begrepen of kunnen worden uitgelegd.’

Niet goed doordachte AI-toepassingen kunnen nare gevolgen hebben. ‘De bias en zelfversterkende effecten van een toegepaste technologie kunnen bijvoorbeeld leiden tot onnodig verscherpt politietoezicht op bepaalde buurten of groepen.’

Hoe kunnen de publieke waarden beschermd worden? Volgens Schuilenburg is het cruciaal dat we ‘meer stemmen betrekken bij AI-kwesties die burgers aangaan. Ook dat is publiek maken.’ Aansluitend daarop zou er meer aandacht moeten komen voor het feit dat techniek als een mal werkt. ‘Een model waarbinnen de kennis van bepaalde groepen, de coding elite in het bijzonder, de overhand heeft en die van andere groepen wordt vergeten of als niet waardevol wordt gezien.’

Onder de coding elite verstaat Schuilenburg ‘de groep van dataprofessionals die al in het ontwerp- en ontwikkelproces van AI en algoritmes belangrijke keuzes maakt. De expertise van deze elite bemoeilijkt strikte controle.’

Dit alles kan ertoe leiden dat deze elite handelt ‘zonder oog te hebben voor de eigen geprivilegieerde positie en zonder rekening te houden met eventueel ongewenste neveneffecten, waaronder discriminatie, privacyschending of andere risico’s die samenhangen met AI en algoritmes.’

Er is kortom sterke behoefte aan democratische oefening bij de ontwikkeling en toepassing van AI, aldus kan een stem worden gegeven aan de silenced voices van zwakke, kwetsbare of gemarginaliseerde groepen als jongeren en minderheden.’

Volgens Schuilenburg is het hoog tijd om afstand te nemen van het dominante denken over AI en algoritmes, waarbij ‘de veronderstelde technisch-economische voordelen prevaleren en sociologische aspecten als macht, kennis en ervaringen onderbelicht blijven.’

Hoe snel zeer grote hoeveelheden data kunnen worden verzameld en na analyse en interpretatie worden toegepast, blijven belangrijke maatstaven om AI en algoritmes in te zetten. De praktijk laat evenwel zien dat niet al het mogelijke wenselijk is. ‘Wat als er veel eenvoudigere en menselijkere oplossingen gewoon onder onze neus liggen?’ Schuilenburg pleit voor ‘een sociologie die zich actief mengt in het debat over AI en algoritmes, ‘ook en misschien wel vooral met inzichten die pijn doen en niet in de smaak vallen bij de politiek en de kapitaalkrachtige techbedrijven.’

Alles bij de bron; SocialeVraagstukken