Optimisme drijft de auteurs, het voorwoord van Vertrouwen in de slimme samenleving van neerlands bekendste big data expert Sander Klous (UvA en KPMG) en Nart Wielaard komt van Cathy O’Neil.

Zij eindigt haar voorwoord met ‘Op een of andere manier moeten we de nieuwe algoritmes kunnen vertrouwen. Deze principes zouden daar een goed begin van kunnen zijn’. Ze doelt op de principes die dit boek beschrijft om de formules in de klauwen te houden. O’Neil klinkt eerder sceptisch dan hoopvol, maar weerhoudt Klous en Wielaard niet van hun optimisme met voorstellen om algoritmes te beheersen en te reguleren.

En dat onze samenleving slim is en nog veel slimmer zal worden, betwijfelen de auteurs kennelijk geen moment. Wel noemen ze, alvorens tot hun oplossingen te komen, een aantal risico’s met bekende, van elders overgenomen voorbeelden. We zijn, vinden de auteurs, ‘verslaafd aan algoritmes’ zonder dat we het door hebben.

Op drie wijzen kan het fout gaan:

1. HET ALGORITME WERKT VERKEERD DOOR VOEDING MET ONJUISTE DATA

2. HET ALGORITME LEERT ZICHZELF DE VERKEERDE DINGEN

3. DE GEBRUIKER PAST HET ALGORITME VERKEERD TOE

Apart van deze drie oorzaken sommen de auteurs meer problemen met big data op. Pas hier komt, zij het beperkt, privacy om de hoek kijken, met een verwijzing naar een artikel van Morozov over onzichtbaar prikkeldraad. Oftewel: niet het gezien worden door big brother is het grote privacyprobleem, maar gestuurd worden door onbekende algoritmes.

...toezicht op algoritmes kun je tweeërlei regelen:

1. CONTROLE OP DE UITLEGBAARHEID VAN ALGORITMES
We moeten dus altijd kunnen verklaren hoe het werkt, zo zegt ook Darpa in Explainable Artificial Intelligence, onderdeel in een groeiend veld van dergelijke pleidooien. Ook het Europees Parlement wil die kant op. De auteurs waarschuwen dat we niet teveel moeten eisen, en soms de uitkomsten van de machine maar beter kunnen vertrouwen, hoe donker ook hun wezen. Voorbeeld: een medisch voorspelsysteem voor leverkanker dat ineens ook nauwkeurig het risico op schizofrenie bleek te kunnen voorspellen. Daar heb je wat aan, en uiteindelijk controleert toch een dokter of de suggesties vanuit de data juist zijn.

Een eerste controle van algoritmes en hun werking is mogelijk met een systeem zoals de accountancy voor organisaties werkt. De principes, maar ook gebreken daarvan, doen opgeld voor het controleren van en rapporteren over systemen die big data analyses doen en van zichzelf leren.

2. OPLOSSING VAN NIEUWE ETHISCHE VRAAGSTUKKEN MET ALGORITMES

Dit stuk is ‘vele malen uitdagender’, want betreft de gedeelde verantwoordelijkheid tussen mens en machine voor de uitkomsten van big data toepassingen op basis van algoritmes. Een simpel voorbeeld is de kwestie van handhaving van solidariteit in verzekeringen, als we straks van ieder individu de – medische - risico’s verfijnd in beeld krijgen

We moeten algoritmes inhoudelijk beoordelen alvorens ze in praktijk worden gebracht. Dat kan, vinden de auteurs, het best decentraal. Zelfs via crowdsourcing, waarbij slimme geesten in het volk zich aandienen als controleurs. Bijvoorbeeld in een systeem van ‘peer reviews’, net als in de wetenschap.

Leuk boek om de formele discussie te openen, want de auteurs proberen een overtuigende theorie neer te zetten aan de hand van praktijkgevallen. Maar meeslepend kan ik ‘Vertrouwen in de slimme samenleving’ het niet noemen. Da’s wel jammer, maar ook logisch na de inspirerende voorganger ‘Wij zijn big data’ die een nieuw onderwerp bij de horens vatte. De opvolger is in verschillende opzichten een consolidatie en dit levert geen hoogst inspirerende uitkomst op, maar wel een noodzakelijk boek.

Alles bij de bron; NetKwesties