Zoals de dood van George Floyd leidde tot wereldwijde protesten, zo deed de vooringenomen beeldverwerkingstechnologie PULSE dat in de wetenschappelijke wereld. Er werd opgeroepen tot een verbod, maar neuro-informaticus Sennay Ghebreab vraagt zich af of een digitale beeldenstorm het probleem oplost...

...Gezichtsherkenningstechnologie maakt gebruik van algoritmen die onderscheidende biometrische gezichtskenmerken, zoals de afstand tussen de ogen of de lengte en vorm van de lippen, leren herkennen op basis van voorbeeldplaatjes of video’s van gezichten. Algoritmen extraheren duizenden verschillende gezichtskenmerken uit miljoenen gezichtsvoorbeelden om heel nauwkeurig een gezicht te onderscheiden van andere gezichten.

De ontwikkeling van gezichtsherkenningstechnologie nam een hoge vlucht na de aanslagen van 11 september 2001 in New York. Kort daarna installeerde de stad duizenden camera’s in de publieke ruimte om potentiële terroristen op te sporen. Al snel konden data-analisten de immense hoeveelheid beelddata die deze steden genereerden niet meer verwerken. Dus werden de camera’s enkele jaren later gekoppeld aan videobewakingstechnologie die automatisch gezichten herkent en personen volgt. Zo ontwikkelde de stad New York in samenwerking met Microsoft het ‘Domain Awareness System’, dat negenduizend camera’s in verschillende wijken van de stad aan elkaar koppelt om verdachte personen te kunnen volgen of opsporen. In heel Amerika houden inmiddels tientallen miljoenen slimme camera’s toezicht op burgers.

Maar in mei 2019 verbood San Francisco als eerste het gebruik van automatische gezichtsherkenning in het publieke domein. De naburige stad Oakland volgde al snel, net als Somerville en Brookline in Massachusetts...

...Aan de groeiende maatregelen tegen gezichtsherkenning liggen twee verschillende zorgen ten grondslag. Allereerst de zorg dat deze technologie niet goed en niet eerlijk werkt, maar daarnaast ook de angst dat deze technologie juist té goed en té eerlijk zou werken. De eerste zorg komt voort uit het groeiende aantal gevallen van foute identificatie van mensen op basis van gezichtsherkenningstechnologie. 

De tweede zorg is dat gezichtsherkenningstechnologie te goed en te eerlijk werkt. Dit bleek vooral nadat het Amerikaanse bedrijf Clearview A.I. zijn gezichtsherkenningsalgoritme trainde op miljarden gezichtsfoto’s die van sociale-mediaplatforms als Facebook en Instagram waren geplukt. Het bedrijf claimde dat zijn technologie iedereen kon herkennen, ongeacht afkomst. Iedereen was opeens even herkenbaar: man, vrouw, zwart wit, arm, rijk. Met ClearView AI werd iedereen opeens hypervisible. Ook mensen die altijd buiten beeld hadden weten te blijven omdat zij rijk en machtig waren of simpelweg tot de geprivilegieerde groep behoren die nooit of nauwelijks verdacht wordt. Voor die mensen is de technologie van ClearView AI ‘overeerlijk’.

Oneerlijke en ‘overeerlijke’ gezichtsherkenningstechnologieën zijn in de afgelopen twintig jaar mainstream technologieën geworden die het publieke bewustzijn hebben bereikt. Met als gevolg publieke verontwaardiging en de roep om een verbod. Maar is verwijdering van datasets of een verbod op gezichtsherkenningstechnologie geen schijnoplossing? Of zelfs een collectieve afleiding, zodat andere AI-technologieën in de luwte verder ontwikkeld kunnen worden? Terwijl ook die mogelijk gebaseerd zijn op datasets die niet representatief zijn. Denk aan de algoritmen voor werving en selectie die vrouwen benadelen, zoals Amazons recruitment-algoritme.

Alles bij de bron; VrijNederland [lang artikel 9-11 min. leestijd]


 


Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha