Verslaggevers vonden de vermoedelijke RAF-terrorist Daniela Klette met behulp van ’PimEyes’.
Afgelopen maandag werd Klette (65) in Berlijn gearresteerd door de Duitse recherche. Ze zou meerdere zware misdrijven en terreuraanslagen op haar geweten hebben als lid van de links-extremistische terreurgroep Rote Armee Fraktion (RAF). De Duitse was de autoriteiten tot dusverre altijd te slim af, ondanks opsporingsbevelen.
Duitse journalisten van blijken haar in samenwerking met de Canadese onderzoeksjournalist Michael Colborne, al jaren op het spoor te zijn.
Colborne vergeleek via gezichtsherkenningssoftware PimEyes een recente afbeelding van Klette met een foto van zo’n dertig jaar geleden.
PimEyes is een betaalde service die het gezicht een numerieke code geeft op basis van de biometrische gelaatstrekken (zoals de bovenrand van de oogkassen, hoogte van de jukbeenderen en zijkanten van de mond). De code wordt met behulp van kunstmatige intelligentie binnen enkele seconden vergeleken met 2,1 miljard andere opgeslagen codes.
Vervolgens toont PimEyes internetpagina’s met andere foto’s van de oorspronkelijk getoonde persoon.
Zulke gezichtsherkenningssystemen zijn echter niet onomstreden. In Nederland experimenteert de politie er momenteel ook mee. Daarbij gaat het om CATCH en FaceF1nder. Het voordeel is volgens de politie, die er steeds meer gebruik van wil maken, dat verdachten, getuigen en slachtoffers teruggevonden kunnen worden, op basis van beeldmateriaal zoals beveiligingscamera’s of in beslag genomen smartphones.
Bij CATCH staan er bijvoorbeeld zo’n 1,6 miljoen verdachten en veroordeelden in de databank. Maar daarmee zijn lang niet alle Nederlanders geregistreerd.
Volgens Sander Duivestein, onderzoeker naar de impact van nieuwe technologie, kan zulke technologie forensisch onderzoek vergemakkelijken, omdat je eerder verdachten op het spoor komt. „In theorie zou je zelfs foto’s van personen met camerabeelden op locaties als bijvoorbeeld Zandvoort en Scheveningen kunnen vergelijken, zodat je kunt uitzoeken of jouw ’verdachte’ daar is. Die beelden zijn vaak gewoon openbaar te vinden en dus te vergelijken.” Daarbij gaat het om realtime-gezichtsherkenning.
Dat vraagt echter ook direct om strenge regels, benadrukt Duivestein. Ook vanuit de overheid mag zoiets niet onbeperkt ingezet worden. Anders kun je een Big Brother-achtige samenleving krijgen.”
Specifieke wetgeving rondom deze technologie ontbreekt echter nog in Nederland. De politie heeft wel een protocol ontwikkeld. Een interne politiecommissie moet goedkeuring geven voordat er van gezichtsherkenningstechnologie gebruikt wordt gemaakt.
Toezichthouder Autoriteit Persoonsgegevens uitte daar begin dit jaar al kritiek op. Voorzitter Aleid Wolfsen vindt dat er eerst wetgeving van buitenaf nodig is en dat er dan pas een intern protocol door de politie ontwikkeld moet worden.
Begin februari stemden de EU-lidstaten in met een voorstel dat AI aan strengere regels moet onderwerpen. Realtime-gezichtsherkenning wordt daarin niet verboden, maar mag enkel bij ernstige dreigingen of misdrijven gebruikt worden. Daarvoor is ook toestemming van een rechter nodig en mag er uitsluitend naar een specifiek persoon gezocht worden. Het Europees Parlement moet nog wel over het voorstel stemmen. Bij goedkeuring zal het na twee jaar in werking treden.
Alles bij de bron; Telegraaf [inloggen noodzakelijk]
Een groot Brits recreatiebedrijf heeft illegaal gezichtsherkennings- en vingerafdruktechnologie ingezet om de aanwezigheid van personeel te monitoren. Medewerkers konden door middel van hun gezicht of vingerafdruk in- en uitklokken. Op deze manier is van meer dan tweeduizend medewerkers op tientallen locaties op illegale wijze biometrische data verwerkt, aldus de Britse privacytoezichthouder ICO. Die heeft het bedrijf opgedragen om met het gebruik van de biometrische prikklok te stoppen.
Volgens de ICO kon het recreatiebedrijf niet aantonen waarom het noodzakelijk en proportioneel was om gezichtsherkenning en vingerafdrukscans als prikklok te gebruiken, terwijl er ook minder ingrijpende oplossingen zijn, zoals een identiteitskaart of sleutelhanger.
Werknemers werd niet proactief een alternatief voor de biometrische prikklok aangeboden en het werd gepresenteerd als een vereiste om betaald te worden. Vanwege de machtsverhouding tussen werkgever en werknemer is het onwaarschijnlijk dat personeel bezwaar maakte tegen het verzamelen en gebruik van hun biometrische data, aldus de ICO.
Alles bij de bron; Security
Deepfaketechnologie zet de betrouwbaarheid van authenticatieprocessen onder druk, doordat AI-gegenereerde vervalsing van gezichten en stemmen nieuwe hoogtes bereikt. Hackaanvallen met biometrische vervalsingen nemen sterk toe, meldt Gartner.
De toenemende twijfel aan de betrouwbaarheid van biometrische identificatie en authenticatie die het bedrijf constateert, betreft dus volledig vetrouwen op dergelijke oplossingen. Voor betere beveiliging is aanvullende controle en verificatie nodig.
Huidige biometrische controlesystemen baseren hun inschatting van echtheid deels op de 'levendigheid' van een persoon. AI-verbeteringen maken het echter mogelijk om dat ook goed te faken en daarmee biometrische beveiliging te bedriegen. Topman Khan stelt dat huidige standaarden en testprocessen voor zogeheten 'presentation attack detection' (PAD) niet meer voldoen. Digitale injectie-aanvallen die AI-gegenereerde deepfakes gebruiken, kunnen nu al succesvol zijn, waarschuwt hij.
Het gaat dus niet alleen om gezichtsherkenning, van live beeld. Ook stemgeluid valt met AI-middelen goed te faken. Een onderzoek van de Universiteit van Waterloo toont aan dat voice biometric authentication systemen van grote bedrijven zoals Amazon en Microsoft (Nuance) in relatief korte tijd zijn te foppen door deepfake-technologie. Systemen met een lage mate van geavanceerdheid gingen binnen slechts zes pogingen voor de bijl.
Het advies is om aanvullende risico- en herkenningssignalen mee te nemen in de identificatie van mensen, om daarmee de kans op detectie van deepfake-gebaseerde biometrie-aanvallen te vergroten.
Dergelijke extra signalen kunnen bijvoorbeeld identificatie van het gebruikte apparaat zijn, waarvandaan een persoon dan inlogt. Een andere herkenning valt te doen op basis van gedragsanalyse (behavioral analytics), wat uiteen kan lopen van netwerkverkeer en sitebezoek tot bijvoorbeeld muisbewegingen.
Voor analyse daarvan valt overigens ook AI in te zetten, waar diverse leveranciers al mee te koop lopen.
Alles bij de bron; AGConnect
De politie gaat meer gezichtsherkenningstechnologie gebruiken. Met nieuwe software kan de politie verdachten, getuigen of slachtoffers terugvinden in grote hoeveelheden beeldmateriaal, bijvoorbeeld van beveiligingscamera's of in beslag genomen smartphones.
Er klinkt ook kritiek: "Het risico is dat de politie gezichtsherkenning gaat inzetten op een manier die we niet willen."
Met het nieuwe systeem FaceF1nder kan de politie gezichten zoeken in omvangrijke collecties foto's of video's. Tot nu toe is FaceF1nder in één onderzoek gebruikt, maar de politie wil de software op structurele basis kunnen inzetten.
De politie kan FaceF1nder gebruiken om na een misdaad te zoeken in tientallen beveiligingscamera's over een periode van enkele weken. Of in alle foto's en video's op een in beslag genomen smartphone. De politie kan zoeken waar het gezicht van verdachten terugkomt, maar ook van andere betrokkenen in een zaak, zoals getuigen of slachtoffers.
Voordat de politie gezichtsherkenning op een nieuwe manier mag inzetten, bepaalt een interne commissie of dat mag. De commissie weegt af of de inzet juridisch (mag het?), technologisch (kan het?) en ethisch (willen we het?) toelaatbaar is.
Die interne controle leidt tot kritiek van onder meer Amnesty. "Het is niet aan de politie om zelf te bepalen wanneer ze gezichtsherkenning inzetten", vindt Vera Prins, die het onderwerp voor de mensenrechtenorganisatie volgt. De beslissingen over welke plannen worden goed- en afgekeurd en waarom, zijn bovendien niet openbaar. "Dat vinden we zorgelijk", zegt Prins.
Hoogleraar digitale surveillance Marc Schuilenburg sluit zich daarbij aan. "We weten niet waar de politie intern allemaal toestemming voor geeft. Zetten ze gezichtsherkenning alleen in bij zware misdrijven, of ook bij verkeersovertredingen?"
Tot dit jaar gebruikte de politie maar één systeem met gezichtsherkenning: CATCH. Daarmee kan de politie de identiteit van verdachten achterhalen.
Dat systeem bestaat al jarenlang uit twee gezichtendatabases. Een database bevat verdachten en veroordeelden, de ander vreemdelingen (mensen van buiten de Europese Unie, zoals asielzoekers, gastarbeiders of buitenlandse studenten). Daar komt een derde database bij.
Daarin bewaart de politie beelden van verdachten die op beeld zijn vastgelegd, maar waarbij het niet lukte om dat beeld te koppelen aan een naam. De politie kan al die verzamelde opsporingsbeelden vergelijken met nieuwe mugshots: portretfoto's van verdachten die op het politiebureau worden genomen. Zo kan na een aanhouding blijken dat een verdachte al eerder is gefilmd en mogelijk nog meer op zijn kerfstok heeft.
De CATCH-uitbreiding en FaceF1nder zijn twee nieuwe manieren waarop de politie gezichtsherkenning wil inzetten. CATCH is bedoeld om te bepalen wie iemand is, FaceF1nder om te zien waar iemand op beeld te zien is.
Naast de komst van FaceF1nder en de uitbreiding van CATCH wil de politie ook op andere manieren meer doen met gezichtsherkenning. Het afgelopen jaar werden zeker zes aanvragen ingediend bij de interne commissie die daarover gaat.
De toetsingscommissie heeft FaceF1nder nog niet in algemene zin goedgekeurd. Ook de aanvraag voor de CATCH-uitbreiding loopt nog. Zeker drie andere plannen voor de inzet van gezichtsherkenning werden afgewezen of ingetrokken.
De Autoriteit Persoonsgegevens (AP) vindt dat de politie de technologie 'alleen in zeer uitzonderlijke gevallen' mag inzetten. Ook wil de toezichthouder niet dat de politie de technologie gebruikt om mensen in de openbare ruimte te identificeren. De politie past gezichtsherkenning op dit moment niet toe in de openbare ruimte, zegt een woordvoerder. Maar de technologie is in principe voor geen enkele politietaak uitgesloten, vervolgt ze. De AP was tot nu toe niet op de hoogte van de uitbreidingen, laat de toezichthouder weten.
"We willen allemaal dat de politie criminelen opspoort en dat we in een veilig Nederland leven", zegt onderzoeker Yong Yong Hu van de Radboud Universiteit. "Maar dat betekent niet dat de politie álles moet kunnen inzetten. "Het risico is dat de grens steeds verder wordt opgerekt."
"Het dreigt een glijdende schaal te worden", zegt haar collega Maartje Kouwenberg. De twee Radboud-onderzoekers pleitten daarom begin dit jaar al voor onafhankelijk toezicht. Prins van Amnesty en hoogleraar Schuilenburg sluiten zich daarbij aan.
Alles bij de bron; RTL
Digitale burgerrechtenbeweging Bits of Freedom, Europese burgerrechtenbeweging EDRi en Amnesty International vrezen dat de Europese AI-wet de deur openzet voor nog meer massasurveillance door de overheid en 'dystopische digitale surveillance' in de Europese Unie. Dat laten de organisaties weten in een reactie op het vorige week gesloten voorlopige akkoord.
De Artificial Intelligence Act stelt regels aan het gebruik van kunstmatige intelligentie. Eén van de onderdelen betreft het gebruik van live gezichtsherkenning door justitie.
Het Europees Parlement had zich in eerste instantie nog uitgesproken voor een volledig verbod op biometrische identificatie, zonder enige uitzonderingen. De EU-lidstaten wilden echter dat justitie de technologie wel kan inzetten.
Het eindresultaat is dat justitie real-time gezichtsherkenning toch mag inzetten op basis van verschillende uitzonderingen.
"Het is teleurstellend dat er geen algeheel verbod op biometrische identificatie is aangenomen. We vrezen dat dit de deur open zet voor nog meer discriminatie en massasurveillance door de overheid", zegt Nadia Benaissa, beleidsadviseur van Bits of Freedom.
"We hebben de Europese organen en Nederlandse bewindspersonen opgeroepen niet te zwichten voor de Big Tech lobby. Ook deze week hebben we nog opgeroepen onze rechten niet in te ruilen voor een ‘deal’. Belangrijk, zeker ook binnen de Nederlandse context. Van discriminerende fraudeopsporingsalgoritmen door gemeenten en DUO tot het racistisch inzetten van AI voor visumaanvragen. Nederland kent vele slechte voorbeelden, met als dieptepunt: de toeslagenaffaire. Deze AI-verordening is dus hard nodig", merkt Bits of Freedom op.
Ella Jakubowska, beleidsadviseur van eDRI, stelt dat het lastig is om blij te zijn met een wet die voor het eerst stappen heeft gezet om live gezichtsherkenning in de hele EU te legaliseren en spreekt van een schim van de wet die Europa echt nodig heeft.
Alles bij de bron; Security
PSA Breakbulk, in de Antwerpse haven, is de eerste terminal in België die gebruik maakt van biometrische gezichtscontrole voor externen.
Wie het Project Cargo Ecoystem op de terminal wil betreden, moet dus eerst een gezichtsscan uitvoeren. Deze maatregel kadert in de steeds strenger wordende ISPS-regelgeving 1 en moet voor een verhoogde veiligheid op de terminal zorgen.
Externen moeten ze zich vooraf aanmelden door hun ID te scannen en een selfie te nemen. Matchen die twee, dan wordt de vooraanmelding goedgekeurd en een QR code gegenereerd. Bij de terminal scant de bezoeker de QR-code en wordt een gezichtsscan gemaakt. Pas als alles overeenkomt, wordt toegang verleend.
Alles bij de bron; EngineersOnLine
Frankfurt Airport rolt de komende maanden een systeem uit voor gezichtsherkenning van alle passagiers.
Het systeem heet Smart Path en is de afgelopen jaren in het gebruik bij Star Alliance succesvol gebleken. Frankfurt wil het daarom ook beschikbaar maken voor passagiers die met andere maatschappijen vliegen.
In de praktijk werkt het als bij een mobiele telefoon: de unieke trekken van elk gezicht worden bij een registratie, in de app of op de luchthaven bij een ‘kiosk’, eerst vastgelegd. De passagier zal dan bij aankomst of vertrek voor non-Schengenvluchten voortaan door de camera van Smart Path worden herkend en hoeft geen paspoort meer te laten zien. De oude manier met handmatige checks blijft ook bestaan, voor passagiers die daar de voorkeur aan geven.
Ter vergelijking: Schiphol heeft ook een systeem van gezichtsherkenning bij de zelfservicecontrole van biometrische paspoorten, maar hierbij moeten de passagiers nog steeds hun pas ‘laten zien’ aan het apparaat.
Alles bij de bron; Luchtvaartnieuws
De doorontwikkeling van immersieve technologieën, zoals virtual en augmented reality, vergroot het risico op beïnvloeding en manipulatie van burgers.
Huidige wetten en beleidsvoering kunnen de maatschappelijke dreiging van grootschalige dataverzameling door Big Tech niet inperken.
Dit concludeert het Rathenau Instituut, dat oproept tot debat.
Immersieve technologie vervaagt de grens tussen de fysieke en virtuele wereld en verzamelt veel gegevens over gebruikers, waaronder pupilreflexen, irisscans, neurodata en stemgegevens. Deze grootschalige verzameling van lichaams- en gedragsgegevens brengt risico's met zich mee voor privacy, democratie en veiligheid, waarschuwt de Haagse denktank.
Het Rathenau Instituut concludeert dat de huidige wetgeving en beleid ontoereikend zijn voor de verantwoorde doorontwikkeling van immersieve technologie. De organisatie roept op tot een maatschappelijk debat over welke persoonlijke data wel of niet mogen worden verzameld, onder welke voorwaarden en voor welke specifieke toepassingen. Het debat moet rekening houden met de bescherming van burgers, de verantwoordelijkheid van ontwikkelaars en de rol van toezichthouders.
De denktank ziet vooral in de gezondheidszorg, training en onderwijs, entertainment, infrastructuur, industrie, kantoor en kunst veel nieuwe toepassingen van immersieve technologie. Naast ar en vr wordt ook de metaverse tot een immersieve technologie gerekend.
Alles bij de bron; Computable
PimEyes gaat een detectiesysteem inzetten om zoekopdrachten naar kindergezichten te herkennen en blokkeren. Het bedrijf doet dat na een artikel van The New York Times over hoe zulke diensten kinderen in gevaar kunnen brengen.
Ceo Giorgi Gobronidze vertelt aan het dagblad dat de dienst 'technische maatregelen' heeft genomen om dergelijke opdrachten te blokkeren als onderdeel van een 'no harm'-beleid. PimEyes laat mensenrechtenorganisaties nog wel naar de gezichten van minderjarigen zoeken als die zich bezighouden met kinderrechten, zegt de topman.
De dienst gebruikt 'kunstmatige intelligentie' om de kinderzoekopdrachten te blokkeren. Een algoritme schat de leeftijd van de persoon in de zoekopdracht om zo minderjarigen te identificeren. Volgens de PimEyes-ceo werkt dat goed voor kinderen die jonger dan veertien jaar zijn, maar heeft het nog 'nauwkeurigheidsproblemen' met tieners.
Het systeem zou ook identificatieproblemen hebben als het kind niet vanuit een bepaalde hoek is gefotografeerd. De dienst zegt het detectiesysteem momenteel nog te perfectioneren.
Alles bij de bron; Tweakers
Biometrische systemen maken gebruik van unieke fysieke kenmerken, zoals vingerafdrukken, de vorm van het gezicht of aderpatronen om toegang te verlenen tot een ruimte, apparaat of toepassing. Het omzeilen of hacken van deze systemen is complex en soms zelfs (nog) niet mogelijk. Dit vereist in ieder geval zeer geavanceerde technieken.
Een aanvaller kan proberen biometrische gegevens te vervalsen, bijvoorbeeld door een nepvingerafdruk te maken of een gezichtsafbeelding te gebruiken. De kans op een dergelijke vorm van manipulatie vermindert door ‘liveness detection’. Liveness detection is mogelijk met behulp van bewegingsdetectie of warmtebeeldtechnologie. Het neemt het risico van hacking niet geheel weg maar de kans wordt kleiner.
Als biometrische gegevens worden gestolen, kunnen ze worden gebruikt om toegang te krijgen tot het systeem. Dit kan worden voorkomen door biometrische gegevens op een veilige manier op te slaan en te versleutelen. Daarnaast is het verstandig om de biometrische gegevens op een ander apparaat op te slaan dan waar de overige gegevens staan, zoals de centrale server van een bedrijf. Op deze manier wordt het heel lastig om bij de gegevens te komen en bovendien wordt de koppeling van de biometrie aan een persoon veel moeilijker.
Sommige aanvallers proberen de sensoren zelf te manipuleren. Bijvoorbeeld door de camera van een gezichtsherkenningssysteem te bedekken. Tegenwoordig vinden er zelfs al aanvallen plaats op de chip in de camera’s. In dit soort gevallen zal fysieke beveiliging van de sensoren een oplossing zijn.
Het is dus belangrijk om te kiezen voor een biometrische techniek die moeilijk of niet te kopiëren is. De database kan het beste op een fysiek gescheiden en veilige plek worden bewaard. De data dient zorgvuldig beheerd te worden en dus versleuteld te worden opgeslagen.
Alles bij de bron; Beveiliging