Software & Algoritmes

Stellen dat de coronacrisis versnelde digitale transities in bedrijven en organisaties veroorzaakte, is een open deur intrappen. Telewerken is de norm en dankzij digitalisering kunnen we in lockdowntijden videobellen en e-peritieven. Tegelijkertijd zijn er pertinente vragen over privacy. ...

...De strijd tegen het coronavirus gebeurt op verschillende fronten. Daarvoor is de inzet van artificiële intelligentie (AI) essentieel. Algoritmen scannen longfoto’s om te zien of ze besmet zijn met Covid-19. Onderzoekers aan het Massachusetts Institute of Technology (MIT) ontwikkelden een hoestdetector voor Covid-19. Algoritmen leerden verschillende types hoest herkennen. De hoestdetector zal beschikbaar worden als app. De voordelen van een snelle screening zijn duidelijk, zolang de gebruiker ook inzage krijgt in wat er gebeurt met de gegevens, die gevoelige medische informatie kunnen bevatten.

In rioolwater wordt via ‘afvalwatersurveillance’ onderzocht hoe de ziekte zich verspreidt. Als we in de toekomst ‘slimme toiletten’ in huis halen, kan sneller gespeurd worden naar ziektes in de ontlasting. Om data te kunnen herleiden tot individuen, identificeert het slimme toilet personen via vingerafdrukken bij het doorspoelen. De ontwikkeling staat nog in de kinderschoenen. De slimme wc krijgt pas meerwaarde als die wetenschappelijk gevalideerd is. Bovendien lijkt een slim toilet aanlokkelijk in tijden van een mondiale pandemie, maar het kan ook tot onnodig veel extra zorgen en testen leiden, die op hun beurt hoge kosten met zich meebrengen. En ook hier speelt de privacyvraag: wat gebeurt er met die data? Die vragen lijken nu een ver-van-ons-bedshow, maar het is niet onrealistisch dat het slimme toilet ooit een onderdeel wordt van een standaard badkameruitrusting.

AI-toepassingen zullen in toenemende mate deel uitmaken van onze leefomgeving en zullen letterlijk onder de huid kruipen. Die evoluties gaan gepaard met veel uitdagingen: niet alleen technische, maar ook ethische, sociale, politieke en juridische. De discussies over de corona-app tonen dat we in staat zijn interdisciplinaire uitdagingen aan te gaan. 

Nochtans dienen zich grote maatschappelijke vraagstukken aan op het vlak van innovatie. AI-systemen zetten de privacy verder onder druk. Een dataset kan geanonimiseerd zijn, maar als je meerdere datasets aan elkaar koppelt, kan die anonimiteit misschien verdwijnen. Hoog tijd om samen na te denken over de impact van deze innovaties, onder andere op onze privacy. Laat het debat rond de corona-app daar het startschot van zijn.

Alles bij de bron; deTijd


 

Oracle waarschuwt voor een nieuwe en zeer ernstige kwetsbaarheid in WebLogic Server waardoor aanvallers systemen op afstand kunnen overnemen zonder dat er authenticatie is vereist. Op verschillende websites is er inmiddels exploitcode verschenen om misbruik van het lek te maken.

De kwetsbaarheid is op een schaal van 1 tot en met 10 wat betreft de ernst met een 9,8 beoordeeld. 

Gisterenavond kwam Oracle buiten de vaste patchcyclus om met een beveiligingsupdate en bedankt verschillende onderzoekers voor het melden van de kwetsbaarheid. Organisaties worden vanwege de ernst van de kwetsbaarheid dan ook opgeroepen om de update zo snel als mogelijk te installeren.

Alles bij de bron; Security


We kennen al de DeepFakes, foto’s en video’s waarin het gezicht van persoon A op het gezicht van persoon B geplakt is. De sneue variant daarop is DeepNude: software die afbeeldingen van vrouwen ‘uitkleedt’ en voorziet van blote lichaamsdelen. Het is nepnaakt natuurlijk, maar de schade die ze veroorzaken, is wel echt.

Sensity, een bedrijf dat de verspreiding van gemanipuleerde beelden onderzoekt, maakte vorige week bekend dat een bot in chatapp Telegram (400 miljoen gebruikers) honderdduizenden afbeeldingen van vrouwen digitaal ontkleedde. Telegram-gebruikers sturen een foto op naar de bot en krijgen even later de blootversie terug.

Zoals de algoritmes van DeepFakes worden getraind met foto’s en video’s van gezichten, is DeepNude gevoerd met pornofilms. Giorgio Patrini, oprichter van Sensity, legt aan de telefoon uit hoe het werkt: „De software vult ontbrekende blote delen van het lichaam in en houdt rekening met huidskleur en lichtinval. Op hoge resolutie zie je nog wel verschil, maar dat duurt vast niet lang meer.”

De app met het niveau van Porky’s Pikante Pretpark kan wel reputaties vernietigen en levens kapotmaken. Patrini vertelt over een influencer die door nepnaakt een sponsordeal kwijtraakte. Niet alleen bekende personen zijn de dupe: uit het onderzoek blijkt dat de DeepNude-klanten vooral foto’s van meisjes in hun directe omgeving uploaden.

Sensity probeerde Telegram zover te krijgen de bot te stoppen. Toen dat niet lukte, hebben ze besloten het rapport publiek te maken. Inmiddels heeft een Italiaanse privacyinstantie een officiële klacht ingediend.

Alles bij de bron; NRC


 

 

Vier voormalige Uber-chauffeurs zijn maandagochtend naar de rechtbank in Amsterdam gestapt. Zij zeggen dat Uber werknemers via geautomatiseerde systemen ontslaat, meldt hun advocaat.

Volgens de 4 zijn ze bij Uber weggestuurd nadat ze door het Uber-algoritme werden beschuldigd van "frauduleuze activiteiten". De chauffeurs zeggen geen fraude te hebben gepleegd. Uber zou de chauffeurs nooit uitleg hebben gegeven voor het ontslag. Ook konden ze geen bezwaar maken.

Volgens de Europese privacywet mogen algoritmes niet bepalen of een werknemer wel of niet moet worden ontslagen. Die beslissing moet door een mens worden genomen.

Het gebruik van algoritmes bij Uber lag al eerder onder vuur. In juli spanden twee Britse Uber-chauffeurs eveneens een rechtszaak aan tegen het taxibedrijf. Zij wilden weten welke informatie over hen werd verzameld en hoe gegevens werden gebruikt om besluiten over hen te nemen.

Alles bij de bron; NU


 

Uit een nieuw onderzoek van Amnesty International blijkt dat de Nederlandse politie al meer dan anderhalf jaar Roermond onder massasurveillance heeft. Iedere autobeweging wordt minutieus vastgelegd, geanalyseerd en bewaard. Dat de meeste bestuurders van de auto’s niets met criminaliteit te maken hebben, lijkt de politie niet uit te maken. Door het verzamelen van al die gegevens worden op grote schaal de privacyrechten geschonden van inwoners van Roermond en bezoekers aan de stad.

..Bij het project in Roermond speelt discriminatie ook een rol door het gebruik van nationaliteiten in risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. Dat is verboden. Maar niemand bij de politie, het Openbaar Ministerie of de gemeente Roermond greep in. Ook de toezichthouder (de Autoriteit Persoonsgegevens) deed niets want deze putte uit één informatiebron met betrekking tot dit experiment: de politie zelf – en die bleef stil.

Het feit dat de politie onder het mom van ‘een experiment’ onze privacy op grote schaal heeft kunnen schenden, zegt veel over de politie en andere overheidsorganen die betrokken zijn bij het project, maar zegt nog meer over het gebrek aan heldere regels voor het gebruik van algoritmes. Dat overheden algoritmes kunnen misbruiken wanneer ze niet zijn gebonden aan heldere regels, weten we...

Op dit moment weet niemand welke instanties algoritmes gebruiken en op welke manier, en of er sprake is van discriminatie of geautomatiseerd etnisch profileren. En dat is zorgwekkend. Daarom is het hoog tijd dat de Tweede Kamer in actie komt. Want iedereen is gebaat bij de bescherming van onze privacy.

Om massasurveillance en discriminatie met algoritmes te stoppen, moet het hele proces transparanter worden. Er moet een bindende mensenrechtentoets komen die instanties verplicht zijn uit te voeren voorafgaand en tijdens het gebruik van algoritmes. Voor geslaagd toezicht op het gebruik van algoritmes is het belangrijk dat een toezichthouder bij de data, de gebruikte risicoprofielen en algoritmes kan om er verder onderzoek naar te doen. 

Alles bij de bron; NRC


 

Je krijgt ongevraagd een onbetamelijke foto toegestuurd, waarna Microsoft je levenslang verbant van al haar diensten. Dat overkwam ondernemer Pouwel Slurink uit Lelystad, die een kort geding aanspande tegen het Amerikaanse techbedrijf.

Het wemelt op internet van de verhalen van mensen die toegang verliezen tot hun Microsoft-account. Ze kunnen Windows niet meer gebruiken op hun computer, ze verliezen toegang tot hun bestanden in clouddienst One Drive, ze kunnen niet emailen met Outlook, niet Skypen, Xboxen, vergaderen in Teams, of gebruik maken van Office. De Consumentenbond wijdde er een speciale pagina aan en vond honderden gelijksoortige verhalen op internet.

Het overkwam ook Pouwel Slurink die een kort geding aanspande tegen het Amerikaanse techbedrijf. Hij wil zijn bestanden terug en zijn Microsoft-account weer kunnen gebruiken. Vrijdag wees de rechter zijn eisen af...

...Pas nadat hij een kort geding had aangespannen onthulde Microsoft waarom hij zijn account kwijt was geraakt: het bedrijf had, met hulp van daarvoor bestemde software, een foto op zijn One Drive-account aangemerkt als kinderporno...

...Volgens Microsoft controleert de software die het gebruikt om kinderporno op te sporen, PhotoDNA, alleen foto’s die mensen delen. Delen kan zijn: de foto doorsturen via One Drive, of een map in One Drive waarin de foto staat, open hebben staan voor derden. Is daarmee bewezen dat Slurink de foto heeft gedeeld, of kan de software toch op een andere manier zijn aangeslagen op de foto?

De advocaat van Microsoft leek tijdens de zitting in Lelystad te erkennen dat er geen direct bewijs is voor delen: „We weten alleen dat PhotoDNA werkt als iets gedeeld wordt, maar het is niet na te gaan hoe er wordt gedeeld.” De rechter gaat er van uit dat de software op de juiste manier heeft gewerkt en zegt dat het aan Slurink is om aannemelijk te maken dat hij de foto niet heeft gedeeld. „Dat is de omgekeerde wereld”, zegt Slurink. „Microsoft beschuldigt mij zonder bewijs te leveren en nu moet ík aantonen dat ik het niet heb gedaan.”

Slurink overweegt een bodemprocedure. „Ik laat het hier niet bij. Het klopt niet dat mensen zomaar bestraft kunnen worden voor het ontvangen van een foto. Ik doe dit niet alleen voor mezelf, maar ook voor iedereen die hier in de toekomst mee te maken kan krijgen.”

Alles bij de bron; NRC


 

Zoals de dood van George Floyd leidde tot wereldwijde protesten, zo deed de vooringenomen beeldverwerkingstechnologie PULSE dat in de wetenschappelijke wereld. Er werd opgeroepen tot een verbod, maar neuro-informaticus Sennay Ghebreab vraagt zich af of een digitale beeldenstorm het probleem oplost...

...Gezichtsherkenningstechnologie maakt gebruik van algoritmen die onderscheidende biometrische gezichtskenmerken, zoals de afstand tussen de ogen of de lengte en vorm van de lippen, leren herkennen op basis van voorbeeldplaatjes of video’s van gezichten. Algoritmen extraheren duizenden verschillende gezichtskenmerken uit miljoenen gezichtsvoorbeelden om heel nauwkeurig een gezicht te onderscheiden van andere gezichten.

De ontwikkeling van gezichtsherkenningstechnologie nam een hoge vlucht na de aanslagen van 11 september 2001 in New York. Kort daarna installeerde de stad duizenden camera’s in de publieke ruimte om potentiële terroristen op te sporen. Al snel konden data-analisten de immense hoeveelheid beelddata die deze steden genereerden niet meer verwerken. Dus werden de camera’s enkele jaren later gekoppeld aan videobewakingstechnologie die automatisch gezichten herkent en personen volgt. Zo ontwikkelde de stad New York in samenwerking met Microsoft het ‘Domain Awareness System’, dat negenduizend camera’s in verschillende wijken van de stad aan elkaar koppelt om verdachte personen te kunnen volgen of opsporen. In heel Amerika houden inmiddels tientallen miljoenen slimme camera’s toezicht op burgers.

Maar in mei 2019 verbood San Francisco als eerste het gebruik van automatische gezichtsherkenning in het publieke domein. De naburige stad Oakland volgde al snel, net als Somerville en Brookline in Massachusetts...

...Aan de groeiende maatregelen tegen gezichtsherkenning liggen twee verschillende zorgen ten grondslag. Allereerst de zorg dat deze technologie niet goed en niet eerlijk werkt, maar daarnaast ook de angst dat deze technologie juist té goed en té eerlijk zou werken. De eerste zorg komt voort uit het groeiende aantal gevallen van foute identificatie van mensen op basis van gezichtsherkenningstechnologie. 

De tweede zorg is dat gezichtsherkenningstechnologie te goed en te eerlijk werkt. Dit bleek vooral nadat het Amerikaanse bedrijf Clearview A.I. zijn gezichtsherkenningsalgoritme trainde op miljarden gezichtsfoto’s die van sociale-mediaplatforms als Facebook en Instagram waren geplukt. Het bedrijf claimde dat zijn technologie iedereen kon herkennen, ongeacht afkomst. Iedereen was opeens even herkenbaar: man, vrouw, zwart wit, arm, rijk. Met ClearView AI werd iedereen opeens hypervisible. Ook mensen die altijd buiten beeld hadden weten te blijven omdat zij rijk en machtig waren of simpelweg tot de geprivilegieerde groep behoren die nooit of nauwelijks verdacht wordt. Voor die mensen is de technologie van ClearView AI ‘overeerlijk’.

Oneerlijke en ‘overeerlijke’ gezichtsherkenningstechnologieën zijn in de afgelopen twintig jaar mainstream technologieën geworden die het publieke bewustzijn hebben bereikt. Met als gevolg publieke verontwaardiging en de roep om een verbod. Maar is verwijdering van datasets of een verbod op gezichtsherkenningstechnologie geen schijnoplossing? Of zelfs een collectieve afleiding, zodat andere AI-technologieën in de luwte verder ontwikkeld kunnen worden? Terwijl ook die mogelijk gebaseerd zijn op datasets die niet representatief zijn. Denk aan de algoritmen voor werving en selectie die vrouwen benadelen, zoals Amazons recruitment-algoritme.

Alles bij de bron; VrijNederland [lang artikel 9-11 min. leestijd]


 

De nieuwe versie van Apples mobiele besturingssysteem, iOS 14, bevat verschillende opties om je veiligheid en privacy op het internet te verbeteren. Een overzicht van deze opties, en hoe je ervoor kunt zorgen dat ze geactiveerd zijn.

1. Weten wanneer je camera of microfoon wordt gebruikt

2. De toegang tot je foto's en locatie beperken

3. Zwakke of buitgemaakte wachtwoorden detecteren

4. Je privacy op wifinetwerken verbeteren

5. Beperken dat apps je volgen

6. De privacyrapporten van Safari raadplegen

Alles bij de bron; TestAankoop


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha