Software & Algoritmes

Volgens de Rekenkamer is het moment aangebroken dat de politiek verantwoordelijkheid moet gaan dragen voor haar eigen algoritmebeleid. 

Ook op nationaal niveau wordt er een algoritmebeleid gevoerd dat weinig rekening houdt met de burger, blijkt uit een onderzoek van de Rekenkamer naar algoritmes binnen de rijksoverheid dat vorige week dinsdag verscheen. Het onderzoeksorgaan schetst een Rijksoverheid wier ambtenaren vaak gebrekkige kennis hebben van de algoritmes die ze inzetten, waardoor ze vaak niet weten hoe ze discriminatie en privacyschendingen kunnen voorkomen.

Een van de belangrijkste doelen van de Rekenkamer was het openen van de black box van het algoritme, in de hoop de schimmigheid rond de IT-systemen van de overheid op te klaren. Vooralsnog bewaarden verschillende instanties hun systemen, en vooral de werking van hun algoritmes, achter slot en grendel. En wanneer men de digitale poorten wel opende, konden pottenkijkers rekenen op hevig verzet: zo werd de Autoriteit Persoonsgegevens stevig tegengewerkt toen het de Belastingdienst doorlichtte op onder andere discriminerende algoritmes. Pas na dreiging met een dwangsom werd er openheid van zaken gegeven.

Alles bij de bron; deGroeneAmsterdammer


 

Zeker 25 gemeenten maken gebruik van voorspellende systemen en algoritmes om bijvoorbeeld bijstandsfraude op te sporen, te voorspellen waar mogelijk ondermijnende criminaliteit plaatsvindt en om burgers met schulden op tijd te kunnen helpen. 

"Dit nieuws is reden tot zorg", zegt advocaat Anton Ekker, die succesvol tegen het SyRI-systeem procedeerde. "Het kabinet heeft plechtig beloofd dat er geen nieuwe toeslagenaffaire zal komen, maar er is geen goed beeld van wat gemeentes allemaal doen."

Specifiek bij deze 25 gemeenten worden burgers en gebieden ingedeeld op profielen, soms om ze sneller te kunnen helpen, maar ook om bijvoorbeeld de kans dat ze fraude plegen te bepalen.

Vaak bestaat onduidelijkheid over de precieze werking van algoritmes en risicoprofilering. De gemeente Nissewaard wil bijvoorbeeld niet vrijgeven hoe er wordt bepaald of iemand mogelijk een fraudeur is, om zo fraudeurs niet wijzer te maken. Dat schreef de gemeente eerder aan de raad, die vragen had gesteld over het systeem.

Dat niet precies duidelijk is hoe veel systemen werken, is een probleem, zegt Marlies van Eck van de Radboud Universiteit. Zij is gespecialiseerd in de juridische wereld achter kunstmatige intelligentie. "Als je in de echte wereld wordt gediscrimineerd, kun je dat instinctief aanvoelen. Maar als een algoritme dat doet, merk je dat misschien wel nooit."

Advocaat Ekker is er niet gerust op. "Ik vraag me af of lokale overheden genoeg kennis in huis hebben om dit op een goede manier te doen. Vaak zijn ze sterk afhankelijk van externe ICT-leveranciers."

De coalitie van organisaties achter de SyRI-zaak houdt de lokale ontwikkelingen in de gaten, benadrukt hij. "En als het opnieuw mis dreigt te gaan, sluiten we een nieuwe gang naar de rechter niet uit."

Alles bij de bron; NOS


 

De Algemene Rekenkamer deed onderzoek naar de inzet van algoritmes bij de overheid. In het onderzoek concludeert de instantie dat de overheid veel algoritmes gebruikt, maar dat die voornamelijk simpel zijn en voor simpele doelen worden ingezet. Nergens is er een zogenaamde 'black box' waarbij de werking van het algoritme onduidelijk is; de Rekenkamer kon van alle algoritmes achterhalen hoe die werken. 

De overheid gebruikt geen zelflerende algoritmes, zegt de Rekenkamer. Het gaat alleen om lerende algoritmes. In de meeste gevallen worden die gebruikt om zaken te automatiseren. Er zijn bovendien nergens algoritmes in gebruik die aan geautomatiseerde besluitvorming doen. Er komt altijd nog een ambtenaar aan te pas die de uitslag controleert en bevestigt, ook bij algoritmes die aan 'risicovoorspelling' doen. Toch liggen er daar wel risico's, waarschuwt de Rekenkamer. Bij dergelijke algoritmes is het bijvoorbeeld mogelijk dat die in strijd zijn met de wet en discrimineren. "Ook bestaat de kans dat het advies van het algoritme de uiteindelijke beslissing van de medewerker beïnvloedt", staat in het rapport.

In die laatste categorie liggen de meeste risico's. De burger 'staat daarbij niet centraal'. Het is voor hen onduidelijk waar ze terecht kunnen als ze vragen hebben over algoritmes waarin hun data voorkomt, of daar bezwaar tegen willen maken. "Wij bevelen het kabinet aan om burgers op een logische plek inzicht te geven in welke data worden gebruikt in welke algoritmes, hoe die algoritmes op hoofdlijnen functioneren en welke impact de uitkomsten daarvan hebben", schrijft de Rekenkamer. De overheid zet de algoritmes in voor zichzelf. Daarbij is wel aandacht voor privacy, maar te weinig voor ethische kwesties.

De Rekenkamer tekent bij het onderzoek wel aan dat dat beeld mogelijk niet volledig is. Het overzicht is afkomstig van beschrijvingen die het bij ministeries zelf had opgevraagd. De Rekenkamer zegt ook dat er op dit moment geen manier is voor overheden om toezicht te houden op welke algoritmes wel en niet kunnen worden ingezet. Daarom heeft de Rekenkamer zelf een toetsingskader opgesteld. Daarin staan onder andere ethische vraagstukken of vragen over privacy van burgers.

Alles bij de bron; Tweakers


 

De Nederlandse CoronaMelder werkt sinds vorige maand al samen met soortgelijke corona-apps uit Duitsland, Denemarken, Spanje, Italië, Ierland, Polen, Kroatië, Letland en Cyprus. Woensdag kwam daar België bij, melden Belgische media. Later zullen nog andere EU-landen zich aansluiten.

De apps houden met geanonimiseerde codes bij welke telefoons er enige tijd dicht bij de telefoon van de gebruiker zijn geweest. Als die het coronavirus blijkt te hebben opgelopen, kan die hun een seintje geven.

De apps van de landen werken allemaal met het corona-meldingsysteem van Apple en Google. Voor de uitwisseling van codes met de apps van andere landen is de CoronaMelder gekoppeld aan de zogeheten European Federated Gateway Server. 

Alles bij de bron; RTL


 

Algoritmen rukken steeds verder op in allerlei besluitvormingsprocessen. De verwachting dat op die manier de beslissingen eerlijker zouden zijn omdat er geen invloed is van de voorkeuren die mensen onmiskenbaar hebben, blijkt echter keer op keer niet uit te komen.

Recourse algorithms zijn bedacht om meer transparantie te krijgen in het proces waarmee algoritmen tot hun besluit komen. Tot nog toe zijn algoritmen op basis van machinelearning-technologie doorgaans een black box, getraind op een grote hoeveelheid eerdere beslissingen. In die historische data zitten de vooroordelen besloten van de mensen die ze destijds de beslissingen namen.

Recourse algorithms (pdf) bieden  de mogelijkheid om 'verhaal te halen', wanneer een besluit geen recht doet aan degene over wie de beslissing wordt genomen. Door dit proces te automatiseren kunnen in principe de ongewenste effecten uit de algoritmen worden uitgebannen. Een goede ontwikkeling, lijkt het, maar recent wetenschappelijk onderzoek (pdf) voert bewijs aan dat deze aanpak niet zorgt voor een consistente verbetering van de algoritmes.

Volgens de onderzoekers gaat het systeem mank doordat de organisaties die deze algoritmen gebruiken, steeds hun modellen moeten actualiseren en trainingsdata aanpassen, en dat zorgt ervoor dat de recourse-technologie mank gaat.

Alles bij de bron; AGConnect


 

Een algoritme dat moest zorgen voor een eerlijke verdeling van de schaarse eerste vaccins in de Verenigde Staten, maakte een fout die dit weekend tot veel ergernis leidde. Het jonge personeel stuurde een protestbrief die ProPublica publiceerde, waaruit blijkt dat de fout in het algoritme al op dinsdag was opgemerkt maar dat de uitnodigingen voor de vaccinatie evengoed op donderdag zijn verstuurd.

Het algoritme gaf prioriteit aan het vaccineren van medisch personeel dat het hoogste risico liep bij een besmetting met Covid-19. Het hield verder rekening met de leeftijd en de afdeling in het ziekenhuis waar het betreffende personeelslid werkt.

Doordat de jonge dokters en dito verpleging vaak geen vaste werklocatie hadden en hun leeftijd geen aanleiding was voor een hoge prioriteit, vielen ze buiten de vaccinatie-oproepen. Slechts zeven van de artsen in opleiding en ander jong medisch personeel - allemaal werkzaam in het front tegen de Covid-19-epidemie - kwamen volgens het algoritme in aanmerking voor vaccinatie.

Veel van de medische staf die wèl werd opgeroepen, werkte al vanaf maart thuis en had geen contact met patiënten.

Alles bij de bron; AGConnect


 

Avast heeft in totaal 28 browser-extensies ontdekt die malware bevatten voor het ontvreemden van persoonlijke data en/of voor het doorverwijzen naar phising-sites.

Invisible mode for Instagram Direct Message

Instagram App with Direct Message DM

Odnoklassniki UnBlock. Works quickly.

Direct Message for Instagram™

Universal Video Downloader

Upload photo to Instagram™

DM for Instagram

Video Downloader for FaceBook™

Spotify Music Downloader

Universal Video Downloader

Video Downloader for FaceBook™

Stories for Instagram

Downloader for Instagram

Vimeo™ Video Downloader

Upload photo to Instagram™

Instagram Download Video & Image

Vimeo™ Video Downloader

Pretty Kitty, The Cat Pet

App Phone for Instagram

Volume Controller

Video Downloader for YouTube

App Phone for Instagram

Direct Message for Instagram

SoundCloud Music Downloader

Stories for Instagram

VK UnBlock. Works fast.

The New York Times News

 

Zoomer for Instagram and FaceBook

 

 

De aangetroffen kwaadaardige browserextensies richtten zich daarbij op de Google Chrome- en de Microsoft Edge-browser. In totaal zouden zo’n 3 miljoen gebruikers zijn getroffen.

De nu aangetroffen extensies deden zich voor als in-browser tools voor het downloaden van foto’s, video’s en andere content van populaire sites als Facebook, Instagram, Vimeo en Spotify. In de op JavaScript gebaseerde extensies bevindt zich de kwaadaardige code. Of deze kwaadaardige extensies met opzet zijn gebouwd of in een later stadium zijn geïnfecteerd, is niet bekend.

Alles bij de bron; TechZine


 

Apple heeft gezegd dat het apps verwijdert uit de App Store als ze niet meewerken met de nieuwe privacy-opties. Met het zogeheten App Tracking Transparency kunnen gebruikers adverteerders weerhouden ze te volgen binnen meerdere applicaties.

Senior vice president Software Engineering bij Apple, Craig Federighi, heeft gezegd dat gebruikers het recht hebben om te weten dat hun online gedrag wordt gezien door diverse apps en websites. “Begin volgend jaar eisen we dat alle apps die de uitdrukkelijke toestemming van hun gebruikers krijgen. Ontwikkelaars die niet aan die norm voldoen, kunnen hun apps uit de App Store verwijderen”, zei hij op de Europese conferentie over gegevensbescherming en privacy.

“We moeten de wereld laten zien wat zich hier afspeelt. Het is een heftige poging om de status quo te houden die de privacy van mensen enorm binnendringt.”

Het kost echter wel wat moeite om dit ook daadwerkelijk aan je app toe te voegen. Zo moet er dan een pop-upmelding verschijnen waarin staat dat de app “toestemming wil om je te tracken in verschillende apps en websites die aan andere bedrijven toebehoren”. Een toestemming die vele gebruikers niet zomaar zullen geven.

Alles bij de bron; TechZine


 

Heeft u er wel eens bij stil gestaan dat niet iedereen online hetzelfde te zien krijgt? Dit komt omdat er websites zijn die met cookies (die ik overigens liever ‘volgsoftware’ noem, dat klinkt wat minder gezellig) bijhouden wat u interessant vindt. Want met alles wat u online doet, laat u ‘datasporen’ achter. Denk aan de (nieuws)artikelen waar u op klikt, uw zoekopdrachten en berichten die u liket of deelt. 

Vervolgens zorgt een algoritme ervoor dat u meer berichten te zien krijgt die - volgens het algoritme - daarop lijken. Vaak met als doel u langer online te houden en daardoor meer geld te verdienen aan gerichte advertenties.

Op zich is er natuurlijk niets mis met relevante informatie. Maar vindt u het nog steeds prima als u online wordt achtervolgd door advertenties voor stoma’s, nadat u iets heeft opgezocht over uw aanstaande operatie?

Ook voor uw politieke oriëntatie kunnen uw datasporen nadelig uitpakken. Bijvoorbeeld wanneer u op basis van uw online profiel vooral informatie krijgt die maar een kant van een maatschappelijk probleem belicht. Hoe vrij bent u dan om een eigen mening te vormen? Hoe vrij en goed geïnformeerd kunt u dan nog een politieke keuze maken? Hoe vrij en democratisch zijn verkiezingen dan nog?...

....Vrijheid is een groot goed. Laten we zorgen dat we offline en online die vrijheid en autonomie houden. Grip houden op uw persoonsgegevens en weten wat anderen – al dan niet door volgsoftware - over u weten, is daarbij cruciaal.

Alles bij de bron; AP


 

Het 'anonieme' referendum van Forum voor Democratie is helemaal niet zo anoniem. Het systeem dat de stemmen verwerkt weet de volledige namen, e-mail- en internetadressen van alle stemmers....

...Leden van Forum hebben een e-mail ontvangen met daarin een link om te kunnen stemmen via het systeem van Big Pulse, een bedrijf dat online stemmingen verzorgt. Deze link is gekoppeld aan hun volledige naam en e-mailadres, zonder dat Forum-leden dit weten. Door een simpele truc is het mogelijk om onderdelen te zien die door het systeem worden verhuld. 

"Dit hele systeem ziet er ontzettend brak uit", zegt een ethisch hacker die anoniem wenst te blijven. "Je zou met geen mogelijkheid in een andere stemming mogen komen, en al helemaal niet door een paar cijfertjes aan te passen."

Nadat je hebt gestemd kun je de stem niet meer aanpassen. Je krijgt dan een stembewijs te zien met daarop je unieke nummer dat gekoppeld is aan je volledige naam en e-mailadres, het ip-adres van je apparaat, een uniek stemnummer en een unieke ontvangstcode van je stem. 

Ook de achterkant van het stemsysteem van Big Pulse was voor iedereen toegankelijk. Die had opties om de verkiezing aan te passen, de stemmen te bekijken en stemmen toe te voegen. Het was voor bezoekers niet mogelijk om deze functies te bedienen, maar volgens verschillende ethisch hackers zou het wel mogelijk zijn door in te loggen met het account 'admin' - het belangrijkste account. 

Om in te loggen met het account 'admin' is er nog wel een wachtwoord nodig, dat volgens hackers met het nodige graafwerk zou kunnen worden achterhaald. Na publicatie heeft Big Pulse de achterkant verder dichtgetimmerd.

Alles bij de bron; RTL


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha