De Algemene Rekenkamer deed onderzoek naar de inzet van algoritmes bij de overheid. In het onderzoek concludeert de instantie dat de overheid veel algoritmes gebruikt, maar dat die voornamelijk simpel zijn en voor simpele doelen worden ingezet. Nergens is er een zogenaamde 'black box' waarbij de werking van het algoritme onduidelijk is; de Rekenkamer kon van alle algoritmes achterhalen hoe die werken.
De overheid gebruikt geen zelflerende algoritmes, zegt de Rekenkamer. Het gaat alleen om lerende algoritmes. In de meeste gevallen worden die gebruikt om zaken te automatiseren. Er zijn bovendien nergens algoritmes in gebruik die aan geautomatiseerde besluitvorming doen. Er komt altijd nog een ambtenaar aan te pas die de uitslag controleert en bevestigt, ook bij algoritmes die aan 'risicovoorspelling' doen. Toch liggen er daar wel risico's, waarschuwt de Rekenkamer. Bij dergelijke algoritmes is het bijvoorbeeld mogelijk dat die in strijd zijn met de wet en discrimineren. "Ook bestaat de kans dat het advies van het algoritme de uiteindelijke beslissing van de medewerker beïnvloedt", staat in het rapport.
In die laatste categorie liggen de meeste risico's. De burger 'staat daarbij niet centraal'. Het is voor hen onduidelijk waar ze terecht kunnen als ze vragen hebben over algoritmes waarin hun data voorkomt, of daar bezwaar tegen willen maken. "Wij bevelen het kabinet aan om burgers op een logische plek inzicht te geven in welke data worden gebruikt in welke algoritmes, hoe die algoritmes op hoofdlijnen functioneren en welke impact de uitkomsten daarvan hebben", schrijft de Rekenkamer. De overheid zet de algoritmes in voor zichzelf. Daarbij is wel aandacht voor privacy, maar te weinig voor ethische kwesties.
De Rekenkamer tekent bij het onderzoek wel aan dat dat beeld mogelijk niet volledig is. Het overzicht is afkomstig van beschrijvingen die het bij ministeries zelf had opgevraagd. De Rekenkamer zegt ook dat er op dit moment geen manier is voor overheden om toezicht te houden op welke algoritmes wel en niet kunnen worden ingezet. Daarom heeft de Rekenkamer zelf een toetsingskader opgesteld. Daarin staan onder andere ethische vraagstukken of vragen over privacy van burgers.
Alles bij de bron; Tweakers
De Nederlandse CoronaMelder werkt sinds vorige maand al samen met soortgelijke corona-apps uit Duitsland, Denemarken, Spanje, Italië, Ierland, Polen, Kroatië, Letland en Cyprus. Woensdag kwam daar België bij, melden Belgische media. Later zullen nog andere EU-landen zich aansluiten.
De apps houden met geanonimiseerde codes bij welke telefoons er enige tijd dicht bij de telefoon van de gebruiker zijn geweest. Als die het coronavirus blijkt te hebben opgelopen, kan die hun een seintje geven.
De apps van de landen werken allemaal met het corona-meldingsysteem van Apple en Google. Voor de uitwisseling van codes met de apps van andere landen is de CoronaMelder gekoppeld aan de zogeheten European Federated Gateway Server.
Alles bij de bron; RTL
Algoritmen rukken steeds verder op in allerlei besluitvormingsprocessen. De verwachting dat op die manier de beslissingen eerlijker zouden zijn omdat er geen invloed is van de voorkeuren die mensen onmiskenbaar hebben, blijkt echter keer op keer niet uit te komen.
Recourse algorithms zijn bedacht om meer transparantie te krijgen in het proces waarmee algoritmen tot hun besluit komen. Tot nog toe zijn algoritmen op basis van machinelearning-technologie doorgaans een black box, getraind op een grote hoeveelheid eerdere beslissingen. In die historische data zitten de vooroordelen besloten van de mensen die ze destijds de beslissingen namen.
Recourse algorithms (pdf) bieden de mogelijkheid om 'verhaal te halen', wanneer een besluit geen recht doet aan degene over wie de beslissing wordt genomen. Door dit proces te automatiseren kunnen in principe de ongewenste effecten uit de algoritmen worden uitgebannen. Een goede ontwikkeling, lijkt het, maar recent wetenschappelijk onderzoek (pdf) voert bewijs aan dat deze aanpak niet zorgt voor een consistente verbetering van de algoritmes.
Volgens de onderzoekers gaat het systeem mank doordat de organisaties die deze algoritmen gebruiken, steeds hun modellen moeten actualiseren en trainingsdata aanpassen, en dat zorgt ervoor dat de recourse-technologie mank gaat.
Alles bij de bron; AGConnect
Een algoritme dat moest zorgen voor een eerlijke verdeling van de schaarse eerste vaccins in de Verenigde Staten, maakte een fout die dit weekend tot veel ergernis leidde. Het jonge personeel stuurde een protestbrief die ProPublica publiceerde, waaruit blijkt dat de fout in het algoritme al op dinsdag was opgemerkt maar dat de uitnodigingen voor de vaccinatie evengoed op donderdag zijn verstuurd.
Het algoritme gaf prioriteit aan het vaccineren van medisch personeel dat het hoogste risico liep bij een besmetting met Covid-19. Het hield verder rekening met de leeftijd en de afdeling in het ziekenhuis waar het betreffende personeelslid werkt.
Doordat de jonge dokters en dito verpleging vaak geen vaste werklocatie hadden en hun leeftijd geen aanleiding was voor een hoge prioriteit, vielen ze buiten de vaccinatie-oproepen. Slechts zeven van de artsen in opleiding en ander jong medisch personeel - allemaal werkzaam in het front tegen de Covid-19-epidemie - kwamen volgens het algoritme in aanmerking voor vaccinatie.
Veel van de medische staf die wèl werd opgeroepen, werkte al vanaf maart thuis en had geen contact met patiënten.
Alles bij de bron; AGConnect
Avast heeft in totaal 28 browser-extensies ontdekt die malware bevatten voor het ontvreemden van persoonlijke data en/of voor het doorverwijzen naar phising-sites.
De aangetroffen kwaadaardige browserextensies richtten zich daarbij op de Google Chrome- en de Microsoft Edge-browser. In totaal zouden zo’n 3 miljoen gebruikers zijn getroffen.
De nu aangetroffen extensies deden zich voor als in-browser tools voor het downloaden van foto’s, video’s en andere content van populaire sites als Facebook, Instagram, Vimeo en Spotify. In de op JavaScript gebaseerde extensies bevindt zich de kwaadaardige code. Of deze kwaadaardige extensies met opzet zijn gebouwd of in een later stadium zijn geïnfecteerd, is niet bekend.
Alles bij de bron; TechZine
Apple heeft gezegd dat het apps verwijdert uit de App Store als ze niet meewerken met de nieuwe privacy-opties. Met het zogeheten App Tracking Transparency kunnen gebruikers adverteerders weerhouden ze te volgen binnen meerdere applicaties.
Senior vice president Software Engineering bij Apple, Craig Federighi, heeft gezegd dat gebruikers het recht hebben om te weten dat hun online gedrag wordt gezien door diverse apps en websites. “Begin volgend jaar eisen we dat alle apps die de uitdrukkelijke toestemming van hun gebruikers krijgen. Ontwikkelaars die niet aan die norm voldoen, kunnen hun apps uit de App Store verwijderen”, zei hij op de Europese conferentie over gegevensbescherming en privacy.
“We moeten de wereld laten zien wat zich hier afspeelt. Het is een heftige poging om de status quo te houden die de privacy van mensen enorm binnendringt.”
Het kost echter wel wat moeite om dit ook daadwerkelijk aan je app toe te voegen. Zo moet er dan een pop-upmelding verschijnen waarin staat dat de app “toestemming wil om je te tracken in verschillende apps en websites die aan andere bedrijven toebehoren”. Een toestemming die vele gebruikers niet zomaar zullen geven.
Alles bij de bron; TechZine
Heeft u er wel eens bij stil gestaan dat niet iedereen online hetzelfde te zien krijgt? Dit komt omdat er websites zijn die met cookies (die ik overigens liever ‘volgsoftware’ noem, dat klinkt wat minder gezellig) bijhouden wat u interessant vindt. Want met alles wat u online doet, laat u ‘datasporen’ achter. Denk aan de (nieuws)artikelen waar u op klikt, uw zoekopdrachten en berichten die u liket of deelt.
Vervolgens zorgt een algoritme ervoor dat u meer berichten te zien krijgt die - volgens het algoritme - daarop lijken. Vaak met als doel u langer online te houden en daardoor meer geld te verdienen aan gerichte advertenties.
Op zich is er natuurlijk niets mis met relevante informatie. Maar vindt u het nog steeds prima als u online wordt achtervolgd door advertenties voor stoma’s, nadat u iets heeft opgezocht over uw aanstaande operatie?
Ook voor uw politieke oriëntatie kunnen uw datasporen nadelig uitpakken. Bijvoorbeeld wanneer u op basis van uw online profiel vooral informatie krijgt die maar een kant van een maatschappelijk probleem belicht. Hoe vrij bent u dan om een eigen mening te vormen? Hoe vrij en goed geïnformeerd kunt u dan nog een politieke keuze maken? Hoe vrij en democratisch zijn verkiezingen dan nog?...
....Vrijheid is een groot goed. Laten we zorgen dat we offline en online die vrijheid en autonomie houden. Grip houden op uw persoonsgegevens en weten wat anderen – al dan niet door volgsoftware - over u weten, is daarbij cruciaal.
Alles bij de bron; AP
Het 'anonieme' referendum van Forum voor Democratie is helemaal niet zo anoniem. Het systeem dat de stemmen verwerkt weet de volledige namen, e-mail- en internetadressen van alle stemmers....
...Leden van Forum hebben een e-mail ontvangen met daarin een link om te kunnen stemmen via het systeem van Big Pulse, een bedrijf dat online stemmingen verzorgt. Deze link is gekoppeld aan hun volledige naam en e-mailadres, zonder dat Forum-leden dit weten. Door een simpele truc is het mogelijk om onderdelen te zien die door het systeem worden verhuld.
"Dit hele systeem ziet er ontzettend brak uit", zegt een ethisch hacker die anoniem wenst te blijven. "Je zou met geen mogelijkheid in een andere stemming mogen komen, en al helemaal niet door een paar cijfertjes aan te passen."
Nadat je hebt gestemd kun je de stem niet meer aanpassen. Je krijgt dan een stembewijs te zien met daarop je unieke nummer dat gekoppeld is aan je volledige naam en e-mailadres, het ip-adres van je apparaat, een uniek stemnummer en een unieke ontvangstcode van je stem.
Ook de achterkant van het stemsysteem van Big Pulse was voor iedereen toegankelijk. Die had opties om de verkiezing aan te passen, de stemmen te bekijken en stemmen toe te voegen. Het was voor bezoekers niet mogelijk om deze functies te bedienen, maar volgens verschillende ethisch hackers zou het wel mogelijk zijn door in te loggen met het account 'admin' - het belangrijkste account.
Om in te loggen met het account 'admin' is er nog wel een wachtwoord nodig, dat volgens hackers met het nodige graafwerk zou kunnen worden achterhaald. Na publicatie heeft Big Pulse de achterkant verder dichtgetimmerd.
Alles bij de bron; RTL
Op verzoek van de commissie Sociale Zaken en Werkgelegenheid onderzocht het Rathenau Instituut de rol die digitale monitoringstechnieken spelen op de werkvloer en hun invloed op de kwaliteit van het werk.
Digitale technieken spelen een steeds grotere rol in het personeelsbeleid van organisaties. Bedrijven zetten ze in bij het aannemen van nieuw personeel, het controleren en aansturen van medewerkers en bij hun ontwikkeling en ondersteuning. Daarbij ontstaan steeds meer mogelijkheden. Gezichtsanalyses en games worden gebruikt bij videosollicitaties, screenshots om thuiswerkers te controleren en er zijn apps om de gezondheid te meten.
Het onderzoek laat zien dat de meeste digitale middelen in beginsel een nobel doel hebben. Maar ondertussen veranderen ze ook de arbeidsverhoudingen en kunnen ze leiden tot een beperkt beeld van wat waardevol werk is. Het rapport laat verder zien dat ze de privacy van werkenden kunnen schaden, tot discriminatie kunnen leiden bij werving- en selectieprocessen en kunnen bijdragen aan een toenemende werkdruk.
Het Rathenau Instituut waarschuwt voor doorgeschoten monitoring op werkvloer. Digitale middelen zijn er om ons te ondersteunen in ons werk en moeten geen robot maken van de werkenden.
Alles bij de bron; Rathenau Instituut
In een open brief aan de Nederlandse regering vragen ruim 150 wetenschappers op het gebied van kunstmatige intelligentie en robotica, mee te werken aan een verbod op dodelijke autonome wapens. Het gaat hierbij om wapens die zonder betekenisvolle menselijke controle doelen kunnen selecteren en aanvallen. Zoals een van de ondertekenaars, Professor Lambèr Royakkers van de TU Eindhoven het beschrijft: “Het is eenvoudigweg onmenselijk om het doden van mensen aan machines over te laten”...
...Wanneer deze wapens zijn ontwikkeld, wordt de drempel verlaagd om oorlog te voeren en kunnen conflicten sneller escaleren. Bovendien gaan de ontwikkelingen snel: Zo is het technisch al mogelijk dat grensbewakingsrobots zonder menselijke tussenkomst een ‘illegale passant’ kunnen doden en dat drones op basis van bijvoorbeeld nummerbordherkenning automatisch voertuigen kunnen bombarderen. Er is nu al een heuse wedloop gaande op het gebied van autonome wapens...
De oproep van de Nederlandse wetenschappers volgt op vergelijkbare initiatieven in Australië, België, Canada en Noorwegen waar wetenschappers opriepen tot een dergelijk verbod.
Alles bij de bron; DutchIT