Software & Algoritmes

Het Nederlands rechtsstelsel is niet klaar voor big data, schrijven wetenschappers. De wet beschermt het individu, terwijl algoritmen juist groepen mensen discrimineren. Ze doen 13 concrete voorstellen voor wetgeving die data-analyse moet reguleren

Het huidige Nederlandse rechtsstelsel biedt burgers nauwelijks bescherming in een samenleving die zich toenemend door algoritmes laat aansturen. Die conclusie trekken onderzoekers Bart van der Sloot en Sascha van Schendel van de Universiteit Tilburg.

In hun rapport 'De Modernisering van het Nederlands Procesrecht in het licht van big data', schrijven ze dat vooral groepen burgers het nakijken hebben in een maatschappij waar zowel de overheid als bedrijven hun beslissingen vaker overlaten aan 'big data', een verzamelterm voor het vergaren en analyseren van grote hoeveelheden persoonsgegevens.

Alles bij de bron; FD [scan]


 

Op miljoenen Android-telefoons is malware gevonden in apps die door de fabrikanten worden geïnstalleerd vóór de verkoop, aldus CNET dat zich baseert op een presentatie van een veiligheidsonderzoeker van Google.

Volgens Maddie Stone, veiligheidsonderzoeker van Google, vormt de vooraf geïnstalleerde malware een grote dreiging, doordat antivirusprogramma’s ze niet detecteren. Ook is de malware lastiger te verwijderen; de apps kunnen niet verwijderd worden, tenzij de producent een beveiligingsupdate uitstuurt.

Stone onderzocht verschillende vooraf geïnstalleerde apps die malware bevatten. Deze apps werden door zo’n 225 telefoonproducten gebruikt, waarbij miljoenen gebruikers werden getroffen. De malware maakte het mogelijk om Android-telefoons op afstand over te nemen en ongemerkt apps te installeren.

Alles bij de bron; NU


 

Het is een groot irritatiepunt van privacybewuste mensen die controle willen houden over hun apps: de vraag om toegang tot je locatie. Daar wordt door een hoop apps om gevraagd, zelfs als de software daar niks mee doet... 

...Na voor de zoveelste keer met een kluitje het riet in te zijn gestuurd over dit vraagstuk besloten we zelf maar uit te zoeken waarom ontwikkelaars zo graag toegang willen tot je locatie. Willen ze weten waar gebruikers zich bevinden? Is het informatie die zij verzamelen om door te verkopen aan adverteerders? Heeft het te maken met telemetrie en ondersteuning? Soms wel, maar meestal is er iets anders aan de hand. Het blijkt namelijk niet altijd opzet te zijn dat er om deze permissie wordt gevraagd. 

Het blijkt te maken te hebben met een wijziging in de Google Android API sinds Android 6 (Marshmallow) met betrekking tot de Bluetooth Low Energy specificatie. Als je app op wat voor manier dan ook gebruik maakt van deze specificatie, dan is de locatiemachtiging vereist. Aangezien deze specificatie ook gekoppeld is aan de Wifi-functionaliteit, kan het simpelweg gebruiken van een draadloze verbinding ervoor zorgen dat de app om een locatiemachtiging moet vragen.

In eerste instantie werd dit probleem aangemerkt als bug. Maar later bleek dat Google dit opzettelijk zo heeft opgezet (en noemt het een beveiligingsmaatregel) en dat het niet van plan is dit te veranderen tot grote irritatie van ontwikkelaars, zeker omdat in sommige gevallen het vragen om toestemming tot de locatie-management niet voldoende is, maar de gebruiker ook daadwerkelijk een GPS-fix moet hebben...

...Er is gelukkig een klein lichtpuntje. Het is mogelijk om om dit probleem heen te werken. Op Stack overflow wordt gemeld dat er weldegelijk gezocht kan worden naar Bluetooth (LE) en Wifi-apparaten zonder dat de locatiediensten aan staan. Hiervoor kunnen ontwikkelaars BluetoothAdapter.getDefaultAdapter().startDiscovery() en startScan() gebruiken. "Dit zal alle Bluetooth-, BLE- en andere apparaten, ontdekken. BLE-apparaten zullen echter geen scanrecord hebben (wat ze normaal wel zouden hebben gehad als ze als gevolg van startScan() zouden zijn ontdekt".

Alles bij de bron; WebWereld


 

Ons dagelijkse doen en laten en onze gezondheidsgegevens worden door steeds meer apps en sensoren continu in kaart gebracht en opgeslagen in grote databanken, al dan niet om doorverkocht te worden aan andere partijen. Doorgaans krijgen we van de organisaties die die data verzamelen de belofte dat onze data anoniem verwerkt worden – dus zonder dat er een concrete naam aan gekoppeld wordt - en dat er dus geen risico is dat onze persoonlijke data in verkeerde handen vallen.

Maar dat anonimiseren van data is helemaal niet zo waterdicht als het klinkt. Onderzoek door de universiteit van Louvain-la-Neuve (UCLouvain) en Imperial College in London toont aan dat een algoritme met grote precisie kan inschatten tot welke persoon een reeks gegevens behoren. Concreet betekent dit dat u een naam en een profiel kunt koppelen aan een reeks anonieme gegevens. De studie verschijnt dinsdag in het vakblad Nature Communications.

De onderzoekers toonden aan dat het met slechts 15 stukjes informatie mogelijk is om 99,98% van de Amerikanen in elke database correct te identificeren. Met de nationaliteit als 16de kenmerk kan dat zelfs op de hele wereldbevolking worden toegepast.

Alles bij de bron; deTijd


 

Binnen de gezondheidszorg wordt steeds meer gebruik gemaakt van big data. Een van de big data-verzamelaars is het Amerikaanse bedrijf Epic. In de VS is het bedrijf een reus, met tweehonderd miljoen Amerikanen in de database.

In Nederland gebruiken elf grote Nederlandse ziekenhuizen, waarvan vijf academische, de software van Epic voor het beheer van patiëntendossiers. Ik werk er zelf ook mee in het Amsterdam UMC en ik noteer er dagelijks alle klachten van patiënten in, sla er röntgenfoto’s of echo’s in op, en registreer er medicatie en complicaties in.

We verwerken alles in het systeem; uit veiligheidsoogpunt is dat hermetisch afgesloten voor ‘mondelinge’ opdrachten. Een verpleegkundige kan niets uitvoeren zonder dat daar in Epic opdracht toe is gegeven. Wat slechts weinig Epic-gebruikers weten, is dat Epic met al deze gegevens momenteel over een gigantische hoeveelheid data beschikt die in een schaduwomgeving, genaamd Cosmos, verwerkt worden tot algoritmes die in de toekomst artsen kunnen helpen een beslissing te nemen over welke behandeling een patiënt nodig heeft...

...Algoritmes die het werk van een dokter overnemen klinken veelbelovend, maar als die algoritmes in handen zijn van een miljardenbedrijf is het maar de vraag of de patiënt daar belang bij heeft.

Alles bij de bron; NRC


 

Enkele weken geleden haalde Google-CEO Sundar Pichai uit naar Apple. Volgens de topman van de zoekgigant moet iedereen privacy hebben, niet alleen mensen die dure producten kopen. Apple’s softwareman Craig Federighi reageert nu op deze aantijging.

Hij benadrukte dat privacy een fundamenteel onderdeel van de bedrijfsvoering moet zijn. “Het is niet iets dat je in een paar maanden en met een paar blogposts regelt”, zei Apple’s software-topman.

Hij doelt daarmee indirect op Google, dat de afgelopen tijd bezig is te benadrukken dat het ook veel waarde aan privacy hecht, maar bekend staat om het opbouwen van profielen van gebruikers en veelvuldige tracking via advertentie­netwerk DoubleClick, waar de zoekgigant eigenaar van is. Het verzamelen van grote hoeveelheden data om diensten beter te maken, is volgens de Apple-chef niet meer dan “valse ruilhandel”. Extra functies bouwen zonder gebruikersgegevens te verzamelen “is soms extra werk”, zegt hij. “Maar dat is het waard”.

Alles bij de bron; OneMoreThing


 

De algoritmen van sociale media zouden gebruikers gevangen houden in de bubbel van hun eigen gelijk, met polarisatie tot gevolg. Dat lijkt volgens recent onderzoek nogal overdreven...

...De term filterbubbel werd gemunt door internetactivist Eli Pariser, in zijn boek uit 2011. Het door hem geschetste beeld duikt nog altijd op in verhalen over de groeiende macht van sociale media. Zeker nu personalisatie alledaagser is geworden. 

Zulke ontwikkelingen zouden een gevaar vormen voor onze persoonlijke ontwikkeling en zouden leiden tot meer polarisatie in de samenleving. De High Level Group on Media Freedom and Pluralism van de Europese Commissie noemde ‘geautomatiseerde filtermechanismen’ enige jaren geleden zelfs een potentieel gevaar voor de democratie. Het is het beeld van de internetgebruiker als weerloze speelbal van algoritmen, overgeleverd aan wat die sociale media hem voorschotelen. 

Maar is het ook waar? Drijven de algoritmen van Google, Facebook, Twitter en consorten ons als makke schapen steeds nauwere bubbels in, waardoor we alleen nog maar ons eigen gelijk bevestigd zien? De afgelopen jaren besloten onderzoekers wereldwijd dat uit te zoeken...

...Dat het nu wel meevalt met de filterbubbel, garandeert bovendien niet dat dit zo blijft, benadrukt Sanne Kruikemeier. Platformen kunnen hun algoritmen wijzigen, het mediagebruik verandert. ‘We zien nu bijvoorbeeld dat jongeren zwaarder leunen op internet en sociale media als bron voor nieuws’, zegt ze.

Het kritisch volgen van ontwikkelingen op het gebied van personalisatie-algoritmen en investeren in mediawijsheid blijft volgens haar van belang. Maar, concludeert ze, ‘we moeten oppassen met het idee dat algoritmen burgers tot passieve, weerloze slachtoffers maken. Dat is niet zo. De burger is niet weerloos tegen filterbubbels.’

Alles bij de bron; Volkskrant


 

Op het industrieterrein bij de haven van Moerdijk worden de 63 camera’s die er zijn opgesteld gekoppeld aan speciale software. Dat moet leiden tot een betere bestrijding van de criminaliteit en ook bedoeld om inklimmers te betrappen.

Specialisten, onder meer de technische universiteit Eindhoven, werken aan een programma voor data verwerkende, ‘lerende’ camera’s. Algoritmes analyseren straks beelden van mensen of voertuigen, meten bewegingssnelheid en herkennen kentekens. De camera’s leren zo het verschil tussen bijvoorbeeld een illegale vluchteling en een havenarbeider.

De camerabeelden en bewegingspatronen worden vervolgens gekoppeld met andere informatie, zoals de logistieke planning en gastenlijst van de haven. Zo kunnen verdachte bewegingen in kaart worden gebracht. Als een beveiliger een melding krijgt dat er iets bijzonders gebeurt, kan hij poolshoogte nemen. Het resultaat kan hij terugkoppelen aan het slimme camerasysteem, dat daardoor weer ‘bijleert’. Eind 2020 wordt het systeem in gebruik genomen.

Alles bij de bron; Beveiliging


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha