Software & Algoritmes

...de Amerikaanse godfather van de virtual reality, een van de invloedrijkste digitale denkers ter wereld, heeft een oplossing voor de manipulatiemachine van de grote techbedrijven. ‘Het is hoog tijd voor een humanere digitale samenleving.’

...Tegenwoordig gaat veel van zijn tijd naar nadenken over hoe de hedendaagse internetbedrijven mensen in de luren leggen met hun algoritmes. ‘Er is iets met de huidige digitale technologie dat ons gek maakt en ons verhindert te focussen op de echte problemen en uitdagingen’, zegt Lanier.

Sociale media noemt hij ‘behavioral manipulation empires’ die van ons ‘assholes’ maken: ze zijn ontworpen om ons constant te surveilleren en in te spelen op negatieve gevoelens als angst en irritatie die zich als een sneeuwbal versterken. Het is ook het thema van zijn recentste boek: ‘Ten Reasons to Delete your Social Media Accounts Right Now’. Samengevat: telkens als twee mensen op deze planeet met elkaar willen communiceren, wordt dat gefinancierd door een derde partij die de twee andere manipuleert. Die derde partij waar Lanier het over heeft, zijn de sociale media (lees: Facebook) die wij gebruiken om met elkaar contact te houden, maar die een financiële motivatie hebben om ons aan het lijntje te houden....

....Die oplossing bestaat in wat Lanier ‘data dignity’ noemt. De gratiscultuur op het internet - waarbij alles voor niks is in ruil voor de inzameling van persoonlijke gegevens - moet eruit. Mensen moeten betaald worden voor hun data, want die zijn wel degelijk geld waard, en mensen moeten zelf betalen om onlinediensten als Google en Facebook te gebruiken, stelt Lanier voor. ‘Mensen zijn duidelijk bereid om te betalen voor de videostreamingdienst Netflix. Dus dan kan het ook voor sociale media of zoekopdrachten.’

Alles bij de bron; deTijd


 

Te gevaarlijk om los te laten in de echte wereld. Zo beschreef onderzoeksgroep OpenAI begin dit jaar haar nieuwste algoritme. Het systeem kan vrijwel vanuit het niets complete teksten van a tot z aan elkaar verzinnen, als alles goed verloopt. Ondanks het gevaar is het algoritme tóch uitgebracht. Het algoritme kan worden ingezet bij de productie van spammails, phishing, nepnieuws en propaganda. 

Volgens OpenAI is het mogelijk om racistische, marxistische, jihadistische en anarchistische propaganda te maken met het systeem. Voer een titel in en GPT-2 schrijft er een heel artikel over. Schrijf een dichtregel en GPT-2 maakt zelf het gedicht af. Eerdere systemen verloren halverwege een zin de draad of maakten vreemde grammaticale fouten. Volgens OpenAI is het moeilijk te ontdekken dat het om nepberichten gaat.

De techniek kan ook worden ingezet voor het verbeteren van vertaalmachines, het ontwikkelen van slimme schrijfhulpjes en om spraakassistenten zoals Siri (Apple) en Google Assistant beter te laten functioneren.

Alles bij de bron; HLN


 

Fraude en ander bedrog met deepfake nemen snel toe. Terwijl kinderen op Instagram al lang creatief anoniem blijven. Ondertussen wenst Europa een leugendetector gericht tegen ongewenste immigratie. Wat is het verband?...

...Instagram is bij uitstek het domein van het spelen met gezichten die allerhande andere vormen krijgen. Kinderen doen het al zo lang, als ‘serious game’. ‘Kijk pap’, en dan heeft ze m’n portret voorzien van een rare bril, ingevallen wangen en een vrouwenmond; hoe dan ook net nog herkenbaar als m’n ‘identiteit’, of al niet meer. Zo vlot als dat aannemen van verhulde identiteiten gaat, mede om privacy te beschermen, kunnen ouderen nog maar nauwelijks bevatten...

...Generative Adversarial Networks passen machineleren toe met een ‘botsing’ van neurale netwerken, die bijvoorbeeld nieuwe geloofwaardige identiteiten kweken vanuit portretfoto’s....  De levensechte portretten zijn voor talloze vormen van bedrog te gebruiken, voor trollen op Twitter tot smoeltjes op datingsites zoals Tinder. De geloofwaardigheid van de bedreigers neemt veel sneller toe dan de argwaan van de slachtoffers. Het gesol met beelden leidde recent tot een fraai verhaal over datingfraude in de Twentse krant Tubantia. Digitaal bedrog in velerlei variaties trof in 2018 8,5 procent van de Nederlanders, aldus het CBS. Dus dient zich ook de volgende kat-en-muis strijd aan met online misdaad. Hoe herkennen we deepfakes (Nederlands: diepbedrog?) en bestrijden we het misbruik?...

...Een derde opvallend onderwerp dat hiermee samenhangt, bracht The Intercept een artikel over Silent Talker. Dit is het systeem voor leugendetectie van de Europese Unie dat aan de paspoortcontrole een interview toevoegt waarvan de antwoorden kunnen leiden tot bestempeling van een persoon tot een ‘risico’. Dat leidt tot extra controle...   Het systeem, ontwikkeld door de Manchester Metropolitan University, zou 90 procent van de leugens detecteren. Voor de Europese test in het kader van het iBorderCtrl programma, die eind augustus 2019 afliep, is de vraag of het systeem betrouwbaar genoeg is. Welke foutenmarge daartoe wordt gebruikt, is niet bekend...

...Deepfakes om identiteiten en de meeste evidente persoonsgegevens zoals gezocht en stem te fingeren oftewel vervalsen. En aan de andere kant machines die ons gedrag gaan beoordelen op waarachtigheid. Waarheen gaat dit? Met welke doelen gaan we dit alles gebruiken?

Tot wat voor wereld zal dit leiden? Is de huidige politiek met lieden voor wie het onderscheid tussen leugen en waarheid er niet meer toe lijkt te doen, een vruchtbare voedingsbodem voor de ‘succesvolle’ toepassing van nieuwe technologie? Hoe lopen technologische ontwikkeling en maatschappelijke trends parallel en werken ze op elkaar in?

Een mooie herfstvakantie in de natuur van de Biesbosch bracht geen antwoorden. 

Alles bij de bron; Netkwesties


 

Het Nederlands rechtsstelsel is niet klaar voor big data, schrijven wetenschappers. De wet beschermt het individu, terwijl algoritmen juist groepen mensen discrimineren. Ze doen 13 concrete voorstellen voor wetgeving die data-analyse moet reguleren

Het huidige Nederlandse rechtsstelsel biedt burgers nauwelijks bescherming in een samenleving die zich toenemend door algoritmes laat aansturen. Die conclusie trekken onderzoekers Bart van der Sloot en Sascha van Schendel van de Universiteit Tilburg.

In hun rapport 'De Modernisering van het Nederlands Procesrecht in het licht van big data', schrijven ze dat vooral groepen burgers het nakijken hebben in een maatschappij waar zowel de overheid als bedrijven hun beslissingen vaker overlaten aan 'big data', een verzamelterm voor het vergaren en analyseren van grote hoeveelheden persoonsgegevens.

Alles bij de bron; FD [scan]


 

Op miljoenen Android-telefoons is malware gevonden in apps die door de fabrikanten worden geïnstalleerd vóór de verkoop, aldus CNET dat zich baseert op een presentatie van een veiligheidsonderzoeker van Google.

Volgens Maddie Stone, veiligheidsonderzoeker van Google, vormt de vooraf geïnstalleerde malware een grote dreiging, doordat antivirusprogramma’s ze niet detecteren. Ook is de malware lastiger te verwijderen; de apps kunnen niet verwijderd worden, tenzij de producent een beveiligingsupdate uitstuurt.

Stone onderzocht verschillende vooraf geïnstalleerde apps die malware bevatten. Deze apps werden door zo’n 225 telefoonproducten gebruikt, waarbij miljoenen gebruikers werden getroffen. De malware maakte het mogelijk om Android-telefoons op afstand over te nemen en ongemerkt apps te installeren.

Alles bij de bron; NU


 

Het is een groot irritatiepunt van privacybewuste mensen die controle willen houden over hun apps: de vraag om toegang tot je locatie. Daar wordt door een hoop apps om gevraagd, zelfs als de software daar niks mee doet... 

...Na voor de zoveelste keer met een kluitje het riet in te zijn gestuurd over dit vraagstuk besloten we zelf maar uit te zoeken waarom ontwikkelaars zo graag toegang willen tot je locatie. Willen ze weten waar gebruikers zich bevinden? Is het informatie die zij verzamelen om door te verkopen aan adverteerders? Heeft het te maken met telemetrie en ondersteuning? Soms wel, maar meestal is er iets anders aan de hand. Het blijkt namelijk niet altijd opzet te zijn dat er om deze permissie wordt gevraagd. 

Het blijkt te maken te hebben met een wijziging in de Google Android API sinds Android 6 (Marshmallow) met betrekking tot de Bluetooth Low Energy specificatie. Als je app op wat voor manier dan ook gebruik maakt van deze specificatie, dan is de locatiemachtiging vereist. Aangezien deze specificatie ook gekoppeld is aan de Wifi-functionaliteit, kan het simpelweg gebruiken van een draadloze verbinding ervoor zorgen dat de app om een locatiemachtiging moet vragen.

In eerste instantie werd dit probleem aangemerkt als bug. Maar later bleek dat Google dit opzettelijk zo heeft opgezet (en noemt het een beveiligingsmaatregel) en dat het niet van plan is dit te veranderen tot grote irritatie van ontwikkelaars, zeker omdat in sommige gevallen het vragen om toestemming tot de locatie-management niet voldoende is, maar de gebruiker ook daadwerkelijk een GPS-fix moet hebben...

...Er is gelukkig een klein lichtpuntje. Het is mogelijk om om dit probleem heen te werken. Op Stack overflow wordt gemeld dat er weldegelijk gezocht kan worden naar Bluetooth (LE) en Wifi-apparaten zonder dat de locatiediensten aan staan. Hiervoor kunnen ontwikkelaars BluetoothAdapter.getDefaultAdapter().startDiscovery() en startScan() gebruiken. "Dit zal alle Bluetooth-, BLE- en andere apparaten, ontdekken. BLE-apparaten zullen echter geen scanrecord hebben (wat ze normaal wel zouden hebben gehad als ze als gevolg van startScan() zouden zijn ontdekt".

Alles bij de bron; WebWereld


 

Ons dagelijkse doen en laten en onze gezondheidsgegevens worden door steeds meer apps en sensoren continu in kaart gebracht en opgeslagen in grote databanken, al dan niet om doorverkocht te worden aan andere partijen. Doorgaans krijgen we van de organisaties die die data verzamelen de belofte dat onze data anoniem verwerkt worden – dus zonder dat er een concrete naam aan gekoppeld wordt - en dat er dus geen risico is dat onze persoonlijke data in verkeerde handen vallen.

Maar dat anonimiseren van data is helemaal niet zo waterdicht als het klinkt. Onderzoek door de universiteit van Louvain-la-Neuve (UCLouvain) en Imperial College in London toont aan dat een algoritme met grote precisie kan inschatten tot welke persoon een reeks gegevens behoren. Concreet betekent dit dat u een naam en een profiel kunt koppelen aan een reeks anonieme gegevens. De studie verschijnt dinsdag in het vakblad Nature Communications.

De onderzoekers toonden aan dat het met slechts 15 stukjes informatie mogelijk is om 99,98% van de Amerikanen in elke database correct te identificeren. Met de nationaliteit als 16de kenmerk kan dat zelfs op de hele wereldbevolking worden toegepast.

Alles bij de bron; deTijd


 

Binnen de gezondheidszorg wordt steeds meer gebruik gemaakt van big data. Een van de big data-verzamelaars is het Amerikaanse bedrijf Epic. In de VS is het bedrijf een reus, met tweehonderd miljoen Amerikanen in de database.

In Nederland gebruiken elf grote Nederlandse ziekenhuizen, waarvan vijf academische, de software van Epic voor het beheer van patiëntendossiers. Ik werk er zelf ook mee in het Amsterdam UMC en ik noteer er dagelijks alle klachten van patiënten in, sla er röntgenfoto’s of echo’s in op, en registreer er medicatie en complicaties in.

We verwerken alles in het systeem; uit veiligheidsoogpunt is dat hermetisch afgesloten voor ‘mondelinge’ opdrachten. Een verpleegkundige kan niets uitvoeren zonder dat daar in Epic opdracht toe is gegeven. Wat slechts weinig Epic-gebruikers weten, is dat Epic met al deze gegevens momenteel over een gigantische hoeveelheid data beschikt die in een schaduwomgeving, genaamd Cosmos, verwerkt worden tot algoritmes die in de toekomst artsen kunnen helpen een beslissing te nemen over welke behandeling een patiënt nodig heeft...

...Algoritmes die het werk van een dokter overnemen klinken veelbelovend, maar als die algoritmes in handen zijn van een miljardenbedrijf is het maar de vraag of de patiënt daar belang bij heeft.

Alles bij de bron; NRC


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha