...de Amerikaanse godfather van de virtual reality, een van de invloedrijkste digitale denkers ter wereld, heeft een oplossing voor de manipulatiemachine van de grote techbedrijven. ‘Het is hoog tijd voor een humanere digitale samenleving.’
...Tegenwoordig gaat veel van zijn tijd naar nadenken over hoe de hedendaagse internetbedrijven mensen in de luren leggen met hun algoritmes. ‘Er is iets met de huidige digitale technologie dat ons gek maakt en ons verhindert te focussen op de echte problemen en uitdagingen’, zegt Lanier.
Sociale media noemt hij ‘behavioral manipulation empires’ die van ons ‘assholes’ maken: ze zijn ontworpen om ons constant te surveilleren en in te spelen op negatieve gevoelens als angst en irritatie die zich als een sneeuwbal versterken. Het is ook het thema van zijn recentste boek: ‘Ten Reasons to Delete your Social Media Accounts Right Now’. Samengevat: telkens als twee mensen op deze planeet met elkaar willen communiceren, wordt dat gefinancierd door een derde partij die de twee andere manipuleert. Die derde partij waar Lanier het over heeft, zijn de sociale media (lees: Facebook) die wij gebruiken om met elkaar contact te houden, maar die een financiële motivatie hebben om ons aan het lijntje te houden....
....Die oplossing bestaat in wat Lanier ‘data dignity’ noemt. De gratiscultuur op het internet - waarbij alles voor niks is in ruil voor de inzameling van persoonlijke gegevens - moet eruit. Mensen moeten betaald worden voor hun data, want die zijn wel degelijk geld waard, en mensen moeten zelf betalen om onlinediensten als Google en Facebook te gebruiken, stelt Lanier voor. ‘Mensen zijn duidelijk bereid om te betalen voor de videostreamingdienst Netflix. Dus dan kan het ook voor sociale media of zoekopdrachten.’
Alles bij de bron; deTijd
Te gevaarlijk om los te laten in de echte wereld. Zo beschreef onderzoeksgroep OpenAI begin dit jaar haar nieuwste algoritme. Het systeem kan vrijwel vanuit het niets complete teksten van a tot z aan elkaar verzinnen, als alles goed verloopt. Ondanks het gevaar is het algoritme tóch uitgebracht. Het algoritme kan worden ingezet bij de productie van spammails, phishing, nepnieuws en propaganda.
Volgens OpenAI is het mogelijk om racistische, marxistische, jihadistische en anarchistische propaganda te maken met het systeem. Voer een titel in en GPT-2 schrijft er een heel artikel over. Schrijf een dichtregel en GPT-2 maakt zelf het gedicht af. Eerdere systemen verloren halverwege een zin de draad of maakten vreemde grammaticale fouten. Volgens OpenAI is het moeilijk te ontdekken dat het om nepberichten gaat.
De techniek kan ook worden ingezet voor het verbeteren van vertaalmachines, het ontwikkelen van slimme schrijfhulpjes en om spraakassistenten zoals Siri (Apple) en Google Assistant beter te laten functioneren.
Alles bij de bron; HLN
Fraude en ander bedrog met deepfake nemen snel toe. Terwijl kinderen op Instagram al lang creatief anoniem blijven. Ondertussen wenst Europa een leugendetector gericht tegen ongewenste immigratie. Wat is het verband?...
...Instagram is bij uitstek het domein van het spelen met gezichten die allerhande andere vormen krijgen. Kinderen doen het al zo lang, als ‘serious game’. ‘Kijk pap’, en dan heeft ze m’n portret voorzien van een rare bril, ingevallen wangen en een vrouwenmond; hoe dan ook net nog herkenbaar als m’n ‘identiteit’, of al niet meer. Zo vlot als dat aannemen van verhulde identiteiten gaat, mede om privacy te beschermen, kunnen ouderen nog maar nauwelijks bevatten...
...Generative Adversarial Networks passen machineleren toe met een ‘botsing’ van neurale netwerken, die bijvoorbeeld nieuwe geloofwaardige identiteiten kweken vanuit portretfoto’s.... De levensechte portretten zijn voor talloze vormen van bedrog te gebruiken, voor trollen op Twitter tot smoeltjes op datingsites zoals Tinder. De geloofwaardigheid van de bedreigers neemt veel sneller toe dan de argwaan van de slachtoffers. Het gesol met beelden leidde recent tot een fraai verhaal over datingfraude in de Twentse krant Tubantia. Digitaal bedrog in velerlei variaties trof in 2018 8,5 procent van de Nederlanders, aldus het CBS. Dus dient zich ook de volgende kat-en-muis strijd aan met online misdaad. Hoe herkennen we deepfakes (Nederlands: diepbedrog?) en bestrijden we het misbruik?...
...Een derde opvallend onderwerp dat hiermee samenhangt, bracht The Intercept een artikel over Silent Talker. Dit is het systeem voor leugendetectie van de Europese Unie dat aan de paspoortcontrole een interview toevoegt waarvan de antwoorden kunnen leiden tot bestempeling van een persoon tot een ‘risico’. Dat leidt tot extra controle... Het systeem, ontwikkeld door de Manchester Metropolitan University, zou 90 procent van de leugens detecteren. Voor de Europese test in het kader van het iBorderCtrl programma, die eind augustus 2019 afliep, is de vraag of het systeem betrouwbaar genoeg is. Welke foutenmarge daartoe wordt gebruikt, is niet bekend...
...Deepfakes om identiteiten en de meeste evidente persoonsgegevens zoals gezocht en stem te fingeren oftewel vervalsen. En aan de andere kant machines die ons gedrag gaan beoordelen op waarachtigheid. Waarheen gaat dit? Met welke doelen gaan we dit alles gebruiken?
Tot wat voor wereld zal dit leiden? Is de huidige politiek met lieden voor wie het onderscheid tussen leugen en waarheid er niet meer toe lijkt te doen, een vruchtbare voedingsbodem voor de ‘succesvolle’ toepassing van nieuwe technologie? Hoe lopen technologische ontwikkeling en maatschappelijke trends parallel en werken ze op elkaar in?
Een mooie herfstvakantie in de natuur van de Biesbosch bracht geen antwoorden.
Alles bij de bron; Netkwesties
Het Nederlands rechtsstelsel is niet klaar voor big data, schrijven wetenschappers. De wet beschermt het individu, terwijl algoritmen juist groepen mensen discrimineren. Ze doen 13 concrete voorstellen voor wetgeving die data-analyse moet reguleren
Het huidige Nederlandse rechtsstelsel biedt burgers nauwelijks bescherming in een samenleving die zich toenemend door algoritmes laat aansturen. Die conclusie trekken onderzoekers Bart van der Sloot en Sascha van Schendel van de Universiteit Tilburg.
In hun rapport 'De Modernisering van het Nederlands Procesrecht in het licht van big data', schrijven ze dat vooral groepen burgers het nakijken hebben in een maatschappij waar zowel de overheid als bedrijven hun beslissingen vaker overlaten aan 'big data', een verzamelterm voor het vergaren en analyseren van grote hoeveelheden persoonsgegevens.