Software & Algoritmes

Te gevaarlijk om los te laten in de echte wereld. Zo beschreef onderzoeksgroep OpenAI begin dit jaar haar nieuwste algoritme. Het systeem kan vrijwel vanuit het niets complete teksten van a tot z aan elkaar verzinnen, als alles goed verloopt. Ondanks het gevaar is het algoritme tóch uitgebracht. Het algoritme kan worden ingezet bij de productie van spammails, phishing, nepnieuws en propaganda. 

Volgens OpenAI is het mogelijk om racistische, marxistische, jihadistische en anarchistische propaganda te maken met het systeem. Voer een titel in en GPT-2 schrijft er een heel artikel over. Schrijf een dichtregel en GPT-2 maakt zelf het gedicht af. Eerdere systemen verloren halverwege een zin de draad of maakten vreemde grammaticale fouten. Volgens OpenAI is het moeilijk te ontdekken dat het om nepberichten gaat.

De techniek kan ook worden ingezet voor het verbeteren van vertaalmachines, het ontwikkelen van slimme schrijfhulpjes en om spraakassistenten zoals Siri (Apple) en Google Assistant beter te laten functioneren.

Alles bij de bron; HLN


 

Fraude en ander bedrog met deepfake nemen snel toe. Terwijl kinderen op Instagram al lang creatief anoniem blijven. Ondertussen wenst Europa een leugendetector gericht tegen ongewenste immigratie. Wat is het verband?...

...Instagram is bij uitstek het domein van het spelen met gezichten die allerhande andere vormen krijgen. Kinderen doen het al zo lang, als ‘serious game’. ‘Kijk pap’, en dan heeft ze m’n portret voorzien van een rare bril, ingevallen wangen en een vrouwenmond; hoe dan ook net nog herkenbaar als m’n ‘identiteit’, of al niet meer. Zo vlot als dat aannemen van verhulde identiteiten gaat, mede om privacy te beschermen, kunnen ouderen nog maar nauwelijks bevatten...

...Generative Adversarial Networks passen machineleren toe met een ‘botsing’ van neurale netwerken, die bijvoorbeeld nieuwe geloofwaardige identiteiten kweken vanuit portretfoto’s....  De levensechte portretten zijn voor talloze vormen van bedrog te gebruiken, voor trollen op Twitter tot smoeltjes op datingsites zoals Tinder. De geloofwaardigheid van de bedreigers neemt veel sneller toe dan de argwaan van de slachtoffers. Het gesol met beelden leidde recent tot een fraai verhaal over datingfraude in de Twentse krant Tubantia. Digitaal bedrog in velerlei variaties trof in 2018 8,5 procent van de Nederlanders, aldus het CBS. Dus dient zich ook de volgende kat-en-muis strijd aan met online misdaad. Hoe herkennen we deepfakes (Nederlands: diepbedrog?) en bestrijden we het misbruik?...

...Een derde opvallend onderwerp dat hiermee samenhangt, bracht The Intercept een artikel over Silent Talker. Dit is het systeem voor leugendetectie van de Europese Unie dat aan de paspoortcontrole een interview toevoegt waarvan de antwoorden kunnen leiden tot bestempeling van een persoon tot een ‘risico’. Dat leidt tot extra controle...   Het systeem, ontwikkeld door de Manchester Metropolitan University, zou 90 procent van de leugens detecteren. Voor de Europese test in het kader van het iBorderCtrl programma, die eind augustus 2019 afliep, is de vraag of het systeem betrouwbaar genoeg is. Welke foutenmarge daartoe wordt gebruikt, is niet bekend...

...Deepfakes om identiteiten en de meeste evidente persoonsgegevens zoals gezocht en stem te fingeren oftewel vervalsen. En aan de andere kant machines die ons gedrag gaan beoordelen op waarachtigheid. Waarheen gaat dit? Met welke doelen gaan we dit alles gebruiken?

Tot wat voor wereld zal dit leiden? Is de huidige politiek met lieden voor wie het onderscheid tussen leugen en waarheid er niet meer toe lijkt te doen, een vruchtbare voedingsbodem voor de ‘succesvolle’ toepassing van nieuwe technologie? Hoe lopen technologische ontwikkeling en maatschappelijke trends parallel en werken ze op elkaar in?

Een mooie herfstvakantie in de natuur van de Biesbosch bracht geen antwoorden. 

Alles bij de bron; Netkwesties


 

Het Nederlands rechtsstelsel is niet klaar voor big data, schrijven wetenschappers. De wet beschermt het individu, terwijl algoritmen juist groepen mensen discrimineren. Ze doen 13 concrete voorstellen voor wetgeving die data-analyse moet reguleren

Het huidige Nederlandse rechtsstelsel biedt burgers nauwelijks bescherming in een samenleving die zich toenemend door algoritmes laat aansturen. Die conclusie trekken onderzoekers Bart van der Sloot en Sascha van Schendel van de Universiteit Tilburg.

In hun rapport 'De Modernisering van het Nederlands Procesrecht in het licht van big data', schrijven ze dat vooral groepen burgers het nakijken hebben in een maatschappij waar zowel de overheid als bedrijven hun beslissingen vaker overlaten aan 'big data', een verzamelterm voor het vergaren en analyseren van grote hoeveelheden persoonsgegevens.

Alles bij de bron; FD [scan]


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha