De papiermolen rond visumaanvragen detacheert Buitenlandse Zaken zo veel mogelijk naar buitenlandse bedrijven. Maar het risico op ongelijke behandeling door profilering van aanvragers blijft bestaan. Kritiek daarover van de interne privacy-toezichthouder, werd door het ministerie in de wind geslagen.
Het nieuws in het kort
Alles bij de bron; NRC
In de Bits of Freedom podcast van deze week gaat het onder andere over het algoritme dat jarenlang door de Gemeente Rotterdam is gebruikt om te voorspellen wie van de bijstandsgerechtigden zou kunnen knoeien met hun uitkering ....
....Het algoritme bleek vol vooroordelen te zitten en richtte zich vooral op kwetsbare groepen, zoals vrouwen die geen Nederlands spreken en jonge alleenstaande moeders. Dit onderzoek van Follow the Money laat zien hoe dit soort algoritmes leiden tot discriminatie en stigmatisering.
Onze beleidsadviseur Nadia legt uit dat we een trend zien waarbij vrouwen van kleur, vaak moeders met een laag inkomen, een veel grotere kans maken om aan een fraudeonderzoek onderworpen te worden dan andere mensen. Dit kan als gevolg hebben dat deze groepen worden geproblematiseerd en soms zelfs gecriminaliseerd. Wat uniek is aan het onderzoek naar het algoritme dat door Rotterdam gebruikt werd, is dat er toegang is verkregen tot heel veel informatie, waaronder de technische informatie. Hiermee waren de onderzoekers in staat om het algoritme na te maken en te testen. Dat geeft veel inzicht in de werking van algoritmen en de onderliggende data, vertelt onze onderzoeker Joran.
Er is behoefte aan meer transparantie en beleid omtrent het gebruik van algoritmen. Zelflerende algoritmen moeten worden afgekaderd en er moet meer aandacht zijn voor (het gebrek aan) kwaliteit van de data die wordt gebruikt. De AI-verordening biedt kansen om de ontwikkelingen op het gebied van algoritmes beter te reguleren en de transparantie en verantwoording te vergroten, maar we zijn er nog niet, aldus Nadia.
Alles bij de bron; Bits-of-Freedom
Er is een kwetsbaarheid in Microsoft Outlook, Word en Excel. De kwetsbaarheid in deze Microsoft Office apps is momenteel bekend onder “CVE-2023-23397”.
Microsoft heeft bevestigd dat er een ernstige kwetsbaarheid in Microsoft Office (Outlook, Excel, Word) is aangetroffen die het mogelijk maakt om - zonder interactie van een gebruiker - wachtwoordhashes te stelen waardoor toegang tot infrastructuur met de rechten van deze gebruiker mogelijk is.
Het probleem is aanwezig in alle versies van Microsoft Office voor Windows, die door Microsoft ondersteund worden. Andere versie zoals Office via web zijn niet kwetsbaar. Microsoft heeft hier inmiddels een beveiligingsupdate voor uitgebracht.
Alles bij de bron; Dutch-IT-Channel
Een aantal smartphonemodellen van Samsung, Google en de Chinese fabrikant Vivo kunnen op afstand overgenomen worden. Kwaadwillenden kunnen de gaten in de beveiliging misbruiken om telefoons op afstand over te nemen, zonder dat de gebruiker dat merkt. Daarvoor waarschuwt Google. Aanvallers hebben alleen het telefoonnummer van het slachtoffer nodig om de smartphone te hacken.
De beveiligingsgaten zitten in bepaalde Exynos-processoren van Samsung. Die worden gebruikt in toestellen uit de Google Pixel 6- en 7-smartphoneserie, maar ook bijvoorbeeld in de Samsung Galaxy S22 en Galaxy A53.
Google heeft zelf al een beveiligingsupdate uitgebracht voor zijn Pixel-smartphones.
Van de achttien veiligheidslekken die Google heeft aangetroffen, hebben er volgens Samsung zes mogelijk invloed op zijn Galaxy-smartphones. "We hebben in maart beveiligingsupdates uitgebracht voor vijf van deze kwetsbaarheden", laat een woordvoerder van Samsung weten. "In april komt er nog een update uit om de overgebleven kwetsbaarheid te verhelpen."
Alles bij de bron; NU
In het net geopende lab AI4forensics doen vier promovendi en een postdoc onderzoek naar kunstmatige intelligentie in het forensisch onderzoek.
Het onderzoekslab, een samenwerking tussen de Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI), is gericht op de toepassing van kunstmatige intelligentie in forensische bewijsvoering.
“Kunstmatige intelligentie kan objectief worden ingezet en we kunnen er veel efficiencywinst mee behalen. Steeds meer kunstmatige intelligentie is nodig om de groeiende hoeveelheden data te verwerken. Met de grote hoeveelheden data kunnen we uiteindelijk hopelijk ook misdrijven voorspellen en zelfs misdaden voorkomen.”, stelt prof.dr. Zeno Geradts één van de initiatiefnemers van het lab.
Eén promovendus richt zich op sprekersherkenning, 2 anderen werken aan de ontwikkeling van computermodellen voor het herkennen van verborgen berichten in foto’s of video’s en voor het herkennen van deepfakes. Een andere promovendus zit op het terrein van Data2Activity en onderzoekt of met de sensoren in mobiele telefoons en smartwatches achterhaald kan worden wat iemand gedaan heeft.
Alles bij de bron; Beveiliging
We stellen de hele dag door vragen aan ChatGPT en soortgelijke chatbots, zonder dat we ons druk maken over wat er met die data gebeurt. Hoe zit het met ChatGPT en je privacy?
De grote apps zullen het komende jaar waarschijnlijk allemaal een eigen versie van ChatGPT introduceren. Dat is niet verwonderlijk, want ChatGPT is een ongekend groot succes. De chatbot heeft zich razendsnel het dagelijks leven binnengedrongen.
Mensen in allerlei beroepsgroepen gebruiken de technologie om het zichzelf makkelijker te maken. Daarbij worden ook belangrijke documenten of transcripten van meetings ingevoerd. Vertrouwelijke gesprekken worden zo in ChatGPT geplaatst om er een fijne samenvatting van te krijgen. Het is alleen belangrijk om daar terughoudend in te zijn, want qua privacy is ChatGPT een verschrikking.
Dergelijke vormen van kunstmatige intelligentie leren door ze een hoop data te voeren, waarna er verbanden worden gelegd. Zo heeft ChatGPT geleerd van een flinke stapel online teksten. Vraag je om de eerste zinnen van een boekklassieker, dan krijg je die zinnen gewoon – ook al ligt er copyright op de tekst.
Menig gebruiker ziet daar geen probleem in, want die vindt toegang tot informatie belangrijker. Maar alles wat jij typt in het venstertje van ChatGPT wordt opgeslagen en gebruikt om het taalmodel verder te trainen.
Als jij dus een gevoelig document, aantekeningen van een privégesprek of wellicht een lap code invult om te controleren, dan is die informatie nu onderdeel van de ChatGPT-database. Het is niet uitgesloten dat die informatie later opduikt in de antwoorden die anderen krijgen.
Er is ook geen enkele manier om te controleren wat ChatGPT van je bewaart en je kunt ook niet vragen of die data verwijderd kan worden. Het wordt allemaal opgeslokt in het grote geheel en je weet niet of en wanneer het weer uit wordt gespuugd.
Het succes van ChatGPT toont aan dat we graag onze privacy overboord gooien voor een klein beetje gemak. Met de opkomst van de chatbot is het belangrijk om daar voorzichtig mee te zijn.
Alles bij de bron; AndroidPlanet
Onlangs riep het College voor de Rechten van de Mens burgers op om het te melden als zij last hebben van discriminerende algoritmes. Een goede maar praktisch zeer ingewikkelde oproep om gehoor aan te geven. Discriminatie in algoritmes is subtiel en op een paar duidelijke uitzonderingen na alleen vast te stellen aan de hand van meer data over het systeem. Dit schrijft Joris Krijger, Ethics en AI Officer, De Volksbank, in onderstaande blog.
De aansporing vanuit het College ligt in het verlengde van het proces rond de mogelijk discriminerende gezichtsherkenningssoftware die de VU heeft ingezet bij online tentamens.
Het vaststellen van onrechtmatige discriminatie met een algoritme is echter complex. Alle algoritmes ‘discrimineren’, ze worden juist ingezet om onderscheid te maken. En alle algoritmes maken fouten.
In dit geval betreft het een direct zichtbare AI-toepassing waarvan in de literatuur al bekend is dat discriminerende vooringenomenheid een serieus probleem is: van zelfrijdende auto’s tot opsporingssoftware, het maakt structureel meer fouten waar mensen van kleur door benadeeld worden.
Maar veruit de meeste algoritmes die een rol spelen in ons dagelijks leven zijn niet of nauwelijks zichtbaar. Als je al weet dat het een algoritme is dat jou benadeeld, moet je als burger sterk in je schoenen staan om aan te tonen dat de uitkomst én onterecht is én het resultaat is van een ongerechtvaardigd onderscheid dat het algoritme maakt op basis van jouw persoonlijke kenmerken.
Dat er opgetreden moet worden tegen dit soort systemen is evident maar of burgers de meest geschikte groep is om dit probleem te signaleren lijkt mij zeer de vraag.
Alles bij de bron; DutchIT
Via nieuwe instellingen in de Google-app vinden gebruikers sneller de weg naar Googles privacyinstellingen rond advertenties. Anderzijds kan je ook vermijden dat Google aangepaste zoekresultaten weergeeft op basis van jouw locatie.
Je kan de nieuwe menu's vinden via: Google-app -> profielicoontje rechtsboven -> Instellingen -> Privacy en beveiliging.
Recent is Google daarnaast een test begonnen met een meer privacyvriendelijk systeem voor reclame in Android, de 'Privacy Sandbox'. De eerste gebruikers met een Android 13-telefoon kunnen het al testen. Google hiermee naar eigen zeggen minder informatie delen met adverteerders om de privacy van gebruikers te beschermen.
Alles bij de bron; AndroidWorld
Kunstmatige intelligentie of artificial intelligence (AI) biedt allerlei kansen, maar brengt ook risico’s met zich mee. Zeker als deze technologie gebruikt wordt om gepersonaliseerde content aan te bieden. Dat zal een impact hebben op onze privacy. Daarom moeten er gezamenlijke regels voor AI worden bedacht in Brussel.
Dat zegt Europarlementariër Kim van Sparrentak (GroenLinks) in een interview met BNR.
Experts omarmen de technologie maar er kleven echter ook risico’s aan kunstmatige intelligentie. De Toeslagenaffaire en het fiasco met de Fraude Signalering Voorziening (FSV) zijn daar twee prominente voorbeelden van. Recentelijk kwam naar buiten dat scholieren AI-programma’s als ChatGPT gebruiken om huiswerkopdrachten te maken. En cybersecurityexperts waarschuwen dat hackers de techniek gaan gebruiken om malware te ontwikkelen of verbeteren.
Voor Hind Dekker-Abdulaziz en Paul van Meenen (beiden D66) was dat aanleiding om schriftelijke vragen te stellen aan het kabinet.
Alles bij de bron; VPN-Gids
Het Nationaal Cyber Security Centrum (NCSC) waarschuwt voor een kwetsbaarheid in de wachtwoordmanager KeePass. Kwaadwillenden kunnen het lek gebruiken voor het verkrijgen van toegang tot gegevens die in KeePass zijn opgeslagen.
Het probleem (NCSC-2023-0044) zit in de configuratie van KeePass, die de wachtwoordmanager onversleuteld opslaat. Kwaadwillenden kunnen de configuratie hierdoor aanpassen en bijvoorbeeld een malafide exportregel toevoegen. Indien een gebruikers vervolgens de KeePass-database opent, zorgt deze regel ervoor dat KeePass de opgeslagen gegevens naar de aanvaller exporteert.
Het NCSC waarschuwt dat een proof-of-concept beschikbaar is, wat het uitbuiten van het lek vereenvoudigd. De ontwikkelaar van KeePass wil het lek echter niet verhelpen. Wel biedt KeePass de mogelijkheid bepaalde configuraties af te dwingen en zo misbruik van het lek te voorkomen. Dit kan met een zogenaamd Enforced Configuration File.
Het NCSC adviseert organisaties deze opties te gebruiken. Meer informatie is hier beschikbaar.
Alles bij de bron; DutchIT-Channel