In 2023 kwam de toeslagenaffaire in een nieuwe fase met de verhoren van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening. Tegelijk werd pijnlijk duidelijk dat er nog bitter weinig veranderd is.
...in 2023 bleek dat verschillende overheidsorganisaties gewoon doorgingen met het gebruik van ondoordachte algoritmes. Enkele voorbeelden:
De Dienst Uitvoering Onderwijs (DUO) gebruikte voor het opsporen van fraude met studiebeurzen een algoritme dat zonder enige onderbouwing discriminatoir van aard was.
Het UWV gebruikte illegaal een algoritme om fraude met WW-uitkeringen op te sporen.
Enkele gemeenten gebruikten tegen beter weten in op onrechtmatige wijze de ‘fraudescorekaart’.
Er zijn vragen over de inzet van gezichtsherkenning door de politie en over het functioneren van het Team Openbare Orde Inlichtingen (TOOI) van de politie.
Aleid Wolfsen, voorzitter AP: “Dit is hoogstwaarschijnlijk nog maar het topje van de ijsberg. De datahonger van de overheid lijkt nog nauwelijks ingedamd."
Alles bij de bron; Durtch-IT-Channel
Rechters en bezwaarcommissies moeten scherp zijn op besluiten van de overheid waarbij algoritmes een rol hebben gespeeld. En de overheid moet uit zichzelf transparant zijn over het gebruik van algoritmes.
Daarvoor pleitte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens een bijeenkomst in de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.
Een eerste stap naar meer transparantie is dat de overheid het uit zichzelf laat weten wanneer algoritmes een rol hebben gespeeld bij een genomen besluit of in de aanloop daarnaartoe. En hierbij heldere uitleg geeft. Dit kan bijvoorbeeld in de toelichtingsbrief bij het besluit.
“De rechter moet overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes belangrijk. Zo kunnen burgers, advocaten en rechters daar alert op zijn”, aldus Wolfsen.
Daarnaast is het ook nodig dat rechters actief toetsen op de impact van algoritmes op overheidsbesluiten. De rechter zou dus altijd voorbij het geschil moeten kijken waarvoor iemand naar de rechter is gestapt.
Wolfsen legt uit: “De overheid gebruikt algoritmes vaak om efficiënter te zijn door algoritmes op grote schaal in te zetten. Hierdoor kunnen de mogelijke risico’s – zoals onjuiste uitkomsten en discriminatie – impact hebben op een grote groep mensen. Dit zagen we bij de Toeslagenaffaire.”
“Rechters zouden al extra alert moeten zijn bij ieder vermoeden dat er bij of in de aanloop naar een besluit een algoritme is gebruikt, bijvoorbeeld voor risicoselectie. En zij zouden dat moeten toetsen. Ook als advocaten of burgers daar niet om vragen. Als er in de aanloop naar een besluit bijvoorbeeld sprake is geweest van discriminatie, dan heeft dat immers bijna altijd gevolgen voor de rechtmatigheid van het besluit dat daarop volgt.”
Alles bij de bron; Dutch-IT-Channel
De zakelijke communicatietool Slack is onder vuur komen te liggen over het gebruik van gebruikersgegevens voor het trainen van AI- en machine learning (ML)-modellen.
De ophef ontstond naar aanleiding van het privacybeleid. Daarin staat dat Slack voor het ontwikkelen AI/ML-modellen klantgegevens gebruikt, zoals berichten, inhoud en bestanden, alsmede andere informatie, zoals gebruiksinformatie.
Organisaties die niet willen dat hun klantdata wordt gebruikt voor AI-training, moeten hiervoor de klantenservice benaderen voor een opt-out, aldus het beleid. Dit zorgde voor honderden reacties op Hacker News.
Een Slack-engineer liet vervolgens weten dat de bewoording van het beleid moest worden aangepast, omdat het generatieve AI-model niet met klantdata wordt getraind. Daarbij werd ook gewezen naar een blogposting van Slack. "Ik geloof het pas als het in het privacybeleid staat", aldus critici. "Een blogposting is niet juridisch bindend. De algemene voorwaarden wel."
Het privacybeleid is inmiddels ook iets aangepast. Daarin is de passage over het ontwikkelen van AI/ML-modellen gewijzigd. Er staat nu dat klantgegevens worden gebruikt voor het ontwikkelen van niet-generatieve AI/ML-modellen. Organisaties die dit niet willen moeten dit nog steeds via een opt-out kenbaar maken.
Alles bij de bron; Security
Slimme technologie wordt veel gebruikt om stedelijke problemen op te lossen, maar dat gaat vaak op een ondemocratische manier. Associate lector Vivien Butot pleit voor de erkenning van kritische betrokkenheid van burgers bij de slimme stad.
De ‘slimme stad’ is de laatste twee decennia een invloedrijk concept voor stedelijk bestuur geworden. De belofte van de slimme stad is dat ‘slimme’ informatietechnologieën en de data die ze produceren actuele en precieze inzichten bieden in het functioneren van stedelijke processen en activiteiten. Die inzichten kunnen gebruikt worden om rationeel en effectief in te grijpen bij problemen.
Met dit uitgangspunt wordt ook geëxperimenteerd met informatietechnologie, beveiligingscamera’s worden bijvoorbeeld aangevuld met bewegings- en geluidssensoren en computersoftware om patronen in bewegingen, geluid en ander menselijk gedrag te analyseren. Zo kunnen drukte, onrust, geweld en inbraken tijdig gesignaleerd en aangepakt worden.
Tegenover het enthousiasme over dit soort slimme stedelijke veiligheid staat ook kritiek op het democratische tekort in de slimme stad en worden regelmatig zorgen geuit over de implicaties van de slimme stad voor surveillance en privacy en dat technologie geen neutraal instrument is voor stedelijk bestuur.
Het toeslagenschandaal en andere controverses rondom stedelijke algoritmen voor fraudedetectie maken duidelijk hoe dit soort verhulde keuzen vergaande gevolgen voor specifieke groepen mensen kunnen hebben.
Er is weinig bekend over belevingen van de slimme stad van mensen zelf. Ze zijn ook moeilijk te onderzoeken, veel technologieën die de slimme stad mogelijk maken zijn onzichtbaar of zo vanzelfsprekend geworden dat men er nauwelijks meer op let en reflecteert.
Het blijkt voor veel mensen lastig om de slimme stad te evalueren omdat er weinig transparantie is over slimme technologie in stedelijke omgevingen en over toekomstvisies. Dit kan leiden tot achterdocht over de motieven van overheden en bedrijven die de technologie in handen hebben. Ook kan gebrekkige transparantie leiden tot speculaties over verborgen surveillancefuncties van alledaagse objecten en onzichtbare koppelingen van databases.
Toch menen veel mensen dat ze zelf niet veel risico lopen gesurveilleerd te worden, maar bijvoorbeeld bewoners van kansarme wijken wel. Mensen die zelf ervaringen hebben met bijvoorbeeld profilering door bijvoorbeeld politie en beveiligers maken zich daarentegen wel persoonlijke zorgen over de intensivering van dit soort praktijken.
Burgers staan vaak sceptisch over de beloften van slimme stedelijke veiligheid. Ze vinden dat veiligheid zich niet goed leent voor eenduidige definities en kwantitatieve metingen en analyses via slimme technologieën. Sommigen vinden ook dat slimme stedelijke veiligheid de oorzaken van onveiligheid – zoals armoede en een zich terugtrekkende overheid – niet oplost.
Terwijl veel mensen slimme technologie niet zien als een realistische oplossing voor stedelijke vraagstukken en verdere digitalisering met lede ogen aanzien, blijft de dominante insteek dat met de juiste data, codes, algoritmen en ethische overwegingen slimme technologie allerlei stedelijke problemen kan oplossen.
Wie het streven naar een democratische slimme stad echter serieus neemt zal die stedelijke problemen centraal moeten stellen, duidelijk moeten maken hoe slimme technologie zich hiertoe verhoudt, en een alternatieve, ‘niet-technologische’ aanpak altijd in overweging moeten houden.
Alles bij de bron; SocialeVraagstukken
De dataverzameling van standaardapps in onder meer iOS en macOS is lastig uit te zetten als gebruikers dat willen, zo concluderen Finse onderzoekers. Veel standaardapps verzamelen bovendien data waar gebruikers zich niet van bewust zijn.
Zo kan Siri onder meer meekijken bij gebruik van alle apps, tenzij gebruikers dat in de instellingen van Siri per app uitzetten. Dat vereist dus tientallen tot honderden klikken voor gebruikers om de optie 'leer van deze app' uit te zetten, schrijven de onderzoekers.
Zij raden onder meer aan dat Apple de instellingen verplaatst en versimpelt. Apple heeft nog niet gereageerd op de bevindingen van de onderzoekers.
Alles bij de bron; Tweakers
OpenAI, het AI-bedrijf dat ook ChatGPT maakt, heeft een tool gemaakt die op basis van een fragment van vijftien seconden een stem na kan bootsen. Het bedrijf heeft samples van Voice Engine uitgebracht, maar wil niet meteen het hele model openbaar maken.
Het model heet Voice Engine en kan teksten oplezen die een gebruiker als tekstuele input geeft. Op basis van een audiofragment beweert OpenAI dat de AI een stem volledig kan nabootsen, inclusief intonatie en emotie. Zo'n fragment hoeft maar vijftien seconden te duren, zegt het bedrijf.
Het is niet duidelijk op basis van welke audiofragmenten Voice Engine is getraind. OpenAI zegt tegen TechCrunch dat het gaat om een combinatie van gelicenseerde en publiek beschikbare data. Volgens het bedrijf is Voice Engine niet getraind op gebruikersdata. Ook worden samples die gebruikers maken na afloop verwijderd.
Voice Engine is nog niet beschikbaar voor gebruikers, zoals dat tegenwoordig vaker gebeurt bij soortgelijke diensten en zegt dat het daar nu ook voorzichtig mee is vanwege de implicaties. De tool zou al snel kunnen worden misbruikt. OpenAI verwijst specifiek naar de VS, waar eind dit jaar presidentsverkiezingen worden gehouden en de verkiezingsstrijd inmiddels is losgebarsten.
Als de tool in de toekomst uitkomt, dan wil OpenAI ook een lijst opstellen met stemmen die niet mogen worden gekloond.
Alles bij de bron; Tweakers
Aanvulling [bron Volkskrant]
OpenAI is niet het eerste AI-bedrijf dat dit mogelijk maakt. Elevenlabs doet het al veel langer, en dit product is wel voor iedereen te gebruiken.
Tijdens de Democratische voorverkiezingen in New Hampshire was er nog ophef ontstaan nadat een gekloonde versie van Joe Bidens stem had opgeroepen om niet naar de stembus te trekken. In de nasleep daarvan nam de Amerikaanse overheid regelgeving aan die door artificiële intelligentie gegenereerde telefoongesprekken verbiedt.
Microsoft heeft afgelopen dinsdag (Patch Tuesday) verschillende kwetsbaarheden verholpen in diverse Office-producten. Een kwaadwillende kan deze kwetsbaarheden misbruiken om aanvallen uit te voeren zo meldt Digital Trust Center (DTC).
De ernstigste kwetsbaarheid bevindt zich in het preview-scherm binnen Microsoft Office. Applicaties die gebruik maken van het preview-scherm, zoals Outlook, zijn hiervoor kwetsbaar.
De kwetsbaarheid heeft een CVSS-score van 9,8 ontvangen. Het NCSC heeft besloten het beveiligingsadvies rondom deze kwetsbaarheid op te schalen naar High/High nadat PoC publiek beschikbaar is gesteld. De PoC laat op dit moment alleen de potentie van de uitvoer zien en is niet functioneel.
Microsoft heeft updates beschikbaar gesteld waarmee de verschillende kwetsbaarheden verholpen worden. Het Digital Trust Center raadt aan om deze updates zo snel mogelijk te (laten) installeren. Meer informatie over de kwetsbaarheden, het installeren van de updates en eventuele workarounds vind je hier.
Alles bij de bron; DutchIT
In SonicWall firewalls zijn twee kwetsbaarheden ontdekt, die aanvallers de mogelijkheid bieden Denial of Service (DoS)- of Remote Code Execution (RCE)-aanvallen uit te voeren. In totaal zijn naar schatting ruim 178.000 firewalls kwetsbaar. Een patch is beschikbaar.
De kwetsbaarheden (CVE-2022-22274 en CVE-2023-0656) treffen specifiek Series 6- en Series 7-firewalls van SonicWall.
Vooralsnog zijn er geen aanwijzingen dat het lek actief wordt uitgebuit.
Alles bij de bron; DutchIT
Na dagenlang intensief onderhandelen is er een voorlopig akkoord bereikt over Europese regels om kunstmatige intelligentie (AI) te reguleren. Dat meldt de Franse Eurocommissaris Thierry Breton.
De wetgeving, die de AI Act wordt genoemd, wordt gezien als een cruciale stap om meer grip te krijgen op kunstmatige intelligentie en moet 'de grondrechten, democratie, rechtsstaat en het milieu' beschermen tegen bepaalde AI-toepassingen. Systemen worden opgedeeld in risicoklassen: hoe hoger het risico, hoe strenger de vereisten.
Een aantal vergaande AI-toepassingen, zoals het ongericht opbouwen van databases met (beveiligings)beelden voor gezichtsherkenning, wordt verboden. Dit geldt ook voor systemen die punten geven of straffen voor bepaald gedrag.
Ook is het werkgevers of onderwijsinstellingen niet toegestaan om emoties te herkennen met kunstmatige intelligentie. Voor politiediensten geldt in sommige gevallen een uitzondering op de regels, bijvoorbeeld in de zoektocht naar slachtoffers of daders bij zware misdrijven.
Over de AI Act is de afgelopen dagen zeer intensief onderhandeld en is de eerste ter wereld in zijn soort. Verwacht wordt dat de wet pas op zijn vroegst in 2025 van kracht wordt. Het Europees Parlement moet nog over de wet stemmen.
Hoewel AI jaren wordt toegepast in onze maatschappij, heeft de komst van AI-tools als ChatGPT de urgentie van wetgeving enorm vergroot.
Alles bij de bron; NOS
De politie adviseert gebruikers van ChatGPT om nooit vertrouwelijke gegevens in de chatbot in te voeren, ook geen namen van personen. "Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT. Want dat systeem traint zichzelf met de informatie die je invoert en voordat je het weet komt jouw informatie terug in teksten die gegenereerd zijn voor anderen", zegt Manon den Dunnen, Strategisch Specialist Digitaal bij de politie.
Volgens Manon zijn veel mensen ChatGPT gaan gebruiken als alternatief voor de zoekmachine. "Maar wat veel mensen zich niet realiseren: het is geen zoekmachine. ChatGPT is een taalmodel. Het is getraind op het genereren van teksten. Zie het als een slimme autocomplete die woord voor woord een tekst voor je genereert.”
Vorige maand werd bekend dat het kabinet aan een verbod werkt op het gebruik van ChatGPT en andere generatieve AI-software door rijksambtenaren. Aanleiding is een conceptvoorstel van de Autoriteit Persoonsgegevens en landsadvocaat Pels Rijcken dat niet gecontracteerde generatieve AI-toepassingen over het algemeen niet aantoonbaar aan de AVG en auteursrechtelijke wetgeving voldoen.
Alles bij de bron; Security