Socialmediaplatform X heeft donderdag in een Ierse rechtbank toegezegd dat de data die tussen 7 mei en 1 augustus is verzameld voorlopig niet zal gebruiken zijn AI-chatbot Grok te trainen. Eerst moeten gebruikers in de EU de mogelijkheid krijgen hun toestemming in te trekken.
Het platform heeft gezegd dat alle gebruikers kunnen beslissen of hun openbare berichten gebruikt mogen worden om Grok te trainen. De rechter wees er echter op dat X op 7 mei begon met het verzamelen van data van EU-gebruikers, maar pas sinds 16 juli een afmeldmogelijkheid aanbiedt via de privacyinstellingen. Ook werd de optie aanvankelijk nog niet naar alle gebruikers uitgerold.
In juli zei de Ierse Data Protection Commission dat het 'verbaasd' was dat X Europese gebruikers automatisch toestemming laat geven voor het gebruik van hun data voor het trainen van Grok. Daarom had de DPC een rechtszaak aangespannen tegen X, waarin het eist om het verzamelen van data op X voor het trainen van AI te beperken of stop te zetten.
Alles bij de bron; Tweakers
De Europese AI-wetgeving gaat 1 augustus in. Met de nieuwe regels moet kunstmatige intelligentie aan bepaalde eisen voldoen. Maar het duurt nog jaren voordat alle regels van kracht zijn.
De Europese Unie werkte de afgelopen twee jaar aan wetgeving die kunstmatige intelligentie onder controle moet houden. AI-systemen mogen in Europa niet discrimineren. Ook worden ze getoetst op eventuele schendingen van mensenrechten. Aanbieders van AI-modellen moeten daarnaast transparanter zijn over hoe hun kunstmatige intelligentie werkt en met welke data ze worden getraind.
Europarlementariërs zijn het erover eens dat mensen centraal moeten blijven staan bij de invoer en het gebruik van AI. Daarom is voor sommige AI-systemen helemaal geen plek in de EU.
Het gaat dan om systemen die het gedrag van burgers analyseren en hen op basis daarvan beoordelen, zoals in China gebeurt. Regels voor dit soort systemen gaan het eerst in: zes maanden nadat de AI-wet in werking is getreden. Bedrijven krijgen de eerste zes maanden de tijd om aanpassingen door te voeren zodat ze aan de regels voldoen.
Daarna worden andere verplichtingen gefaseerd ingevoerd. Volgend jaar treden bijvoorbeeld wetten in werking voor het gebruik van generatieve AI, zoals ChatGPT. En vanaf 1 augustus 2026 gelden de regels voor modellen met een hoog risico. Pas in augustus 2030 zijn alle verplichtingen van kracht. Dan treden verplichtingen in werking voor AI-systemen van overheidsorganisaties die al voor het ingaan van de AI-wet werden gebruikt.
Bedrijven die de AI-wet in Europa overtreden, kunnen flinke boetes krijgen.
Alles bij de bron; NU
In 2023 kwam de toeslagenaffaire in een nieuwe fase met de verhoren van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening. Tegelijk werd pijnlijk duidelijk dat er nog bitter weinig veranderd is.
...in 2023 bleek dat verschillende overheidsorganisaties gewoon doorgingen met het gebruik van ondoordachte algoritmes. Enkele voorbeelden:
De Dienst Uitvoering Onderwijs (DUO) gebruikte voor het opsporen van fraude met studiebeurzen een algoritme dat zonder enige onderbouwing discriminatoir van aard was.
Het UWV gebruikte illegaal een algoritme om fraude met WW-uitkeringen op te sporen.
Enkele gemeenten gebruikten tegen beter weten in op onrechtmatige wijze de ‘fraudescorekaart’.
Er zijn vragen over de inzet van gezichtsherkenning door de politie en over het functioneren van het Team Openbare Orde Inlichtingen (TOOI) van de politie.
Aleid Wolfsen, voorzitter AP: “Dit is hoogstwaarschijnlijk nog maar het topje van de ijsberg. De datahonger van de overheid lijkt nog nauwelijks ingedamd."
Alles bij de bron; Durtch-IT-Channel
Rechters en bezwaarcommissies moeten scherp zijn op besluiten van de overheid waarbij algoritmes een rol hebben gespeeld. En de overheid moet uit zichzelf transparant zijn over het gebruik van algoritmes.
Daarvoor pleitte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens een bijeenkomst in de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.
Een eerste stap naar meer transparantie is dat de overheid het uit zichzelf laat weten wanneer algoritmes een rol hebben gespeeld bij een genomen besluit of in de aanloop daarnaartoe. En hierbij heldere uitleg geeft. Dit kan bijvoorbeeld in de toelichtingsbrief bij het besluit.
“De rechter moet overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes belangrijk. Zo kunnen burgers, advocaten en rechters daar alert op zijn”, aldus Wolfsen.
Daarnaast is het ook nodig dat rechters actief toetsen op de impact van algoritmes op overheidsbesluiten. De rechter zou dus altijd voorbij het geschil moeten kijken waarvoor iemand naar de rechter is gestapt.
Wolfsen legt uit: “De overheid gebruikt algoritmes vaak om efficiënter te zijn door algoritmes op grote schaal in te zetten. Hierdoor kunnen de mogelijke risico’s – zoals onjuiste uitkomsten en discriminatie – impact hebben op een grote groep mensen. Dit zagen we bij de Toeslagenaffaire.”
“Rechters zouden al extra alert moeten zijn bij ieder vermoeden dat er bij of in de aanloop naar een besluit een algoritme is gebruikt, bijvoorbeeld voor risicoselectie. En zij zouden dat moeten toetsen. Ook als advocaten of burgers daar niet om vragen. Als er in de aanloop naar een besluit bijvoorbeeld sprake is geweest van discriminatie, dan heeft dat immers bijna altijd gevolgen voor de rechtmatigheid van het besluit dat daarop volgt.”
Alles bij de bron; Dutch-IT-Channel
De zakelijke communicatietool Slack is onder vuur komen te liggen over het gebruik van gebruikersgegevens voor het trainen van AI- en machine learning (ML)-modellen.
De ophef ontstond naar aanleiding van het privacybeleid. Daarin staat dat Slack voor het ontwikkelen AI/ML-modellen klantgegevens gebruikt, zoals berichten, inhoud en bestanden, alsmede andere informatie, zoals gebruiksinformatie.
Organisaties die niet willen dat hun klantdata wordt gebruikt voor AI-training, moeten hiervoor de klantenservice benaderen voor een opt-out, aldus het beleid. Dit zorgde voor honderden reacties op Hacker News.
Een Slack-engineer liet vervolgens weten dat de bewoording van het beleid moest worden aangepast, omdat het generatieve AI-model niet met klantdata wordt getraind. Daarbij werd ook gewezen naar een blogposting van Slack. "Ik geloof het pas als het in het privacybeleid staat", aldus critici. "Een blogposting is niet juridisch bindend. De algemene voorwaarden wel."
Het privacybeleid is inmiddels ook iets aangepast. Daarin is de passage over het ontwikkelen van AI/ML-modellen gewijzigd. Er staat nu dat klantgegevens worden gebruikt voor het ontwikkelen van niet-generatieve AI/ML-modellen. Organisaties die dit niet willen moeten dit nog steeds via een opt-out kenbaar maken.
Alles bij de bron; Security
Slimme technologie wordt veel gebruikt om stedelijke problemen op te lossen, maar dat gaat vaak op een ondemocratische manier. Associate lector Vivien Butot pleit voor de erkenning van kritische betrokkenheid van burgers bij de slimme stad.
De ‘slimme stad’ is de laatste twee decennia een invloedrijk concept voor stedelijk bestuur geworden. De belofte van de slimme stad is dat ‘slimme’ informatietechnologieën en de data die ze produceren actuele en precieze inzichten bieden in het functioneren van stedelijke processen en activiteiten. Die inzichten kunnen gebruikt worden om rationeel en effectief in te grijpen bij problemen.
Met dit uitgangspunt wordt ook geëxperimenteerd met informatietechnologie, beveiligingscamera’s worden bijvoorbeeld aangevuld met bewegings- en geluidssensoren en computersoftware om patronen in bewegingen, geluid en ander menselijk gedrag te analyseren. Zo kunnen drukte, onrust, geweld en inbraken tijdig gesignaleerd en aangepakt worden.
Tegenover het enthousiasme over dit soort slimme stedelijke veiligheid staat ook kritiek op het democratische tekort in de slimme stad en worden regelmatig zorgen geuit over de implicaties van de slimme stad voor surveillance en privacy en dat technologie geen neutraal instrument is voor stedelijk bestuur.
Het toeslagenschandaal en andere controverses rondom stedelijke algoritmen voor fraudedetectie maken duidelijk hoe dit soort verhulde keuzen vergaande gevolgen voor specifieke groepen mensen kunnen hebben.
Er is weinig bekend over belevingen van de slimme stad van mensen zelf. Ze zijn ook moeilijk te onderzoeken, veel technologieën die de slimme stad mogelijk maken zijn onzichtbaar of zo vanzelfsprekend geworden dat men er nauwelijks meer op let en reflecteert.
Het blijkt voor veel mensen lastig om de slimme stad te evalueren omdat er weinig transparantie is over slimme technologie in stedelijke omgevingen en over toekomstvisies. Dit kan leiden tot achterdocht over de motieven van overheden en bedrijven die de technologie in handen hebben. Ook kan gebrekkige transparantie leiden tot speculaties over verborgen surveillancefuncties van alledaagse objecten en onzichtbare koppelingen van databases.
Toch menen veel mensen dat ze zelf niet veel risico lopen gesurveilleerd te worden, maar bijvoorbeeld bewoners van kansarme wijken wel. Mensen die zelf ervaringen hebben met bijvoorbeeld profilering door bijvoorbeeld politie en beveiligers maken zich daarentegen wel persoonlijke zorgen over de intensivering van dit soort praktijken.
Burgers staan vaak sceptisch over de beloften van slimme stedelijke veiligheid. Ze vinden dat veiligheid zich niet goed leent voor eenduidige definities en kwantitatieve metingen en analyses via slimme technologieën. Sommigen vinden ook dat slimme stedelijke veiligheid de oorzaken van onveiligheid – zoals armoede en een zich terugtrekkende overheid – niet oplost.
Terwijl veel mensen slimme technologie niet zien als een realistische oplossing voor stedelijke vraagstukken en verdere digitalisering met lede ogen aanzien, blijft de dominante insteek dat met de juiste data, codes, algoritmen en ethische overwegingen slimme technologie allerlei stedelijke problemen kan oplossen.
Wie het streven naar een democratische slimme stad echter serieus neemt zal die stedelijke problemen centraal moeten stellen, duidelijk moeten maken hoe slimme technologie zich hiertoe verhoudt, en een alternatieve, ‘niet-technologische’ aanpak altijd in overweging moeten houden.
Alles bij de bron; SocialeVraagstukken
De dataverzameling van standaardapps in onder meer iOS en macOS is lastig uit te zetten als gebruikers dat willen, zo concluderen Finse onderzoekers. Veel standaardapps verzamelen bovendien data waar gebruikers zich niet van bewust zijn.
Zo kan Siri onder meer meekijken bij gebruik van alle apps, tenzij gebruikers dat in de instellingen van Siri per app uitzetten. Dat vereist dus tientallen tot honderden klikken voor gebruikers om de optie 'leer van deze app' uit te zetten, schrijven de onderzoekers.
Zij raden onder meer aan dat Apple de instellingen verplaatst en versimpelt. Apple heeft nog niet gereageerd op de bevindingen van de onderzoekers.
Alles bij de bron; Tweakers
OpenAI, het AI-bedrijf dat ook ChatGPT maakt, heeft een tool gemaakt die op basis van een fragment van vijftien seconden een stem na kan bootsen. Het bedrijf heeft samples van Voice Engine uitgebracht, maar wil niet meteen het hele model openbaar maken.
Het model heet Voice Engine en kan teksten oplezen die een gebruiker als tekstuele input geeft. Op basis van een audiofragment beweert OpenAI dat de AI een stem volledig kan nabootsen, inclusief intonatie en emotie. Zo'n fragment hoeft maar vijftien seconden te duren, zegt het bedrijf.
Het is niet duidelijk op basis van welke audiofragmenten Voice Engine is getraind. OpenAI zegt tegen TechCrunch dat het gaat om een combinatie van gelicenseerde en publiek beschikbare data. Volgens het bedrijf is Voice Engine niet getraind op gebruikersdata. Ook worden samples die gebruikers maken na afloop verwijderd.
Voice Engine is nog niet beschikbaar voor gebruikers, zoals dat tegenwoordig vaker gebeurt bij soortgelijke diensten en zegt dat het daar nu ook voorzichtig mee is vanwege de implicaties. De tool zou al snel kunnen worden misbruikt. OpenAI verwijst specifiek naar de VS, waar eind dit jaar presidentsverkiezingen worden gehouden en de verkiezingsstrijd inmiddels is losgebarsten.
Als de tool in de toekomst uitkomt, dan wil OpenAI ook een lijst opstellen met stemmen die niet mogen worden gekloond.
Alles bij de bron; Tweakers
Aanvulling [bron Volkskrant]
OpenAI is niet het eerste AI-bedrijf dat dit mogelijk maakt. Elevenlabs doet het al veel langer, en dit product is wel voor iedereen te gebruiken.
Tijdens de Democratische voorverkiezingen in New Hampshire was er nog ophef ontstaan nadat een gekloonde versie van Joe Bidens stem had opgeroepen om niet naar de stembus te trekken. In de nasleep daarvan nam de Amerikaanse overheid regelgeving aan die door artificiële intelligentie gegenereerde telefoongesprekken verbiedt.
Microsoft heeft afgelopen dinsdag (Patch Tuesday) verschillende kwetsbaarheden verholpen in diverse Office-producten. Een kwaadwillende kan deze kwetsbaarheden misbruiken om aanvallen uit te voeren zo meldt Digital Trust Center (DTC).
De ernstigste kwetsbaarheid bevindt zich in het preview-scherm binnen Microsoft Office. Applicaties die gebruik maken van het preview-scherm, zoals Outlook, zijn hiervoor kwetsbaar.
De kwetsbaarheid heeft een CVSS-score van 9,8 ontvangen. Het NCSC heeft besloten het beveiligingsadvies rondom deze kwetsbaarheid op te schalen naar High/High nadat PoC publiek beschikbaar is gesteld. De PoC laat op dit moment alleen de potentie van de uitvoer zien en is niet functioneel.
Microsoft heeft updates beschikbaar gesteld waarmee de verschillende kwetsbaarheden verholpen worden. Het Digital Trust Center raadt aan om deze updates zo snel mogelijk te (laten) installeren. Meer informatie over de kwetsbaarheden, het installeren van de updates en eventuele workarounds vind je hier.
Alles bij de bron; DutchIT
In SonicWall firewalls zijn twee kwetsbaarheden ontdekt, die aanvallers de mogelijkheid bieden Denial of Service (DoS)- of Remote Code Execution (RCE)-aanvallen uit te voeren. In totaal zijn naar schatting ruim 178.000 firewalls kwetsbaar. Een patch is beschikbaar.
De kwetsbaarheden (CVE-2022-22274 en CVE-2023-0656) treffen specifiek Series 6- en Series 7-firewalls van SonicWall.
Vooralsnog zijn er geen aanwijzingen dat het lek actief wordt uitgebuit.
Alles bij de bron; DutchIT