Uit onderzoek van de NOS en Nieuwsuur blijkt dat het UWV illegaal data verzamelde van uitkeringsgerechtigden. De Autoriteit Persoonsgegevens en juristen zijn kritisch op de manier waarop de uitkeringsinstantie dit deed. Er wordt zelfs gesproken over overheidssurveillance.
Voor de dataverzameling werden alle bezoekers van UWV.nl en Werk.nl gevolgd, zelfs als er geen concrete aanleiding was om dit te doen....
....Het UWV zou zelfs risico lopen op hoge boetes, van zowel de AP als de Autoriteit Consument en Markt. Het zou gaan om boetes tot ruim 20 miljoen euro. Advocaat Anton Ekker procedeerde eerder succesvol tegen andere overheidsalgoritmes en spreekt nu tegenover de NOS en Nieuwsuur over een ongerichte maatregel.
“Het punt is dat UWV een grote groep mensen volgt, waarvan het allergrootste deel geen fraude heeft gepleegd. Dat komt neer op overheidssurveillance.” De dataverzameling zou alleen kunnen als er een concreet vermoeden van overtreding is, maar volgens de landsadvocaat gebeurde het stelselmatig.
Alles bij de bron; Techzine
OpenAI, het bedrijf achter de populaire AI-bot ChatGPT, moet mogelijk snel op zoek naar een team van goede advocaten. De Amerikaanse Federal Trade Commission (FTC) is een onderzoek gestart om te bekijken of OpenAI al dan niet de regels ter bescherming van consumenten heeft overtreden.
Dit blijkt uit documenten die The Washington Post heeft ingezien. OpenAI is niet erg transparant over de manier waarop gegevens worden verzameld om zijn artificial intelligence-model te trainen. De vraag daarbij is ook of de privacy van gebruikers voldoende wordt beschermd.
In het twintig pagina’s tellende document dat The Washington Post in handen kreeg, verordonneert de FTC OpenAI om gedetailleerd inzage te geven in de manier waarop het bedrijf gegevens verzamelt om het taalmodel te trainen dat aan de basis ligt van ChatGPT...
...Als blijkt dat OpenAI de regels heeft overtreden, kan het bedrijf boetes opgelegd krijgen en gedwongen worden om strikte protocollen voor gegevensbeheer te volgen. Techbedrijven als Twitter en Facebook hebben in het verleden ook dit soort maatregelen door de FTC opgelegd gekregen.
Alles bij de bron; BusinessInsider
Google heeft op 1 juli het privacybeleid gewijzigd, waardoor het nu openbare data op internet kan gebruiken voor het trainen van AI-modellen. In een vorige versie wel nog gesteld dat publiek beschikbare informatie kan worden verzameld voor het trainen van de taalmodellen en ontwikkelen van features zoals Google Translate. In de nieuwste versie van het privacybeleid is deze tekst aangepast.
Er staat nu dat publiek beschikbare informatie van publiek beschikbare bronnen kan worden gebruikt voor het trainen van Googles AI-modellen en het ontwikkelen van producten zoals Bard en Cloud AI mogelijkheden.
Alles bij de bron; Security
Er is weer een nieuwe versie van WhatsApp beschikbaar. In deze update wordt voornamelijk gefocust op jouw privacy, die is straks veel beter beschermd.
Met de nieuwe functies heb je straks een beter overzicht op wie je wel en niet kan bellen. Daarnaast kan je met de nieuwe update controleren of je wel de juiste privacy-instellingen hebt ingeschakeld.
Eerder voegde WhatsApp al belangrijke instellingen toe als end-to-end-encryptie en het vergrendelen van verschillende chats. Ook kan je van eenmalige foto’s op WhatsApp geen screenshot meer maken.
Alles bij de bron; Iphoned
De regering moet met een duidelijk standpunt komen over de ontwikkeling van ChatGPT en de regie nemen in beleid voor generatieve ai. Nu verschuilt zij zich te veel achter de Autoriteit Persoonsgegevens (AP) en ‘holt zij hijgend’ achter de razendsnelle ontwikkelingen aan. Dat vindt Privacy First.
Belangenorganisatie Privacy First beschrijft in een overzichtsartikel de ontwikkelingen rondom ChatGPT. Daarin komen tal van onderwerpen aan bod waar de belangenorganisatie een standpunt over inneemt. Van de inmiddels teruggedraaide Italiaanse ban op ChatGPT, tot trainingsdata van het systeem, en Googles antwoord op ChatGPT: Bard. Ook wijzen de privacy-voorvechters op de lobby van grote ai-spelers rondom Europese ai-wetgeving.
Volgens Privacy First blijft de overheid teveel hangen in voorlichting via de AP en ontbreekt het aan het innemen van concrete standpunten en beleid om de razendsnelle ontwikkelingen te reguleren met ai-beleid.
Alles bij de bron; Computable
Het algoritmeregister, dat de overheid transparanter moet maken, wordt een half jaar na de lancering nauwelijks ingevuld. En de informatie die er wel instaat, is niet erg toegankelijk.
In het register maken overheidsinstellingen, bijvoorbeeld gemeentes en ministeries, openbaar hoe ze tot (semi-)geautomatiseerde besluiten komen. Het algoritmegebruik door de overheid ligt onder een vergrootglas door de toeslagenaffaire, waarin dubbele nationaliteit werd meegewogen in een algoritme voor risicoanalyse van toeslagaanvragen.
Bij de lancering in december 2022 stonden er 109 algoritmes op de website. Die kwamen van instellingen die de informatie al eerder online hadden gezet. Een half jaar later zijn het er 123...
...juridisch adviseur en onderzoeker Mariette Lokin betwijfelt of het algoritmeregister meer transparantie oplevert. "Het is niet heel toegankelijk zoals het nu is opgezet." Er moet een duidelijker definitie komen van welke algoritmes erin moeten staan, vindt ook onderzoeker Iris Muis van de Data School van de Universiteit Utrecht. "Zijn dat alleen de high-impact algoritmes? En wat maakt iets tot een high-impact algoritme?"
Beide onderzoekers pleiten voor bijvoorbeeld een 'bijsluiter' bij overheidsbrieven in plaats van het register. "Je moet uitgaan van de vraag: wat willen burgers precies weten?", zegt Lokin. Het register is een generiek antwoord op die vraag, terwijl je specifieker zou moeten zijn.
"Bij elke brief die je van een overheidsinstantie krijgt, zou uitgelegd moeten worden met welke beslisregels zij tot die beslissing zijn gekomen en welke gegevens daarbij gebruikt zijn. Dan ben je echt open over de manier waarop je de wet toepast als overheid. Eigenlijk een algoritmeregister op maat."
Alles bij de bron; NOS
De Autoriteit Persoonsgegevens (AP) heeft zorgen rondom de omgang met persoonsgegevens bij organisaties die generatieve AI gebruiken, zoals ChatGPT. De privacywaakhond heeft daarom aangekondigd de komende tijd verschillende acties te ondernemen. Als eerste stap is ChatGPT-maker OpenAI om opheldering gevraagd over zijn omgang met persoonsgegevens.
ChatGPT is net als andere AI-modellen getraind met data. Daarvoor zijn bijvoorbeeld data verzameld die al op het internet stonden, maar er kan ook gebruik worden gemaakt van vragen die mensen stellen. Die vragen worden dan opgeslagen en toegevoegd aan de trainingsset. Volgens de AP kunnen dergelijke data ook gevoelige en heel persoonlijke informatie bevatten, "bijvoorbeeld als iemand advies vraagt over een echtelijke ruzie of over medische zaken".
Of ChatGPT dergelijke data ook gebruikt en zo ja, op welke manier dan, is niet helemaal duidelijk. Dat wil de privacywaakhond nu weten van OpenAI.
De AP is niet de enige Europese privacytoezichthouder met vragen rondom generatieve AI. Eind mei kondigde het samenwerkingsverband van Europese privacytoezichthouders EDBP aan dat een speciale werkgroep belast wordt met de consequenties van generatieve AI voor de gevoelige persoonsgegevens van Europanen.
Alles bij de bron: AGConnect
Slimme conversatiebots worden meer en meer gebruikt. Ook andere vormen van artificiële intelligentie ontwikkelen zich snel. De wetgevers dreigen achterop te raken. Expert Filip Van Elsen ziet manieren om sneller bij te sturen.
Het Europees Parlement keurde vorige week een tekst goed over systemen zoals ChatGPT. Die slimme chatbots gebruiken generatieve AI, artificiële intelligentie die converseert met de gebruiker en teksten en beelden produceert.
En de Europees Parlement boog zich ook over andere AI, zoals voorspellende politiesystemen en biometrische systemen die gevoelige persoonskenmerken gebruiken. Er volgen nu lange onderhandelingen met de Europese Commissie en de Europese Raad om te komen tot een AI Act, een Europese wetgeving over artificiële intelligentie.
'Het is een compromistekst', zegt Filip Van Elsen, 'Hij gaat een positief effect hebben op het wereldwijde debat over hoe je AI moet regelen. De tekst legt veel documentatieverplichtingen op. In Europa neigen we traditioneel meer naar het creëren van bijkomende verplichtingen voor bedrijven, terwijl andere regelgevers, zoals de Britse, meer de innovatie willen stimuleren.' Van Elsen denkt dat de tekst nog wordt bijgestuurd.
Hij is vooral bezorgd over de timing. 'Het duurt nog minstens twee jaar voor de AI-wetgeving er is. En dan ga ik er vanuit dat de Europese verkiezingen de zaak niet vertragen.' Ondertussen blijft de technologie evolueren. 'Bedrijven voeren een race tegen de klok om als eerste nieuwe features op de markt te brengen. Systemen worden autonomer, onvoorspelbaarder en krijgen meer impact.'
Wat volgens Van Elsen wel kan, is het regelgevende proces versnellen. 'We kunnen nieuwe AI-systemen toetsen aan bestaande normen, bijvoorbeeld die over gegevensbescherming, consumentenbescherming en intellectueel eigendomsrecht. De Britse privacycommissie heeft enkele weken geleden gezegd dat ze richtlijnen gaat opstellen over het toepassen van gegevensbescherming in AI.' Een aantal van die principes is dezelfde als de Europese, zoals die over transparantie, governance, correctheid en het vermijden van discriminatie.
Niets belet regelgevers en overheden nu al richtlijnen uit te vaardigen. 'Iedereen kijkt naar iedereen en wacht op de AI Act. We zouden moeten erkennen dat de technologie sneller evolueert dan het wetgevende proces.' Maar een dergelijke aanpak past niet in de Europese traditie, die mikt op grondige en exhaustieve wetteksten.
Alles bij de bron; deTijd
Miljoenen smartphones zijn al voordat zij in de winkel liggen besmet met malware. Cybercriminelen weten in de toeleveringsketen van de smartphones malware op de apparaten te plaatsen. In totaal zouden miljoenen besmette apparaten via deze route in handen zijn gevallen van nietsvermoedende gebruikers.
Hiervoor waarschuwen onderzoekers van Trend Micro op Black Hat Asia. Het gaat daarbij met name om goedkope Android-smartphones. Ook op smartwatches en smart TV's is echter malware aangetroffen.
Het probleem is overigens niet nieuw. Check Point Software Technologies waarschuwde in 2017 al op smartphones van Samsung, LG, Xiaomi, ZTE, Oppo, Vivo, Asus en Lenovo malware te hebben aangetroffen voordat zij werden verscheept. In totaal ging het toen om 38 verschillende Android-apparaten. Ook toen vermoedde de onderzoekers dat de malware in de toeleveringsketen op de apparaten werd geïnstalleerd.
De besmette apparaten zijn met name in Zuidoost-Azië en Oost-Europa aangetroffen. Trend Micro waarschuwt echter dat de problemen zich niet tot deze regio hoeven te beperken en dit dan ook een belangrijk aandachtspunt is voor partijen wereldwijd.
Ales bij de bron; DutchIT-channel
Door te chatten met Mijn AI, een bot van Snapchat die met behulp van kunstmatige intelligentie antwoordt en producten of uitjes aanraadt, geven gebruikers van de app informatie over zichzelf bloot die kan worden ingezet voor commercieel gewin.
In de eerste plaats is een virtueel vriendje dat altijd voor je klaarstaat natuurlijk een slimme manier om gebruikers zo vaak mogelijk de app te laten openen, zodat ze daar zo veel mogelijk tijd spenderen. Maar Snapchat ziet ook grote potentie in de combinatie van kunstmatige intelligentie en advertenties, zei een medewerker onlangs.
Door gebruikers aan te moedigen de chatbot om tips te vragen voor cadeautjes, restaurants, een leuke dag uit of shampoo voor droog haar, ontstaat er voor het bedrijf een geweldige mogelijkheid gerichte advertenties aan te bieden.
‘Google en Apple hebben nu een machtige positie, omdat zij de infrastructuur beheren om deze profielen op te bouwen. De rest probeert hier op andere manieren aan te komen’, zegt Nadya Purtova, hoogleraar recht, innovatie en technologie aan de Universiteit Utrecht.
Uitgebreide chatgesprekken kunnen zeker een onderdeel van die strategie zijn, denkt Purtova. ‘Er zijn eenvoudigere manieren om complexe profielen van mensen samen te stellen, ook zonder die cookies, maar een chatbot kan in combinatie met zo’n profiel wel voordeel opleveren. Het belangrijkste bij een advertentie is dat je de juiste inhoud op de juiste tijd laat zien. Zo’n gesprek kan informatie leveren over wanneer dat moment precies is.’
Bovendien kan de chatbot in het gesprek eventueel zelf gesponsorde aanbevelingen van diensten of producten leveren – mogelijk zonder dat de gebruiker dat doorheeft.
Een virtueel vriendje dat geld krijgt om bepaalde dingen tegen (veelal) minderjarige gebruikers te zeggen of data uit hun gesprekken doorverkoopt – techexpert Jarno Duursma is er fel op tegen, ‘Chatbots zijn niet per se schadelijk, ze kunnen een mooi instrument zijn om kinderen bijvoorbeeld sociale vaardigheden aan te leren. Maar dat is niet het doel bij dit soort bots, die er puur zijn voor commercieel gewin. Zeker kwetsbare kinderen, die vatbaarder zijn voor manipulatie of hun toevlucht tot zo’n bot zoeken omdat ze weinig vrienden hebben of niet lekker in hun vel zitten, wil je niet urenlang met zo’n bot laten kletsen. We moeten dit niet willen, punt.’
Alles bij de bron; Volkskrant