Bedrijven tonen mensen gebaseerd op hun privédata verschillende prijzen voor hetzelfde product, wat ook wel 'surveillance pricing' wordt genoemd, zo stelt de Amerikaanse privacytoezichthouder FTC. Het gaat dan met name om tussenpartijen die de prijs aanpassen op basis van locatie, demografische data en zelfs de muisbewegingen op een website.
Volgens de FTC kan een dergelijke werkwijze gevolgen hebben voor privacy, concurrentie en consumentenbescherming.
Het onderzoek is nog gaande, maar de FTC is met voorlopige bevindingen gekomen.
Uit deze voorlopig bevindingen blijkt dat bijvoorbeeld cosmetische bedrijven hun prijzen aanpassen op basis van specifieke huidsoorten en huidskleuren. Ook zoekopdrachten en eerdere aankopen kunnen tot hogere prijzen leiden.
Alles bij de bron; Security
In Antwerpen wordt kunstmatige intelligentie gebruikt om overtreders zoals sluikstorters en foutparkeerders sneller op te sporen. Slimme camera’s registreren verdachte situaties, zoals automobilisten die afval dumpen, fietsers die vuilniszakken achterlaten of voorbijgangers die afval ongemerkt laten vallen. Dankzij software is een aantal gewone camera’s omgevormd tot geavanceerde middelen om afval te traceren.
Zou het Amsterdam, dat toch ook vaak te kampen heeft met grote overlast, kunnen helpen?
"We leven in een tijd waarin kunstmatige intelligentie wordt gepresenteerd als zo’n beetje de oplossing voor ieder probleem en voordat je überhaupt aan de slag kunt gaan, zul je eerst het algoritme moeten trainen en beoordelen", zegt Frans Feldberg, hoogleraar Data Driven Business Innovation aan de Vrije Universiteit. "De kosten van apparatuur zijn relatief beperkt, maar de kosten voor het ontwikkelen en het trainen van het algoritme kunnen aanzienlijk zijn."
"Mijn advies aan de gemeente Amsterdam is om dit niet te doen", legt Michel Klein, Associate Professor AI & Behaviour aan de Vrije Universiteit, uit. "Als je als stad wat zou willen doen aan het afvalprobleem met AI, dan zou ik zeggen: misschien moet je dan onder bijvoorbeeld veegauto's camera's hangen. Probeer dan met behulp van AI te kijken: waar ligt er meer afval, waar minder afval? Welk soort afval is dat dan?"
Bovendien is het de vraag hoe de privacy gewaarborgd is. Volgens Lotte Houwing, beleidsadviseur van Bits of Freedom, hoeft het gebruik van AI niet per se een privacyinbreuk te zijn; dat hangt af van het doel en de toepassing. "Je moet voorkomen dat de lat voor technologie die het gedrag van mensen registreert steeds lager wordt. Eerst moet je kijken wat het echte probleem is en of er opties zijn die geen inbreuk op de privacy maken."
Maar er zijn meer ethische bezwaren. Zoals discriminatie in wijken, omdat de ene wijk schoner is dan de andere. Ook dreigen met de inzet van zo'n AI-systeem meer boetes. Volgens Houwing zou een stad als Amsterdam echt andere oplossingen moeten bedenken tegen zwerfafval of sluikstorten. "Want dit stuurt heel erg toe naar wie moeten we beboeten om op die manier het probleem op te lossen." Gebruik maken van sensoren is niet privacygevoelig in vergelijking met camera's.
Alles bij de bron; NHNieuws
Op steeds meer wegen in het Verenigd Koninkrijk verschijnen slimme camera's die kunnen detecteren of een bestuurder onder invloed is.
Het systeem, ontwikkeld door technologiebedrijf Acusensus, analyseert het rijgedrag van passerende voertuigen. De kunstmatige intelligentie let daarbij op typische kenmerken van rijden onder invloed, zoals slingerend rijgedrag, onregelmatige snelheid en plotseling remmen.
Als de camera verdacht gedrag signaleert, worden politieagenten in de buurt direct gewaarschuwd. Zij kunnen dan besluiten het voertuig aan de kant te zetten voor een alcohol- of drugstest. Het gaat niet om automatische boetes: de technologie dient vooral om agenten efficiënter in te zetten.
De eerste proeven met deze camera's zijn inmiddels succesvol afgerond, in totaal hebben negen politiekorpsen de technologie getest.
Vooral in de regio Greater Manchester zijn de resultaten noemenswaardig: in slechts vijf weken tijd werden meer dan 3.200 overtredingen geconstateerd. Het ging daarbij niet alleen om rijden onder invloed, maar ook om telefoongebruik achter het stuur en het niet dragen van gordels.
Acusensus, het bedrijf achter de technologie, meent wel dat privacy een belangrijke rol speelt. Het systeem is volgens het bedrijf niet bedoeld om bestuurders constant in de gaten te houden, maar om levensgevaarlijk rijgedrag te voorkomen voordat er ongelukken gebeuren.
Na de succesvolle tests ligt de weg open voor landelijke uitrol. Of de technologie ooit ook naar de rest van Europa komt, is nog koffiedik kijken.
Alles bij de bron; WelingelichteKringen
Jumbo stopt met het gebruik van software om 'afwijkend gedrag' van klanten te herkennen.
Begin dit jaar startte het bedrijf een proef met de technologie. De supermarktketen verwachtte naar eigen zeggen veel van de test met nieuwe 'AI-software' die 'afwijkend gedrag' van klanten in de winkel moest gaan herkennen. "Bovendien maakt AI-technologie voortaan gerichte steekproeven mogelijk", aldus Jumbo afgelopen februari.
"We hebben wel geprobeerd om gebruik te maken van technologie door computers afwijkende gedragspatronen te laten herkennen, maar daar gaan we niet mee verder", laat ceo Ton van Veen tegenover De Telegraaf weten. "Het doet het gevoel bij mensen om te winkelen geen goed. Klanten zijn geen potentiële dieven, klanten zijn hartstikke welkom, ook als iemand een keer vergeten is iets te scannen", voegt hij toe.
Eerder dit jaar besloot Dirk van den Broek het personeel van bodycams te voorzien, maar dat ziet Van Veen ook niet zitten. "Sociale controle, oogcontact met mensen is belangrijk."
Alles bij de bron; Security
De European Data Protection Board (EDPB) heeft een advies aangenomen over het gebruik van persoonsgegevens bij het ontwikkelen en in gebruik nemen van AI-modellen.
Het advies gaat over drie aspecten:
1 Wanneer en hoe AI-modellen anoniem zijn.
2 Of en hoe gerechtvaardigd belang een grondslag kan zijn voor het ontwikkelen en gebruiken van AI-modellen.
3 Wat er gebeurt als er bij het ontwikkelen van een AI-model persoonsgegevens zijn gebruikt die onrechtmatig zijn verwerkt. En hoe het zit met ‘first party’ en ‘third party’ gegevens.
Alles bij de bron; Dutch-IT-Channel
Oekraïne heeft sinds het begin van de oorlog ruim twee miljoen uur aan dronevideobeelden opgeslagen die het gebruikt om AI-modellen te trainen. .
Die cijfers komen van een nonprofitorganisatie die een systeem genaamd Ochi maakt. Dat systeem verzamelt dronebeelden van zo'n 15.000 troepengroepen aan het Oekraïense front die drones gebruiken in de strijd. Oleksandr Dmitriev van de organisatie zegt tegen Reuters dat het systeem sinds het begin van de oorlog twee miljoen uur aan videobeelden van drones heeft verzameld. Dat zijn beelden die in de strijd zijn opgenomen.
Die beelden lijken te worden gebruikt om nieuwe drones te trainen. De videobeelden kunnen AI-modellen helpen, al blijft Dmitriev vaag over de details. Het gaat om het trainen van AI-modellen voor 'vechttactieken, het vinden van doelwitten en het inschatten van de effectiviteit van wapensystemen'.
Het systeem is in 2022 opgezet, aanvankelijk om militaire leiders meer informatie te geven over het omliggende gebied. Daarnaast worden de dronebeelden standaard opgeslagen om de hele oorlog te documenteren.
Alles bij de bron; Tweakers
De Recall-functie, ontworpen om gebruikers te helpen door hun pc-activiteit op te nemen werd aanvankelijk in mei aangekondigd maar wordt nu naar verwachting in december gelanceerd.
Recall maakt gebruik van de schermopnamemogelijkheden van Windows om gebruikers te helpen bij het eenvoudig terugvinden van eerdere acties of bekeken inhoud. Bezorgdheid over de privacy, geuit door cyberbeveiligingsexperts, leidde er toe dat Microsoft de lancering uitstelde. In tussentijd voerde het tests uit met deelnemers aan het Windows Insider-programma.
De aankondiging volgt op recente controverse rond Recall. Het gaat daarbij om beweringen van YouTubers die menen dat de functie stiekem is geïnstalleerd en geactiveerd op Windows-computers die zijn bijgewerkt met versie 24H2.
Brandon LeBlanc, Chief Product Officer voor Windows, verduidelijkte dat Recall niet verplicht zal zijn. Gebruikers kunnen er dus voor kiezen om het te activeren of deactiveren.
Het is nog niet duidelijk of België en andere Europese landen direct toegang krijgen tot Recall wanneer deze breder wordt uitgerold.
Alles bij de bron; BusinessAM
Een beetje hulp van kunstmatige intelligentie (AI) kan het werk verlichten, dus gebruiken rijksambtenaren het ook. Uit onderzoek van de Algemene Rekenkamer blijkt dat zeventig ondervraagde overheidsorganisaties bij elkaar 433 AI-tools gebruiken of gebruikten. Op dit moment zijn 120 tools actief in gebruik.
Bij de helft van die AI-tools heeft vooraf geen risico-analyse plaatsgevonden voordat ze werden ingezet. De risico-analyses die wel plaatsvonden lopen bovendien qua inhoud erg uiteen. Ook is slechts 5 procent van de gebruikte AI-systemen terug te vinden in het hiervoor bedoelde algoritmeregister van de overheid.
Dat er risico’s kleven aan het gebruik van AI moge duidelijk zijn. De Rekenkamer waarschuwt onder andere voor privacyschending en slechte informatiebeveiliging.
Volgens de Rekenkamer is ongeveer twee derde van de gebruikte systemen gericht op interne processen, dingen die niet direct impact hebben op burgers en bedrijven. Bijvoorbeeld tools die gesprekken automatisch omzetten naar tekst of documenten in een handomdraai anonimiseren.
Maar binnen de overheid worden ook meer geavanceerde systemen gebruikt: tools die toeslagen regelen voor kwetsbare huishoudens, bijvoorbeeld. Of tools die mogelijke fraude kunnen opsporen.
Dat kan allemaal, maar bedenk vooraf goed welke imperfecties het systeem heeft, benadrukt hoogleraar Mykola Pechenizkiy van de TU Eindhoven die zich heeft gespecialiseerd in het ethisch gebruik van AI.
“Het is belangrijk om te beseffen dat kunstmatige intelligentie nooit honderd procent accuraat is. AI oversimplificeert, en het heeft nog altijd een probleem met vooroordelen. Dat zal ook nog jaren zo blijven. Deels is dat een technisch probleem, maar voor een groot deel ook een sociaal probleem. In de ‘echte wereld’ bestaat immers ook veel bias.”
Volgens Pechenizkiy zouden overheden een voortrekkersrol op zich moeten nemen en laten zien hoe AI ethisch gebruikt kan worden. “Daar kunnen branches waar AI veel potentie biedt, zoals de zorg en het onderwijs, dan weer van profiteren.”
Alles bij de bron; Trouw
Kwetsbaarheden in Apples spraakassistent Siri maken het opnieuw mogelijk voor een aanvaller met fysieke toegang tot een vergrendelde iPhone om gevoelige informatie te stelen. Apple heeft beveiligingsupdates uitgebracht om de problemen te verhelpen voor de kwetsbaarheid aangeduid als CVE-2024-40840.
Twee andere Siri-kwetsbaarheden (CVE-2024-44139 en CVE-2024-44180) maken het mogelijk voor een aanvaller met fysieke toegang om op een vergrendelde iPhone toegang tot contacten te krijgen.
Verder zorgt een 'privacyprobleem' in Siri ervoor dat malafide apps toegang tot gevoelige gebruikersgegevens kunnen krijgen. Apple waarschuwt ook voor een beveiligingslek in 'Accessibility' waardoor een aanvaller met fysieke toegang tot een vergrendelde iPhone via het toestel apparaten in de omgeving kan bedienen. Apple heeft de problemen verholpen in iOS en iPadOS 18. In augustus kwam Apple ook al met updates voor verschillende Siri-kwetsbaarheden.
Alles bij de bron; Security
Socialmediaplatform X heeft donderdag in een Ierse rechtbank toegezegd dat de data die tussen 7 mei en 1 augustus is verzameld voorlopig niet zal gebruiken zijn AI-chatbot Grok te trainen. Eerst moeten gebruikers in de EU de mogelijkheid krijgen hun toestemming in te trekken.
Het platform heeft gezegd dat alle gebruikers kunnen beslissen of hun openbare berichten gebruikt mogen worden om Grok te trainen. De rechter wees er echter op dat X op 7 mei begon met het verzamelen van data van EU-gebruikers, maar pas sinds 16 juli een afmeldmogelijkheid aanbiedt via de privacyinstellingen. Ook werd de optie aanvankelijk nog niet naar alle gebruikers uitgerold.
In juli zei de Ierse Data Protection Commission dat het 'verbaasd' was dat X Europese gebruikers automatisch toestemming laat geven voor het gebruik van hun data voor het trainen van Grok. Daarom had de DPC een rechtszaak aangespannen tegen X, waarin het eist om het verzamelen van data op X voor het trainen van AI te beperken of stop te zetten.
Alles bij de bron; Tweakers