Software & Algoritmes
- Gegevens
- Hoofdcategorie: Internet en Telecom
Er is een kwetsbaarheid in Microsoft Outlook, Word en Excel. De kwetsbaarheid in deze Microsoft Office apps is momenteel bekend onder “CVE-2023-23397”.
Microsoft heeft bevestigd dat er een ernstige kwetsbaarheid in Microsoft Office (Outlook, Excel, Word) is aangetroffen die het mogelijk maakt om - zonder interactie van een gebruiker - wachtwoordhashes te stelen waardoor toegang tot infrastructuur met de rechten van deze gebruiker mogelijk is.
Het probleem is aanwezig in alle versies van Microsoft Office voor Windows, die door Microsoft ondersteund worden. Andere versie zoals Office via web zijn niet kwetsbaar. Microsoft heeft hier inmiddels een beveiligingsupdate voor uitgebracht.
Alles bij de bron; Dutch-IT-Channel
- Gegevens
- Hoofdcategorie: Internet en Telecom
Een aantal smartphonemodellen van Samsung, Google en de Chinese fabrikant Vivo kunnen op afstand overgenomen worden. Kwaadwillenden kunnen de gaten in de beveiliging misbruiken om telefoons op afstand over te nemen, zonder dat de gebruiker dat merkt. Daarvoor waarschuwt Google. Aanvallers hebben alleen het telefoonnummer van het slachtoffer nodig om de smartphone te hacken.
De beveiligingsgaten zitten in bepaalde Exynos-processoren van Samsung. Die worden gebruikt in toestellen uit de Google Pixel 6- en 7-smartphoneserie, maar ook bijvoorbeeld in de Samsung Galaxy S22 en Galaxy A53.
Google heeft zelf al een beveiligingsupdate uitgebracht voor zijn Pixel-smartphones.
Van de achttien veiligheidslekken die Google heeft aangetroffen, hebben er volgens Samsung zes mogelijk invloed op zijn Galaxy-smartphones. "We hebben in maart beveiligingsupdates uitgebracht voor vijf van deze kwetsbaarheden", laat een woordvoerder van Samsung weten. "In april komt er nog een update uit om de overgebleven kwetsbaarheid te verhelpen."
Alles bij de bron; NU
- Gegevens
- Hoofdcategorie: Internet en Telecom
In het net geopende lab AI4forensics doen vier promovendi en een postdoc onderzoek naar kunstmatige intelligentie in het forensisch onderzoek.
Het onderzoekslab, een samenwerking tussen de Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI), is gericht op de toepassing van kunstmatige intelligentie in forensische bewijsvoering.
“Kunstmatige intelligentie kan objectief worden ingezet en we kunnen er veel efficiencywinst mee behalen. Steeds meer kunstmatige intelligentie is nodig om de groeiende hoeveelheden data te verwerken. Met de grote hoeveelheden data kunnen we uiteindelijk hopelijk ook misdrijven voorspellen en zelfs misdaden voorkomen.”, stelt prof.dr. Zeno Geradts één van de initiatiefnemers van het lab.
Eén promovendus richt zich op sprekersherkenning, 2 anderen werken aan de ontwikkeling van computermodellen voor het herkennen van verborgen berichten in foto’s of video’s en voor het herkennen van deepfakes. Een andere promovendus zit op het terrein van Data2Activity en onderzoekt of met de sensoren in mobiele telefoons en smartwatches achterhaald kan worden wat iemand gedaan heeft.
Alles bij de bron; Beveiliging
- Gegevens
- Hoofdcategorie: Internet en Telecom
We stellen de hele dag door vragen aan ChatGPT en soortgelijke chatbots, zonder dat we ons druk maken over wat er met die data gebeurt. Hoe zit het met ChatGPT en je privacy?
De grote apps zullen het komende jaar waarschijnlijk allemaal een eigen versie van ChatGPT introduceren. Dat is niet verwonderlijk, want ChatGPT is een ongekend groot succes. De chatbot heeft zich razendsnel het dagelijks leven binnengedrongen.
Mensen in allerlei beroepsgroepen gebruiken de technologie om het zichzelf makkelijker te maken. Daarbij worden ook belangrijke documenten of transcripten van meetings ingevoerd. Vertrouwelijke gesprekken worden zo in ChatGPT geplaatst om er een fijne samenvatting van te krijgen. Het is alleen belangrijk om daar terughoudend in te zijn, want qua privacy is ChatGPT een verschrikking.
Dergelijke vormen van kunstmatige intelligentie leren door ze een hoop data te voeren, waarna er verbanden worden gelegd. Zo heeft ChatGPT geleerd van een flinke stapel online teksten. Vraag je om de eerste zinnen van een boekklassieker, dan krijg je die zinnen gewoon – ook al ligt er copyright op de tekst.
Menig gebruiker ziet daar geen probleem in, want die vindt toegang tot informatie belangrijker. Maar alles wat jij typt in het venstertje van ChatGPT wordt opgeslagen en gebruikt om het taalmodel verder te trainen.
Als jij dus een gevoelig document, aantekeningen van een privégesprek of wellicht een lap code invult om te controleren, dan is die informatie nu onderdeel van de ChatGPT-database. Het is niet uitgesloten dat die informatie later opduikt in de antwoorden die anderen krijgen.
Er is ook geen enkele manier om te controleren wat ChatGPT van je bewaart en je kunt ook niet vragen of die data verwijderd kan worden. Het wordt allemaal opgeslokt in het grote geheel en je weet niet of en wanneer het weer uit wordt gespuugd.
Het succes van ChatGPT toont aan dat we graag onze privacy overboord gooien voor een klein beetje gemak. Met de opkomst van de chatbot is het belangrijk om daar voorzichtig mee te zijn.
Alles bij de bron; AndroidPlanet
- Gegevens
- Hoofdcategorie: Internet en Telecom
Onlangs riep het College voor de Rechten van de Mens burgers op om het te melden als zij last hebben van discriminerende algoritmes. Een goede maar praktisch zeer ingewikkelde oproep om gehoor aan te geven. Discriminatie in algoritmes is subtiel en op een paar duidelijke uitzonderingen na alleen vast te stellen aan de hand van meer data over het systeem. Dit schrijft Joris Krijger, Ethics en AI Officer, De Volksbank, in onderstaande blog.
De aansporing vanuit het College ligt in het verlengde van het proces rond de mogelijk discriminerende gezichtsherkenningssoftware die de VU heeft ingezet bij online tentamens.
Het vaststellen van onrechtmatige discriminatie met een algoritme is echter complex. Alle algoritmes ‘discrimineren’, ze worden juist ingezet om onderscheid te maken. En alle algoritmes maken fouten.
In dit geval betreft het een direct zichtbare AI-toepassing waarvan in de literatuur al bekend is dat discriminerende vooringenomenheid een serieus probleem is: van zelfrijdende auto’s tot opsporingssoftware, het maakt structureel meer fouten waar mensen van kleur door benadeeld worden.
Maar veruit de meeste algoritmes die een rol spelen in ons dagelijks leven zijn niet of nauwelijks zichtbaar. Als je al weet dat het een algoritme is dat jou benadeeld, moet je als burger sterk in je schoenen staan om aan te tonen dat de uitkomst én onterecht is én het resultaat is van een ongerechtvaardigd onderscheid dat het algoritme maakt op basis van jouw persoonlijke kenmerken.
Dat er opgetreden moet worden tegen dit soort systemen is evident maar of burgers de meest geschikte groep is om dit probleem te signaleren lijkt mij zeer de vraag.
Alles bij de bron; DutchIT
- Gegevens
- Hoofdcategorie: Internet en Telecom
Via nieuwe instellingen in de Google-app vinden gebruikers sneller de weg naar Googles privacyinstellingen rond advertenties. Anderzijds kan je ook vermijden dat Google aangepaste zoekresultaten weergeeft op basis van jouw locatie.
Je kan de nieuwe menu's vinden via: Google-app -> profielicoontje rechtsboven -> Instellingen -> Privacy en beveiliging.
Recent is Google daarnaast een test begonnen met een meer privacyvriendelijk systeem voor reclame in Android, de 'Privacy Sandbox'. De eerste gebruikers met een Android 13-telefoon kunnen het al testen. Google hiermee naar eigen zeggen minder informatie delen met adverteerders om de privacy van gebruikers te beschermen.
Alles bij de bron; AndroidWorld
- Gegevens
- Hoofdcategorie: Internet en Telecom
Kunstmatige intelligentie of artificial intelligence (AI) biedt allerlei kansen, maar brengt ook risico’s met zich mee. Zeker als deze technologie gebruikt wordt om gepersonaliseerde content aan te bieden. Dat zal een impact hebben op onze privacy. Daarom moeten er gezamenlijke regels voor AI worden bedacht in Brussel.
Dat zegt Europarlementariër Kim van Sparrentak (GroenLinks) in een interview met BNR.
Experts omarmen de technologie maar er kleven echter ook risico’s aan kunstmatige intelligentie. De Toeslagenaffaire en het fiasco met de Fraude Signalering Voorziening (FSV) zijn daar twee prominente voorbeelden van. Recentelijk kwam naar buiten dat scholieren AI-programma’s als ChatGPT gebruiken om huiswerkopdrachten te maken. En cybersecurityexperts waarschuwen dat hackers de techniek gaan gebruiken om malware te ontwikkelen of verbeteren.
Voor Hind Dekker-Abdulaziz en Paul van Meenen (beiden D66) was dat aanleiding om schriftelijke vragen te stellen aan het kabinet.
Alles bij de bron; VPN-Gids
- Gegevens
- Hoofdcategorie: Internet en Telecom
Het Nationaal Cyber Security Centrum (NCSC) waarschuwt voor een kwetsbaarheid in de wachtwoordmanager KeePass. Kwaadwillenden kunnen het lek gebruiken voor het verkrijgen van toegang tot gegevens die in KeePass zijn opgeslagen.
Het probleem (NCSC-2023-0044) zit in de configuratie van KeePass, die de wachtwoordmanager onversleuteld opslaat. Kwaadwillenden kunnen de configuratie hierdoor aanpassen en bijvoorbeeld een malafide exportregel toevoegen. Indien een gebruikers vervolgens de KeePass-database opent, zorgt deze regel ervoor dat KeePass de opgeslagen gegevens naar de aanvaller exporteert.
Het NCSC waarschuwt dat een proof-of-concept beschikbaar is, wat het uitbuiten van het lek vereenvoudigd. De ontwikkelaar van KeePass wil het lek echter niet verhelpen. Wel biedt KeePass de mogelijkheid bepaalde configuraties af te dwingen en zo misbruik van het lek te voorkomen. Dit kan met een zogenaamd Enforced Configuration File.
Het NCSC adviseert organisaties deze opties te gebruiken. Meer informatie is hier beschikbaar.
Alles bij de bron; DutchIT-Channel
- Gegevens
- Hoofdcategorie: Internet en Telecom
Het kabinet heeft op algoritmes.overheid.nl de eerste versie van een publiek register gelanceerd waarin algoritmes zijn te vinden die door overheden worden toegepast. Volgens staatssecretaris Van Huffelen schiet de transparantie over de inzet van algoritmes door de overheid nog vaak tekort. Iets dat het register zou moeten veranderen.
"Burgers moeten erop kunnen vertrouwen dat algoritmes voldoen aan publieke waarden en de daarvan afgeleide (wettelijke) normen en dat uitgelegd wordt hoe ze werken. Op basis daarvan kunnen burgers de overheid desgewenst kritisch volgen en bevragen of zij zich aan de regels houdt", aldus de staatssecretaris.
Volgens Van Huffelen gaat het hier om een eerste versie en is verdere doorontwikkeling "beslist nodig". Het komend jaar zal in overleg met overheden gewerkt worden aan een eenduidige registratie van algoritmes in het register.
In de huidige versie van het register zijn de gegevens handmatig ingevoerd. Het plan is om de informatie automatisch op te halen uit decentrale algoritmeregisters. Deelname aan het algoritmeregister is niet verplicht voor overheden, maar hier wordt wel naar gekeken.
Alles bij de bron; Security
- Gegevens
- Hoofdcategorie: Internet en Telecom
Lensa, momenteel ook bij ons de populairste gratis app, is in Russische handen en dat leidt tot bezorgdheid in de digitale wandelgangen. Voor wie de app nog niet kent: gebruikers kunnen tien tot twintig foto’s van zichzelf uploaden en krijgen in ruil (en tegen betaling) vijftig tot tweehonderd door artificiële intelligentie gegenereerde zelfportretten.
Dat doet denken aan bijvoorbeeld FaceApp, die andere populaire app die ons massaal ouder deed lijken. Onder meer privacywaakhond Bits of Freedom trok in 2019 aan de alarmbel daarover.
Een snelle blik op het privacybeleid van Lensa leert ons dat de app uw selfies meteen weer verwijdert zodra uw portretten afgeleverd zijn. Een heel ander verhaal dan FaceApp dus. Rob Heyman van het Vlaams Kenniscentrum voor Data en Maatschappij stelt dat in het geval van Lensa is privacy wel “de minste van onze zorgen momenteel”.
Heyman en Nathalie Smuha, die zich specialiseert in AI, recht en ethiek aan de KU Leuven waarschuwen het gebruikte AI systeem de deur wagenwijd openzet naar andere vormen van misbruik. “Stel dat iemand wraakporno wil maken”, zegt Smuha. “Deze en andere soortgelijke apps controleren niet of de foto’s die opgeladen worden effectief van jezelf zijn. Je kan dus perfect foto’s van je ex insturen en eindigen met erg geseksualiseerde beelden, zonder dat die persoon van iets weet.”
Daarnaast zijn er ook nog fundamentele problemen met de auteursrechten van de afbeeldingen. Het AI-systeem achter Lensa laat zich inspireren door bestaande beelden, en ook die beelden zijn uiteraard ooit gemaakt door iemand. Vooral kunstwerken van digitale kunstenaars blijken vogels voor de kat te zijn in dit verhaal.
Alles bij de bron; deMorgen