Wij hebben het afgelopen jaar veel ervaring opgedaan met personalisatie van de customer journey over verschillende kanalen. We doen dit onder andere met behulp van Selligent Marketing Cloud. Selligent is ooit begonnen als e-mailmarketingsysteem met de e-mail opt-in als hart. De afgelopen jaren is het platform consequent doorontwikkeld zodat niet alleen e-mail en sms maar ook social koppelingen (zoals met Facebook), in-app en browsercommunicatie vanuit het systeem kunnen worden meegenomen in campagnes.

Een van de recente doorontwikkelingen is Selligent Site, een module waarmee je onbekende sitebezoekers identificeert en kunt koppelen aan CRM-informatie. Zo ontstaat een CRM-profiel waaraan je je content kunt aanpassen. Daarbij maakt het niet uit of iemand op je website of in de app komt of dat de interactie via Facebook plaats vindt – via alle kanalen is gepersonaliseerde communicatie mogelijk...

...Het interessante van deze opzet is dat je cross-device kunt targeten en data kunt opbouwen. Als de nieuwsbrief is geopend op desktop en er vervolgens mobiel op de website wordt gekeken, dan wordt dat alsnog allemaal vastgelegd in het profiel.

Dit gebeurt real-time – een customer journey is immers niet statisch. Als iemand zich anders gaat gedragen, pas je de boodschap aan. Een simpel voorbeeld: iemand bezoekt je site en bekijkt een bepaalde productcategorie. Dan zorg je ervoor dat er een pop-in verschijnt met de vraag of die persoon zich in wil schrijven voor de nieuwsbrief die specifiek over die productcategorie gaat....

...Ik ben er heilig van overtuigd dat als je je site wilt personaliseren met behulp van een 360-gradenklantbeeld, je nog niet kunt zonder het e-mailadres van de klant. Er zijn meer mogelijkheden maar e-mail blijft het meest waardevolle stukje vastgoed op het internet.

De AVG zorgt ervoor dat het niet meer alleen gaat om een opt-in voor het gebruik van het e-mailadres van de consument. Het gaat nu ook om een opt-in voor privacy. Je moet immers duidelijke toestemming zien te krijgen om 1st en 3rd party cookies te plaatsen en informatie te delen met Facebook om in alle kanalen gepersonaliseerd te kunnen communiceren. Doordat de regels strenger worden, is het alleen maar belangrijker geworden dat je de consument overtuigd van je toegevoegde waarde zodat je hem of haar op basis van zijn interesses mag benaderen. Dit is alleen succesvol, als je boodschap relevanter wordt.

Alles bij de bron; Emerce


 

The Wall Street Journal meldt  dat bedrijven, waaronder Nissan en RBC, door Facebook op een 'whitelist' zijn gezet, en daardoor konden doorgaan met het inzien van persoonlijke gegevens, ondanks dat Facebook had beloofd zijn api's af te sluiten voor bedrijven voor het vergaren van persoonlijke gegevens.

Facebook maakt het al mogelijk om bedrijven hun advertenties te laten richten op speciaal gedefinieerde gebruikersgroepen, maar de praktijk om bedrijven direct toegang te geven tot gebruikersdata zou dus enkele jaren geleden al gestopt moeten zijn. In een reactie nuanceert Facebook het verhaal van The Wall Street Journal enigszins en stelt het bedrijf dat onder de nieuwe deals er veel minder toegang tot data werd gegeven dan voorheen. Zo zou persoonlijke informatie niet zijn gedeeld, maar is de lijst met vrienden dus wel inzichtelijk gemaakt zoals The Wall Street Journal bericht. De deals met bedrijven om de toegang tot persoonlijke gegevens te verlengen, zouden enkele jaren geleden al zijn geëindigd.

Eerder deze week kwam al naar buiten dat Facebook deals met verscheidene smartphonefabrikanten heeft gesloten voor inzage in gebruikersgegevens. Dit verhaal werd gepubliceerd door The New York Times, en lijkt dus nauw verwant aan het verhaal van The Wall Street Journal over het verlengen van deals met bedrijven om persoonlijke gegevens inzichtelijk te maken. 

Alles bij de bron; Tweakers


 

De campus van de Erasmus Universiteit stond donderdag volop in het teken van privacy. Op verschillende plekken vond het event Mind Your Data. Privacy! plaats. Hoe veel willen studenten kwijt aan de universiteit? Dat was de vraag. ’s Middags was het tijd voor een paneldiscussie waarin studenten hun mening konden geven over de nieuwe plannen voor studentendata-analyse.

Het toepassen van data-analyse in universitair onderwijs wordt ook wel ‘Learning Analytics’ genoemd; een combinatie van de observatie van de docent, evaluatie door studenten en de data verzameld in een online leeromgeving, zoals Canvas. “De komst van Learning Analytics draagt bij aan de nieuwe visie die de universiteit uitdraagt, waar participatie door studenten een essentieel onderdeel van is.”

“Online leeromgevingen als Canvas openen de poort naar een schat aan data om de kwaliteit van het onderwijs te verbeteren”, zegt Stabel. Verder kan het leergedrag van studenten worden gemonitord en geëvalueerd, legde Stabel uit.

Dit laatste voorbeeld stuitte op weerstand vanuit het publiek. Op de vraag hoeveel aanwezigen het eens zijn met de mogelijkheid dat docenten de activiteiten van studenten in de online omgeving kunnen bekijken, staken slechts drie aanwezigen hun hand omhoog – onder wie twee docenten.

De mening van het publiek sloot meer aan op het betoog van universiteitsraadslid en student Daniel Sieczkowski. Hij toonde zich veel sceptischer: “Ik ga altijd uit van eerst volledig nee zeggen, en na informatie te verzamelen misschien besluiten mijn data te delen.” Volgens Sieczkowski wordt er namelijk te weinig gekeken naar mogelijke risico’s en nadelen voordat een nieuwe techniek in gebruik gaat. Een student uit het publiek stemde hiermee in: “Voordat ik iets toezeg, moet je me eerst laten zien dat het loont”. 

De grootste angst leek echter een reactie op recente privacy-inbreuken door iCloud-hackers, Facebook en Cambridge Analytica. Sieczkowski daarover: “Je data zijn veilig totdat ze gehackt worden. Het hacken van een ERNA-account hoeft soms maar enkele minuten te kosten.”

Filosofiestudent Mark Tieleman sloot zich hierbij aan. “Je geeft eerst volledige toestemming, en weet vaak later pas wat er wordt gedeeld en gebruikt. We zouden toch eigenaar van onze eigen data moeten zijn? Zo kunnen we instellingen verantwoordelijk houden voor het beschermen hiervan.”

In zijn essay More Privacy Equals More Autonomy protesteerde hij ertegen dat er vaak geen optie is om wel een techniek te gebruiken en geen, of niet alle, persoonlijke informatie te delen.

Alles bij de bron; ErasmusMagazine


 

Ruim 89.000 Nederlanders zijn getroffen door het dataschandaal bij Facebook, zo heeft minister Ollongren op Kamervragen laten weten

Cambridge Analytica maakte gebruik van informatie die via de app "This Is Your Digital Life" was verkregen. De app verzamelde niet alleen gegevens van mensen die de persoonlijkheidstest deden, maar ook van al hun vrienden. Zodoende kreeg Cambridge Analytica de data van 87 miljoen mensen wereldwijd in handen zonder dat die hiervan wisten of hier toestemming voor hadden gegeven.

28 Nederlanders deden de app, waarmee uiteindelijk toegang tot de gegevens van 89.345 Nederlanders werd verkregen, zo blijkt uit navraag van de minister bij Facebook.

Alles bij de bron; Security


 

Optimisme drijft de auteurs, het voorwoord van Vertrouwen in de slimme samenleving van neerlands bekendste big data expert Sander Klous (UvA en KPMG) en Nart Wielaard komt van Cathy O’Neil.

Zij eindigt haar voorwoord met ‘Op een of andere manier moeten we de nieuwe algoritmes kunnen vertrouwen. Deze principes zouden daar een goed begin van kunnen zijn’. Ze doelt op de principes die dit boek beschrijft om de formules in de klauwen te houden. O’Neil klinkt eerder sceptisch dan hoopvol, maar weerhoudt Klous en Wielaard niet van hun optimisme met voorstellen om algoritmes te beheersen en te reguleren.

En dat onze samenleving slim is en nog veel slimmer zal worden, betwijfelen de auteurs kennelijk geen moment. Wel noemen ze, alvorens tot hun oplossingen te komen, een aantal risico’s met bekende, van elders overgenomen voorbeelden. We zijn, vinden de auteurs, ‘verslaafd aan algoritmes’ zonder dat we het door hebben.

Op drie wijzen kan het fout gaan:

1. HET ALGORITME WERKT VERKEERD DOOR VOEDING MET ONJUISTE DATA

2. HET ALGORITME LEERT ZICHZELF DE VERKEERDE DINGEN

3. DE GEBRUIKER PAST HET ALGORITME VERKEERD TOE

Apart van deze drie oorzaken sommen de auteurs meer problemen met big data op. Pas hier komt, zij het beperkt, privacy om de hoek kijken, met een verwijzing naar een artikel van Morozov over onzichtbaar prikkeldraad. Oftewel: niet het gezien worden door big brother is het grote privacyprobleem, maar gestuurd worden door onbekende algoritmes.

...toezicht op algoritmes kun je tweeërlei regelen:

1. CONTROLE OP DE UITLEGBAARHEID VAN ALGORITMES
We moeten dus altijd kunnen verklaren hoe het werkt, zo zegt ook Darpa in Explainable Artificial Intelligence, onderdeel in een groeiend veld van dergelijke pleidooien. Ook het Europees Parlement wil die kant op. De auteurs waarschuwen dat we niet teveel moeten eisen, en soms de uitkomsten van de machine maar beter kunnen vertrouwen, hoe donker ook hun wezen. Voorbeeld: een medisch voorspelsysteem voor leverkanker dat ineens ook nauwkeurig het risico op schizofrenie bleek te kunnen voorspellen. Daar heb je wat aan, en uiteindelijk controleert toch een dokter of de suggesties vanuit de data juist zijn.

Een eerste controle van algoritmes en hun werking is mogelijk met een systeem zoals de accountancy voor organisaties werkt. De principes, maar ook gebreken daarvan, doen opgeld voor het controleren van en rapporteren over systemen die big data analyses doen en van zichzelf leren.

2. OPLOSSING VAN NIEUWE ETHISCHE VRAAGSTUKKEN MET ALGORITMES

Dit stuk is ‘vele malen uitdagender’, want betreft de gedeelde verantwoordelijkheid tussen mens en machine voor de uitkomsten van big data toepassingen op basis van algoritmes. Een simpel voorbeeld is de kwestie van handhaving van solidariteit in verzekeringen, als we straks van ieder individu de – medische - risico’s verfijnd in beeld krijgen

We moeten algoritmes inhoudelijk beoordelen alvorens ze in praktijk worden gebracht. Dat kan, vinden de auteurs, het best decentraal. Zelfs via crowdsourcing, waarbij slimme geesten in het volk zich aandienen als controleurs. Bijvoorbeeld in een systeem van ‘peer reviews’, net als in de wetenschap.

Leuk boek om de formele discussie te openen, want de auteurs proberen een overtuigende theorie neer te zetten aan de hand van praktijkgevallen. Maar meeslepend kan ik ‘Vertrouwen in de slimme samenleving’ het niet noemen. Da’s wel jammer, maar ook logisch na de inspirerende voorganger ‘Wij zijn big data’ die een nieuw onderwerp bij de horens vatte. De opvolger is in verschillende opzichten een consolidatie en dit levert geen hoogst inspirerende uitkomst op, maar wel een noodzakelijk boek.

Alles bij de bron; NetKwesties


 

Artificiële Inteligentie (A.I) kan de overlevingskansen van een zieke patiënt met grote nauwkeurigheid voorspellen, zonder dat wetenschappers begrijpen hoe die kansen juist worden berekend. Volgens de Harvard Business Review (HBR) is de redenering achter de berekening uiteindelijk ook van minder belang, omdat ze om te beginnen te complex is om te begrijpen en ze daarnaast in 90% van de onderzochte gevallen ook correct blijkt.

De HBR citeert een studie die werd uitgevoerd door een reeks wetenschappers van de universiteiten van Chicago, Stanford, San Francisco (UCLA) en internetzoekmachine Google. Daarbij werden de geanonimiseerde data van honderdduizenden patiënten aan een reeks machine learning-algoritmes toevertrouwd. De berekeningen werden daarna toevertrouwd aan de krachtige computers van Google. 

De machines berekenden de overlijdenskansen van de patiënt met een nauwkeurigheidsgraad van 90% en dat binnen de 24 uur na de opname van de patiënt in een ziekenhuis. Maar de onderzoekers konden de logica achter de door de machines ontdekte patronen niet uitleggen.

Dat kan grote gevolgen hebben. Stel u voor dat u in een ziekenhuis wordt opgenomen waar men u vertelt dat u gaat sterven, "omdat de computer het zegt. Waarom de computer dat zegt weten we niet, maar in 9 op de 10 gevallen heeft hij het bij het rechte eind.”

In sommige landen is er  al weerstand tegen dit soort methodes en pleiten politici voor een volledig verbod op het gebruik van “niet-verklaarbare algoritmes’.Maar in sommige gevallen zullen artsen de verplichting opgelegd krijgen om modellen te gebruiken die nauwkeuriger zijn dan hun menselijke expertise. Dat betekent niet dat de mening van de arts irrelevant zal worden, wel dat zich naast nieuwe kansen ook nieuwe gevaren zullen aandienen, naargelang de technologie verder evolueert en nauwkeuriger wordt.

Alles bij de bron; Express


 

Gemeenten gebruiken data over hun inwoners om problemen op te sporen voor ze uit de hand lopen. Handig! Maar voor de burger stijgt de kans te worden afgerekend op voorspeld gedrag. Op bijna alle terreinen waar gemeenten iets over te zeggen hebben – zorg, werkgelegenheid, veiligheid en openbare orde, infrastructuur – wordt geprobeerd met data het onbekende in kaart te brengen of voorspellingen te doen, blijkt uit een rondgang van NRC.

Soms zijn die datatoepassingen eenvoudig. Heerhugowaard bepaalt met een computermodel wanneer ze elk van haar 30.000 ‘straatkolken’ moet schoonzuigen – met bijvoorbeeld gegevens over de afstand tussen bladerrijke bomen en kolken, en hoe vol de zuigwagens uit bepaalde wijken terugkomen. Maar niet alle data zijn zo ‘onschuldig’ als de locatie van een boom. Veel gemeenten gebruiken ook data over mensen, inkomens en gedrag...

...Hoe zwaar elke variabele weegt, en waarom, weten de betrokken ambtenaren niet. „Het is een soort beslisboom, door een computer gemaakt”, zegt een betrokkene. „Voor een mens te ingewikkeld om te doorgronden.” De dienst is blij met de aanpak. „Het is objectiever dan de leerlingen uitkiezen op een onderbuikgevoel.” 

Data zijn er bovendien in overvloed. Niet alleen bij de gemeenten zelf, ook op sociale media waar burgers allerlei privégegevens etaleren, zoals hun interesses op Facebook of meningen op Twitter. En elders op internet. De gemeente Amsterdam kopieerde door Google verzamelde informatie over drukte in winkels en horeca. Google krijgt die info via locatiedata van mobieltjes.

Zolang je de privacy van burgers garandeert, en transparant bent over hoe je data gebruikt, hoeven burgers zich geen zorgen te maken, zeggen gemeenteambtenaren. Is die privacy voor burgers een heet hangijzer? Ger Baron, die als Chief Technology Officerbij de gemeente Amsterdam experimenten met digitale technologie overziet, betwijfelt dat. In 2015 experimenteerde de stad tijdens het massa-evenement Sail met digitale crowd control. Telcamera’s brachten voetgangersstromen in beeld. Wifi-sensoren peilden voorbijkomende mobieltjes en konden zo bijhouden hoe snel bezoekers zich voortbewogen en waar ze bleven hangen. Via sociale media als Twitter en Instagram werd de sfeer in de gaten gehouden. Tegelijk had de stad een voorlichtingscampagne bedacht: billboards in de hele stad nodigden mensen uit te bellen als ze vragen hadden over de elektronische crowd control. Baron: „We kregen nul telefoontjes, nul!”

Er is ook weinig ophef over Syri, een afkorting van Systeem Risico Indicatie. Dit computermodel – toen het nog zonder wettelijke grondslag werd gebruikt heette het Black Box – van het ministerie van Sociale Zaken en Werkgelegenheid wijst adressen aan waarop bewoners zich schuldig zouden kunnen maken aan belasting- of premiefraude. Nu of in de toekomst. Verdachte huishoudens die uit het systeem rollen worden verder onderzocht om bewijsmateriaal te verzamelen.

Maxim Februari, filosoof en columnist van NRC, vindt dat kwalijk. „Een belangrijk principe van de rechtsstaat is dat burgers weten welke regels er zijn. Zo kunnen ze zich er ook tegen verweren, bijvoorbeeld door ze met een rechtszaak of met nieuwe wetgeving te veranderen.”

Alles bij de bron; NRC [pdfpdf]


 

Nederlandse WhatsApp-gebruikers hebben deze week een berichtje gehad over nieuwe gebruiksvoorwaarden. Daar stond er één zin in die zeer de moeite van het lezen waard is. „We willen in de toekomst nauwer samenwerken met andere Facebook-bedrijven.” Daarmee geeft Facebook-dochterbedrijf WhatsApp aan dat het data uit de berichtenapp ondanks eerdere beloftes toch wil delen met het moederbedrijf. En veel gebruikers hebben daar nu dus ja tegen gezegd. Wie WhatsApp wil blijven gebruiken, heeft ook geen andere keuze dan de voorwaarden te accepteren.

Welke data verzamelt WhatsApp?

WhatsApp kan vooralsnog niet meelezen met berichten, maar om de berichten heen vallen ook veel gegevens te verzamelen, zogeheten metadata: over hoe vaak je appt, hoe laat, met wie, welk telefoonnummer je gebruikt, de locatie, enzovoort. Sommige van die WhatsApp-data worden nu al met Facebook gedeeld, zoals je telefoonnummer en wanneer je voor het laatst online was.

WhatsApp stelt dat het deze data niet commercieel gebruikt; „We delen momenteel geen accountinformatie om jouw ervaring met producten en advertenties op Facebook te verbeteren.” Het sleutelwoord hier is ‘momenteel’. Op meerdere plekken in de nieuwe voorwaarden hint WhatsApp erop dat het dat wel degelijk van plan is.

Wat wil Facebook doen met die data?

Details geven Facebook en WhatsApp nog niet. „We zullen je updaten wanneer we onze plannen hebben uitgewerkt”, staat in de nieuwe voorwaarden. Maar het hele verdienmodel van Facebook draait om het op maat maken van advertenties met behulp van persoonlijke data.

Een teken aan de wand: twee weken geleden stapte Jan Koum, de topman en oprichter van WhatsApp plotseling op. Volgens The New York Times en de Washington Post was dat vanwege zorgen over wat Facebook met de gegevens van WhatsApp-gebruikers wil doen. Koum zou ook zorgen hebben over dat Facebook zelfs van plan is om de versleuteling zwakker te maken zodat Facebook toch kan meekijken met de inhoud van berichten. Zuckerberg heeft dit niet expliciet ontkend.

Mag WhatsApp dit zomaar doen?

De Europese Commissie heeft Facebook vorig jaar nog een megaboete gegeven van 110 miljoen euro omdat het bedrijf had gelogen over zijn plannen om data te verzamelen via WhatsApp. Facebook gaf toen aan dat het zou stoppen met het verzamelen van gevoelige informatie van Europese gebruikers via WhatsApp. Nu probeert het dus via deze weg daar alsnog toestemming voor te krijgen.

Pikant is dat over twee weken de nieuwe strenge Europese privacywet AVG van kracht wordt, die kan leiden tot miljardenboetes bij privacyschendingen. Facebook en WhatsApp leggen nu dus vlak voor het in werking treden daarvan deze nieuwe gebruiksvoorwaarden op aan gebruikers.

Alles bij de bron; NRC


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha