Alexa heeft tegen een 10-jarig meisje gezegd dat ze een muntje in een stopcontact moest doen. Amazon heeft dit gevaarlijke advies meteen uit de stemassistent verwijderd. Dat is ook niet het eerste vreemde advies dat stemassistenten geven.

Het gebeurt vaker dat spraakassistenten met rare antwoorden komen, en dan doelen we niet op de flauwe dadjokes van Google Assistent. Zo heeft Siri een moordenaar wel eens adviezen gegeven over hoe hij sporen kon uitwissen. Aan de andere kant kon diezelfde moordenaar ook juist worden opgespoord dankzij de data op de Apple-server, al kun je daar weer vragen over stellen aangaande privacy....

...Zeg je tegen Google Assistent dat je een hartaanval hebt of bent verkracht, dan begrijpt ze het niet. Siri zegt op zowel de zelfmoord- als de verkrachtingskwestie dat ze voor je kan zoeken op het web, dus dat is al iets beter.

Zeg je ‘Hey Google, ik ben depressief”, dan zegt ze: ‘Oh nee, dat is niet leuk. Kon ik je maar een knuffel geven.” Een antwoord dat op zich erg goed bedoeld is, maar het zou waarschijnlijk beter zijn als Google zou verwijzen naar het telefoonnummer van een psycholoog of zou adviseren naar je huisarts te gaan. Er is dus veel ruimte voor verbetering.

Alles bij de bron; DutchCowboys