Google claimt het gebruik van gesproken zoekopdrachten aanzienlijk te hebben verbeterd ook in lawaaiige ruimten. De belangrijkste verandering is de inzet van een 'recurring neural network' (RNN) in plaats van de 'deep neural networks' die tot nog toe werden ingezet. De RNN's zijn beter in het onthouden van informatie, door dat niet alleen letterklanken worden geregistreerd maar ook de context van de klank.
Deze aanpassingen vergen meer rekenwerk, maar Google heeft daar een oplossing voor gevonden door gebruik te maken van grotere audioblokken die in een keer worden verwerkt. De RNN bleek uit zichzelf er achter te zijn gekomen dat de beste resultaten te krijgen zijn door iets meer tijd te nemen voor de interpretatie van de klanken (foneem). Daarbij zou echter een extra vertraging optreden van 300 milliseconde. De nieuwe spraakherkenning is inmiddels geïmplementeerd in de Google App voor Android en iOS.
Alles bij de bron; AutomGids