Apple cherche comment s'améliorer Syrie pour mieux comprendre les personnes qui parlent avec un bégaiement, selon de nouveaux détails partagés par Le journal de Wall Street dans un article sur la façon dont les entreprises forment les assistants vocaux à gérer la parole atypique.
Apple a constitué une banque de 28 000 clips audio à partir de podcasts mettant en scène des personnes qui bégaient, qui pourraient être utilisées pour former Siri. Les données collectées par Apple permettront d'améliorer les systèmes de reconnaissance vocale pour les schémas vocaux atypiques, selon un porte-parole d'Apple.
En plus d'améliorer la façon dont Siri comprend les personnes ayant des modes de parole atypiques, Apple a également mis en place une fonction Hold to Talk pour Siri qui permet aux utilisateurs de contrôler combien de temps ils veulent Siri à écouter. Cela empêche Siri d'interrompre les utilisateurs avec un bégaiement avant qu'ils aient fini de parler.
Siri peut également être utilisé sans voix tous ensemble, à travers une fonction Taper vers Siri qui a été introduit pour la première fois dans iOS 11.
Apple prévoit de décrire son travail pour améliorer Siri dans un document de recherche qui doit être publié cette semaine, qui fournira plus de détails sur les efforts de l'entreprise.
Google et Amazon travaillent également à former Google Assistant et Alexa pour mieux comprendre tous les utilisateurs, y compris ceux qui ont du mal à utiliser leur voix. Google collecte des données vocales atypiques et Amazon a lancé en décembre le fonds Alexa pour permettre aux personnes ayant des troubles de la parole de former un algorithme pour reconnaître leurs modèles vocaux uniques.
Articles Populaires