Apple forsker på hvordan de kan forbedres syria for å bedre forstå folk som snakker med en stamming, ifølge nye detaljer delt av Wall Street Journal i et stykke om hvordan bedrifter trener stemmeassistenter til å håndtere atypisk tale.
Apple har bygget en bank med 28 000 lydklipp fra podcaster med folk som stammer, som kan brukes til å trene Siri. Dataene som Apple har samlet inn vil forbedre stemmegjenkjenningssystemer for atypiske talemønstre, ifølge en Apple-talsperson.
Sammen med å forbedre hvordan Siri forstår folk med atypiske talemønstre, har Apple også implementert en Hold to Talk-funksjon for Siri som lar brukere kontrollere hvor lenge de vil ha Siri å lytte etter. Dette forhindrer Siri fra å avbryte brukere med en hakking før de er ferdige med å snakke.
Siri kan også brukes uten stemme alle sammen, gjennom en Type til Siri-funksjon som først ble introdusert i iOS 11.
Apple planlegger å skissere sitt arbeid for å forbedre Siri i en forskningsartikkel som skal publiseres denne uken, som vil gi flere detaljer om selskapets innsats.
Google og Amazon jobber også med å lære opp Google Assistant og Alexa til å bedre forstå alle brukere, inkludert de som har problemer med å bruke stemmene sine. Google samler inn atypiske taledata, og Amazon lanserte i desember Alexa Fund for å la folk som har talevansker trene en algoritme for å gjenkjenne deres unike stemmemønstre.
Populære Innlegg