Google Live Captions, Live Relay e Project Euphonia querem ajudar com acessibilidade
O Google anunciou três novos recursos baseados em inteligência artificial (IA) no Google I / O 2019, ou seja, Live Captions, Live Relay e Project Ephonia para ajudar a fazer com que sua tecnologia chegue às pessoas que sofrem de deficiências auditivas ou de fala.

O Google anunciou três novos recursos baseados em inteligência artificial (IA) no Google I / O 2019, ou seja, Live Captions, Live Relay e Project Ephonia para ajudar a fazer com que sua tecnologia chegue às pessoas que sofrem de deficiências auditivas ou de fala. Nós damos uma olhada nesses novos recursos da gigante da tecnologia.
Legendas ao vivo
O Google anunciou o recurso Live Captions em seu próximo sistema operacional (SO) Android Q para pessoas com deficiência auditiva.
Com a ajuda desse recurso, qualquer mídia com áudio reproduzida no smartphone será legendada automaticamente. Assim que a fala for detectada pelo smartphone, as legendas aparecerão na tela, sem a necessidade de Wifi ou dados móveis.
Para 466 milhões de surdos e deficientes auditivos em todo o mundo, as legendas são mais do que uma conveniência - elas tornam o conteúdo mais acessível. Trabalhamos em estreita colaboração com a comunidade surda para desenvolver um recurso que melhoraria o acesso à mídia digital, disse o Google em uma postagem de blog.
A gigante da tecnologia disse que o recurso Live Caption funciona com vídeos, podcasts e mensagens de áudio, em qualquer aplicativo, até mesmo para áudios ou vídeos que os usuários gravam por conta própria.
Live Relay
O recurso Live Relay do Google contará com o reconhecimento de voz no dispositivo e a conversão de texto em fala para permitir que o dispositivo ouça e fale em nome do usuário enquanto ele digita. O recurso Live Relay é executado inteiramente no dispositivo, mantendo as chamadas privadas. Como o Live Relay está interagindo com o outro lado por meio de uma chamada telefônica normal, ele funcionará sem a necessidade de nenhum WiFi ou dados móveis.
O Google explicou que a outra parte pode até usar um telefone fixo para falar. O recurso Live Relay ainda está em fase de pesquisa e a empresa não informou um prazo específico para quando será lançado ao público.
Projeto Euphonia
O Projeto Euphonia anunciado pelo Google visa pessoas com dificuldades de fala causadas por doenças neurológicas como acidente vascular cerebral, esclerose lateral amiotrófica (ELA), esclerose múltipla, lesões cerebrais traumáticas e Parkinson.
O Google está usando IA para melhorar as habilidades do computador de entender diversos padrões de fala, como fala prejudicada. Como as interfaces baseadas na fala, como o Google Assistant, são construídas para responder à maioria das vozes, não funcionam para pessoas com dificuldades de fala.
Para isso, o Google fez parceria com o ALS Therapy Development Institute (ALS TDI) e a ALS Residence Initiative (ALSRI) para gravar as vozes de pessoas que têm ALS, uma condição neurodegenerativa que pode resultar na incapacidade de falar e se mover.
O gigante da tecnologia colaborou com eles para aprender sobre as necessidades de comunicação das pessoas com ALS e otimizar algoritmos baseados em IA para que celulares e computadores possam ser mais confiáveis na transcrição de palavras faladas por pessoas com tais dificuldades de fala.