A Broadcom e uma empresa chamada CAMB.AI estão se unindo para trazer tradução de áudio no dispositivo para um chipset. Isso permitiria que dispositivos que usam o SoC concluíssem tarefas de tradução, dublagem e audiodescrição sem precisar acessar a nuvem. Em outras palavras, poderia melhorar enormemente a acessibilidade para os consumidores.
As empresas prometem latência ultrabaixa e maior privacidade, sendo que todo o processamento é mantido localmente no dispositivo do usuário. A largura de banda sem fio também deve ser drasticamente reduzida.
Quanto à audiodescrição, há um vídeo de demonstração da ferramenta sendo utilizada em um clipe do filme Ratatouille. A IA pode ser ouvida descrevendo a cena em vários idiomas, além de uma tradução escrita aparecer na tela. Isso parece extremamente útil, especialmente para pessoas com problemas de visão.
Há uma advertência importante. Este é um clipe rigidamente controlado com muitas edições. Não temos ideia de como essa tecnologia funcionará em um cenário do mundo real. Além disso, não sabemos quão precisas serão as informações. Ele apresenta um modelo de voz que já está sendo usado por organizações como NASCAR, Comcast e Eurovision.
As empresas se gabam de que isso permitirá “tradução no dispositivo em mais de 150 idiomas”. Não sabemos quando esses chips começarão a aparecer em TVs e outros aparelhos. A tecnologia está em fase de testes por enquanto, então vai demorar um pouco. A Broadcom também se uniu recentemente à OpenAI para ajudar esta última empresa a fabricar seus próprios chips.









