Em um trabalho científico publicado nessa semana, neurocientistas da Universidade da Califórnia São Francisco apresentaram um método baseado em rede neural que é capaz de traduzir sinais cerebrais em frases faladas.
A pesquisa foi realizada utilizando pacientes que tinham eletrodos implantados na superfície do cérebro como parte de um tratamento para epilepsia. Os eletrodos captaram a atividade cerebral quando esses pacientes liam frases em voz alta. Depois, os pesquisadores combinaram esses sinais com resultados anteriores que estabeleciam a relação entre movimentos musculares das cordas vocais e a produção de fala. Eles então treinaram uma rede neural do tipo deep learningpara traduzir os sinais em ativação das cordas vocais, e a partir daí gerar som artificialmente. O modelo treinado foi então usado no decodificador. A pesquisadora Stephanie Riès disse que é mais fácil entender como a atividade cerebral está conectada às cordas vocais, e depois produzir som, do que fazer a tradução direta entre cérebro e fala. Além disso, o discurso produzido soa mais natural.
Trabalhos anteriores já haviam sido capazes de usar inteligência artificial para transformar sinais do cérebro em movimento vocal, mas essa é a primeira vez que frases inteiras foram produzidas.
Ainda há muita margem para melhorias, já que alguns resultados parecem com discursos de pessoas com dificuldade de dicção, mas a complexidade do feito é impressionante. É só lembrar que o cientista Stephen Hawking conseguia falar com sua voz robótica ativando um teclado, letra por letra, usando um músculo da bochecha. Toda inovação tecnológica disruptiva começa com um avanço científico como esse.
A inteligência artificial tem muito potencial para melhorar a vida das pessoas, fazendo eficientemente a tradução de dados complexos como os sinais cerebrais até um resultado final preciso como a produção de fala.