YouTube vai produzir dublagem automática para vídeos com IA
A ferramenta vai primeiro produzir uma transcrição do áudio, que depois será utilizada para tradução e geração da faixa de áudio desejada.
A ferramenta vai primeiro produzir uma transcrição do áudio, que depois será utilizada para tradução e geração da faixa de áudio desejada.
O modelo foi treinado com dados de interação genética de milhões de células humanas, tornando-se capaz de aprender como os genes se relacionam e como a interrupção nessas redes pode causar doenças.
A empresa desenvolveu uma solução para que o jogador possa conversar de forma natural com os personagens do jogo usando a própria voz, aumentando a imersão e entregando uma experiência única para cada usuário.
O sistema foi capaz de traduzir as intenções de um usuário, captadas por eletrocorticografia, em comandos motores para os neurônios da coluna lombar, que ativaram a movimentação das pernas.
O modelo foi utilizado para explicar o padrão de ativação dos neurônios de sua versão mais antiga, o que ajuda a explicar o funcionamento de modelos de linguagem.
O modelo cria um espaço de embedding comum para informação no formato de texto, imagem, áudio, profundidade, calor e movimento, permitindo representar as informações de todos esses modais da mesma forma nesse espaço conceitual.
No evento Google I/O, a empresa mostrou como pretende aplicar o trabalho que vem fazendo nos últimos anos com modelos de linguagem para tornar a experiência de busca ainda mais inovadora.
O modelo foi treinado para tratar as sequências de aminoácidos de enzimas da mesma forma que um modelo de linguagem analisa texto, o que o ajudou a “aprender” a linguagem biológica necessária para produzir enzimas inéditas.
O sistema adapta uma rede neural convolucional para produzir um mapa de idade, que é sobreposto à imagem original para gerar o resultado desejado.
O sistema foi treinado com pares separados de faixa vocal e instrumental para aprender a gerar acompanhamento instrumental com um input exclusivamente vocal.