Nova rede neural aprende mais rápido por trabalhar de forma assíncrona – como o cérebro

Apesar de as redes neurais desenvolvidas para machine learning serem baseadas em conhecimento neurológico, ainda existem diferenças essenciais sobre a forma com que computadores e o cérebro processam informação. O número de neurônios no cérebro, por exemplo, é menor que o número de bits disponíveis num disco típico de um computador pessoal, e a velocidade computacional do cérebro é menor do que aquela do primeiro computador inventado há mais de 70 anos. Ainda assim, o cérebro é muito eficiente, e a complexidade das conclusões que é capaz de formar nem se compara às capacidades dos melhores algoritmos. Uma das razões para isso, e que diferencia ainda mais esses dois universos, é que algoritmos tratam os dados de forma síncrona, ou seja, recebem todas as informações que devem processar de uma única vez, de forma que todos os neurônios da camada de entrada são ativados. Enquanto isso, o cérebro processa dados de forma assíncrona, onde as informações chegam de forma contínua mas intermitente, com muito ruído. É dessa forma que nós conseguimos fazer senso e interagir com o mundo que nos cerca, que pode mudar de forma bastante imprevisível, o que pode exigir nossa reação quase imediata. O processamento assíncrono que o cérebro realiza adiciona outra dimensão aos dados que ele processa, a do tempo. Com isso, a conclusão a partir dos mesmos dados pode mudar em função de como eles estão ordenados no tempo – ou, em termos computacionais, com o padrão de ativação da camada de entrada. Imagine, por exemplo, que você queira atravessar uma rua e nela se desloque um carro. Sua decisão de atravessar ou não vai depender de onde o carro está e com que velocidade se move. Em outras palavras, essa forma de processamento permite que uma entrada (input) resulte em duas saídas (outputs) distintas. Via de regra, os algoritmos de machine learning não trabalham dessa forma.

Um grupo de pesquisa da Universidade Bar-Ilan, em Israel, percebeu essa lacuna e desenvolveu uma rede neural capaz de imitar esse aspecto do processamento cerebral. Eles se basearam em várias descobertas neurocientíficas publicadas recentemente para traduzir essa estrutura biológica em um modelo matemático. Por exemplo: ao invés de usar o conceito de pesos que reflete a noção biológica de plasticidade sináptica, eles exploraram como alternativa o conceito de força dendrítica, se baseando em trabalhos – considerados uma mudança de paradigma na área – que colocam os dendritos (as extremidades finais dos neurônios, por onde eles passam sinais para outros neurônios) em papel central no processo de aprendizagem. O algoritmo foi treinado num esquema “professor/aluno”, onde o aluno, uma rede com a mesma estrutura do professor, deveria se calibrar para copiar o comportamento do modelo professor.

A explicação matemática do modelo é bastante densa, mas em termos básicos, o que ocorre é que a rede aprende sem as “etapas de aprendizagem”, onde todos os pesos são atualizados. Nesse modelo, só os pesos que resultam em saídas divergentes entre professor e aluno são atualizados. Essa etapa é chamada de adaptação, e é implementada apenas para os neurônios das imediações em uma janela de tempo definida. O número de parâmetros a serem otimizados no cenário dendrítico também é bem menor, sendo uma função linear e não mais quadrática como no caso do cenário sináptico.

O principal resultado apresentado é que a nova estrutura tem uma velocidade de aprendizado muito maior que as melhores redes disponíveis atualmente, e que parece não ser afetada pelo tamanho da rede. Os autores ainda chamam atenção para o fato de que seu trabalho recupera um link perdido entre a neurobiologia e machine learning, já que ambas as áreas estudam o mesmo assunto. Essa pesquisa demonstra como as duas áreas de conhecimento podem ajudar uma a outra se os pesquisadores estiverem dispostos a acompanharem o outro campo com olhos mais atentos.

O trabalho foi publicado no último dia 9 na revista Scientific Reports.