Chip fotônico é mais rápido e mais econômico que TPUs

As redes neurais artificiais são projetadas como conjuntos de parâmetros organizados na forma de matrizes, e seu treinamento envolve cálculos matriciais que devem ser realizados de forma serial, com troca constante de informação entre o processador e a memória. Classicamente, o processador responsável é a CPU, que só pode realizar uma operação por vez. Conforme essas redes foram se tornando maiores e mais complexas, sua aplicação passou a ser limitada pela capacidade dos processadores disponíveis. A primeira solução para extrapolar o poder das CPUs foi encontrada nas GPUs, processadores gráficos que já haviam sido projetados para realizar cálculos de forma paralela. Mais recentemente, surgiram as TPUs, processadores especializados em cálculos matriciais paralelizados, desenvolvidos especificamente para trabalhar com redes neurais artificiais. Mas, apesar de permitirem o treinamento de grandes redes com velocidade alta, estes processadores ainda dependem da troca de informações com a memória, o que em algumas situações representa um gargalo, e consomem muita energia, de forma proporcional ao número de cálculos que executam.

Baseando-se em trabalhos preliminares na área, pesquisadores da Universidade George Washington publicaram em julho um artigo descrevendo um núcleo de processamento para aplicação em machine learning que, ao invés de depender de energia elétrica para os cálculos matriciais, usa luz. O novo chip fotônico, batizado de PTC (photonic tensor core, ou núcleo tensor fotônico), proporciona computação paralelizada, energicamente eficiente e de baixa latência. Devido às propriedades físicas da luz, o chip trabalha com sinais analógicos ao invés de digitais, e realiza os cálculos matriciais inerentemente usando interações entre a luz e diferentes materiais como alteradores de fase e moduladores. Desta forma, não há custo energético envolvido nos cálculos em si; é como se a própria luz estivesse fazendo esta tarefa. A acumulação de sinais (como a necessária em uma operação de soma) pode ser alcançada por processos como interferência eletromagnética ou acúmulo através de detectores, novamente dispensando o consumo de energia.

O trabalho apresenta um protótipo capaz de realizar a multiplicação e o acúmulo de matrizes 4 x 4 em uma única operação de forma passiva, onde os pesos treinados são mantidos em uma memória fotônica implementada diretamente no chip, tornando desnecessária sua transferência para uma memória convencional. Esta memória também pode ser lida de forma ótica, sem uso de energia. Em comparação com GPUs e TPUs, o chip PTC, mesmo possuindo menos núcleos tensores, realizou 61 e 13 vezes mais operações, respectivamente, com consumo energético 35 e 200 vezes menor. A eficiência energética foi cerca de três ordens de magnitude maior.

Defendendo a relevância de sua pesquisa, os autores dizem que futuras tecnologias deveriam realizar tarefas computacionais no mesmo domínio dos sinais que recebem como input, explorando suas operações físicas intrínsecas, e assim diminuindo a necessidade atual de enviar dados processados em sinais digitais para data centers e sistemas na nuvem. Por isso, o desenvolvimento de chips baseados em fótons de luz parece adequado, já que muitos dos sinais capturados com o objetivo de alimentar sistemas de inteligência artificial já existem na forma de luz, como fotos, vídeos e sensores óticos. Esta primeira abordagem apresentada é promissora para despertar o interesse da área.