Novos sensores da Sony integram captura de imagens com processamento por inteligência artificial

A aplicação de inteligência artificial para tarefas visuais exige atualmente que um sensor faça a captura das imagens, sejam frames únicos como fotografias, ou vídeos, e um processador computacional faça seu processamento para reconhecimento de objetos. Entretanto, mesmo os melhores processadores não foram otimizados para isso, e costumam compartilhar seus recursos com outras tarefas realizadas pelo sistema onde estão instalados. Por isso, tem ganhado força a ideia de construir chips híbridos, que tenham tanto a capacidade de coletar informações quanto fazer um pré-processamento, entregando para tarefas subsequentes informações mais refinadas. Nesse sentido, a Sony acaba de anunciar que em breve estará colocando no mercado o Intelligent Vision Sensor (IVS), uma linha de sensores visuais inteligentes, os primeiros a incorporar funcionalidades de processamento por inteligência artificial.

Os novos sensores são construídos em uma configuração empilhada, consistindo de um chip de pixels e um chip lógico. O sinal capturado pelo chip de pixels é processado pela inteligência artificial presente no chip lógico. O modelo presente no chip lógico pode ser substituído de acordo com as necessidades do usuário. Assim, uma loja poderia por exemplo equipar câmeras para contar, prever e acompanhar o número de visitantes, para medir e analisar o comportamento dos consumidores, para detectar e analisar aglomerações incomuns, ou para identificar falta de produtos nas prateleiras.

A incorporação da inteligência artificial nos próprios sensores permite que o processamento das imagens seja muito mais rápido. Ao invés de produzir a própria imagem, o sensor pode produzir metadados relacionados à informação semântica da imagem – como a anotação dos objetos presentes, e sua localização -, de acordo com as necessidades da tarefa específica, reduzindo o volume de dados. Dessa forma, somente a informação de interesse é gerada pelo chip e passada adiante, o que é um diferencial em relação ao método tradicional, já que os sistemas atuais que dependem da nuvem para processamento da informação captada devem enviar toda a informação para processamento. O resultado é que a nova abordagem reduz a latência – o que por sua vez torna viável processos em tempo real, como o rastreamento de objetos em vídeo -, reduz riscos à privacidade do usuário – já que os dados são processados localmente -, e ainda diminui o consumo de energia e de comunicação.

No momento, a Sony estará disponibilizando os novos sensores apenas como protótipos, mas dada a presença da gigante japonesa na indústria tecnológica, é de se esperar que em breve sensores com essa tecnologia também estejam presentes nos equipamentos mais cotidianos, como nas câmeras de nossos smartphones.