Fundamentos de ML: funções de custo para problemas de regressão
Características e sugestões de uso para as funções de custo indicadas para problemas de regressão.
Características e sugestões de uso para as funções de custo indicadas para problemas de regressão.
Usando uma estrutura de autoencoder, a rede compactou os dados iniciais numa tarefa análoga a de feature engineering; os dados compactados foram usados na tarefa de predição, alcançando um desempenho similar àquele onde o feature engineering foi feito manualmente.
A rede incorpora o conceito de processamento assíncrono, que ainda não havia sido explorado em machine learning. É dessa forma que o cérebro humano trabalha, onde os dados que recebe têm uma dimensão temporal não considerada pelos modelos de machine learning atuais, o que acelera a convergência para erros baixos no processo no aprendizagem.
Médicos participantes do estudo realizaram a retirada de tumor cerebral em um ambiente de realidade virtual. Os dados coletados durante o experimento foram usados para classificar seu grau de experiência.
O modelo BERT de processamento de linguagem natural foi usado para reconhecer, em reviews postados na internet, padrões de escrita associados a produtos retirados do mercado por serem inseguros para o consumo.
Demonstrando a importância de vários níveis de informação para a classificação da valência emocional de estímulos visuais, a pesquisa ajuda a entender o funcionamento do cérebro ao mesmo tempo em que pode direcionar melhorias nos modelos de machine learning.
O método TCAV é capaz de quantificar a sensibilidade de camadas individuais de uma rede neural para conceitos intuitivos, permitindo interpretar as decisões de redes neurais que se tornam cada vez mais complexas.
Incorporando componentes construídos para partes específicas e compartilhadas, o chip Tianjiac consegue trabalhar eficientemente com as duas principais abordagens para AGI: a baseada em neurociência, e a baseada em ciência da computação.
O serviço livra o desenvolvedor da árdua tarefa de manter um ambiente de trabalho consistente em relação às várias bibliotecas e versões com que está trabalhando, podendo focar no desenvolvimento do seu algoritmo de machine learning.
A iniciativa propõe a padronização da estrutura básica de modelos de machine learning para que, por exemplo, modelos treinados em uma estrutura possam ser usados para inferência em outra, facilitando a transição entre as etapas de desenvolvimento e produção.