A Meta revelou seu mais recente avanço em inteligência artificial com o lançamento do Llama 3.2, uma atualização significativa para sua família de modelos de linguagem de código aberto. Esta nova iteração introduz uma gama de capacidades que expandem os limites da acessibilidade e funcionalidade da IA, particularmente nas áreas de processamento de visão e computação de borda.
Na vanguarda das inovações do Llama 3.2 estão seus modelos de linguagem de grande porte (LLMs) habilitados para visão, disponíveis em tamanhos de 11B e 90B parâmetros. Estes modelos representam um salto adiante na IA multimodal, capazes de realizar sofisticadas tarefas de raciocínio visual, como compreensão a nível de documento, legendagem de imagens e fundamentação visual. Este avanço permite uma integração perfeita de informações visuais e textuais, possibilitando aos usuários interagir com a IA de maneiras mais naturais e intuitivas.
Complementando os modelos de visão estão as variantes leves apenas para texto do Llama 3.2, projetadas especificamente para dispositivos de borda e móveis. Os modelos de 1B e 3B parâmetros são otimizados para processamento no dispositivo, oferecendo robusta geração de texto multilíngue e capacidades de chamada de ferramentas sem comprometer a privacidade do usuário. Estes modelos permitem que os desenvolvedores criem aplicações personalizadas e que preservam a privacidade, onde os dados permanecem locais no dispositivo, abrindo novas possibilidades para soluções móveis e de IoT impulsionadas por IA.
Um recurso de destaque do Llama 3.2 é o suporte estendido ao comprimento de contexto de 128K tokens, melhorando significativamente a capacidade dos modelos de processar e compreender grandes quantidades de informação. Esta melhoria, juntamente com o desempenho competitivo dos modelos em tarefas como resumo, seguimento de instruções e reescrita de prompts, posiciona o Llama 3.2 como uma opção formidável para desenvolvedores que buscam soluções de IA poderosas e eficientes.
O compromisso da Meta com o desenvolvimento de código aberto e a implantação responsável de IA é evidente no lançamento do Llama 3.2. A empresa introduziu novas salvaguardas, incluindo o Llama Guard 3 para moderação de conteúdo relacionado à visão, e otimizou sua implantação para vários ambientes de computação. Ao colaborar com parceiros da indústria e fornecer ferramentas e recursos abrangentes, a Meta visa fomentar a inovação enquanto assegura o uso responsável da tecnologia de IA.
Os modelos estão disponíveis na página oficial do projeto, no Hugging Face, e também nos principais fornecedores de serviços de IA em nuvem.