Home › Fóruns › Domine LLMs com LangChain › GPU para rodar o projeto 3 local em desktop
- Este tópico contém 1 resposta, 2 vozes e foi atualizado pela última vez 4 meses, 3 semanas atrás por
Gabriel Alves.
- AutorPosts
- 22 de outubro de 2024 às 21:18 #46462
Olá, fui tentar rodar o projeto 3 e minha GPU, uma 1030 não suportou (eu já esperava). Já comprei sabendo que teria que trocar para rodar projetos nela.
Agora, quero fazer um upgrade. Qual seria a melhor opção, uma RTX 3050, com 12GB de ram ou uma RTX 4060, com 8GB de ram???
Quero a placa apenas para rodar projetos de IA e coisas pessoais mesmo.
24 de outubro de 2024 às 01:22 #46470Olá Murilo,
Para rodar projetos com LLMs, a escolha entre essas placas depende de como você pretende usar a GPU. Na minha opinião, a RTX 3050 com mais VRAM (12GB) pode ser uma opção interessante, já que LLMs (especialmente os maiores) tendem a exigir bastante memória de vídeo para rodar de forma eficiente. No entanto, a RTX 4060 oferece uma arquitetura mais moderna, com melhor desempenho geral, apesar de ter menos VRAM.
Se seus projetos forem rodar modelos menores ou otimizados, a 4060 pode ser uma escolha mais eficiente em termos de performance. No entanto, se você planeja trabalhar com modelos maiores e precisa de mais memória para carregar os dados e o modelo, a 3050 com mais VRAM pode ser a opção mais estável. Para o uso pessoal e IA, ambos os modelos são boas opções, mas se a VRAM for uma prioridade para você, a 3050 seria mais indicada.
Além disso, eu realmente recomendo que você busque comparativos específicos entre as duas GPUs, especialmente em cenários que envolvam as tarefas que você pretende realizar, como o uso de LLMs ou outros projetos de IA. Isso vai te ajudar a visualizar o desempenho prático de cada uma em situações reais, não apenas agora, mas também em futuros projetos que possam exigir mais poder de processamento. Dessa forma, você pode evitar possíveis limitações ou decepções e escolher a placa que melhor atende às suas necessidades a longo prazo, pois podem haver vários pontos que não cogitamos aqui agora e apenas são levantados nesses comparativos.
Mas antes disso, o que você pode fazer é testar modelos menores, você pode encontrar bastante modelos de linguagem bem menores aqui: https://ollama.com/library
na aula foi usado o Phi3 que é considerado um modelo pequeno (SLM) mas mesmo assim há outros bem menores, com menos de 1 bilhão de parâmetros. Acredito que vale a pena fazer o teste antes.
- AutorPosts
- Você deve fazer login para responder a este tópico.