Forum Replies Created

Viewing 15 posts - 1 through 15 (of 435 total)
  • Author
    Posts
  • in reply to: Autorização Meta llama 3 – Pendente #53821
    Gabriel Alves
    Keymaster

      Olá Edjander!

      Realmente precisa esperar a autorização deles para usar com essa implementação do Hugging Face, mas enquanto isso você pode usar outros modelos que não precisam autorização (como o Phi, mostrado no curso) ou até tentar pedir a autorização de outros modelos. Ou também dar uma olhada na lista de modelos (alguns não pedem autorização), veja aqui https://huggingface.co/models?sort=trending&search=llama

      Outra solução boa é usar o modelo através do provedor Groq, lá tem as versões modernas do Llama e outros (como o DeepSeek) sem precisar essa autorização da empresa.

      Para fazer isso, precisará instalar a biblioteca com  !pip install langchain-groq   e em seguida, fazer o import com   from langchain_groq import ChatGroq

      Isso é explicado com detalhes nessa aula “Conexão com a LLM“, que faz parte do curso LLMs e Agentes de IA para Empresas e Negócios. Basta fazer a importação do lanchain-groq e seguir exatamente como mostra essa aula.

       

      Obs: ali nessa aula é mostrado o modelo ‘llama3-70b-8192’, mas para acessar a versão mais moderna basta mudar de ‘llama3-70b-8192’ para ‘llama-3.3-70b-versatile’  (ou se quiser pode trocar por outra, como Llama 4 ou DeepSeek pro exemplo)
      – você pode conferir todos os modelos disponíveis no plano gratuito nessa página aqui: https://console.groq.com/docs/rate-limits

      in reply to: NotebookLM – Introdução #53430
      Gabriel Alves
      Keymaster

        Olá Vladimir!

        Isso mesmo, ótimo ponto. O NotebookLM não treina o modelo com dados enviados, o que acaba protegendo a privacidade mas também porque evita esse “envenenamento de dados”. Portanto usa os documentos apenas como contexto isolado, sem incorporá-los ao modelo base, uma decisão coerente do ponto de vista de governança e gestão de risco devido aos pontos que você comentou.

        Obrigado pela contribuição!

        in reply to: Projeto Análise de Imagens Body Scan #53366
        Gabriel Alves
        Keymaster

          Olá Douglas! Usar um modelo multimodal (como o Gemini que usamos na aula) dá para automatizar sim esse processo para auxiliar operadores a identificar possíveis objetos ilícitos em imagens de scanner corporal, porém é importante entender que esses modelos foram treinados principalmente em imagens “naturais” da internet e dados médicos genéricos, não em bases específicas de scanners corporais. Isso significa que, fora do domínio médico tradicional (raio-X clínico, TC, RM), a performance pode cair bastante, especialmente para objetos pequenos, sobrepostos ou com baixa diferenciação de densidade. Para algo mais confiável, o ideal seria treinar um modelo usando dataset próprio do scanner real (com fotografias de casos próximos ao que o modelo irá detectar), para isso usando imagens rotuladas por especialistas e métricas de validação estatística (precisão, recall, falsos positivos/negativos), testes em ambiente controlado e, se possível, fine-tuning ou pelo menos fazer uma avaliação sistemática por tipo de objeto.

          Quanto aos riscos que você perguntou, os principais são: falsos negativos (o modelo deixa passar algo ilícito), falsos positivos (gera alertas desnecessários), viés do conjunto de testes (imagens da internet não representam o mundo real).

          Caso deseje construir uma aplicação assim, garanta que use uma pipeline consistente (fazer o pré-processamento da imagem sempre igual e usando técnicas), logs de inferência (para poder validar e checar depois caso dê algum problema), e monitoramento contínuo e fallback humano.

          Seja para essa abordagem apresentada no curso ou outra similar, o mais correto é tratar o sistema como suporte da decisão para o operador do scanner: ele sugere, o agente decide. Também vale envolver jurídico/gestão desde cedo, porque isso entra em segurança pública e pode exigir homologação, auditoria e políticas claras de uso.

          Por fim, lembre-se de um ponto essencial: LLMs e modelos multimodais estimam padrões, eles não “sabem” o que estão vendo na realidade. Portanto, nunca trate a resposta como verdade absoluta; use apenas como apoio à decisão humana, com validação contínua em campo. Mas quanto a essa questão de errar, até mesmo um profissional experiente da área pode cometer erros, portanto o aconselhável é testar o modelo com amostras reais para ver qual é a taxa de erro e a partir dessa taxa decidir se é aplicável na prática e se serve para essa função.

          in reply to: Dúvida na escolha de tabelas #52969
          Gabriel Alves
          Keymaster

            Olá Fernando!

            Sim, foi mais complexo para fins de treinamento e exercitar a criação de queries maiores. O uso da tabela pedido_produto foi mais com propósito didático, para treinar subconsultas correlacionadas e agregações, do que por necessidade real do modelo. Em um cenário prático, se a coluna pedido.valor já representa corretamente o total do pedido, o mais simples (e correto) seria usá-la diretamente, sem recalcular nada.

            E sua observação está correta sim, o exercício desconsidera a quantidade.

            Pra levar em consideração a quantidade, você usaria desse modo:

            sum(pdp.valor_unitario * pdp.quantidade)
            in reply to: Certificado #52901
            Gabriel Alves
            Keymaster

              Olá Eder! Lamento a confusão, o seu certificado foi gerado assim que você concluiu o curso mas talvez o botão de download não estivesse aparecendo pra você na hora, porém verifiquei aqui e agora já deve estar exibindo normalmente. Mandei mais detalhes no ticket que você criou.

              Esse botão de download aparece na página do curso (estando logado em sua conta) ou a página “Meus cursos”.

              in reply to: Erro ao adicionar llama à crew #52893
              Gabriel Alves
              Keymaster

                Olá Joaquim!

                Você está usando o modelo “llama3-70b-8192”, isso? (de acordo com a mensagem de erro que forneceu)

                Esse modelo foi recentemente descontinuado, portanto substitua pelo “llama-3.3-70b-versatile” ou o “llama-4-scout-17b-16e-instruct” por exemplo.

                Outro modo de implementar o modelo groq é assim:

                os.environ["GROQ_API_KEY"] = getpass.getpass("Groq API key: ")
                from langchain_groq import ChatGroq
                
                def load_llm(id_model, temperature):
                  llm = ChatGroq(
                      model=id_model,
                      temperature=temperature,
                      max_tokens=None,
                      timeout=None,
                      max_retries=2,
                  )
                  return llm
                
                
                id_model = "groq/meta-llama/llama-3.3-70b-versatile"
                temperature = 0.7
                
                groq = load_llm(id_model, temperature)
                in reply to: Erro com a Crew (Limite de requisições da API excedido) #52892
                Gabriel Alves
                Keymaster

                  Opa que bom que conseguiu resolver! E obrigado por comentar como resolveu, pois essa questão de precisar configurar o faturamento realmente não deveria causar esse erro

                  Gabriel Alves
                  Keymaster

                    Olá Rafael!

                    Após fazer o download do instalador (arquivo .exe) você deve apenas prosseguir com as etapas de instalação de forma normal, não precisa mudar nenhuma opção, basta clicar para prosseguir e o sistema automaticamente vai fazer tudo.

                    Pelas opções que você descreveu, essa parte que você se refere seria o Stack Builder (conforme nesse print abaixo), confere? É normal essa janela aparecer automático logo após a instalação.

                    Aqui você pode clicar em Cancel quando chegar nessa parte, basta ignorar pois não é necessário (é usado para instalar outras extensões complementares, que não são necessárias pro curso).

                    in reply to: Erro com a Crew (Limite de requisições da API excedido) #52849
                    Gabriel Alves
                    Keymaster

                      Olá Joaquim!

                      Parece que o Gemini 2.5 Flash está executando melhor que o 2.0, vi alguns relatos recentes dizendo que o modelo 2.0 está recentemente exibindo essa mesma mensagem mesmo sem ter ultrapassado a quota.

                      Sugiro portanto trocar o modelo carregado, de “gemini/gemini-2.0-flash” para “gemini/gemini-2.5-flash”

                      Se mesmo assim o problema continuar, uma outra forma de resolver é alterar o max_rpm (dentro da Crew) para um valor menor (ex: 10). Se você fizer essa mudança, precisa reexecutar todos os blocos na ordem

                      Com isso deve resolver, mas se mesmo assim não der então daria pra tentar criar a chave em outra conta Google. Essa sua conta pode estar com alguma restrição de algum modo, então teria que rever as configurações e permissões. Mas nesse caso, para ser mais rápido e eliminar essa possibilidade, eu recomendaria gerar essa chave com outra conta google/gmail

                      in reply to: Dificuldades em instalar o Docker no Windows 10 #52733
                      Gabriel Alves
                      Keymaster

                        Olá Augusto!

                        Após executar esse comando, execute wsl –version  e verifique se a versão foi alterada ou não, pois pode ser que após executar o comando tenha aparecido uma mensagem dizendo que foi atualizado mas na verdade não foi (isso é um problema relativamente comum).

                        Se persistir o problema, recomendo seguir as recomendações desse vídeo.

                        Outra forma é desabilitar as opções ‘Windows Subsystem for Linux’ e ‘Virtual Machine Platform’ dentro de ‘Turn Windows Features on or off’ (mostrado no vídeo), reiniciar o PC, e depois habilitar novamente. Em seguida, execute o comando wsl –install

                        Em último caso, dá para tentar instalar manualmente (link aqui)

                        in reply to: erro no certificado #52363
                        Gabriel Alves
                        Keymaster

                          Olá Fernando!

                          Ao configurar as credenciais, experimente ativar essa opção “Ignore SSL Issues”. Após marcar, clique em salvar e reexecute novamente o fluxo, verificando se as demais configurações também estão ok.

                          Se o problema persistir, me informe aqui se você está executando no n8n cloud, self-hosted ou local (pelo docker), assim conseguiremos ajudar melhor

                          in reply to: Pagar IA – Black Friday #52353
                          Gabriel Alves
                          Keymaster

                            Disponha!

                            in reply to: Pagar IA – Black Friday #52349
                            Gabriel Alves
                            Keymaster

                              Ah sim entendi, particularmente eu recomendaria o Gemini entre essas (principalmente após o lançamento da versão mais recente esses dias, que está muito boa principalmente para geração de imagens), mas ChatGPT ainda continua uma opção excelente, assim como outras opções pagas (como o Claude).

                              Já se seu orçamento for maior e não quer se preocupar muito, o Microsoft Copilot é uma opção bem interessante e completa.

                              Considerando que você vai usar IA para várias coisas (planilhas, análise, geração de posts e vídeos), talvez valha a pena considerar até pacote de assinaturas, para ter modelos diferentes cobrindo necessidades distintas. Se você for usar muito pra criação de multimídia sugiro pacotes que foquem mais nas IAs que geram imagens e vídeos, assim terá uma boa quantidade de ferramentas para isso

                              (não tenho uma recomendação específica de qual pacote comprar, mas pesquisando você vai encontrar opções que estão anunciando agora nessa black friday).

                              in reply to: Modelo LLM não disponivel da aula de RH #52318
                              Gabriel Alves
                              Keymaster

                                Olá Wagner! Esse modelo foi descontinuado pelo Groq bem recentemente, ao invés dele recomendamos o qwen/qwen3-32b, que também retorna as tags de pensamento (<think>)

                                Ou o llama-3.3-70b-versatile, que foi indicado como o substituto direto na documentação (ele tem 70b assim com o deepseek)

                                in reply to: baixar csv #52292
                                Gabriel Alves
                                Keymaster

                                  Sim Marcos, é lamentável quando essas plataformas não atualizam a documentação (ainda mais quando são gigantes da tecnologia), isso acaba prejudicando muito a comunidade.

                                  Mas enfim, dentro dessa opção que comentamos é para aparecer essa tela onde permite baixar. Ao selecionar essa primeira opção conforme na imagem abaixo é para ir pro email o arquivo com tudo junto, incluindo as conexões

                                Viewing 15 posts - 1 through 15 (of 435 total)