Home Forums Domine LLMs com LangChain teste1.py não funciona mais

Viewing 2 posts - 1 through 2 (of 2 total)
  • Author
    Posts
  • #50296

    Olá pessoal,

    teste1.py não funciona mais. Dá mensagem de erro dizendo que “HuggingFaceHub” está “deprecated”. Fiz diversas alterações informadas na documentação como “from langchain_huggingface import HuggingFaceEndpoint” mas continuou dando erro.

    Nem a chave HUGGINGFACEHUB_API_TOKEN tá lendo mais… (tenho token accepted da HF e da meta e atualizei o arquivo .env)

    Qualquer ajuda é muito bem vinda

    Obrigado

     

    #50307
    Gabriel Alves
    Keymaster

      Olá Eduardo!

      Parece ser uma limitação recente nos servidores do Hugging Face, que especificamente está com problemas para rodar os modelos Llama 3 publicados no repositório, mesmo o modelo oficial publicado pela Meta. Ainda não houve uma solução oficial pela equipe responsável pela biblioteca, então recomendo não usar por enquanto o Hugging Face Hub para o Llama 3. Nós estamos terminando de criar uma aula de aviso para colocar no curso, já que está causando essa confusão.

      Para usar o modelo Phi 3 por exemplo, faça assim:

      from langchain_huggingface import HuggingFaceEndpoint
      
      # Exemplo com Hugging Face
      llm = HuggingFaceEndpoint(
          repo_id="microsoft/Phi-3-mini-4k-instruct",
          temperature = 0.1,
          return_full_text = False,
          max_new_tokens = 1024,
          task="text-generation"
      )
      
      system_prompt = "Você é um assistente prestativo e está respondendo perguntas gerais."
      user_prompt = "{input}"
      
      token_s, token_e = "<|system|>", "<|end|><|assistant|>"
      
      prompt = ChatPromptTemplate.from_messages([
          ("system", token_s + system_prompt),
          ("user", user_prompt + token_e)
      ])
      
      chain = prompt | llm
      
      input = "Explique para mim em até 1 parágrafo o conceito de redes neurais, de forma clara e objetiva"
      
      res = chain.invoke({"input": input})
      print(res)

       

      Veja aqui o arquivo teste1.py atualizado, acabei de testar e está funcionando.

       

      Por enquanto, estamos recomendando implementar o Llama (e outros modelos ainda mais modernos) com o serviço da Groq. Esse provedor disponibiliza o Llama 4 e outros modelos modernos via API de forma gratuita também, inclusive o plano grátis tem uma quota ainda mais generosa. A única linha que precisa alterar é a que chama o método da LLM. Você deve então substituir esse método do Hugging Face por:

      llm = ChatGroq(model="llama3-70b-8192", temperature=0.7, max_tokens=None, timeout=None, max_retries=2)

      e antes de executar essa linha acima você precisa:

      * instalar o langchain-groq, usando o comando !pip install -q langchain-groq

      * fazer a importação com from langchain_groq import ChatGroq

      * adicionar a Key do Groq às variáveis de ambiente, com  os.environ[“GROQ_API_KEY”] = getpass.getpass()

      (ou, adicionando GROQ_API_KEY=SUA_CHAVE_AQUI   – dentro do .env)

       

      Para criar API do Groq​

      1) Acesse: https://groq.com ​ -> clique em DEV CONSOLE (menu do topo)

      2) Crie sua conta. Você pode criar/logar com sua conta Google, para ser mais prático​

      3) Após o login, no menu lateral acesse API Keys https://console.groq.com/playground

      4) E clique no botão ‘Create API Key​’

      Aqui você pode escolher qualquer nome.​

      Após criar, clique no botão Copy para copiar a chave e salve em um local seguro

       

      Modelos disponíveis pelo Groq https://console.groq.com/docs/rate-limits (ver os gratuitos – dentro da aba free tier)

    Viewing 2 posts - 1 through 2 (of 2 total)
    • You must be logged in to reply to this topic.