teste1.py não funciona mais

Home Fóruns Domine LLMs com LangChain teste1.py não funciona mais

Visualizando 2 posts - 1 até 2 (de 2 do total)
  • Autor
    Posts
  • #50296
    Eduardo A M Menezes
    Participante

      Olá pessoal,

      teste1.py não funciona mais. Dá mensagem de erro dizendo que “HuggingFaceHub” está “deprecated”. Fiz diversas alterações informadas na documentação como “from langchain_huggingface import HuggingFaceEndpoint” mas continuou dando erro.

      Nem a chave HUGGINGFACEHUB_API_TOKEN tá lendo mais… (tenho token accepted da HF e da meta e atualizei o arquivo .env)

      Qualquer ajuda é muito bem vinda

      Obrigado

       

      #50307
      Gabriel Alves
      Moderador

        Olá Eduardo!

        Parece ser uma limitação recente nos servidores do Hugging Face, que especificamente está com problemas para rodar os modelos Llama 3 publicados no repositório, mesmo o modelo oficial publicado pela Meta. Ainda não houve uma solução oficial pela equipe responsável pela biblioteca, então recomendo não usar por enquanto o Hugging Face Hub para o Llama 3. Nós estamos terminando de criar uma aula de aviso para colocar no curso, já que está causando essa confusão.

        Para usar o modelo Phi 3 por exemplo, faça assim:

        from langchain_huggingface import HuggingFaceEndpoint
        
        # Exemplo com Hugging Face
        llm = HuggingFaceEndpoint(
            repo_id="microsoft/Phi-3-mini-4k-instruct",
            temperature = 0.1,
            return_full_text = False,
            max_new_tokens = 1024,
            task="text-generation"
        )
        
        system_prompt = "Você é um assistente prestativo e está respondendo perguntas gerais."
        user_prompt = "{input}"
        
        token_s, token_e = "<|system|>", "<|end|><|assistant|>"
        
        prompt = ChatPromptTemplate.from_messages([
            ("system", token_s + system_prompt),
            ("user", user_prompt + token_e)
        ])
        
        chain = prompt | llm
        
        input = "Explique para mim em até 1 parágrafo o conceito de redes neurais, de forma clara e objetiva"
        
        res = chain.invoke({"input": input})
        print(res)

         

        Veja aqui o arquivo teste1.py atualizado, acabei de testar e está funcionando.

         

        Por enquanto, estamos recomendando implementar o Llama (e outros modelos ainda mais modernos) com o serviço da Groq. Esse provedor disponibiliza o Llama 4 e outros modelos modernos via API de forma gratuita também, inclusive o plano grátis tem uma quota ainda mais generosa. A única linha que precisa alterar é a que chama o método da LLM. Você deve então substituir esse método do Hugging Face por:

        llm = ChatGroq(model="llama3-70b-8192", temperature=0.7, max_tokens=None, timeout=None, max_retries=2)

        e antes de executar essa linha acima você precisa:

        * instalar o langchain-groq, usando o comando !pip install -q langchain-groq

        * fazer a importação com from langchain_groq import ChatGroq

        * adicionar a Key do Groq às variáveis de ambiente, com  os.environ[“GROQ_API_KEY”] = getpass.getpass()

        (ou, adicionando GROQ_API_KEY=SUA_CHAVE_AQUI   – dentro do .env)

         

        Para criar API do Groq​

        1) Acesse: https://groq.com ​ -> clique em DEV CONSOLE (menu do topo)

        2) Crie sua conta. Você pode criar/logar com sua conta Google, para ser mais prático​

        3) Após o login, no menu lateral acesse API Keys https://console.groq.com/playground

        4) E clique no botão ‘Create API Key​’

        Aqui você pode escolher qualquer nome.​

        Após criar, clique no botão Copy para copiar a chave e salve em um local seguro

         

        Modelos disponíveis pelo Groq https://console.groq.com/docs/rate-limits (ver os gratuitos – dentro da aba free tier)

      Visualizando 2 posts - 1 até 2 (de 2 do total)
      • Você deve fazer login para responder a este tópico.