Forum Replies Created

Viewing 15 posts - 1 through 15 (of 415 total)
  • Author
    Posts
  • in reply to: informaçoes do problema #52141
    Gabriel Alves
    Keymaster

      Que bom que conseguiu Marcos

      caso volte a dar problema tente fazer o que comentei naquele outro tópico (nesse link)

      in reply to: informaçoes do problema #52108
      Gabriel Alves
      Keymaster

        Olá Marcos!

        Respondi lá no outro tópico que você criou, link aqui (apenas referenciando aqui para ficar centralizado tudo num mesmo local já que se trata da mesma dúvida)

        in reply to: erros #52107
        Gabriel Alves
        Keymaster

          Olá Marcos!

          Respondi lá no outro tópico que você criou, link aqui (apenas referenciando aqui para ficar centralizado tudo num mesmo local já que se trata da mesma dúvida)

          in reply to: nao acessa linkedin pelo login #52106
          Gabriel Alves
          Keymaster

            Olá Marcos!

            Se você digitou o login/senha e após dar a permissão deu esse erro ERR_CONNECTION_REFUSED então é dentro do esperado, não tem problema dar esse erro. O LinkedIn gerou um código de autorização temporário e o colocou na URL para a qual tentou te redirecionar, tudo o que você precisa fazer é “capturar” esse código manualmente.

            Na URL, basta copiar o valor que aparece depois de code= e antes do &state. Esse é o seu código de autorização, e você vai usá-lo na etapa seguinte do código no Colab.

            Cole esse código na variável AUTH_CODE, e continue a executar o restante, na ordem. O código completo está nesse Colab aqui

            Se ficar na dúvida de como fazer, veja a aula “API do Linkedin 1“, após o minuto 12:20 é explicado isso com mais detalhes

            in reply to: Erro no langchain_openai #51876
            Gabriel Alves
            Keymaster

              Olá! Talvez seja algo com a sua variável template, pode ter sido reescrita ou atribuída outro valor então tente atribuir novamente para ela o valor de ChatPromptTemplate, eu testei aqui agora e funcionou. Garanta que esse trecho do seu código esteja assim:

              template = ChatPromptTemplate.from_messages([
                  (“system”, “Você é um redator profissional”),
                  (“human”, “{prompt}”)
              ])

              chain_chatgpt = template | chatgpt

              in reply to: Tema indisponivel #51870
              Gabriel Alves
              Keymaster

                Olá! Verifique se o código está exatamente como do Colab aqui https://colab.research.google.com/drive/1Tbi2QkeFUVSJrWeLslnE43cBTbzEDM1w#scrollTo=q2IpNQJX0kJp

                E se o problema persistir, tente usar o ngrok (mais detalhes veja a aula “Aviso sobre uso no Colab”)

                Qualquer coisa compartilhe aqui seu Colab se o problema persistir

                in reply to: Fotos #51868
                Gabriel Alves
                Keymaster

                  Olá André!

                  No Google Colab, você pode usar bibliotecas como o Diffusers (da Hugging Face) que permite gerar imagens realistas diretamente com modelos de Stable Diffusion. Ela é uma das opções mais populares e fáceis de usar para esse tipo de tarefa. O curso Domine a criação de imagens com IA explica bem como fazer isso no Colab (um exemplo é demonstrado aqui).

                  Outra alternativa é usar plataformas com interface gráfica de Stable Diffusion, que não exigem código. Elas são ideais se você quer resultados rápidos e com mais controle visual sobre estilo, iluminação e enquadramento. Isso é explicado no curso Imagens Avançadas com IA Generativa + Stable Diffusion. Assim, você pode escolher entre gerar as imagens diretamente via código no Colab ou criar as artes pela interface, dependendo do seu nível de familiaridade e da flexibilidade que quiser ter na criação.

                  Se quiser outras opções práticas de geração de imagem e sem precisar lidar com código, dê uma olhada também nas aulas 2,3,4 e 5 da seção “Imagem/vídeo para vídeo” do curso “Geração de Vídeos com Inteligência Artificial”.

                  in reply to: Erro no langchain_openai #51867
                  Gabriel Alves
                  Keymaster

                    Olá Joaquim! Acabei de verificar aqui, esse erro parece ser uma incompatibilidade recente com o Langchain.

                    Para resolver, faça assim: logo antes desse código que você enviou no print, adicione esse bloco de código: !pip install –upgrade langchain-core langchain

                    Após executar, o Colab vai pedir para reiniciar a sessão, portanto clique no botão de “Restart” que vai aparecer na tela. Em seguida será necessário executar novamente o bloco de código que contém os imports (necessários para executar as funções que você deseja) e rodar o bloco de código que carrega a chave de API.

                    Ou seja, executar nessa ordem:

                     

                    !pip install –upgrade langchain-core langchain

                    ________________________________________________

                    (( reinicia a sessão do Colab ))

                    ________________________________________________

                    import os, getpass

                    os.environ[“OPENAI_API_KEY”] = getpass.getpass()

                    ________________________________________________

                    from langchain_openai import ChatOpenAI
                    chatgpt = ChatOpenAI(model = “gpt-4o-mini”)

                    ________________________________________________

                     

                    após isso deve dar certo, acabei de testar aqui e rodou sem erros

                    in reply to: Tentei usar OpenAI ao invés de Gemini e não tive sucesso #51525
                    Gabriel Alves
                    Keymaster

                      Olá Geilson! Isso ocorre nos 2 subnós do OpenAI ligados aos 2 nós ‘Supabase Vector Store’ (tanto do fluxo de indexação quanto do de agente)?

                      Quando você criou sua tabela no Supabase você deixou a dimensão igual a 3072 (valor padrão que estava no comando disponibilizado) ou alterou? Usamos 3072 devido à compatibilidade com o modelo de embedding Gemini, mas para modelos da OpenAI o valor padrão é 1536. Portanto você deve criar uma tabela especificando esse valor (alterando no comando de criação de tabela, nos dois lugares onde especifica as dimensões). Uma outra opção seria manter o 3072 como já está, mas aí dentro das configurações do nó de embedding você precisa especificar as dimensões clicando no campo “Add Option” e selecionando “Dimensions”, assim:

                      Se mesmo assim persistir o problema: Você consegue executar e mandar um print dos logs, que aparecem na parte inferior do painel? E também se possível abra o nó Supabase e tire print, para observar o painel de output.

                      Recomendo verificar também se o nó do OpenAI roda se for conectado ao Model do AI Agent (apenas para checar que a conexão com sua conta está ok). Se funcionar, seria um problema com o nó de embeddings somente.

                      in reply to: Sobre o Projeto 1 #51194
                      Gabriel Alves
                      Keymaster

                        Olá Paulo!

                        Qual erro está dando para você? Se estiver carregando o modelo pelo Hugging Face Hub (método “HuggingFaceEndpoint”) pode ser instabilidade no servidor, ou algum problema ao carregar com sua key.

                        Uma dica que temos recomendado recentemente é implementar a LLM com o serviço da Groq, que disponibiliza o Llama 4 e outros modelos modernos via API de forma gratuita também. A única linha que precisa alterar é a que chama o método da LLM. Você deve então substituir esse método do Hugging Face por: llm = ChatGroq(model=”llama-3.3-70b-versatile”, temperature=0.7, max_tokens=None, timeout=None, max_retries=2)

                        e antes de executar essa linha acima você precisa:

                        * instalar o langchain-groq, usando o comando !pip install -q langchain-groq

                        * fazer a importação com from langchain_groq import ChatGroq

                        * adicionar a Key do Groq às variáveis de ambiente, com esse comando os.environ[“GROQ_API_KEY”] = getpass.getpass()

                        e aí no campo que aparecer você cola a key

                         

                        Para criar API do Groq​

                        1) Acesse: https://groq.com ​ -> clique em DEV CONSOLE (menu do topo)

                        2) Crie sua conta. Você pode criar/logar com sua conta Google, para ser mais prático​

                        3) Após o login, no menu lateral acesse API Keys https://console.groq.com/playground

                        4) E clique no botão ‘Create API Key​’

                        Aqui você pode escolher qualquer nome.​

                        Após criar, clique no botão Copy para copiar a chave e salve em um local seguro

                         

                        Modelos disponíveis pelo Groq https://console.groq.com/docs/rate-limits (ver os gratuitos – dentro da aba free tier)

                         

                        Quanto ao código com Streamlit, deixei aqui ao final do Colab https://colab.research.google.com/drive/1jul2su9c7QGJSzpe9D0T3kZB8FxWeFfg#scrollTo=g9yi7myGxHXW

                        in reply to: Erro #50924
                        Gabriel Alves
                        Keymaster

                          Olá! Fica apenas uma tela de carregando, sem aparecer nenhuma mensagem de erro? Pelo que você descreveu pode ser alguma instabilidade no localtunnel, há alguns relatos dizendo que desde sexta os servidores se encontram instáveis.

                          Como alternativa, você pode ou executar localmente (conforme demonstrado na aula “Execução local 1”, da seção “Marketing”) ou continuar executando pelo Colab mas usando o ngrok ao invés do localtunnel. Para saber como fazer isso veja a aula “Aviso sobre uso no Colab”, que adicionamos logo antes da aula “Interface com Streamlit”, dentro da seção de Marketing (link aqui).

                          Em breve adicionaremos uma aula gravada, mas pela aula de texto já é possível conseguir realizar tudo o que precisa para implementar no ngrok direto pelo Colab!

                          Quanto à parte do agente, acho que é mais fácil se basear direto no Colab da seção pois lá tem todas as alterações recentes da biblioteca (acesse  https://colab.research.google.com/drive/1U4UexvWpa93yPZtRHxWnco0Nk5mFTmwV)

                          Se ocorrer algum erro durante a execução, peço que por favor me informe qual a mensagem apareceu e a linha de código que deu o erro

                          in reply to: Erro #50910
                          Gabriel Alves
                          Keymaster

                            Olá Elisabeth! Que bom, se ainda ficou alguma dúvida basta avisar aqui no tópico

                            in reply to: Detecção de descritores faciais #50667
                            Gabriel Alves
                            Keymaster

                              Olá Elisabeth!

                              Este problema se deve a uma incompatibilidade recente entre o dlib e a versão CUDA atribuída no Colab, parece que até o momento não há uma solução oficial (e também tentamos alterar a versão CUDA da instância do Colab, porém atualmente parece que não é mais permitido). Estamos tentando encontrar uma alternativa para que a função funcione corretamente sem essas mensagens. Como alternativa, você tem algumas opções:

                              1) Executar em sua máquina local. Você pode usar o mesmo código, apenas certifique-se de instalar as bibliotecas necessárias antes de rodar. Recomendamos o uso do Jupyter Notebook para que você possa reutilizar o notebook fornecido na aula.

                              2) Usar outra técnica de reconhecimento facial, como por exemplo o LBPH (que foi mostrado nessa seção do curso).

                              3) Usar o Kaggle em vez do Colab. Para isso, faça o seguinte:

                              * Acesse os Notebooks do Kaggle (link). Faça login ou cadastre-se rápido caso não tenha uma conta.

                              * Clique em “New Notebook”

                              * Selecione File > Import Notebook  (se não encontrar a opção, veja essa imagem) 

                              * Selecione o arquivo .ipynb nos materiais da aula (ou baixe-o diretamente clicando em Arquivo > Fazer Download > Baixar o .ipynb , dentro do Colab da aula).

                              * Arraste e solte o arquivo .ipynb e clique em Importar.

                              Como alternativa, você pode usar a biblioteca face_recognition, que oferece funcionalidade semelhante (repositório do GitHub), ou o DeepFace, outra opção ótima (repositório).

                              in reply to: ExpatError ao carregar infos do video do youtube no projeto1 #50543
                              Gabriel Alves
                              Keymaster

                                Olá Aline!

                                Para evitar esse erro, ao invés de executar esses códigos:

                                video_loader = YoutubeLoader.from_youtube_url("https://www.youtube.com/watch?v=II28i__Tf3M", language = ["pt", "pt-BR", "en"],)
                                infos = video_loader.load()
                                transcricao = infos[0].page_content

                                Use esse código abaixo:

                                from youtube_transcript_api import YouTubeTranscriptApi
                                from youtube_transcript_api.formatters import TextFormatter
                                
                                # ID do vídeo do YouTube. Verifique pela URL, é o que vem logo após /watch?v=
                                id_video = "II28i__Tf3M"
                                
                                # Busca a transcrição, tentando em português e inglês
                                result = YouTubeTranscriptApi().fetch(id_video, languages=["pt", "pt-BR", "en"])
                                
                                #Formata a transcrição como texto
                                formatter = TextFormatter()
                                transcricao = formatter.format_transcript(result)
                                
                                # opcional: Substitui quebras de linha por espaços para manter tudo em uma só linha (Se não quiser isso, remova essa linha abaixo)
                                transcricao = transcricao.replace('\n', ' ')
                                print(transcricao)
                                

                                Importante: para isso é necessário que use pelo menos a versão 1.1.0 do youtube-transcript-api, o que pode ser garantido executando esse comando antes dos imports em seu código: !pip install youtube-transcript-api==1.1.0

                                (tudo isso já está atualizado no Colab dessa seção, pode conferir aqui se preferir)

                                 

                                Recentemente, o YouTube passou a exigir o uso de um novo tipo de token, o que afeta diretamente bibliotecas que dependem da API de transcrição, como a youtube-transcript-api (mais detalhes aqui). Para lidar com isso, é necessário utilizar uma versão atualizada dessa biblioteca.

                                Porém, a biblioteca Langchain ainda não é compatível com a nova versão da youtube-transcript-api. Internamente, o YoutubeLoader do Langchain utiliza essa biblioteca, mas está vinculado a uma versão anterior, o que leva a erros de execução ao tentar obter a transcrição de vídeos recentes. Até o momento, a equipe do Langchain ainda não anunciou uma previsão de atualização para resolver essa incompatibilidade.

                                Por esse motivo nós decidimos achar um modo de implementar o processo de forma direta, utilizando os métodos da própria biblioteca youtube-transcript-api, o que nos permite maior controle e compatibilidade com a versão mais recente.

                                Além disso, utilizamos a classe TextFormatter, que ajuda a extrair a transcrição limpa, sem timestamps ou metadados (somente o texto). Para tornar o texto ainda mais fluido, como adicional nós removemos as quebras de linha (\n), unificando toda a transcrição em um único bloco contínuo, igual como é obtido quando usava pelo método YoutubeLoader do Langchain.

                                in reply to: Proteger dados Proprietários (RAG) #50491
                                Gabriel Alves
                                Keymaster

                                  Disponha, Douglas!

                                  Abraço!

                                Viewing 15 posts - 1 through 15 (of 415 total)