Forum Replies Created

Viewing 15 posts - 301 through 315 (of 414 total)
  • Author
    Posts
  • in reply to: extratorpalavras #36453
    Denny Ceccon
    Moderator

      Isso.

      in reply to: extratorpalavras #36437
      Denny Ceccon
      Moderator

        Oi Caio,

        %s é um “placeholder”, quer dizer que ali vai entrar uma string, e com % palavra nós dizemos que a string está contido em palavra.

        Ou seja, se palavrasunicastreinamento for uma lista com ['banana', 'maca', 'laranja'], então no final do loop você vai ter o dicionário caracteristicas contendo essas 3 chaves.

        in reply to: count vectorizer #36380
        Denny Ceccon
        Moderator

          Isso mesmo Caio, o CountVectorizer faz exatamente isso.

          • This reply was modified 3 years, 5 months ago by Denny Ceccon.
          in reply to: Implementação Validação Cruzada Atualizada. #36379
          Denny Ceccon
          Moderator

            Olá Gabriel,

            Sempre que você cria uma camada no Keras, a API coloca um índice no final do nome, por exemplo, dense_1, dense_2, dense_3… Aí, se você começar uma nova arquitetura, ele continua numerando como dense_4 em diante. O clear_session reseta esse estado. Não é um código estritamente necessário, mas se você quer acessar as camadas pelo nome depois, isso ajuda.

            A camada de Dropout serve para zerar algumas das saídas da camada anterior, 0.2 significa que 20% dos valores serão zerados. Isso ajuda a evitar problemas de overfitting.

            in reply to: Não estou conseguindo fazer a previsão pra trás! #36368
            Denny Ceccon
            Moderator

              Olá Gustavo,

              A principal razão é porque o auto_arima não foi capaz de encontrar padrões e tendências que ele considera útil para as predições, então ele retorna sempre a última cotação. Dê uma olhada aqui: https://stats.stackexchange.com/a/529835

              Você deve conseguir resultados mais interessantes testando outros parâmetros na implementação do auto_arima, visite a documentação da biblioteca.

              in reply to: rede neural #36365
              Denny Ceccon
              Moderator

                Sim, ela pode ser treinada para classificar os textos em qualquer modalidade.

                in reply to: Tratamento de Valores inconsistentes e faltantes #36362
                Denny Ceccon
                Moderator

                  É um bom caminho Adauto, com a experiência você vai aprendendo a lidar com essas inconsistências de uma forma mais eficiente.

                  in reply to: Tratamento de Valores inconsistentes e faltantes #36354
                  Denny Ceccon
                  Moderator

                    Olá Adauto,

                    Infelizmente não porque a própria definição de outlier é aberta a interpretações. Por exemplo, idades negativas certamente estão erradas, mas e se a variável permitisse valores negativos? Esta parte inicial de exploração dos dados fica a cargo do desenvolvedor e inclusive é essencial para o desenvolvimento de um bom projeto de Data Science.

                    in reply to: rede neural #36331
                    Denny Ceccon
                    Moderator

                      Olá Caio,

                      Sim. Tecnicamente, qualquer rede neural capaz de processar textos pode ser adaptada para classificar sentimentos.

                      in reply to: Calculo do Parâmetro Delta em Redes Neurais e Deep Learning #36309
                      Denny Ceccon
                      Moderator

                        Olá André,

                        A soma é igual a zero porque os registros (camada de entrada) são iguais a zero, então se multiplicar zero pelos pesos (ligações entre a camada de entrada e a camada oculta) e somar depois, o resultado final é zero. Aplicando a ativação (sigmoide de zero), o resultado é 0.5, e a derivada da sigmoide de 0.5 é igual a 0.25.

                        in reply to: Data augmentation #36277
                        Denny Ceccon
                        Moderator

                          Olá Felix,

                          Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetro steps_per_epoch passado ao método fit. Na aula, o professor usou steps_per_epoch igual ao número total de imagens dividido pelo batch_size, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada de pre_processamento. Se você usar um steps_per_epoch maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.

                          cardinality retorna -1 porque, como o dataset original foi modificado com a função repeat, então seu tamanho é indefinido (tecnicamente, ele é infinito).

                          in reply to: Pré-processamento das imagens de entrada #36256
                          Denny Ceccon
                          Moderator

                            Olá Laurence,

                            Você pode usar a função tf.image.resize_with_crop_or_pad (documentação aqui), passando todas as suas imagens e o novo tamanho nos parâmetros target_heighttarget_width. As imagens vão ser redimensionadas para um tamanho único, e aquelas que não forem compatíveis com este tamanho vão ser cortadas ou completadas para obedecer às novas dimensões.

                            • This reply was modified 3 years, 6 months ago by Denny Ceccon.
                            in reply to: Dúvida sobre a aula de Vetor Ordenado Implementação #36230
                            Denny Ceccon
                            Moderator

                              Oi Pietro,

                              1. Pode pensar nos vetores como uma série de números que se sucedem linearmente. O Python possui um objeto chamado lista que, no fundo, é um vetor, mas sendo um objeto declarado programaticamente, a lista possui métodos e propriedades úteis para manipular vetores. Vetor é uma abstração, mas a lista do Python é um objeto concreto desta abstração. É mais ou menos como comparar o conceito carro (abstração) com um objeto carro (concreto). Listas/vetores são uma das inúmeras formas para armazenar dados, conforme você se aprofundar nos estudos vai perceber sua utilidade.
                              2. Numpy é uma biblioteca do Python usada para criar objetos “especiais”, que não existem no Python nativo. No caso, o Numpy é útil para criar vetores e matrizes.
                              3. Digamos que a “abstração” do objeto numpy.empty é uma lista de listas, mas o objeto concreto é mais complexo que isso, por isso precisamos usar métodos diferentes. Um objeto do tipo numpy não possui o método insert, por exemplo, logo sua manipulação deve ser feita de forma diferente.
                              in reply to: Não estou conseguindo fazer a previsão pra trás! #36132
                              Denny Ceccon
                              Moderator

                                Oi Gustavo,

                                Tente colocar as datas como índice no dataframe com as previsões:

                                index=pd.date_range(
                                                    serie_temporal.index[-1] # pega a última data disponível em serie_temporal
                                                    + pd.Timedelta('1D'),    # adiciona 1 dia porque estamos fazendo a previsão a partir do dia seguinte
                                                    periods=100)             # faz o intervalo de datas até 100 dias no futuro
                                                   )
                                previsoes = pd.DataFrame(modelo.predict(n_periods = 100), index=index)

                                Aí é só plotar os dois dataframes no mesmo gráfico:

                                fig.plot(serie_temporal, label='Dados históricos')
                                fig.plot(previsoes , label = 'Previsões')
                                • This reply was modified 3 years, 6 months ago by Denny Ceccon.
                                in reply to: autoenconder #36131
                                Denny Ceccon
                                Moderator

                                  Olá Caio,

                                  Com 20 colunas realmente não se justifica, mas se tivermos muitas colunas, a redução torna os dados mais manuseáveis em termos de custo computacional. Além disso, existem as chamadas matrizes esparsas onde somente algumas colunas têm valores e o restante é igual a 0, aí a representação em um espaço com menos dimensões é de enorme ajuda no ajuste no modelo.

                                Viewing 15 posts - 301 through 315 (of 414 total)