Forum Replies Created

Viewing 15 posts - 301 through 315 (of 415 total)
  • Author
    Posts
  • Denny Ceccon
    Moderator

      Olá Dorimar,

      As frequências nada mais são do que as probabilidades de as categorias ocorrem naquele dataset. Então, em termos de X e y, podemos reescrever o teorema acima da seguinte forma:

      P(y/X) = P(X/y) . P(X)  /  P(y)

      Ou seja, a probabilidade de determinada saída em função dos dados de entrada é definida pela multiplicação das probabilidades (ou frequências) dos dados.

      in reply to: extratorpalavras #36453
      Denny Ceccon
      Moderator

        Isso.

        in reply to: extratorpalavras #36437
        Denny Ceccon
        Moderator

          Oi Caio,

          %s é um “placeholder”, quer dizer que ali vai entrar uma string, e com % palavra nós dizemos que a string está contido em palavra.

          Ou seja, se palavrasunicastreinamento for uma lista com ['banana', 'maca', 'laranja'], então no final do loop você vai ter o dicionário caracteristicas contendo essas 3 chaves.

          in reply to: count vectorizer #36380
          Denny Ceccon
          Moderator

            Isso mesmo Caio, o CountVectorizer faz exatamente isso.

            • This reply was modified 3 years, 8 months ago by Denny Ceccon.
            in reply to: Implementação Validação Cruzada Atualizada. #36379
            Denny Ceccon
            Moderator

              Olá Gabriel,

              Sempre que você cria uma camada no Keras, a API coloca um índice no final do nome, por exemplo, dense_1, dense_2, dense_3… Aí, se você começar uma nova arquitetura, ele continua numerando como dense_4 em diante. O clear_session reseta esse estado. Não é um código estritamente necessário, mas se você quer acessar as camadas pelo nome depois, isso ajuda.

              A camada de Dropout serve para zerar algumas das saídas da camada anterior, 0.2 significa que 20% dos valores serão zerados. Isso ajuda a evitar problemas de overfitting.

              in reply to: Não estou conseguindo fazer a previsão pra trás! #36368
              Denny Ceccon
              Moderator

                Olá Gustavo,

                A principal razão é porque o auto_arima não foi capaz de encontrar padrões e tendências que ele considera útil para as predições, então ele retorna sempre a última cotação. Dê uma olhada aqui: https://stats.stackexchange.com/a/529835

                Você deve conseguir resultados mais interessantes testando outros parâmetros na implementação do auto_arima, visite a documentação da biblioteca.

                in reply to: rede neural #36365
                Denny Ceccon
                Moderator

                  Sim, ela pode ser treinada para classificar os textos em qualquer modalidade.

                  in reply to: Tratamento de Valores inconsistentes e faltantes #36362
                  Denny Ceccon
                  Moderator

                    É um bom caminho Adauto, com a experiência você vai aprendendo a lidar com essas inconsistências de uma forma mais eficiente.

                    in reply to: Tratamento de Valores inconsistentes e faltantes #36354
                    Denny Ceccon
                    Moderator

                      Olá Adauto,

                      Infelizmente não porque a própria definição de outlier é aberta a interpretações. Por exemplo, idades negativas certamente estão erradas, mas e se a variável permitisse valores negativos? Esta parte inicial de exploração dos dados fica a cargo do desenvolvedor e inclusive é essencial para o desenvolvimento de um bom projeto de Data Science.

                      in reply to: rede neural #36331
                      Denny Ceccon
                      Moderator

                        Olá Caio,

                        Sim. Tecnicamente, qualquer rede neural capaz de processar textos pode ser adaptada para classificar sentimentos.

                        in reply to: Calculo do Parâmetro Delta em Redes Neurais e Deep Learning #36309
                        Denny Ceccon
                        Moderator

                          Olá André,

                          A soma é igual a zero porque os registros (camada de entrada) são iguais a zero, então se multiplicar zero pelos pesos (ligações entre a camada de entrada e a camada oculta) e somar depois, o resultado final é zero. Aplicando a ativação (sigmoide de zero), o resultado é 0.5, e a derivada da sigmoide de 0.5 é igual a 0.25.

                          in reply to: Data augmentation #36277
                          Denny Ceccon
                          Moderator

                            Olá Felix,

                            Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetro steps_per_epoch passado ao método fit. Na aula, o professor usou steps_per_epoch igual ao número total de imagens dividido pelo batch_size, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada de pre_processamento. Se você usar um steps_per_epoch maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.

                            cardinality retorna -1 porque, como o dataset original foi modificado com a função repeat, então seu tamanho é indefinido (tecnicamente, ele é infinito).

                            in reply to: Pré-processamento das imagens de entrada #36256
                            Denny Ceccon
                            Moderator

                              Olá Laurence,

                              Você pode usar a função tf.image.resize_with_crop_or_pad (documentação aqui), passando todas as suas imagens e o novo tamanho nos parâmetros target_heighttarget_width. As imagens vão ser redimensionadas para um tamanho único, e aquelas que não forem compatíveis com este tamanho vão ser cortadas ou completadas para obedecer às novas dimensões.

                              • This reply was modified 3 years, 8 months ago by Denny Ceccon.
                              in reply to: Dúvida sobre a aula de Vetor Ordenado Implementação #36230
                              Denny Ceccon
                              Moderator

                                Oi Pietro,

                                1. Pode pensar nos vetores como uma série de números que se sucedem linearmente. O Python possui um objeto chamado lista que, no fundo, é um vetor, mas sendo um objeto declarado programaticamente, a lista possui métodos e propriedades úteis para manipular vetores. Vetor é uma abstração, mas a lista do Python é um objeto concreto desta abstração. É mais ou menos como comparar o conceito carro (abstração) com um objeto carro (concreto). Listas/vetores são uma das inúmeras formas para armazenar dados, conforme você se aprofundar nos estudos vai perceber sua utilidade.
                                2. Numpy é uma biblioteca do Python usada para criar objetos “especiais”, que não existem no Python nativo. No caso, o Numpy é útil para criar vetores e matrizes.
                                3. Digamos que a “abstração” do objeto numpy.empty é uma lista de listas, mas o objeto concreto é mais complexo que isso, por isso precisamos usar métodos diferentes. Um objeto do tipo numpy não possui o método insert, por exemplo, logo sua manipulação deve ser feita de forma diferente.
                                in reply to: Não estou conseguindo fazer a previsão pra trás! #36132
                                Denny Ceccon
                                Moderator

                                  Oi Gustavo,

                                  Tente colocar as datas como índice no dataframe com as previsões:

                                  index=pd.date_range(
                                                      serie_temporal.index[-1] # pega a última data disponível em serie_temporal
                                                      + pd.Timedelta('1D'),    # adiciona 1 dia porque estamos fazendo a previsão a partir do dia seguinte
                                                      periods=100)             # faz o intervalo de datas até 100 dias no futuro
                                                     )
                                  previsoes = pd.DataFrame(modelo.predict(n_periods = 100), index=index)

                                  Aí é só plotar os dois dataframes no mesmo gráfico:

                                  fig.plot(serie_temporal, label='Dados históricos')
                                  fig.plot(previsoes , label = 'Previsões')
                                  • This reply was modified 3 years, 8 months ago by Denny Ceccon.
                                Viewing 15 posts - 301 through 315 (of 415 total)