Respostas no Fórum
- AutorPosts
Oi Giovanne,
Não faltou o print na linha 39? @7:15 da aula?
- Esta resposta foi modificada 2 anos, 7 meses atrás por
Denny Ceccon.
Olá Michael,
int
é um tipo de dado básico do Python, mas os tipos do Numpy são baseados em C, o que ajuda em questão de performance. Dê uma olhada nesta página da documentação do Numpy: https://numpy.org/doc/stable/user/basics.types.html24 de agosto de 2022 às 11:15 em resposta a: correspondência entre o teorema de bayes e o algoritmo naive bayes #36474Olá Dorimar,
As frequências nada mais são do que as probabilidades de as categorias ocorrem naquele dataset. Então, em termos de X e y, podemos reescrever o teorema acima da seguinte forma:
P(y/X) = P(X/y) . P(X) / P(y)
Ou seja, a probabilidade de determinada saída em função dos dados de entrada é definida pela multiplicação das probabilidades (ou frequências) dos dados.
Isso.
Oi Caio,
%s
é um “placeholder”, quer dizer que ali vai entrar uma string, e com% palavra
nós dizemos que a string está contido empalavra
.Ou seja, se
palavrasunicastreinamento
for uma lista com['banana', 'maca', 'laranja']
, então no final do loop você vai ter o dicionáriocaracteristicas
contendo essas 3 chaves.Isso mesmo Caio, o CountVectorizer faz exatamente isso.
- Esta resposta foi modificada 2 anos, 8 meses atrás por
Denny Ceccon.
Olá Gabriel,
Sempre que você cria uma camada no Keras, a API coloca um índice no final do nome, por exemplo,
dense_1
,dense_2
,dense_3
… Aí, se você começar uma nova arquitetura, ele continua numerando comodense_4
em diante. Oclear_session
reseta esse estado. Não é um código estritamente necessário, mas se você quer acessar as camadas pelo nome depois, isso ajuda.A camada de Dropout serve para zerar algumas das saídas da camada anterior,
0.2
significa que 20% dos valores serão zerados. Isso ajuda a evitar problemas de overfitting.16 de agosto de 2022 às 10:23 em resposta a: Não estou conseguindo fazer a previsão pra trás! #36368Olá Gustavo,
A principal razão é porque o
auto_arima
não foi capaz de encontrar padrões e tendências que ele considera útil para as predições, então ele retorna sempre a última cotação. Dê uma olhada aqui: https://stats.stackexchange.com/a/529835Você deve conseguir resultados mais interessantes testando outros parâmetros na implementação do
auto_arima
, visite a documentação da biblioteca.Sim, ela pode ser treinada para classificar os textos em qualquer modalidade.
15 de agosto de 2022 às 19:13 em resposta a: Tratamento de Valores inconsistentes e faltantes #36362É um bom caminho Adauto, com a experiência você vai aprendendo a lidar com essas inconsistências de uma forma mais eficiente.
15 de agosto de 2022 às 15:21 em resposta a: Tratamento de Valores inconsistentes e faltantes #36354Olá Adauto,
Infelizmente não porque a própria definição de outlier é aberta a interpretações. Por exemplo, idades negativas certamente estão erradas, mas e se a variável permitisse valores negativos? Esta parte inicial de exploração dos dados fica a cargo do desenvolvedor e inclusive é essencial para o desenvolvimento de um bom projeto de Data Science.
Olá Caio,
Sim. Tecnicamente, qualquer rede neural capaz de processar textos pode ser adaptada para classificar sentimentos.
10 de agosto de 2022 às 10:42 em resposta a: Calculo do Parâmetro Delta em Redes Neurais e Deep Learning #36309Olá André,
A soma é igual a zero porque os registros (camada de entrada) são iguais a zero, então se multiplicar zero pelos pesos (ligações entre a camada de entrada e a camada oculta) e somar depois, o resultado final é zero. Aplicando a ativação (sigmoide de zero), o resultado é 0.5, e a derivada da sigmoide de 0.5 é igual a 0.25.
Olá Felix,
Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em
pre_processamento
, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetrosteps_per_epoch
passado ao métodofit
. Na aula, o professor usousteps_per_epoch
igual ao número total de imagens dividido pelobatch_size
, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada depre_processamento
. Se você usar umsteps_per_epoch
maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.cardinality
retorna -1 porque, como o dataset original foi modificado com a funçãorepeat
, então seu tamanho é indefinido (tecnicamente, ele é infinito).Olá Laurence,
Você pode usar a função
tf.image.resize_with_crop_or_pad
(documentação aqui), passando todas as suas imagens e o novo tamanho nos parâmetrostarget_height
etarget_width
. As imagens vão ser redimensionadas para um tamanho único, e aquelas que não forem compatíveis com este tamanho vão ser cortadas ou completadas para obedecer às novas dimensões.- Esta resposta foi modificada 2 anos, 8 meses atrás por
Denny Ceccon.
- Esta resposta foi modificada 2 anos, 7 meses atrás por
- AutorPosts