Aula 21 – Tensor Flow – Keras – Redes Neurais – MNIST
Aula 21 – Tensor Flow – Keras – Redes Neurais – MNIST
Voltar para página principal do blog
Todas as aulas desse curso
Aula 20 Aula 22
Meu github:
https://github.com/toticavalcanti
Documentação oficial do TensorFlow:
https://www.tensorflow.org/
Quer aprender python3 de graça e com certificado? Acesse então:
https://workover.com.br/python-codigo-fluente
Se gostarem do conteúdo dêem um joinha 👍 na página do Código Fluente no
Facebook
https://digitalinnovation.one/
Aproveito para deixar meus link de afiliados:
Hostinger
Digital Ocean
One.com
Toti:
https://www.youtube.com/channel/UCUEtjLuDpcOvR3mIUr-viOA
Backing track / Play-along:
https://www.youtube.com/channel/UCT3TryVMqTqYBjf5g5WAHfA
Código Fluente
https://www.youtube.com/channel/UCgn-O-88XBAwdG9gUWkkb0w
Putz!
https://www.youtube.com/channel/UCZXop2-CECwyFYmHbhnAkAw
Fiquem a vontade para me adicionar ao linkedin.
Notebook da aula
Aula 21 – Tensor Flow – Keras – Redes Neurais – MNIST
Adicionando mais camadas
Vamos começar adicionando 4 camadas intermediárias ao modelo para melhorar o desempenho.
Depois vamos substituir todas as sigmóides por RELUs para obter uma convergência inicial mais rápida.
Utilizaremos o otimizador GradientDescentOptimiser, depois trocaremos ele pelo otimizador AdamOptimizer.
Vamos também treinar a rede usando dropouts, que é uma técnica de regularização que indica quando o treinamento não está mais tendo um efeito positivo.
No dropout, a cada iteração de treinamento, são eliminados neurônios aleatórios da rede.