Skip to Content
Mãos à Obra: Aprendizado de Máquina com Scikit-Learn e TensorFlow
book

Mãos à Obra: Aprendizado de Máquina com Scikit-Learn e TensorFlow

by Aurélien Géron
March 2019
Intermediate to advanced
576 pages
20h 51m
Portuguese (Portugal, Brazil)
Alta Books
Content preview from Mãos à Obra: Aprendizado de Máquina com Scikit-Learn e TensorFlow
De Neurônios Biológicos a Neurônios Artificiais | 269
A função ReLU (introduzida no Capítulo 9)
ReLU (z) = max (0, z). É contínua, mas infelizmente não é diferenciável em z = 0 (a
inclinação muda abruptamente, o que pode fazer com que o Gradiente Descendente
salte). No entanto, na prática, ela funciona muito bem e tem a vantagem de o cálculo
ser rápido. Mais importante ainda, o fato dela não possuir um valor máximo de saída
também ajuda na redução de alguns problemas durante o Gradiente Descendente (vol-
taremos a isso no Capítulo 11).
Estas funções de ativação populares e suas derivadas estão representadas na Figura 10-8.
Funções de ativação
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Start your free trial

You might also like

Engenharia de IA

Engenharia de IA

Chip Huyen

Publisher Resources

ISBN: 9788550803814