Capítulo 19. Aprendizaje profundo
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Un poco de aprendizaje es algo peligroso; Bebe hondo, o no pruebes el manantial Pieriano.
Alexander Pope
El aprendizaje profundo originalmente se refería a la aplicación de redes neuronales "profundas" (es decir, redes con más de una capa oculta), aunque en la práctica el término abarca ahora una amplia variedad de arquitecturas neuronales (incluidas las redes neuronales "simples" que desarrollamos en el Capítulo 18).
En este capítulo nos basaremos en nuestro trabajo anterior y estudiaremos una variedad más amplia de redes neuronales. Para ello, introduciremos una serie de abstracciones que nos permitirán pensar en las redes neuronales de una forma más general.
El tensor
Anteriormente, en hemos distinguido entre vectores (matrices unidimensionales) y matrices (matrices bidimensionales). Cuando empecemos a trabajar con redes neuronales más complicadas, necesitaremos utilizar también matrices de mayor dimensión.
En muchas bibliotecas de redes neuronales, las matrices n-dimensionales se denominan tensores, que es como las llamaremos también. (Hay razones matemáticas pedantes para no referirse a las matrices n-dimensionales como tensores; si eres tan pedante, se toma nota de tu objeción).
Si estuviera escribiendo un libro entero sobre aprendizaje profundo, implementaría una clase Tensor
con todas las funciones que sobrecargara los ...
Get Ciencia de datos desde cero, 2ª edición now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.