Capítulo 17. Una red neuronal desde los cimientos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Este capítulo inicia un viaje en el que profundizaremos en los aspectos internos de los modelos que hemos utilizado en los capítulos anteriores. Abordaremos muchas de las mismas cosas que hemos visto antes, pero esta vez nos fijaremos mucho más en los detalles de implementación, y mucho menos en las cuestiones prácticas de cómo y por qué las cosas son como son.

Lo construiremos todo desde cero, utilizando sólo la indexación básica en un tensor. Escribiremos una red neuronal desde cero, y luego implementaremos la retropropagación manualmente para saber exactamente lo que ocurre en PyTorch cuando llamamos a loss.backward. También veremos cómo ampliar PyTorch con funciones autogradpersonalizadas que nos permitan especificar nuestros propios cálculos hacia delante y hacia atrás.

Construir una capa de red neuronal desde cero

Empecemos por refrescar nuestros conocimientos sobre cómo se utiliza la multiplicación de matrices en una red neuronal básica. Como enestamos construyendo todo desde cero, al principio sólo utilizaremos Python plano (excepto para indexar en tensores PyTorch), y luego sustituiremos el Python plano por la funcionalidad PyTorch cuando hayamos visto cómo crearla.

Modelar una neurona

Una neurona recibe un número determinado de entradas y tiene un peso internopara cada una de ellas. Suma esas entradas ...

Get Aprendizaje profundo para programadores con fastai y PyTorch now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.