Capítulo 10. Construir redes neuronales con PyTorch
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
PyTorch es una potente biblioteca de Deep Learning de código abierto desarrollada por el laboratorio de Investigación de IA de Facebook (FAIR, ahora llamado Meta AI). Es la sucesora en Python de la biblioteca Torch, escrita originalmente en el lenguaje de programación Lua. Con PyTorch, puedes construir todo tipo de modelos de redes neuronales y entrenarlos a escala utilizando GPU (u otros aceleradores de hardware, como veremos). En muchos aspectos es similar a NumPy, salvo que también admite aceleración por hardware y autodiff (ver Capítulo 9), e incluye optimizadores y componentes de redes neuronales listos para usar.
Cuando se publicó PyTorch en 2016, la biblioteca TensorFlow de Google era, con diferencia, la más popular: era rápida, escalaba bien y podía implementarse en muchas plataformas. Pero su modelo de programación era complejo y estático, lo que dificultaba su uso y depuración. En cambio, PyTorch se diseñó desde cero para proporcionar un enfoque más flexible y Python para construir redes neuronales. En particular, como verás, utiliza gráficos de cálculo dinámicos (también conocidos como definir por ejecutar), lo que lo hace intuitivo y fácil de depurar. PyTorch también está muy bien codificado y documentado, y se centra en su tarea principal: facilitar la construcción y el entrenamiento de redes neuronales ...