Capítulo 7. Paralelismo de datos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

En el Capítulo 6, leíste sobre los fundamentos del entrenamiento distribuido y exploraste varias técnicas de paralelización para escalar tu carga de trabajo de entrenamiento de modelos. Partiendo de los conceptos de los capítulos anteriores, este capítulo profundizará en la técnica de paralelización de datos. El objetivo de este capítulo es proporcionar una comprensión completa de cómo se realiza el entrenamiento paralelo de datos. Para cumplir este objetivo, introducirá técnicas de partición de datos, explorará cómo se implican los trabajadores en la distribución de la carga y discutirá conceptos relacionados a lo largo del camino. El material de este capítulo es práctico, por lo que la mayoría de los escenarios incluirán ejemplos dedicados que recorren los conceptos.

Partición de datos

Como expuso en el capítulo anterior, el paralelismo de datos escala el entrenamiento particionando el corpus de entrenamiento entre los trabajadores del sistema. Crear subconjuntos de igual tamaño de tu corpus de entrenamiento es un ejemplo de estrategia de partición muy simplista. Con este enfoque, si tienes 10 trabajadores y tu corpus de entrenamiento principal tiene 100 registros con ID [0, 1, 2, ... 99], se dividirá (es decir, se fragmentará o subconjuntará) en 10 partes, y cada trabajador recibirá 10 registros únicos compensados, por ejemplo, ...

Get Aprendizaje profundo a escala now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.