Capítulo 6. Cómo maximizar la velocidad y el rendimiento de TensorFlow: una práctica lista de comprobación
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
La vida consiste en arreglárselas con lo que tenemos, y la optimización es el nombre del juego.
No se trata de tenerlo todo, sino de utilizar tus recursos sabiamente. Puede que realmente queramos comprarnos ese Ferrari, pero nuestro presupuesto nos permite un Toyota. ¿Pero sabes qué? Con los ajustes de rendimiento adecuados, ¡podemos hacer que ese chico malo corra en la NASCAR!
Veámoslo en términos del mundo del aprendizaje profundo. Google, con su poderío de ingeniería y sus TPU capaces de hervir el océano, estableció un récord de velocidad entrenando ImageNet ¡en sólo unos 30 minutos! Y sin embargo, sólo unos meses después, un equipo de tres investigadores (Andrew Shaw, Yaroslav Bulatov y Jeremy Howard), con 40 dólares en el bolsillo y utilizando una nube pública, ¡fueron capaces de entrenar ImageNet en sólo 18 minutos!
La lección que podemos extraer de estos ejemplos es que la cantidad de recursos de que dispongas no es tan importante como utilizarlos al máximo. Se trata de hacer más con menos. Con ese espíritu, este capítulo pretende servir como una práctica lista de comprobación de las posibles optimizaciones de rendimiento que podemos hacer al construir todas las etapas de los conductos de aprendizaje profundo, y será útil a lo largo de todo el libro. ...
Get Aprendizaje Profundo Práctico para Nube, Móvil y Edge now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.