Capítulo 10. Aprendizaje automático y otros casos de uso emergentes

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

En capítulos anteriores, cubrimos la infraestructura de datos tradicional, incluidas las bases de datos, las plataformas de streaming y los motores analíticos, centrándonos en Kubernetes. Ahora es el momento de empezar a mirar más allá, explorando los proyectos y comunidades que están empezando a hacer de la nube nativa su destino, especialmente en lo que se refiere a IA y ML.

Siempre que varias flechas empiecen a apuntar en la misma dirección, merece la pena prestar atención. Todas las flechas direccionales de la infraestructura de datos apuntan a una macrotendencia general de convergencia en Kubernetes, apoyada por varias tendencias interrelacionadas:

  • Están surgiendo pilas comunes para gestionar cargas de trabajo de IA/ML de cálculo intensivo, incluidas las que aprovechan hardware específico como las GPU.

  • Los formatos de datos comunes están ayudando a promover el movimiento eficiente de los datos a través de los recursos informáticos, de red y de almacenamiento.

  • El almacenamiento de objetos se está convirtiendo en una capa de persistencia común para la infraestructura de datos.

En este capítulo, examinaremos varias tecnologías emergentes que encarnan estas tendencias, los casos de uso que permiten y cómo contribuyen a ayudarte a gestionar mejor los valiosos recursos de computación, red y almacenamiento. ...

Get Gestión de datos nativos de la nube en Kubernetes now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.