Prefacio
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Para los ingenieros y científicos de datos, nunca faltan tecnologías que compiten por nuestra atención. Tanto si estamos hojeando nuestros subreddits favoritos, escaneando Hacker News, leyendo blogs de tecnología o hilvanando cientos de mesasen una conferencia detecnología, hay tantas cosas que mirar que puede empezar a resultarabrumador.
Pero si podemos encontrar un rincón tranquilo para pensar durante un minuto, y dejar que todo el bullicio se desvanezca en el fondo, podemos empezar a distinguir patrones del ruido. Verás, vivimos en la era del crecimiento explosivo de los datos, y muchas de estas tecnologías se crearon para ayudarnos a almacenar y procesar datos a escala. Se nos dice que son soluciones modernas para problemas modernos, y nos sentamos a hablar de "big data" como si la idea fuera vanguardista, cuando en realidad centrarse en el volumen de datos es sólo la mitad de la historia.
Las tecnologías que sólo resuelven el problema del volumen de datos suelen tener técnicas de procesamiento de datos por lotes. Esto implica ejecutar un trabajo sobre un montón de datos que se han acumulado durante un periodo de tiempo. En cierto modo, esto es como intentar beberse el océano de una vez. Con la potencia y los paradigmas informáticos modernos, algunas tecnologías lo consiguen, aunque normalmente a costa de una alta latencia.
En cambio, hay otra propiedad ...