Chapitre 20. Apache Spark
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Ce chapitre présente des recettes pour Apache Spark, un moteur d'analyse de données unifié pour le traitement des données à grande échelle.
Le site Web de Spark décrit Spark comme un "moteur d'analyse unifié pour le traitement des données à grande échelle." Cela signifie qu'il s'agit d'une structure big data qui te permet d'analyser tes données avec différentes techniques - comme traiter les données comme une feuille de calcul ou comme une base de données - et qui s'exécute sur des clusters distribués. Tu peux utiliser Spark pour analyser des ensembles de données si volumineux qu'ils s'étendent sur des milliers d'ordinateurs.
Bien que Spark soit conçu pour travailler avec d'énormes ensembles de données sur des grappes d'ordinateurs, l'un de ses atouts est que tu peux apprendre à utiliser Spark sur ton propre ordinateur avec seulement quelques fichiers d'exemple.
Spark 3.1.1
Les exemples de ce chapitre utilisent Spark 3.1.1, qui a été publié en mars 2021 et qui est la dernière version au moment de la rédaction de cet article. Spark ne fonctionne actuellement qu'avec Scala 2.12, c'est pourquoi les exemples de ce chapitre utilisent également Scala 2.12. Cependant, comme le travail avec Spark implique généralement l'utilisation de méthodes de collections telles que map et filter, ou de requêtes SQL, tu remarqueras à peine la différence ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access