Chapitre 2. Les transformations en action
Dans ce chapitre, nous allons explorer les transformations Spark les plus importantes (mappers et reducers) dans le contexte des modèles de conception de la compression des données, et examiner comment sélectionner des transformations spécifiques pour des problèmes ciblés.
Comme tu le verras, pour un problème donné (nous utiliserons ici le problème du comptage des bases d'ADN), il existe de multiples solutions PySpark possibles utilisant différentes transformations Spark, mais l'efficacité de ces transformations diffère en raison de leur mise en œuvre et des processus de mélange (lorsque le regroupement des valeurs par clé se produit). Le problème du comptage des bases ADN est très similaire au problème classique du comptage des mots (trouver la fréquence des mots uniques dans un ensemble de fichiers/documents), à la différence que dans le comptage des bases ADN, tu trouves les fréquences des lettres de l'ADN (A, T, C,G).
J'ai choisi ce problème parce qu'en le résolvant, nous apprendrons à résumer des données, à condenser une grande quantité d'informations (ici, des chaînes/séquences de données ADN) en un ensemble beaucoup plus petit d'informations utiles (la fréquence des lettres de l'ADN).
Ce chapitre présente trois solutions complètes de bout en bout en PySpark, utilisant différents mappers et réductions ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access