Chapitre 11. Modèles de conception de la jonction
Dans ce chapitre, nous allons examiner des modèles de conception pratiques pour joindre des ensembles de données. Comme dans les chapitres précédents, je me concentrerai sur les modèles qui sont utiles dans les environnements du monde réel. PySpark prend en charge une opération de jointure de base pour les RDD (pyspark.RDD.join()) et les DataFrames (pyspark.sql.DataFrame.join()) qui sera suffisante pour la plupart des cas d'utilisation. Cependant, dans certaines circonstances, cette jointure peut s'avérer coûteuse, c'est pourquoi je te montrerai également quelques algorithmes de jointure spéciaux qui peuvent s'avérer utiles.
Ce chapitre présente le concept de base de la jointure de deux ensembles de données, et fournit des exemples de certains modèles de conception de jointure utiles et pratiques. Je te montrerai comment l'opération de jointure est mise en œuvre dans le paradigme MapReduce et comment utiliser les transformations de Spark pour effectuer une jointure. Tu verras comment réaliser des jointures côté carte avec des RDD et des DataFrames, et comment réaliser une jointure efficace à l'aide d'un filtre Bloom.
Introduction à l'opération Join
Dans le monde des bases de données relationnelles, joindre ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access