R pour la science des données, 2e édition
by Hadley Wickham, Mine Cetinkaya-Rundel, Garrett Grolemund
Chapitre 22. Flèche
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Introduction
Les fichiers CSV sont conçus pour être facilement lus par les humains. C'est un bon format d'échange parce qu'il est simple et qu'il peut être lu par tous les outils disponibles. Mais les fichiers CSV ne sont pas efficaces : tu dois faire beaucoup de travail pour lire les données dans R. Dans ce chapitre, tu découvriras une alternative puissante : le format parquet, un format basé sur des normes ouvertes largement utilisé par les systèmes de big data.
Nous couplerons les fichiers parquet avec Apache Arrow, une boîte à outils multilingue conçue pour l'analyse et le transport efficaces de grands ensembles de données. Nous utiliserons Apache Arrow via le package arrow, qui fournit un backend dplyr te permettant d'analyser des ensembles de données plus volumineux que la mémoire en utilisant la syntaxe familière de dplyr. En outre, arrow est extrêmement rapide ; tu en verras quelques exemples plus loin dans ce chapitre.
arrow et dbplyr fournissent tous deux des backends dplyr, tu peux donc te demander quand utiliser l'un ou l'autre. Dans de nombreux cas, le choix est fait pour toi, car les données sont déjà dans une base de données ou dans des fichiers parquet, et tu voudras les utiliser telles quelles. Mais si tu commences avec tes propres données (peut-être des fichiers CSV), tu peux soit les charger dans une base de ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access