Chapitre 5. Optimisation des hyperparamètresavec Ray Tune
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Au chapitre 4, tu as appris à construire et à exécuter diverses expériences d'apprentissage par renforcement. L'exécution de ces expériences peut s'avérer coûteuse, tant en termes de ressources informatiques que de temps d'exécution. Cette dépense ne fait que s'amplifier à mesure que tu passes à des tâches plus difficiles, car il est peu probable que tu puisses simplement choisir un algorithme dans la boîte et l'exécuter pour obtenir un bon résultat. En d'autres termes, à un moment donné, tu devras régler les hyperparamètres de tes algorithmes pour obtenir les meilleurs résultats. Comme nous le verrons dans ce chapitre, régler les modèles d'apprentissage automatique est difficile, mais Ray Tune est un excellent choix pour t'aider à t'attaquer à cette tâche.
Ray Tune est un outil puissant pour l'optimisation hyperparamétrique (HPO).Non seulement il fonctionne de manière distribuée par défaut (et fonctionne dans toutes les autres bibliothèques Ray abordées dans ce livre), mais c'est aussi l'une des bibliothèques HPO les plus riches en fonctionnalités disponibles. Pour couronner le tout, Tune s'intègre à certaines des bibliothèques HPO les plus importantes, telles que Hyperopt, Optuna et bien d'autres. Cela fait de Tune un candidat idéal pour les expériences HPO distribuées, que tu viennes d'autres ...