Modélisez vos données avec les méthodes ensemblistes
Décuplez la robustesse et l’efficacité de vos algorithmes à l’aide des méthodes ensemblistes, le bagging et le boosting. Vous découvrirez aussi les forêts aléatoires et le très prisé XGBoost.
Êtes-vous prêt·e à décupler la puissance de vos modèles grâce aux méthodes ensemblistes ? C'est ce que nous allons voir dans ce cours, en nous intéressant à une famille d'algorithme parmi les plus performantes actuellement.
En effet, en utilisant de manière rusée notre jeu de données, nous pouvons exploiter tout son potentiel, en créant un grand nombre de petit modèles rapidement puis en développant un méta-modèle qui les rassemble.
Suivez ce cours pour apprendre les deux familles de modèles les plus utilisées par les data scientists : les méthodes parallèles avec les forêts aléatoires et les méthodes séquentielles dont le modèle phare est le gradient boosting.
Objectifs pédagogiques
Utiliser les méthodes parallèles telles que le bagging ou les forêts aléatoires