AdaBoost
Adaboost (ou adaptive boosting) est une méthode de boosting (intelligence artificielle, apprentissage automatique) introduite par Yoav Freund et Robert Schapire. Ce fut l'une des premières méthodes pleinement fonctionnelles permettant de mettre en œuvre le principe de boosting.
Adaboost repose sur la sélection itérative de classifieur faible en fonction d'une distribution des exemples d'apprentissage. Chaque exemple est pondéré en fonction de sa difficulté avec le classifieur courant.
L'Algorithme
Soit un ensemble d'apprentissage annoté : où sont les exemples et les annotations.
On initialise la distribution des exemples par
Pour :
- Trouver le classifieur qui minimise l'erreur de classification en fonction de la difficulté des exemples :
et
- Si le classifieur est sélectionné, sinon l'algorithme s'arrête
- On choisit alors le poids du classifieur : , avec
- On met ensuite à jour la pondération des exemples d'apprentissage
avec un facteur de normalisation
Le classifieur résultant du processus de sélection est :
Variantes
Des variantes ont été introduites, et dont les modifications portent essentiellement sur la manière dont les poids sont mis à jour. Parmi ces variantes, Gentle AdaBoost et Real Adaboost sont fréquemment utilisées.
Liens
- Boosting.org, un site sur le boosting en général
- A decision-theoretic generalization of on-line learning and an application to boosting Journal of Computer and System Sciences, no. 55. 1997 (Premier article où adaboost fut introduit par Yoav Freund et Robert E.Schapir)
- A Short Introduction to Boosting Introduction à Adaboost par Freund et Schapire en 1999