AdaBoost

Ceci est une version archivée de cette page, en date du 9 décembre 2011 à 16:56 et modifiée en dernier par WikitanvirBot (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Adaboost (ou adaptive boosting) est une méthode de boosting (intelligence artificielle, apprentissage automatique) introduite par Yoav Freund et Robert Schapire. Ce fut l'une des premières méthodes pleinement fonctionnelles permettant de mettre en œuvre le principe de boosting.

Adaboost repose sur la sélection itérative de classifieur faible en fonction d'une distribution des exemples d'apprentissage. Chaque exemple est pondéré en fonction de sa difficulté avec le classifieur courant.

L'Algorithme

Soit un ensemble d'apprentissage annoté :   sont les exemples et   les annotations.

On initialise la distribution des exemples par  

Pour   :

  • Trouver le classifieur   qui minimise l'erreur de classification   en fonction de la difficulté des exemples   :

  et  

  • Si   le classifieur est sélectionné, sinon l'algorithme s'arrête
  • On choisit alors le poids du classifieur :  , avec  
  • On met ensuite à jour la pondération des exemples d'apprentissage

 
avec   un facteur de normalisation

Le classifieur résultant du processus de sélection est :

 

Variantes

Des variantes ont été introduites, et dont les modifications portent essentiellement sur la manière dont les poids sont mis à jour. Parmi ces variantes, Gentle AdaBoost et Real Adaboost sont fréquemment utilisées.

Liens