Aller au contenu

« Apprentissage semi-supervisé » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
R88D88 (discuter | contributions)
mAucun résumé des modifications
m Retrait d'un retour à la ligne ajoutant une espace après l'apostrophe
 
(8 versions intermédiaires par 8 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
{{Infobox Méthode scientifique
L''''apprentissage semi-supervisé''' est une classe de techniques d'[[apprentissage automatique]] qui utilise un ensemble de données étiquetées et non-étiquetées. Il se situe ainsi entre l'[[apprentissage supervisé]] qui n'utilise que des données étiquetées et l'[[apprentissage non-supervisé]] qui n'utilise que des données non-étiquetées. Il a été démontré que l'utilisation de données non-étiquetées, en combinaison avec des données étiquetées, permet d'améliorer significativement la qualité de l'apprentissage.
| image = Example of unlabeled data in semisupervised learning.png
Un autre intérêt provient du fait que l'étiquetage de données nécessite l'intervention d'un utilisateur humain. Lorsque les [[jeu de données|jeux de données]] deviennent très grands, cette opération peut s'avérer fastidieuse. Dans ce cas, l'apprentissage semi-supervisé, qui ne nécessite que quelques étiquettes, revêt un intérêt pratique évident.
| légende = Panneau supérieur : limite de décision basée sur deux exemples étiquetés seulement (cercles blancs contre cercles noirs). Panneau inférieur : limite de décision basée sur deux exemples étiquetés plus des données non étiquetées (cercles gris).
}}
L''''apprentissage semi-supervisé''' est une classe de techniques d'[[apprentissage automatique]] qui utilise un ensemble de données étiquetées et non étiquetées. Il se situe ainsi entre l'[[apprentissage supervisé]] qui n'utilise que des données étiquetées et l'[[apprentissage non-supervisé|apprentissage non supervisé]] qui n'utilise que des données non étiquetées. Il a été démontré que l'utilisation de données non étiquetées, en combinaison avec des données étiquetées, permet d'améliorer significativement la qualité de l'apprentissage.

Un autre intérêt provient du fait que l'étiquetage de données nécessite souvent l'intervention d'un utilisateur humain. Lorsque les [[jeu de données|jeux de données]] deviennent très grands, cette opération peut s'avérer fastidieuse. Dans ce cas, l'apprentissage semi-supervisé, qui ne nécessite que quelques étiquettes, revêt un intérêt pratique évident.


Un exemple d'apprentissage semi-supervisé est le coapprentissage, dans lequel deux classifieurs apprennent un ensemble de données, mais en utilisant chacun un ensemble de caractéristiques différentes, idéalement indépendantes. Si les données sont des individus à classer en hommes et femmes, l'un pourra utiliser la taille et l'autre la pilosité par exemple.
Un exemple d'apprentissage semi-supervisé est le coapprentissage, dans lequel deux classifieurs apprennent un ensemble de données, mais en utilisant chacun un ensemble de caractéristiques différentes, idéalement indépendantes. Si les données sont des individus à classer en hommes et femmes, l'un pourra utiliser la taille et l'autre la pilosité par exemple.

== Article connexe ==
* [[Classification sous contrainte]]


== Références ==
== Références ==


# Blum, A., Mitchell, T. [http://www.ark.cs.cmu.edu/LS2/images/3/32/BlumMitchell98.pdf Combining labeled and unlabeled data with co-training]. ''COLT: Proceedings of the Workshop on Computational Learning Theory,'' Morgan Kaufmann, 1998, p. 92-100.
# Blum, A., Mitchell, T. [https://www.cs.cmu.edu/~avrim/Papers/cotrain.pdf Combining labeled and unlabeled data with co-training]. ''COLT: Proceedings of the Workshop on Computational Learning Theory,'' Morgan Kaufmann, 1998, p. 92-100.


{{Palette|Apprentissage automatique}}
{{Palette|Apprentissage automatique}}

Dernière version du 20 octobre 2024 à 13:23

Apprentissage semi-supervisé
Panneau supérieur : limite de décision basée sur deux exemples étiquetés seulement (cercles blancs contre cercles noirs). Panneau inférieur : limite de décision basée sur deux exemples étiquetés plus des données non étiquetées (cercles gris).
Type
Méthode d'apprentissage automatique (d), weakly supervised learning (en)Voir et modifier les données sur Wikidata

L'apprentissage semi-supervisé est une classe de techniques d'apprentissage automatique qui utilise un ensemble de données étiquetées et non étiquetées. Il se situe ainsi entre l'apprentissage supervisé qui n'utilise que des données étiquetées et l'apprentissage non supervisé qui n'utilise que des données non étiquetées. Il a été démontré que l'utilisation de données non étiquetées, en combinaison avec des données étiquetées, permet d'améliorer significativement la qualité de l'apprentissage.

Un autre intérêt provient du fait que l'étiquetage de données nécessite souvent l'intervention d'un utilisateur humain. Lorsque les jeux de données deviennent très grands, cette opération peut s'avérer fastidieuse. Dans ce cas, l'apprentissage semi-supervisé, qui ne nécessite que quelques étiquettes, revêt un intérêt pratique évident.

Un exemple d'apprentissage semi-supervisé est le coapprentissage, dans lequel deux classifieurs apprennent un ensemble de données, mais en utilisant chacun un ensemble de caractéristiques différentes, idéalement indépendantes. Si les données sont des individus à classer en hommes et femmes, l'un pourra utiliser la taille et l'autre la pilosité par exemple.

Article connexe

[modifier | modifier le code]

Références

[modifier | modifier le code]
  1. Blum, A., Mitchell, T. Combining labeled and unlabeled data with co-training. COLT: Proceedings of the Workshop on Computational Learning Theory, Morgan Kaufmann, 1998, p. 92-100.