Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Bootstrap aggregating — Wikipédia
Bootstrap aggregating — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Bagging)
Page d’aide sur l’homonymie

Pour les articles homonymes, voir bootstrap.

Cette section doit être déjargonisée (août 2020). Le texte doit être remanié en utilisant un vocabulaire plus directement compréhensible. Discutez des points à améliorer en page de discussion.
Bootstrap aggregating
Type
Algorithme, métaheuristiqueVoir et modifier les données sur Wikidata
Inventeur
Leo BreimanVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En intelligence artificielle, plus précisément en apprentissage automatique, le bootstrap aggregating, également appelé bagging (de bootstrap aggregating), est une méthode d'apprentissage introduite par Breiman en 1994. L'idée est d'entraîner plusieurs modèles puis de produire un modèle final qui combine leurs sorties. Le bagging est un cas particulier de l'approche d'apprentissage ensembliste.

Le bagging est généralement appliqué avec un algorithme d'apprentissage d'arbres de décision : cela donne l'algorithme des forêts aléatoires. Mais il peut en fait être utilisé avec n'importe quel algorithme d'apprentissage pour produire les modèles intermédiaires : on dit que c'est un méta-algorithme.

Le bagging peut améliorer la stabilité et la précision des prédictions par rapport à un modèle obtenu à partir d'un algorithme d'apprentissage. Il aide à réduire la variance et éviter le surapprentissage.

Description de la méthode

[modifier | modifier le code]
Une illustration du concept de bootstrap aggregating

Considérons un ensemble d'entraînement standard D {\displaystyle D} {\displaystyle D} de taille n {\displaystyle n} {\displaystyle n}. La méthode est composée de trois étapes.

  1. Le bagging commence par générer m {\displaystyle m} {\displaystyle m} nouveaux ensembles d'entraînement D i {\displaystyle D_{i}} {\displaystyle D_{i}}, chacun de taille n ′ {\displaystyle n'\,} {\displaystyle n'\,}, par échantillonnage uniforme et avec remise à partir de D {\displaystyle D} {\displaystyle D}. En échantillonnant avec remplacement, certaines observations peuvent être répétées dans chaque D i {\displaystyle D_{i}} {\displaystyle D_{i}} . Si n ′ = n {\displaystyle n'\,=n} {\displaystyle n'\,=n}, alors pour n {\displaystyle n} {\displaystyle n} grand, l'ensemble D i {\displaystyle D_{i}} {\displaystyle D_{i}} tend à avoir la fraction 1 − 1 / e {\displaystyle 1-1/e} {\displaystyle 1-1/e} (≈63,2%) d'exemples uniques de D {\displaystyle D} {\displaystyle D}, le reste étant des doublons[1]. Ce type d'échantillon est appelé échantillon de bootstrap.
  2. Ensuite, m {\displaystyle m} {\displaystyle m} modèles sont entraînés pour chacun des m {\displaystyle m} {\displaystyle m} ensembles d'échantillons de bootstrap.
  3. Pour finir, la prédiction du méta-modèle est obtenue en calculant la moyenne des sorties (pour de la régression) ou par vote majoritaire (pour de la classification) des m {\displaystyle m} {\displaystyle m} modèles.

Résultats et applications

[modifier | modifier le code]

Le bagging conduit à des «améliorations pour les procédures instables» (Breiman, 1996), qui incluent, par exemple, les réseaux de neurones artificiels, les arbres de décision et la sélection de sous-ensembles en régression linéaire (Breiman, 1994). Le bagging peut-être appliqué à la réduction de bruit au cours du pre-processing de données, avec une amélioration de l'apprentissage [2],[3].

D'un autre côté, le bagging peut légèrement dégrader les performances de méthodes stables telles que les K-plus proches voisins (Breiman, 1996).

Exemple : données sur l'ozone

[modifier | modifier le code]

L'exemple suivant illustre les principes de base du principe de bagging, sur une analyse de la relation entre l'ozone et la température (données de Rousseeuw et Leroy (1986), analyse effectuée en R).

La relation entre la température et l'ozone dans cet ensemble de données est apparemment non linéaire. Pour décrire mathématiquement cette relation, des lisseurs LOESS (avec une bande passante de 0,5) sont utilisés. Au lieu de créer un seul lissage à partir de l'ensemble de données complet, 100 échantillons bootstrap des données ont été tirés. Chaque échantillon est différent de l'ensemble de données d'origine, mais lui ressemble en termes de distribution et de variabilité. Un lisseur LOESS est ajusté pour chaque échantillon de bootstrap. Des prédictions à partir de ces 100 lisseurs ont ensuite été faites sur l'ensemble des données. Les 10 premiers ajustements lisses prévus apparaissent sous forme de lignes grises dans la figure ci-dessous. On remarque que les lignes grises sont saccadées et surapprennent les données.

En prenant la moyenne de 100 lissages, chacun ajusté à un sous-ensemble de l'ensemble de données d'origine, on obtient un meta-estimateur (ligne rouge). Cet estimateur est plus stable et il y a moins de surapprentissage.

Histoire

[modifier | modifier le code]

Le bagging (bootstrap aggregating) a été proposé par Leo Breiman en 1994[4] pour améliorer la classification en combinant des classifications d'ensembles d'entraînement générés aléatoirement.

Articles connexes

[modifier | modifier le code]
  • Boosting (méta-algorithme)
  • Bootstrapping (statistiques)
  • Validation croisée (statistiques)
  • Forêt aléatoire
  • Random subspace method (attribute bagging)

Notes et références

[modifier | modifier le code]
  1. ↑ Aslam, Javed A.; Popa, Raluca A.; and Rivest, Ronald L. (2007); On Estimating the Size and Confidence of a Statistical Audit, Proceedings of the Electronic Voting Technology Workshop (EVT '07), Boston, MA, 6 Août 2007. Plus généralement, pour un tirage avec remplacement de n ′ {\displaystyle n'\,} {\displaystyle n'\,} valeurs parmi n {\displaystyle n} {\displaystyle n}, le nombre de tirages uniques attendu est n ( 1 − e − n ′ / n ) {\displaystyle n(1-e^{-n'/n})} {\displaystyle n(1-e^{-n'/n})}.
  2. ↑ Sahu, A., Runger, G., Apley, D., Image denoising with a multi-phase kernel principal component approach and an ensemble version, IEEE Applied Imagery Pattern Recognition Workshop, pp.1-7, 2011.
  3. ↑ Shinde, Amit, Anshuman Sahu, Daniel Apley, and George Runger. "Preimages for Variation Patterns from Kernel PCA and Bagging." IIE Transactions, Vol.46, Iss.5, 2014
  4. ↑ Breiman, « Bagging Predictors », Department of Statistics, University of California Berkeley, vol. Technical Report No. 421,‎ septembre 1994 (lire en ligne, consulté le 28 juillet 2019)

Voir aussi

[modifier | modifier le code]
  • (en) Leo Breiman, « Bagging predictors », Machine Learning, vol. 24, no 2,‎ 1996, p. 123–140 (DOI 10.1007/BF00058655).
  • (en) Sotiris Kotsiantis, « Bagging and boosting variants for handling classifications problems: a survey », Knowledge Eng. Review, vol. 29, no 1,‎ 2014, p. 78–100 (DOI 10.1017/S0269888913000313).
  • icône décorative Portail de l'informatique théorique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Bootstrap_aggregating&oldid=219429573 ».
Catégorie :
  • Apprentissage automatique
Catégories cachées :
  • Article à déjargoniser
  • Page utilisant P31
  • Page utilisant P61
  • Page utilisant P18
  • Article utilisant l'infobox Méthode scientifique
  • Article utilisant une Infobox
  • Portail:Informatique théorique/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id