Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Auto-encodeur — Wikipédia
Auto-encodeur — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Auto-encodeur
Structure schématique d'un auto-encodeur avec une couche d'entrée X {\displaystyle X} {\displaystyle X}, trois couches cachées entièrement connectées et une couche de sortie X ′ {\displaystyle X'} {\displaystyle X'}. Le code z {\displaystyle \mathbf {z} } {\displaystyle \mathbf {z} } est la couche cachée la plus interne.
Type
Réseau de neurones artificielsVoir et modifier les données sur Wikidata
Aspect de
Apprentissage non supervisé, apprentissage profondVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En intelligence artificielle, plus précisément en apprentissage automatique, un auto-encodeur, ou auto-associateur[1],[2] est un réseau de neurones artificiels utilisé pour l'apprentissage non supervisé de caractéristiques discriminantes[3],[4]. L'objectif d'un auto-encodeur est d'apprendre une représentation (encodage) d'un ensemble de données, généralement dans le but de réduire la dimension de cet ensemble. Le concept d'auto-encodeur est devenu plus largement utilisé pour l'apprentissage de modèles génératifs[5],[6].

Historique

[modifier | modifier le code]

L'auto-encodeur a d'abord été proposé comme une généralisation non linéaire de l'analyse en composantes principales (ACP) par Kramer[7]. Aussi appelé l'auto-associateur[7], ou réseau Diabolo[8], ses premières applications datent du début des années 1990[9],[10]. L'application la plus traditionnelle était la réduction de la dimensionnalité ou l'apprentissage de représentations, mais le concept est devenu largement utilisé pour l'apprentissage de modèle génératifs de données[11],[12]. Certaines des IA les plus puissantes des années 2010 impliquaient des auto-encodeurs empilés à l'intérieur de réseaux de neurones profonds[13].

Architecture

[modifier | modifier le code]

La forme la plus simple d'un auto-encodeur est un réseau de neurones non récurrents qui se propage vers l'avant, très semblable au perceptron multicouches. L'auto-encodeur a une couche d'entrée X {\displaystyle X} {\displaystyle X}, une couche de sortie X ′ {\displaystyle X'} {\displaystyle X'} ainsi qu'une ou plusieurs couches cachées les reliant. Toutefois la couche de sortie possède le même nombre de nœuds que la couche d'entrée ; autrement dit X {\displaystyle X} {\displaystyle X} et X ′ {\displaystyle X'} {\displaystyle X'}ont le même nombre de dimensions. Le code z {\displaystyle \mathbf {z} } {\displaystyle \mathbf {z} } (aussi appelé variables latentes ou représentation latente) est la couche cachée la plus interne. Elle représente X {\displaystyle X} {\displaystyle X} mais dans un espace avec moins de dimensions.

L'objectif de l'auto-encodeur est de reconstruire ses entrées : prédire une valeur cible X ′ {\displaystyle X'} {\displaystyle X'} la plus proche des entrées X {\displaystyle X} {\displaystyle X} (plutôt que de prédire une valeur cible Y {\displaystyle Y} {\displaystyle Y} étant donné les entrées X {\displaystyle X} {\displaystyle X}). Par conséquent, un auto-encodeur est un modèle d'apprentissage non supervisé.

Formalisation générale

[modifier | modifier le code]

Plus formellement, un auto-encodeur se compose toujours de deux parties, l'encodeur et le décodeur, qui peuvent être définies comme des transitions ϕ {\displaystyle \phi } {\displaystyle \phi } et ψ {\displaystyle \psi } {\displaystyle \psi }, telles que :

ϕ : X → F {\displaystyle \phi :{\mathcal {X}}\rightarrow {\mathcal {F}}} {\displaystyle \phi :{\mathcal {X}}\rightarrow {\mathcal {F}}}
ψ : F → X {\displaystyle \psi :{\mathcal {F}}\rightarrow {\mathcal {X}}} {\displaystyle \psi :{\mathcal {F}}\rightarrow {\mathcal {X}}}
ϕ , ψ = arg ⁡ min ϕ , ψ ‖ X − ( ψ ∘ ϕ ) X ‖ 2 {\displaystyle \phi ,\psi =\arg \min _{\phi ,\psi }\|X-(\psi \circ \phi )X\|^{2}} {\displaystyle \phi ,\psi =\arg \min _{\phi ,\psi }\|X-(\psi \circ \phi )X\|^{2}}

où X = R d {\displaystyle {\mathcal {X}}=\mathbb {R} ^{d}} {\displaystyle {\mathcal {X}}=\mathbb {R} ^{d}} est l'espace où sont X {\displaystyle X} {\displaystyle X} et X ′ {\displaystyle X'} {\displaystyle X'}, et où F = R p {\displaystyle {\mathcal {F}}=\mathbb {R} ^{p}} {\displaystyle {\mathcal {F}}=\mathbb {R} ^{p}} est l'espace où est le code z {\displaystyle \mathbf {z} } {\displaystyle \mathbf {z} }.

Généralement, l'espace caractéristique F {\displaystyle {\mathcal {F}}} {\displaystyle {\mathcal {F}}} possède une dimension inférieure à celui de l'espace d'entrée X {\displaystyle {\mathcal {X}}} {\displaystyle {\mathcal {X}}}. Ainsi le vecteur caractéristique ϕ ( x ) {\displaystyle \phi (x)} {\displaystyle \phi (x)} peut être considéré comme une représentation compressée de x {\displaystyle x} {\displaystyle x} . Si les couches cachées possèdent une taille plus grande que celle de la couche d'entrée, l'auto-encodeur peut potentiellement apprendre la fonction identité et devenir sans intérêt. Toutefois, des résultats expérimentaux ont montré que dans ce genre de cas, l'auto-encodeur pouvait malgré tout apprendre des caractéristiques utiles[2]:19.

Architecture avec une seule couche cachée

[modifier | modifier le code]

Lorsqu'il n'y a qu'une seule couche cachée, l'étape d'encodage prend l'entrée x ∈ X {\displaystyle \mathbf {x} \in {\mathcal {X}}} {\displaystyle \mathbf {x} \in {\mathcal {X}}} et l'associe au code z ∈ F {\displaystyle \mathbf {z} \in {\mathcal {F}}} {\displaystyle \mathbf {z} \in {\mathcal {F}}} par la relation :

z = σ ( W x + b ) {\displaystyle \mathbf {z} =\sigma (\mathbf {Wx} +\mathbf {b} )} {\displaystyle \mathbf {z} =\sigma (\mathbf {Wx} +\mathbf {b} )}

où σ {\displaystyle \sigma } {\displaystyle \sigma } est une fonction d'activation, (e.g. la sigmoïde ou la fonction ReLU), W {\displaystyle \mathbf {W} } {\displaystyle \mathbf {W} } une matrice de poids et b {\displaystyle \mathbf {b} } {\displaystyle \mathbf {b} } un vecteur de biais.

Ensuite, l'étape de décodage associe z {\displaystyle \mathbf {z} } {\displaystyle \mathbf {z} } à la reconstruction x ′ {\displaystyle \mathbf {x'} } {\displaystyle \mathbf {x'} } de forme identique à x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } :

x ′ = σ ′ ( W ′ z + b ′ ) {\displaystyle \mathbf {x'} =\sigma '(\mathbf {W'z} +\mathbf {b'} )} {\displaystyle \mathbf {x'} =\sigma '(\mathbf {W'z} +\mathbf {b'} )}

où les σ ′ , W ′ ,  et  b ′ {\displaystyle \mathbf {\sigma '} ,\mathbf {W'} ,{\text{ et }}\mathbf {b'} } {\displaystyle \mathbf {\sigma '} ,\mathbf {W'} ,{\text{ et }}\mathbf {b'} } du décodeur peuvent différer ou non des σ , W ,  et  b {\displaystyle \mathbf {\sigma } ,\mathbf {W} ,{\text{ et }}\mathbf {b} } {\displaystyle \mathbf {\sigma } ,\mathbf {W} ,{\text{ et }}\mathbf {b} } de l'encodeur, selon la conception de l'auto-encodeur.

Un auto-encodeur est aussi entrainé pour minimiser l'erreur de reconstruction, e.g., erreur quadratique :

L ( x , x ′ ) = ‖ x − x ′ ‖ 2 = ‖ x − σ ′ ( W ′ ( σ ( W x + b ) ) + b ′ ) ‖ 2 {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {x'} )=\|\mathbf {x} -\mathbf {x'} \|^{2}=\|\mathbf {x} -\sigma '(\mathbf {W'} (\sigma (\mathbf {Wx} +\mathbf {b} ))+\mathbf {b'} )\|^{2}} {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {x'} )=\|\mathbf {x} -\mathbf {x'} \|^{2}=\|\mathbf {x} -\sigma '(\mathbf {W'} (\sigma (\mathbf {Wx} +\mathbf {b} ))+\mathbf {b'} )\|^{2}}

où x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } est généralement la moyenne d'un ensemble de données d'apprentissage.

Variations

[modifier | modifier le code]

Différentes techniques existent pour empêcher un auto-encodeur d'apprendre la fonction identité et améliorer sa capacité à apprendre des représentations plus riches :

Auto-encodeur débruiteur

[modifier | modifier le code]

Un auto-encodeur débruiteur prend une entrée partiellement corrompue et apprend à récupérer l'entrée originale débruitée. Cette technique a été introduite avec une approche spécifique d'une bonne représentation[14]. Une bonne représentation est celle qui peut être obtenue de manière robuste à partir d'une entrée corrompue et qui sera utile pour récupérer l'entrée débruitée correspondante. Cette définition contient les hypothèses implicites suivantes :

  • Les représentations de haut-niveau sont relativement stables et robustes à la corruption de l'entrée;
  • Il est nécessaire d'extraire des caractéristiques qui soient utiles pour la représentation de la distribution d'entrée.

Pour entrainer un auto-encodeur à débruiter des données, il est nécessaire d'effectuer un mappage stochastique préliminaire x → x ~ {\displaystyle \mathbf {x} \rightarrow \mathbf {\tilde {x}} } {\displaystyle \mathbf {x} \rightarrow \mathbf {\tilde {x}} } afin de corrompre les données et d'utiliser x ~ {\displaystyle \mathbf {\tilde {x}} } {\displaystyle \mathbf {\tilde {x}} } comme entrée d'un auto-encodeur classique, avec comme seule exception de calculer la perte pour l'entrée initiale L ( x , x ~ ′ ) {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {{\tilde {x}}'} )} {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {{\tilde {x}}'} )} au lieu de L ( x ~ , x ~ ′ ) {\displaystyle {\mathcal {L}}(\mathbf {\tilde {x}} ,\mathbf {{\tilde {x}}'} )} {\displaystyle {\mathcal {L}}(\mathbf {\tilde {x}} ,\mathbf {{\tilde {x}}'} )}.

Auto-encodeur épars

[modifier | modifier le code]

En imposant la parcimonie sur les unités cachées durant l'apprentissage (tout en ayant un plus grand nombre d'unités cachées que d'entrées), un auto-encodeur peut apprendre des structures utiles dans les données d'entrées. Cela permet de représenter de façon éparse les entrées, ces représentations pouvant être utilisées pour le pré-entrainement de tâches de classification.

La parcimonie peut être obtenue en ajoutant des termes additionnels à la fonction objectif durant l'apprentissage (en comparant la distribution de probabilité des couches cachées avec une valeur faible désirée)[15], ou en réduisant manuellement à 0 toutes sauf les quelques activations d'unités cachées les plus fortes (appelé auto-encodeur k-épars)[16].

Auto-encodeur variationnel

[modifier | modifier le code]

Le modèle d'auto-encodeur variationnel hérite de l'architecture de l'auto-encodeur, mais fait des hypothèses fortes concernant la distribution des variables latentes. Il utilise l'approche variationnelle pour l'apprentissage de la représentation latente, ce qui se traduit par une composante de perte additionnelle et un algorithme d'apprentissage spécifique fondé sur un estimateur bayésien variationnel du gradient stochastique[5]. Il suppose que les données sont produites par un modèle graphique orienté p ( x | z ) {\displaystyle p(\mathbf {x} |\mathbf {z} )} {\displaystyle p(\mathbf {x} |\mathbf {z} )} et que l'encodeur apprend une approximation q ϕ ( z | x ) {\displaystyle q_{\phi }(\mathbf {z} |\mathbf {x} )} {\displaystyle q_{\phi }(\mathbf {z} |\mathbf {x} )} de la distribution a posteriori p θ ( x | z ) {\displaystyle p_{\theta }(\mathbf {x} |\mathbf {z} )} {\displaystyle p_{\theta }(\mathbf {x} |\mathbf {z} )} où ϕ {\displaystyle \mathbf {\phi } } {\displaystyle \mathbf {\phi } } et θ {\displaystyle \mathbf {\theta } } {\displaystyle \mathbf {\theta } } désignent respectivement les paramètres de l'encodeur (modèle de reconnaissance) et du décodeur (modèle génératif). L'objectif de l'auto-encodeur, dans ce cas ci, a la forme suivante :

L ( ϕ , θ , x ) = D K L ( q ϕ ( z | x ) | | p θ ( z ) ) − E q ϕ ( z | x ) ( log ⁡ p θ ( x | z ) ) {\displaystyle {\mathcal {L}}(\mathbf {\phi } ,\mathbf {\theta } ,\mathbf {x} )=D_{KL}(q_{\phi }(\mathbf {z} |\mathbf {x} )||p_{\theta }(\mathbf {z} ))-\mathbb {E} _{q_{\phi }(\mathbf {z} |\mathbf {x} )}{\big (}\log p_{\theta }(\mathbf {x} |\mathbf {z} ){\big )}} {\displaystyle {\mathcal {L}}(\mathbf {\phi } ,\mathbf {\theta } ,\mathbf {x} )=D_{KL}(q_{\phi }(\mathbf {z} |\mathbf {x} )||p_{\theta }(\mathbf {z} ))-\mathbb {E} _{q_{\phi }(\mathbf {z} |\mathbf {x} )}{\big (}\log p_{\theta }(\mathbf {x} |\mathbf {z} ){\big )}}

D K L {\displaystyle D_{KL}} {\displaystyle D_{KL}} note la divergence de Kullback-Leibler. L'a priori sur les variables latentes est habituellement défini comme une gaussienne multivariée isotrope centrée p θ ( z ) = N ( 0 , I ) {\displaystyle p_{\theta }(\mathbf {z} )={\mathcal {N}}(\mathbf {0,I} )} {\displaystyle p_{\theta }(\mathbf {z} )={\mathcal {N}}(\mathbf {0,I} )}. Des configurations alternatives sont possibles[17].

Auto-encodeur contractif

[modifier | modifier le code]

L'auto-encodeur contractif ajoute une régularisation explicite dans sa fonction objectif qui force le modèle à apprendre une fonction robuste aux légères variations des valeurs d'entrées. Cette régularisation correspond à la norme de Frobenius de la matrice Jacobienne des activations de l'encodeur par rapport à l'entrée. La fonction objectif finale à la forme suivante :

L ( x , x ′ ) + λ ∑ i | | ∇ x h i | | 2 {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {x'} )+\lambda \sum _{i}||\nabla _{x}h_{i}||^{2}} {\displaystyle {\mathcal {L}}(\mathbf {x} ,\mathbf {x'} )+\lambda \sum _{i}||\nabla _{x}h_{i}||^{2}}

Relation avec la décomposition en valeurs singulières tronquée

[modifier | modifier le code]

Si des activations linéaires sont utilisées, ou uniquement une seule couche cachée sigmoïde, la solution optimale d'un auto-encodeur est apparentée à une analyse en composantes principales[18].

Apprentissage

[modifier | modifier le code]

L'algorithme d'apprentissage d'un auto-encodeur peut être résumé comme suit :

Pour chaque entrée x,
Effectuer un passage vers l'avant afin de calculer les activations sur toutes les couches cachées, puis sur la couche de sortie pour obtenir une sortie x ′ {\displaystyle \mathbf {x'} } {\displaystyle \mathbf {x'} },
Mesurer l'écart entre x ′ {\displaystyle \mathbf {x'} } {\displaystyle \mathbf {x'} } et l'entrée x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} }, généralement en utilisant l'erreur quadratique,
Rétropropager l'erreur vers l'arrière et effectuer une mise à jour des poids.

Un auto-encodeur est bien souvent entrainé en utilisant l'une des nombreuses variantes de la rétropropagation, e.g., méthode du gradient conjugué, algorithme du gradient. Bien que cela fonctionne de manière raisonnablement efficace, il existe des problèmes fondamentaux concernant l'utilisation de la rétropopagation avec des réseaux possédant de nombreuses couches cachées. Une fois les erreurs rétropropagées aux premières couches, elles deviennent minuscules et insignifiantes. Cela signifie que le réseau apprendra presque toujours à reconstituer la moyenne des données d'entrainement. Bien que les variantes de la rétropropagation soient capables, dans une certaine mesure, de résoudre ce problème, elles résultent toujours en un apprentissage lent et peu efficace. Ce problème peut toutefois être résolu en utilisant des poids initiaux proches de la solution finale. Le processus de recherche de ces poids initiaux est souvent appelé pré-entrainement.

Geoffrey Hinton a développé une technique de pré-entrainement pour l'auto-encodeur profond. Cette méthode consiste à traiter chaque ensemble voisin de deux couches comme une machine de Boltzmann restreinte de sorte que le pré-entrainement s'approche d'une bonne solution, puis utiliser la technique de rétropropagation pour affiner les résultats[19]. Ce modèle porte le nom de réseau de croyance profonde.

Références

[modifier | modifier le code]
  1. ↑ Tian, X., « Pré-apprentissage supervisé pour les réseaux profonds », In Proceedings of Rfia,‎ 2010, p. 36.
  2. ↑ a et b (en) Y. Bengio, « Learning Deep Architectures for AI », Foundations and Trends in Machine Learning, vol. 2,‎ 2009, p. 19 (DOI 10.1561/2200000006, lire en ligne [PDF]).
  3. ↑ (en) Modeling word perception using the Elman network, Liou, C.-Y., Huang, J.-C. and Yang, W.-C., Neurocomputing, Volume 71, 3150–3157 (2008), DOI 10.1016/j.neucom.2008.04.030
  4. ↑ Autoencoder for Words, Liou, C.-Y., Cheng, C.-W., Liou, J.-W., and Liou, D.-R., Neurocomputing, Volume 139, 84–96 (2014), DOI 10.1016/j.neucom.2013.09.055
  5. ↑ a et b Auto-Encoding Variational Bayes, Kingma, D.P. and Welling, M., ArXiv e-prints, 2013 arxiv.org/abs/1312.6114
  6. ↑ (en) Boesen A., Larsen L. et Sonderby S.K., Generating Faces with Torch, 2015 torch.ch/blog/2015/11/13/gan.html.
  7. ↑ a et b (en) Nathalie Japkowicz, Stephen José Hanson et Mark A. Gluck, « Nonlinear Autoassociation Is Not Equivalent to PCA », Neural Computation, vol. 12, no 3,‎ 1er mars 2000, p. 531–545 (ISSN 0899-7667 et 1530-888X, DOI 10.1162/089976600300015691, lire en ligne, consulté le 18 avril 2023)
  8. ↑ Holger Schwenk et Yoshua Bengio, « Méthodes d'entraînement pour la stimulation adaptative des réseaux de neurones », Advances in Neural Information Processing Systems, MIT Press, 1997
  9. ↑ Jürgen Schmidhuber, « Deep learning in réseaux de neurones : un aperçu », Réseaux de neurones, janvier 2015 (PMID 25462637, DOI 10.1016/j.neunet.2014.09.003, arXiv 1404.7828, S2CID 11715509), p. 85–117
  10. ↑ Hinton, G.E., & Zemel, R.S. (1994). Auto-encodeurs, longueur de description minimale et énergie libre de Helmholtz. Dans Advances in neural information processing systems 6 (p. 3-10).
  11. ↑ (en) Diederik P Kingma et Max Welling, « Auto-Encoding Variational Bayes », 2013.
  12. ↑ Générer des visages avec Torch, Boesen A., Larsen L. et Sonderby S.K., 2015 torch.%20ch/blog/2015/11/13/gan.html
  13. ↑ Pedro Domingos, The master algorithm : how the quest for the ultimate learning machine will remake our world, 2015 (ISBN 978-0-465-06570-7, 0-465-06570-8 et 978-0-465-09427-1, OCLC 900623914, lire en ligne)
  14. ↑ (en) Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio et Pierre-Antoine Manzagol, « Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion », The Journal of Machine Learning Research, vol. 11,‎ 2010, p. 3371–3408 (lire en ligne)
  15. ↑ (en) « Sparse autoencoder »
  16. ↑ Alireza Makhzani et Brendan Frey, « k-Sparse Autoencoders », arXiv:1312.5663 [cs],‎ 19 décembre 2013 (lire en ligne, consulté le 23 mai 2017)
  17. ↑ Harris Partaourides and Sotirios P. Chatzis, “Asymmetric Deep Generative Models,” Neurocomputing, vol. 241, p. 90-96, June 2017. [1]
  18. ↑ (en) H. Bourlard et Y. Kamp, « Auto-association by multilayer perceptrons and singular value decomposition », Biological Cybernetics, vol. 59, nos 4–5,‎ 1988, p. 291–294 (PMID 3196773, DOI 10.1007/BF00332918)
  19. ↑ Reducing the Dimensionality of Data with Neural Networks (Science, 28 July 2006, Hinton & Salakhutdinov)

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • Machine de Boltzmann restreinte
  • Auto-encodeur variationnel
v · m
Apprentissage automatique et exploration de données
Paradigmes
  • Apprentissage supervisé
  • Auto-supervisé
  • Semi-supervisé
  • Non supervisé
  • Apprentissage par renforcement
  • Transfert
  • Incrémental
Problèmes
  • Classement
  • Clustering
  • Détection d'anomalies
  • Optimisation en ligne
  • Modèle génératif
  • Régression
  • Règle d'association
  • Réduction de dimensions
    • Analyse factorielle
    • Sélection de caractéristique
    • Extraction de caractéristique
Supervisé
Classement
  • Arbre de décision
  • k-NN
  • U-matrix
  • CRF
  • Régression logistique
Régression
  • Modèle linéaire généralisé
    • Régression linéaire
    • Régression de Poisson
    • Modèle probit
  • Analyse discriminante linéaire
  • Machine à vecteurs de support
Prédiction structurée
  • Modèle graphique
    • Classification naïve bayésienne
    • Réseau bayésien
    • Modèle de Markov caché
Réseau de neurones
artificiels
  • Récurrents
    • Rétropropagation à travers le temps
    • Calcul par réservoir
  • à action directe
    • Rétropropagation du gradient
    • Apprentissage profond
    • Perceptron
    • Perceptron multicouche
    • Réseau neuronal convolutif
    • Attention
  • Réseau de neurones à impulsions
Non supervisé et
auto-supervisé
Découverte de structures
  • Clustering
    • Regroupement hiérarchique
    • K-moyennes
    • Algorithme espérance-maximisation
    • DBSCAN
    • OPTICS
  • Règle d'association
Réduction de dimensions
  • ACP
  • ACP à noyaux
  • Analyse en composantes indépendantes
  • Analyse canonique des corrélations
  • Analyse canonique à noyaux
  • t-SNE
  • Réseau de neurones artificiels
    • Auto-encodeur
IA générative
et modèle génératif
  • Réseau de neurones artificiels
    • Réseaux antagonistes génératifs
      • Classique
      • de Wasserstein)
    • Auto-encodeur variationnel
    • Réseau de Hopfield
    • Machine de Boltzmann restreinte
    • Cartes de Kohonen
    • Transformeur
Métaheuristique
d'optimisation
  • Stratégie d'évolution et génétique
    • NEAT
    • HyperNEAT
  • Essaims
  • Apprentissage ensembliste
    • Forêts aléatoires
    • Boosting
Théorie
  • Apprentissage PAC
  • Complexité de Rademacher
  • Dilemme biais-variance
  • Hypothèse de la variété
  • Théorie de Vapnik-Chervonenkis
    • Pulvérisation
    • Dimension de Vapnik-Chervonenkis
  • Théorème de Cover
Logiciels
  • Keras
  • Microsoft Cognitive Toolkit
  • Scikit-learn
  • TensorFlow
  • Theano
  • Weka
  • PyTorch
  • icône décorative Portail de l'informatique théorique
  • icône décorative Portail des données
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Auto-encodeur&oldid=230972988 ».
Catégorie :
  • Réseau de neurones artificiels
Catégories cachées :
  • Page utilisant P279
  • Page utilisant P1269
  • Article utilisant l'infobox Méthode scientifique
  • Article utilisant une Infobox
  • Portail:Informatique théorique/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés
  • Portail:Données/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id