Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. HyperNEAT — Wikipédia
HyperNEAT — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
HyperNEAT
Interroger le CPPN produit le poids de connexion entre deux neurones en fonction de leur position dans l'espace (et parfois leur distance relative).
Type
Algorithme NEATVoir et modifier les données sur Wikidata
Décrit par
A hypercube-based encoding for evolving large-scale neural networks (d)Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le NEAT basé sur l'hypercube, ou HyperNEAT[1] est un codage génératif pour évoluer des réseaux de neurones artificiels (ANN) avec les principes de l'algorithme NeuroEvolution of Augmented Topologies (NEAT) développé par Kenneth Stanley[2]. Il s'agit d'une nouvelle technique pour faire évoluer des réseaux de neurones à grande échelle en utilisant les régularités géométriques du domaine de la tâche.

L'encodage génétique est indirect. L'algorithme utilise des réseaux de production de motifs de composition[3] ( CPPN ). HyperNEAT a récemment été étendu pour faire évoluer également des réseaux de neurones artificiel plastique[4] et pour faire évoluer l'emplacement de chaque neurone du réseau[5].

Quelques exemples d'utilisation

[modifier | modifier le code]

HyperNEAT, un algorithme avancé en informatique, a été appliqué dans divers domaines, démontrant son utilité et sa polyvalence. Un de ses domaines d'application est l'apprentissage multi-agents, où il a facilité l'élaboration de stratégies et de comportements complexes dans des environnements multi-agents[6]. Dans le domaine des jeux, HyperNEAT a été spécifiquement utilisé pour évaluer les performances dans le jeu de dames[7], montrant comment les algorithmes peuvent apprendre et s'adapter à des stratégies de jeu sophistiquées.

Un autre domaine d'intérêt est la robotique, où HyperNEAT a été utilisé pour contrôler des robots à pattes. Cette application a mis en lumière la capacité de l'algorithme à gérer des mouvements complexes et à adapter les comportements des robots à différentes morphologies et environnements. Cette flexibilité est particulièrement pertinente dans la création de démarches coordonnées pour des robots quadrupèdes[8],[9],[10],[11],[12],[13].

HyperNEAT a également été étudié en ce qui concerne les encodages génératifs par rapport aux encodages directs[14],[15],[16]. Cette recherche a permis d'explorer les avantages et les limites des différentes méthodes d'encodage dans le cadre de l'apprentissage automatique. Un autre axe de recherche a été l'évolution des réseaux de neurones modulaires, où HyperNEAT a été utilisé pour étudier la modularité et la scalabilité des réseaux neuronaux[17],[18],[19] mais également l'évolution de la géométrie neurale et de la plasticité dans les réseaux de neurones artificiels, soulignant son potentiel dans la simulation et la compréhension de processus biologiques complexes[20].

Enfin la conception d'objets pouvant être imprimés en 3D a également été explorée. Cela a permis de créer des structures complexes qui imitent des processus biologiques de développement[21].

Références

[modifier | modifier le code]
  1. ↑ Stanley, D'Ambrosio et Gauci, « A Hypercube-Based Encoding for Evolving Large-Scale Neural Networks », Artificial Life, vol. 15, no 2,‎ 14 janvier 2009, p. 185–212 (ISSN 1064-5462, PMID 19199382, DOI 10.1162/artl.2009.15.2.15202, S2CID 26390526, lire en ligne)
  2. ↑ Stanley et Miikkulainen, « Evolving Neural Networks through Augmenting Topologies », Evolutionary Computation, vol. 10, no 2,‎ 1er juin 2002, p. 99–127 (ISSN 1063-6560, PMID 12180173, DOI 10.1162/106365602320169811, S2CID 498161, CiteSeerx 10.1.1.638.3910)
  3. ↑ (en) Stanley, « Compositional pattern producing networks: A novel abstraction of development », Genetic Programming and Evolvable Machines, vol. 8, no 2,‎ 10 mai 2007, p. 131–162 (ISSN 1389-2576, DOI 10.1007/s10710-007-9028-8, S2CID 2535195, CiteSeerx 10.1.1.643.8179)
  4. ↑ (en) Sebastian Risi et Kenneth O. Stanley, From Animals to Animats 11, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », 25 août 2010, 533–543 p. (ISBN 9783642151927, DOI 10.1007/978-3-642-15193-4_50, CiteSeerx 10.1.1.365.5589, lire en ligne)
  5. ↑ Risi et Stanley, « An Enhanced Hypercube-Based Encoding for Evolving the Placement, Density, and Connectivity of Neurons », Artificial Life, vol. 18, no 4,‎ 31 août 2012, p. 331–363 (ISSN 1064-5462, PMID 22938563, DOI 10.1162/ARTL_a_00071, S2CID 3256786, lire en ligne)
  6. ↑ David B. D'Ambrosio et Kenneth O. Stanley, Generative Encoding for Multiagent Learning, New York, NY, USA, ACM, coll. « GECCO '08 », 1er janvier 2008, 819–826 p. (ISBN 9781605581309, PMCID 11507017, DOI 10.1145/1389095.1389256)
  7. ↑ J. Gauci and K. O. Stanley, “A case study on the critical role of geometric regularity in machine learning,” in AAAI (D. Fox and C. P. Gomes, eds.), pp. 628–633, AAAI Press, 2008.
  8. ↑ Sebastian Risi et Kenneth O. Stanley, Confronting the Challenge of Learning a Flexible Neural Controller for a Diversity of Morphologies, New York, NY, USA, ACM, coll. « GECCO '13 », 1er janvier 2013, 255–262 p. (ISBN 9781450319638, PMCID 10308013, DOI 10.1145/2463372.2463397, CiteSeerx 10.1.1.465.5068)
  9. ↑ J. Clune, B. E. Beckmann, C. Ofria et R. T. Pennock, Evolving coordinated quadruped gaits with the HyperNEAT generative encoding, 1er mai 2009, 2764–2771 p. (ISBN 978-1-4244-2958-5, PMCID 17566887, DOI 10.1109/CEC.2009.4983289, CiteSeerx 10.1.1.409.3868)
  10. ↑ Jeff Clune, Charles Ofria et Robert T. Pennock, The Sensitivity of HyperNEAT to Different Geometric Representations of a Problem, New York, NY, USA, ACM, coll. « GECCO '09 », 1er janvier 2009, 675–682 p. (ISBN 9781605583259, PMCID 16054567, DOI 10.1145/1569901.1569995)
  11. ↑ Yosinski J, Clune J, Hidalgo D, Nguyen S, Cristobal Zagal J, Lipson H (2011) Evolving Robot Gaits in Hardware: the HyperNEAT Generative Encoding Vs. Parameter Optimization. Proceedings of the European Conference on Artificial Life. (pdf)
  12. ↑ Lee S, Yosinski J, Glette K, Lipson H, Clune J (2013) Evolving gaits for physical robots with the HyperNEAT generative encoding: the benefits of simulation. Applications of Evolutionary Computing. Springer. pdf
  13. ↑ (en) Suchan Lee, Jason Yosinski, Kyrre Glette, Hod Lipson et Clune, Applications of Evolutionary Computation, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », 3 avril 2013, 540–549 p. (ISBN 9783642371912, DOI 10.1007/978-3-642-37192-9_54, CiteSeerx 10.1.1.364.8979)
  14. ↑ Clune, Stanley, Pennock et Ofria, « On the Performance of Indirect Encoding Across the Continuum of Regularity », IEEE Transactions on Evolutionary Computation, vol. 15, no 3,‎ 1er juin 2011, p. 346–367 (ISSN 1089-778X, DOI 10.1109/TEVC.2010.2104157, S2CID 3008628, CiteSeerx 10.1.1.375.6731)
  15. ↑ (en) Jeff Clune, Charles Ofria et Robert T. Pennock, Parallel Problem Solving from Nature – PPSN X, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », 13 septembre 2008, 358–367 p. (ISBN 9783540876991, DOI 10.1007/978-3-540-87700-4_36, lire en ligne)
  16. ↑ (en) Jeff Clune, Benjamin E. Beckmann, Robert T. Pennock et Charles Ofria, Advances in Artificial Life. Darwin Meets von Neumann, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », 13 septembre 2009, 134–141 p. (ISBN 9783642213137, DOI 10.1007/978-3-642-21314-4_17, CiteSeerx 10.1.1.409.741, lire en ligne)
  17. ↑ Jeff Clune, Benjamin E. Beckmann, Philip K. McKinley et Charles Ofria, Investigating Whether hyperNEAT Produces Modular Neural Networks, New York, NY, USA, ACM, coll. « GECCO '10 », 1er janvier 2010, 635–642 p. (ISBN 9781450300728, PMCID 14826185, DOI 10.1145/1830483.1830598, CiteSeerx 10.1.1.409.4870)
  18. ↑ Marcin Suchorzewski et Jeff Clune, A Novel Generative Encoding for Evolving Modular, Regular and Scalable Networks, New York, NY, USA, ACM, coll. « GECCO '11 », 1er janvier 2011, 1523–1530 p. (ISBN 9781450305570, PMCID 2542736, DOI 10.1145/2001576.2001781, CiteSeerx 10.1.1.453.5744)
  19. ↑ Phillip Verbancsics et Kenneth O. Stanley, Constraining Connectivity to Encourage Modularity in HyperNEAT, New York, NY, USA, ACM, coll. « GECCO '11 », 1er janvier 2011, 1483–1490 p. (ISBN 9781450305570, PMCID 1442181, DOI 10.1145/2001576.2001776, CiteSeerx 10.1.1.379.1188)
  20. ↑ S. Risi et K. O. Stanley, A unified approach to evolving plasticity and neural geometry, 1er juin 2012, 1–8 p. (ISBN 978-1-4673-1490-9, PMCID 14268194, DOI 10.1109/IJCNN.2012.6252826, CiteSeerx 10.1.1.467.8366)
  21. ↑ Clune et Lipson, « Evolving 3D Objects with a Generative Encoding Inspired by Developmental Biology », SIGEVOlution, vol. 5, no 4,‎ 1er novembre 2011, p. 2–12 (ISSN 1931-8499, DOI 10.1145/2078245.2078246, S2CID 9566239)

Voir aussi

[modifier | modifier le code]

Article connexe

[modifier | modifier le code]
  • Algorithme NEAT

Liens externes

[modifier | modifier le code]
  • Page des utilisateurs d'HyperNEAT
  • Le site de Ken Stanley
  • "Groupe de recherche sur la complexité évolutive à l'UCF"
  • Page d'accueil du projet NEAT
  • PicBreeder.org
  • EndlessForms.com
  • BEACON Blog : Qu'est-ce que la neuroévolution ?
v · m
Apprentissage automatique et exploration de données
Paradigmes
  • Apprentissage supervisé
  • Auto-supervisé
  • Semi-supervisé
  • Non supervisé
  • Apprentissage par renforcement
  • Transfert
  • Incrémental
Problèmes
  • Classement
  • Clustering
  • Détection d'anomalies
  • Optimisation en ligne
  • Modèle génératif
  • Régression
  • Règle d'association
  • Réduction de dimensions
    • Analyse factorielle
    • Sélection de caractéristique
    • Extraction de caractéristique
Supervisé
Classement
  • Arbre de décision
  • k-NN
  • U-matrix
  • CRF
  • Régression logistique
Régression
  • Modèle linéaire généralisé
    • Régression linéaire
    • Régression de Poisson
    • Modèle probit
  • Analyse discriminante linéaire
  • Machine à vecteurs de support
Prédiction structurée
  • Modèle graphique
    • Classification naïve bayésienne
    • Réseau bayésien
    • Modèle de Markov caché
Réseau de neurones
artificiels
  • Récurrents
    • Rétropropagation à travers le temps
    • Calcul par réservoir
  • à action directe
    • Rétropropagation du gradient
    • Apprentissage profond
    • Perceptron
    • Perceptron multicouche
    • Réseau neuronal convolutif
    • Attention
  • Réseau de neurones à impulsions
Non supervisé et
auto-supervisé
Découverte de structures
  • Clustering
    • Regroupement hiérarchique
    • K-moyennes
    • Algorithme espérance-maximisation
    • DBSCAN
    • OPTICS
  • Règle d'association
Réduction de dimensions
  • ACP
  • ACP à noyaux
  • Analyse en composantes indépendantes
  • Analyse canonique des corrélations
  • Analyse canonique à noyaux
  • t-SNE
  • Réseau de neurones artificiels
    • Auto-encodeur
IA générative
et modèle génératif
  • Réseau de neurones artificiels
    • Réseaux antagonistes génératifs
      • Classique
      • de Wasserstein)
    • Auto-encodeur variationnel
    • Réseau de Hopfield
    • Machine de Boltzmann restreinte
    • Cartes de Kohonen
    • Transformeur
Métaheuristique
d'optimisation
  • Stratégie d'évolution et génétique
    • NEAT
    • HyperNEAT
  • Essaims
  • Apprentissage ensembliste
    • Forêts aléatoires
    • Boosting
Théorie
  • Apprentissage PAC
  • Complexité de Rademacher
  • Dilemme biais-variance
  • Hypothèse de la variété
  • Théorie de Vapnik-Chervonenkis
    • Pulvérisation
    • Dimension de Vapnik-Chervonenkis
  • Théorème de Cover
Logiciels
  • Keras
  • Microsoft Cognitive Toolkit
  • Scikit-learn
  • TensorFlow
  • Theano
  • Weka
  • PyTorch
  • icône décorative Portail des neurosciences
  • icône décorative Portail de l’intelligence artificielle
  • icône décorative Portail des données
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=HyperNEAT&oldid=221437087 ».
Catégorie :
  • Réseau de neurones artificiels
Catégories cachées :
  • Page utilisant P279
  • Page utilisant des données de Wikidata à traduire de l'anglais
  • Page utilisant P1343
  • Article utilisant l'infobox Méthode scientifique
  • Article utilisant une Infobox
  • Portail:Neurosciences/Articles liés
  • Portail:Biologie/Articles liés
  • Portail:Sciences/Articles liés
  • Projet:Biologie/Pages liées
  • Portail:Intelligence artificielle/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Technologies/Articles liés
  • Portail:Données/Articles liés
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id