HyperNEAT
Type | |
---|---|
Décrit par |
A hypercube-based encoding for evolving large-scale neural networks. (d) |
Le NEAT basé sur l'hypercube, ou HyperNEAT[1] est un codage génératif pour évoluer des réseaux de neurones artificiels (ANN) avec les principes de l'algorithme NeuroEvolution of Augmented Topologies (NEAT) développé par Kenneth Stanley[2]. Il s'agit d'une nouvelle technique pour faire évoluer des réseaux de neurones à grande échelle en utilisant les régularités géométriques du domaine de la tâche.
L'encodage génétique est indirect. L'algorithme utilise des réseaux de production de motifs de composition[3] ( CPPN ). HyperNEAT a récemment été étendu pour faire évoluer également des réseaux de neurones artificiel plastique[4] et pour faire évoluer l'emplacement de chaque neurone du réseau[5].
Quelques exemples d'utilisation
[modifier | modifier le code]HyperNEAT, un algorithme avancé en informatique, a été appliqué dans divers domaines, démontrant son utilité et sa polyvalence. Un de ses domaines d'application est l'apprentissage multi-agents, où il a facilité l'élaboration de stratégies et de comportements complexes dans des environnements multi-agents[6]. Dans le domaine des jeux, HyperNEAT a été spécifiquement utilisé pour évaluer les performances dans le jeu de dames[7], montrant comment les algorithmes peuvent apprendre et s'adapter à des stratégies de jeu sophistiquées.
Un autre domaine d'intérêt est la robotique, où HyperNEAT a été utilisé pour contrôler des robots à pattes. Cette application a mis en lumière la capacité de l'algorithme à gérer des mouvements complexes et à adapter les comportements des robots à différentes morphologies et environnements. Cette flexibilité est particulièrement pertinente dans la création de démarches coordonnées pour des robots quadrupèdes[8],[9],[10],[11],[12],[13].
HyperNEAT a également été étudié en ce qui concerne les encodages génératifs par rapport aux encodages directs[14],[15],[16]. Cette recherche a permis d'explorer les avantages et les limites des différentes méthodes d'encodage dans le cadre de l'apprentissage automatique. Un autre axe de recherche a été l'évolution des réseaux de neurones modulaires, où HyperNEAT a été utilisé pour étudier la modularité et la scalabilité des réseaux neuronaux[17],[18],[19] mais également l'évolution de la géométrie neurale et de la plasticité dans les réseaux de neurones artificiels, soulignant son potentiel dans la simulation et la compréhension de processus biologiques complexes[20].
Enfin la conception d'objets pouvant être imprimés en 3D a également été explorée. Cela a permis de créer des structures complexes qui imitent des processus biologiques de développement[21].
Références
[modifier | modifier le code]- Stanley, D'Ambrosio et Gauci, « A Hypercube-Based Encoding for Evolving Large-Scale Neural Networks », Artificial Life, vol. 15, no 2, , p. 185–212 (ISSN 1064-5462, PMID 19199382, DOI 10.1162/artl.2009.15.2.15202, S2CID 26390526, lire en ligne)
- Stanley et Miikkulainen, « Evolving Neural Networks through Augmenting Topologies », Evolutionary Computation, vol. 10, no 2, , p. 99–127 (ISSN 1063-6560, PMID 12180173, DOI 10.1162/106365602320169811, S2CID 498161, CiteSeerx 10.1.1.638.3910)
- (en) Stanley, « Compositional pattern producing networks: A novel abstraction of development », Genetic Programming and Evolvable Machines, vol. 8, no 2, , p. 131–162 (ISSN 1389-2576, DOI 10.1007/s10710-007-9028-8, S2CID 2535195, CiteSeerx 10.1.1.643.8179)
- (en) Sebastian Risi et Kenneth O. Stanley, From Animals to Animats 11, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », , 533–543 p. (ISBN 9783642151927, DOI 10.1007/978-3-642-15193-4_50, CiteSeerx 10.1.1.365.5589, lire en ligne)
- Risi et Stanley, « An Enhanced Hypercube-Based Encoding for Evolving the Placement, Density, and Connectivity of Neurons », Artificial Life, vol. 18, no 4, , p. 331–363 (ISSN 1064-5462, PMID 22938563, DOI 10.1162/ARTL_a_00071, S2CID 3256786, lire en ligne)
- David B. D'Ambrosio et Kenneth O. Stanley, Generative Encoding for Multiagent Learning, New York, NY, USA, ACM, coll. « GECCO '08 », , 819–826 p. (ISBN 9781605581309, PMCID 11507017, DOI 10.1145/1389095.1389256)
- J. Gauci and K. O. Stanley, “A case study on the critical role of geometric regularity in machine learning,” in AAAI (D. Fox and C. P. Gomes, eds.), pp. 628–633, AAAI Press, 2008.
- Sebastian Risi et Kenneth O. Stanley, Confronting the Challenge of Learning a Flexible Neural Controller for a Diversity of Morphologies, New York, NY, USA, ACM, coll. « GECCO '13 », , 255–262 p. (ISBN 9781450319638, PMCID 10308013, DOI 10.1145/2463372.2463397, CiteSeerx 10.1.1.465.5068)
- J. Clune, B. E. Beckmann, C. Ofria et R. T. Pennock, Evolving coordinated quadruped gaits with the HyperNEAT generative encoding, , 2764–2771 p. (ISBN 978-1-4244-2958-5, PMCID 17566887, DOI 10.1109/CEC.2009.4983289, CiteSeerx 10.1.1.409.3868)
- Jeff Clune, Charles Ofria et Robert T. Pennock, The Sensitivity of HyperNEAT to Different Geometric Representations of a Problem, New York, NY, USA, ACM, coll. « GECCO '09 », , 675–682 p. (ISBN 9781605583259, PMCID 16054567, DOI 10.1145/1569901.1569995)
- Yosinski J, Clune J, Hidalgo D, Nguyen S, Cristobal Zagal J, Lipson H (2011) Evolving Robot Gaits in Hardware: the HyperNEAT Generative Encoding Vs. Parameter Optimization. Proceedings of the European Conference on Artificial Life. (pdf)
- Lee S, Yosinski J, Glette K, Lipson H, Clune J (2013) Evolving gaits for physical robots with the HyperNEAT generative encoding: the benefits of simulation. Applications of Evolutionary Computing. Springer. pdf
- (en) Suchan Lee, Jason Yosinski, Kyrre Glette, Hod Lipson et Clune, Applications of Evolutionary Computation, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », , 540–549 p. (ISBN 9783642371912, DOI 10.1007/978-3-642-37192-9_54, CiteSeerx 10.1.1.364.8979)
- Clune, Stanley, Pennock et Ofria, « On the Performance of Indirect Encoding Across the Continuum of Regularity », IEEE Transactions on Evolutionary Computation, vol. 15, no 3, , p. 346–367 (ISSN 1089-778X, DOI 10.1109/TEVC.2010.2104157, S2CID 3008628, CiteSeerx 10.1.1.375.6731)
- (en) Jeff Clune, Charles Ofria et Robert T. Pennock, Parallel Problem Solving from Nature – PPSN X, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », , 358–367 p. (ISBN 9783540876991, DOI 10.1007/978-3-540-87700-4_36, lire en ligne)
- (en) Jeff Clune, Benjamin E. Beckmann, Robert T. Pennock et Charles Ofria, Advances in Artificial Life. Darwin Meets von Neumann, Springer Berlin Heidelberg, coll. « Lecture Notes in Computer Science », , 134–141 p. (ISBN 9783642213137, DOI 10.1007/978-3-642-21314-4_17, CiteSeerx 10.1.1.409.741, lire en ligne)
- Jeff Clune, Benjamin E. Beckmann, Philip K. McKinley et Charles Ofria, Investigating Whether hyperNEAT Produces Modular Neural Networks, New York, NY, USA, ACM, coll. « GECCO '10 », , 635–642 p. (ISBN 9781450300728, PMCID 14826185, DOI 10.1145/1830483.1830598, CiteSeerx 10.1.1.409.4870)
- Marcin Suchorzewski et Jeff Clune, A Novel Generative Encoding for Evolving Modular, Regular and Scalable Networks, New York, NY, USA, ACM, coll. « GECCO '11 », , 1523–1530 p. (ISBN 9781450305570, PMCID 2542736, DOI 10.1145/2001576.2001781, CiteSeerx 10.1.1.453.5744)
- Phillip Verbancsics et Kenneth O. Stanley, Constraining Connectivity to Encourage Modularity in HyperNEAT, New York, NY, USA, ACM, coll. « GECCO '11 », , 1483–1490 p. (ISBN 9781450305570, PMCID 1442181, DOI 10.1145/2001576.2001776, CiteSeerx 10.1.1.379.1188)
- S. Risi et K. O. Stanley, A unified approach to evolving plasticity and neural geometry, , 1–8 p. (ISBN 978-1-4673-1490-9, PMCID 14268194, DOI 10.1109/IJCNN.2012.6252826, CiteSeerx 10.1.1.467.8366)
- Clune et Lipson, « Evolving 3D Objects with a Generative Encoding Inspired by Developmental Biology », SIGEVOlution, vol. 5, no 4, , p. 2–12 (ISSN 1931-8499, DOI 10.1145/2078245.2078246, S2CID 9566239)