NeuroEvolution of Augmented Topologies

aus Wikipedia, der freien Enzyklopädie

NeuroEvolution of Augmenting Topologies (NEAT) ist der Name eines genetischen Algorithmus, der künstliche neuronale Netze evolviert. Er wurde im Jahr 2002 von Ken Stanley an der University of Texas at Austin entwickelt. Aufgrund seiner praktischen Anwendbarkeit[1] wird der Algorithmus in verschiedenen Bereichen des maschinellen Lernens genutzt. Es werden sowohl die Topologie als auch die Gewichte der Verbindungen im neuronalen Netz evolviert. Die wesentlichen Eigenschaften von NEAT sind:

  • die Zuweisung einer Identifikationsnummer (engl. Innovation number), die die vorteilhafte Rekombination verschiedener Topologien erlaubt,
  • die Nischenbildung durch die Beschränkung der Rekombination auf einen Verwandtschaftsgrad und
  • die zunehmende Diversität der Population bei anfänglicher Gleichförmigkeit.

Die Erweiterung HyperNEAT ermöglicht die Evolution deutlich größerer Netzwerke[2], indem geometrische Strukturen des gegebenen Problems ausgenutzt werden (z. B. die Steuerung mehrerer Beine).

Weblinks

Einzelnachweise

  1. Matthew Edmund Taylor: Autonomous Inter-task Transfer in Reinforcement Learning Domains. Proquest, 2011, S. 26.
  2. Cesare Alippi, Marios M. Polycarpou, Christos Panayiotou, Georgios Ellinas: Artificial Neural Networks – ICANN 2009: Seite 776.