Kernel-Methode
Kernel-Methoden sind im Bereich des Maschinellen Lernens eine Klasse von Algorithmen, die sich eines Kernels (dt. Kern) bedienen, um ihre Berechnungen implizit in einem höherdimensionalen Raum auszuführen. Bekannte Kernel-Methoden sind Support Vector Machines, Gaußprozesse und die Kernel-PCA.
Formale Definition Kernel
Sei ein Eingaberaum. Eine Abbildung heißt Kernel, wenn es einen Skalarproduktraum und eine Abbildung in diesen Raum gibt mit: . heißt Featurespace oder Merkmalsraum, Featuremapping oder Merkmalsabbildung. In der Praxis muss der Featurespace nicht explizit bekannt sein, da Kernel durch den Satz von Mercer eine einfache Charakterisierung besitzen.
Verschiedene Klassen von Kernel-Funktionen
Es gibt verschiedene Arten von Kerneln, die sich zum Teil über Parameter an die gegebene Problemstellung anpassen lassen:
- lineare Kernel
- polynomiale Kernel , mit einem freien Parameter
- Radiale-Basisfunktion-Kernel (RBF) , wobei die Bandbreite ein freier Parameter ist
- Fisher Kernel
- Graph Kernel
- Kernel smoother
- String Kernel
- Neural tangent Kernel
- Neural network Gaussian process (NNGP) Kernel
Kernel-Trick
Bei Kernel-Methoden gibt es den Kernel-Trick, mit dem z. B. ein linearer Klassifikator erfolgreich auf nicht linear klassifizierbare Daten angewendet werden kann. Dies wird erreicht, indem man die Daten in einen höherdimensionalen Raum transformiert, in welchem man sich eine bessere lineare Separierbarkeit erhofft (siehe Bild). Dieser Vorgang kann als eine Art Feature-Engineering aufgefasst werden.
Literatur
- Christopher M. Bishop: Pattern Recognition and Machine Learning. Information Science and Statistics, Springer-Verlag, 2008, ISBN 978-0387310732
- Nello Cristianini, John Shawe-Taylor: Kernel Methods for Pattern Classification. Cambridge, 2004.
- Bernhard Schölkopf, Alex Smola: Learning with Kernels. MIT Press, Cambridge, MA, 2002.
- Thomas Hofmann, Bernhard Schölkopf, Alexander J Smola: Kernel methods in machine learning. In: Annals Statistics 36 (3) 2008: 1171–1220. PDF.