XGBoost
XGBoost
| |
---|---|
Basisdaten
| |
Entwickler | XGBoost Community |
Erscheinungsjahr | 2014 |
Betriebssystem | Linux, macOS, Windows |
Programmiersprache | C++ |
Kategorie | Maschinelles Lernen |
Lizenz | Apache License 2.0 |
https://xgboost.ai/ |
XGBoost[1] (eXtreme Gradient Boosting) ist eine open-source Softwarebibliothek, die ein Gradient-Boosting-Verfahren für die Programmiersprachen C++, Java, Python,[2] R,[3] Julia,[4] Perl[5] und Scala zur Verfügung stellt. Es funktioniert mit den Betriebssystemen Linux, Windows[6] und macOS[7] sowohl auf einer einzelnen Maschine als auch auf verteilten Verarbeitungsframeworks wie Apache Hadoop, Apache Spark, Apache Flink, and Dask.[8][9] Das Framework stellt eine „skalierbare, portierbare und verteilte Gradient Boosting (GBM, GBRT oder GBDT) Bibliothek“ bereit.
XGBoost hat in letzter Zeit viel Popularität und Aufmerksamkeit erlangt, da es der Algorithmus der Wahl für viele Siegerteams von Wettbewerben für maschinelles Lernen ist.[10]
Geschichte
XGBoost wurde ursprünglich als Forschungsprojekt von Tianqi Chen im Rahmen der Distributed-(Deep) Machine-Learning-Common (DMLC)-Gruppe gestartet. Anfänglich war es eine Terminalanwendung, die mithilfe einer libsvm-Konfigurationsdatei konfiguriert werden konnte.[11] Es wurde in den Kreisen der ML-Wettbewerbe bekannt, nachdem es in der Siegerlösung der Higgs Machine Learning Challenge verwendet worden war.[12] Bald darauf wurden die Python- und R-Pakete erstellt, und XGBoost hat nun Paketimplementierungen für Java, Scala, Julia, Perl und andere Sprachen. Dies machte die Bibliothek für mehr Entwickler zugänglich und trug zu ihrer Popularität in der Kaggle-Gemeinschaft bei, wo sie bisher für eine große Anzahl von Wettbewerben verwendet wurde.[10]
Es wurde bald in eine Reihe anderer Pakete integriert, um die Nutzung in den jeweiligen Communities zu erleichtern. Für Python-Nutzer wurde es nun in scikit-learn und für R-Nutzer in das caret-Paket integriert.[13] Es kann auch in Datenfluss-Frameworks wie Apache Spark, Apache Hadoop und Apache Flink unter Verwendung der abstrahierten Rabit[14] und XGBoost4J integriert werden.[15] XGBoost ist auch auf OpenCL für FPGAs verfügbar.[16] Eine effiziente, skalierbare Implementierung von XGBoost wurde von Tianqi Chen und Carlos Guestrin veröffentlicht.[17]
Mit dem XGBoost-Modell wird zwar oft eine höhere Genauigkeit als mit einem einzelnen Entscheidungsbaum erreicht, aber die eigentliche Interpretierbarkeit von Entscheidungsbäumen geht dabei verloren. So ist es beispielsweise trivial, den Weg eines Entscheidungsbaums zu verfolgen, aber es ist viel schwieriger, die Wege von Hunderten oder Tausenden von Bäumen zu verfolgen. Um sowohl Leistung als auch Interpretierbarkeit zu erreichen, ermöglichen einige Modellkomprimierungstechniken die Umwandlung eines XGBoost in einen einzigen „wiedergeborenen“ Entscheidungsbaum, der dieselbe Entscheidungsfunktion approximiert.[18]
Merkmale
Zu den wichtigsten Merkmalen von XGBoost, die es von anderen Gradient-Boosting-Algorithmen unterscheiden, gehören:[19][20][21]
- clevere „Bestrafung“ von Bäumen
- proportionale Schrumpfung der Blattknoten
- Newton-Boosting
- zusätzlicher Randomisierungsparameter
- Implementierung auf einzelnen, verteilten Systemen und Out-of-Core-Berechnungen
- automatische Auswahl von Merkmalen
Algorithmus
XGBoost arbeitet als Newton-Raphson-Verfahren im Funktionsraum, im Gegensatz zum Gradient Boosting, das als Gradientenabstieg im Funktionsraum arbeitet. In der Verlustfunktion wird eine Taylor-Approximation zweiter Ordnung verwendet, um die Verbindung zum Newton-Raphson-Verfahren herzustellen.
Ein allgemeiner unregulierter XGBoost-Algorithmus ist:
Eingabe: Trainingsmenge , eine differenzierbare Verlustfunktion , eine Anzahl von schwachen Lernern und eine Lernrate .
Algorithmus:
- Modell mit einem konstanten Wert initialisieren:
- Für m = 1 zu M:
- Berechnung der "Gradienten" und "Hessischen":
- Anpassen eines Basis-Learners (oder schwachen Lerners, z. B. Baum) unter Verwendung der Trainingsmenge durch Lösen des nachstehenden Optimierungsproblems:
- Modell updaten:
- Berechnung der "Gradienten" und "Hessischen":
- Ergebnis
Auszeichnungen
Einzelnachweise
- ↑ GitHub project webpage. In: GitHub . Juni 2022.
- ↑ Python Package Index PYPI: xgboost. Abgerufen am 1. August 2016.
- ↑ CRAN package xgboost. Abgerufen am 1. August 2016.
- ↑ Julia package listing xgboost. Abgerufen am 1. August 2016.
- ↑ CPAN module AI::XGBoost. Abgerufen am 9. Februar 2020.
- ↑ Installing XGBoost for Anaconda in Windows. In: IBM . Abgerufen am 1. August 2016.
- ↑ Installing XGBoost on Mac OSX. In: IBM . Abgerufen am 1. August 2016.
- ↑ Dask Homepage.
- ↑ Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation. In: xgboost.readthedocs.io . Abgerufen am 15. Juli 2021.
- ↑ a b XGBoost - ML winning solutions (incomplete list). In: GitHub . Abgerufen am 1. August 2016.
- ↑ Story and Lessons Behind the Evolution of XGBoost. nttrungmt-wiki, abgerufen am 10. Juni 2022 (englisch).
- ↑ Higgs Boson Machine Learning Challenge, auf kaggle.com
- ↑ A Short Introduction to the caret Package, auf cran.rstudio.com/
- ↑ Rabit - Reliable Allreduce and Broadcast Interface. In: GitHub . Abgerufen am 1. August 2016.
- ↑ XGBoost4J. Abgerufen am 1. August 2016.
- ↑ XGBoost on FPGAs. In: GitHub . Abgerufen am 1. August 2019.
- ↑ , Carlos Guestrin: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, CA, USA, August 13-17, 2016. ACM, 2016, S. 785–794. doi:10.1145/2939672.2939785
- ↑ Omer Sagi, Lior Rokach: Approximating XGBoost with an interpretable decision tree.. In: Information Sciences. 572, Nr. 2021, 2021, S. 522–542. doi:10.1016/j.ins.2021.05.055.
- ↑ Rohith Gandhi: Gradient Boosting and XGBoost (Englisch) In: Medium . 24. Mai 2019. Abgerufen am 4. Januar 2020.
- ↑ Boosting algorithm: XGBoost (Englisch) In: Towards Data Science . 14. Mai 2017. Abgerufen am 4. Januar 2020.
- ↑ Tree Boosting With XGBoost – Why Does XGBoost Win "Every" Machine Learning Competition? (Amerikanisches Englisch) In: Synced . 22. Oktober 2017. Abgerufen am 4. Januar 2020.
- ↑ John Chambers Award Previous Winners. Abgerufen am 10. Juni 2022.
- ↑ HEP meets ML Award. Abgerufen am 10. Juni 2022.