Diskussion:Maschinelles Lernen
Literatur
Ich habe zwei Literaturhinweise hinzugefügt. Die zwei Quellen die ich hinzugefügt habe sind meiner Meinung nach das, was man heutzutage lesen sollte. Da ich die anderen Quellen nicht kenne habe ich mir erlaubt die Literaturangaben nach Erscheinungsdatum zu ordnen, mit dem Erfolg das meine Vorschläge ganz oben stehen :-) Johannes
Erfahrungswissen
richtiger Weise müsste es "ist ein Oberbegriff für die „künstliche“ Generierung von Informationen aus Daten" vielleicht auch "ist ein Oberbegriff für die „künstliche“ Generierung von Informationen aus Beispielen" lauten. Denn Erfahrungen haben die Maschinen nicht im eigentlichen Definitionssinn der Erfahrung. Außerdem entsteht Wissen in den Köpfen der Experten indem Informationen in einen Sinnkontext mit vorhandenem Wissen gesetzt wird. Hier waren wohl eher die Marketer am Werk als die Analysten.
Erfahrung ist eine Abstraktion bereits Erlebtem, in Regeln Umgewandeltes. Die meisten Lernverfahren stützen sich nach wie vor auf Instanzen (auch im Sinne von Support Vektoren). Für unüberwachte Lernverfahren gilt, dass die Erfahrung durch den Experten eingepflanzt wird. Hier wäre "Information aus Erfahrung" denkbar.
Meinungen?
Jenik
- Du hast Recht, das ist Techie-/Marketer-Sicht; ich bin sehr dafür, das im Artikel zu ändern. Laryllian (Diskussion) 23:37, 29. Jun. 2018 (CEST)
Zusatz
ich habe den Zusatz "Die Gesetzmäßigkeiten werden dabei meist nicht explizit bekannt." in der Einleitung gelöscht, da das nur für subsymbolische Ansätze gilt, neuronale Netze etc. Hier müsste man erst zwischen symbolischen und subsymbolischen Ansätzen unterscheiden 80.135.162.60 12:40, 2. Jul 2006 (CEST)
Wer arbeitet gerade an diesem Artikel (zwecks Schreibwettbewerb) ? Bin nur neugierig --Trixium 12:28, 28. Sep 2004 (CEST)
Diskussion im Schreibwettbewerb
von Philip 17:43, 24. Sep 2004 (CEST) (nachgetragen von Necrophorus 09:50, 25. Sep 2004 (CEST))
- Falls dir noch Ideen für eine Erweiterung fehlen: Ich würde in diesem Artikel u.a. eine genauere Vorstellung der verschiedenen Lernverfahren (HMM, Support Vector Maschines, Neuronale Netze, ...) erwarten. Mwka 23:48, 4. Okt 2004 (CEST)
Bedeutung Behaviorismus
Das Verfahren hat nichts mit maschinellen Lernen zu tuen. Beim Behaveiorismus handelt es sich um ein Lernverfahren aus der Psychologie. Was hat es mit maschinellem Lernen zu tuen? Ich lösche den Link.--Moewe 10:37, 29. Jan 2005 (CET)
Weblinks
Es ist ja beruhigend zu wissen, dass sich so viele deutsche Forschungseinrichtungen mit Anwendungsfällen des Maschinellen Lernens beschäftigen, und dies auch öffentlich zugänglich machen wollen, wenn auch nur die Projektbeschreibungen. Dies ist allerdings für Weblinkeinträge in Wikipedia weniger geeignet. Auch ein Reduktion auf besonders ausgewiesene Vertreter dieser Forschungsrichtung hat hier nichts zu suchen. Vielmehr sollten hier Links rein, die eine Vertiefung und Weiterführung des Themas unmittelbar, und ohne Mitarbeit oder Immatrikulation am beschriebenen Institut voraussetzend, ermöglichen.
Ich werde deshalb die momentane List löschen und durch aussagekräftigere links ersetzen. einspruch bitte hier kundtun! --Andys 15:28, 26. Nov. 2008 (CET)
unsupervised learning vs. Data Mining
Unter Data Mining / Knowledge Discovery in Databases versteht man ja eben genau dieses Vorwissen-freie Analysieren der Daten, um neue Erkenntnisse zu gewinnen. Es wäre gut das stärker vom Thema "Maschinelles Learnen" abzugrenzen, das irgendwo den Schwerpunkt Klassifikation ("aus Erfahrung") hat. Fühlt sich jemand berufen das hier stärker umzuschreiben? Selbst im "unsupervised learning" geht es letztlich darum, die bekannte "Erfahrung" wiederzufinden; im Gegensatz zum "supervised learning" aber eben nicht indem man eine Funktion an die Daten anpasst, sondern indem man das Funktionsergebnis (das z.B. aus einer Data Mining Methode stammt) mit der gewünschten Ausgabe vergleicht? --Chire 16:59, 13. Mai 2010 (CEST)
Update
- Der Artikel könnte von den Profis ein Update brauchen:
- Deep Learning und aktueller Implementierungsstand? Jeremy Howard (http://en.wikipedia.org/wiki/Jeremy_Howard_(entrepreneur) ) und Kaggle?
- Vg 217.150.152.145 18:10, 19. Mär. 2015 (CET)
Rotlinks
1.) Bitte mal die Rotlinks unter Übersicht über wichtige Ansätze überprüfen. Steht zu erwarten, dass die irgendwann auf relevante Art gebläutr werden können?
2.) Unter Software habe ich die Rotlinks entfernt. Das erleichtert uns in Zukunft die Überprüfung von Neueinträgen: Was keinen Artikel hat, braucht nicht rein. Gruß --Logo 09:45, 11. Nov. 2015 (CET)
interaktives lernen
ich beziehe mich auf → diesen revert durch mich. der eintrag scheint im wesentlichen sinnvoll, aber zweierlei passt nicht: 1) ist interaktives lernen nicht nur ein lernen mit maschinen. das hieß früher e-Learning, darüber gibt es einen wikipedia-artikel. auch die dialoge mit sokrates waren interaktives lernen. 2) wertet die passage. bitte sachlich bleiben. ein satz wie "Während Maschinelles Lernen (ML) in vielen Domänen sehr gut funktioniert, wie die Leistung selbstfahrender Autos zeigt, bergen voll-automatisierte ML-Methoden in komplexen Domänen die Gefahr der Modellierung von Artefakten." erinnert an feuilleton. also bitte nochmal versuchen. vielleicht unter der abschnittsüberschrift "Interaktives Maschinenlernen". danke, Maximilian (Diskussion) 20:35, 29. Aug. 2016 (CEST)
Künstliche Intelligenz
In welchem Kontext steht Maschinelles Lernen zu Künstliche Intelligenz? Sind das konkurrierende Begriffe? Synonyme? Oder ist das eine ein Teilgebiet des anderen? Es wäre schön, wenn dies jemand einordnen könnte, etwa in der Einleitung des Artikels (und auch im Artikel Künstliche Intelligenz). Vielleicht ist dieser Artikel hierbei hilfreich? Ich bin zu wenig Fachfrau, sonst würde ich es selbst versuchen. 130.226.41.19 15:39, 17. Dez. 2016 (CET)
- Das hier (nebenan) sogenannte maschinelle oder (von mir bevorzugt) künstlich genannte Lernen ist ein Teil dessen was künstliche Intelligenz ausmacht. Mit lieben Grüßen. -- 78.55.171.205 09:33, 18. Nov. 2021 (CET)
Umgang mit Plagiaten: Mathias Haun, Cognitive Computing
Das hier vorübergehend als "Quelle" eingefügte Buch: Mathias Haun: Cognitive Computing - Steigerung des systemischen Intelligenzprofils. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-662-44074-2, S. 364 (Google books). enthält auf Seite 364 ein größeres Textstück aus Wikipedia.
Wikipedia 2013 (das Buch kam 2014 raus): https://de.wikipedia.org/w/index.php?title=Maschinelles_Lernen&oldid=117643574
Ziemlich eindeutig, dass das Buch hier aus Wikipedia kopiert hat...
- Und wir betreiben hier keine WP:OR. Wenn Du der Meinung bist, dass in dem Buch Plagiate vorkommen, dann kläre das bitte zunächst außerhalb vo Wikipedia, also schreibe bspw. an den Verlag oder an den Autor, meinetwegen auch an die Presse oder die DFG. Wikipedia ist der falsche Ort für diese Diskussion.--S. K. Kwan (Diskussion) 04:01, 21. Apr. 2017 (CEST)
- WP:OR bezieht sich auf den Inhalt des Artikels. Wir müssen durchaus geeignete Quellen identifizieren, und diese ist es nicht. In der Englischen Wikipedia gibt es sogar eine Vorlage für dieses Problem: en:Template:Backwards copy Denn sonst kommt bald jemand auf die Idee, dass der Text in Wikipedia eine Urheberrechtsverletzung des Buches sein könnte, wenn es andersherum ist. Das ist also sehr wohl unser Problem - es geht nicht darum dass Buch A von Buch B abgeschrieben haben könnte, sondern ob Wikipedia von dem Buch (= Wikipedia:Textplagiat) oder das Buch von Wikipedia (= das Buch ist dann keine geeignete Quelle, weil es Wikipedia als Quelle verwendet hat, und es muss dokumentiert werden dass Wikipedia den Text zuerst hatte, es sich um Wikipedia:Weiternutzung/Mängel/Print handelt). Und ja, man sollte auch den Verlag darauf aufmerksam machen... davor wäre aber natürlich erstmal sicherzustellen, ob der Text vielleicht aus einer noch früheren, gemeinsamen Quelle abgeschrieben ist (halte ich aber für unwahrscheinlich). Und mit Google findet man natürlich mehrere solcher Copyrightverletzungen. --Chire (Diskussion) 17:00, 21. Apr. 2017 (CEST)
- Siehe jetzt: Wikipedia:Weiternutzung/Mängel/Print#Matthias_Haun:_Cognitive_Computing.2C_Springer. --Chire (Diskussion) 17:44, 21. Apr. 2017 (CEST)
Sehr schwach bzgl. "verschiedene Ansätze"
Hallo,
der Satz "Es gibt zwei verschiedene Ansätze von Maschinellem Lernen: Deep Learning und Shallow Learning ..." ist mindestens irreführend. Darüber wird darauf hingewiesen, dass es schon 3 Kategorien von ML und unten werden diese nur zwischen dem aktuelle Hype-Thema Deep vs. Nicht-Deep aufgeteilt. Das ist ein wenig sehr zweidimensional. Es gibt ja auch Lazy Learner vs. Eager learning. Lokale (z.B. KNN) vs. Globlase Ansätze (Neuronale Nezte). Daneben fehlen Bäume als Ansatz obwohl Random Forrest einer der wichtigsten Ansätze für strukturierte Daten ist usw. etc. Ich habe schon schöne Mindmaps dazu gesehen, aber man wird bei dem Thema nie mit einer 2x2 Tabelle auskommen ohne zu stark zu vereinfachen.
Ich würde den Abschnitt gerne "Lernkategorien" im aktuellen Zustand gerne Löschen, wenn das OK ist. Er richtet mehr Schaden als Nutzen an. Ihn aufzuwerten habe ich leider keine Zeit und bin nur darauf gestoßen, weil Unsinn aus dem Abschnitt in einer Hausarbeit auftauchte. Zum einen zu schwach (s.o.) für eine Kategorisierung von ML und zum anderen Abschreiben von Wikipedia. In Summe nicht bestanden ...
Bitte um kurze Rückmeldung in den nächsten Tagen, falls jemand lieber den aktuellen Stand aufwerten möchte oder jemand in diesem Abschnitt mehr Wertvolles zu erkennen vermag.
- Ich finde diesen Abschnitt (von @MovGP0:, 2014; hatte damals gehofft dass das noch überarbeitet wird...) auch etwas einseitig, von mir aus also gerne entfernen. Chire (Diskussion) 18:23, 23. Okt. 2017 (CEST)
- Soweit ich mich erinnern kann ist die Tabelle tatsächlich von mir. Den Satz, dass es nur zwei Ansätze gibt, halte auch ich für irreführend und sollte umformuliert oder entfernt werden. Tatsächlich gibt es hunderte Ansätze, von denen z. B. der Neural Network Zoo auch nur die Wichtigsten aufzählt. Eine grobe Unterteilung nach Netzwerktiefe ist hierbei eine von vielen Möglichkeiten wie man Netzwerke beschreiben kann. — MovGP0 00:04, 26. Okt. 2017 (CEST)
- Es gibt nicht nur "Neural Networks". Der Neural Network Zoo ist genauso einseitig wie die Unterteilung nach Netzwerktiefe. "Es ist verlockend, wenn das einzige Werkzeug, das man hat, ein Hammer ist, alles zu behandeln, als ob es ein Nagel wäre"... Chire (Diskussion) 13:21, 2. Nov. 2017 (CET)
- Soweit ich mich erinnern kann ist die Tabelle tatsächlich von mir. Den Satz, dass es nur zwei Ansätze gibt, halte auch ich für irreführend und sollte umformuliert oder entfernt werden. Tatsächlich gibt es hunderte Ansätze, von denen z. B. der Neural Network Zoo auch nur die Wichtigsten aufzählt. Eine grobe Unterteilung nach Netzwerktiefe ist hierbei eine von vielen Möglichkeiten wie man Netzwerke beschreiben kann. — MovGP0 00:04, 26. Okt. 2017 (CEST)
Maschinenlernen vs. maschinelles Lernen
Welcher dieser beiden Begriffe ist sinnvoller? 80.71.142.166 21:58, 22. Aug. 2018 (CEST)
- Üblicher (!) ist klar maschinelles Lernen... Es geht hier nicht darum möglichst naive Übersetzungen zu (er-) finden. Sonst dürfte ein Handy nicht Handy heißen, sondern musste als Zellenfon bezeichnet werden. (nicht signierter Beitrag von 77.176.30.78 (Diskussion) 00:22, 23. August 2018)
Symbolische und nicht-symbolische Ansätze
Zitat: "Beim maschinellen Lernen spielen Art und Mächtigkeit der Wissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Ansätzen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und nicht-symbolischen Ansätzen, wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben; hier ist Wissen implizit repräsentiert.[3] "
das letztere ist so nicht korrekt: Z.B. bei Feed-Forward- oder Backpropagation-Netzen ist es durchaus möglich, von allen einzelnen Perzeptronen aller Schichten sämtliche Einganges-Gewichte, den Threshold und das Ergebnis der Summen- und der Aktivierungsfunktion einzeln aufzulisten, sowohl am Ende als auch sogar während des Lernvorgangs bei jedem einzelnen Schritt, z.B. durch ineinander verschachtelte for() Schleifen: damit ist der "Einblick in die erlernten Lösungswege" absolut transparent, nachvollziehbar und reproduzierbar.
--HWunder (Diskussion) 20:19, 6. Dez. 2019 (CET)
- Das ist zwar reproduzierbar, aber nicht wirklich nachvollziehbar.
- Stelle dir das ganze wie einen Quellcode ohne Kommentarzeilen vor: Solcher Code ist auch nicht sonderlich transparent. Wenn ich ein einem Quellcode ohne Komentarzeilen einen n-Schleife sehe, dann erkenne ich zwar, dass das eine Schleife ist, und ein Zähler hochzählt, aber ich habe keine Ahnung, wieso er das tut. Genau so ist es mit neuronalen Netzwerken: Nur weil ich das Eingangsgewicht und den Threshold kenne, weiß ich noch nicht, wozu dieses Perzeptron da ist: Wird hier die Farbe herausgerechnet, wird die Richtung herausgerechnet, wird die Größe normalisiert oder was genau passiert da jetzt? Ich weiß es nicht. Ich verstehe den Code nicht.
- Um etwas zu reproduzieren, muss es nicht nachvollziehbar sein. Transparenz und Nachvollziehbarkeit sind gerade dann wichtig, wenn ich etwas ändern will. Dann muss ich verstehen, was die Änderung bewirkt.
- Wenn ich bei einem herkömmlichen gut dokumentierten Code herangehe und den Code an einer Stelle ändere, weiß ich, was das Programm anschließend anders macht. Wenn ich bei einem neuronalen Netzwerk die Eingangsgewichte oder den Threshold eines Perzeptrons ändere, weiß ich nicht, was das Programm anschließend macht. --Eulenspiegel1 (Diskussion) 04:07, 7. Dez. 2019 (CET)
- Was du sagst fällt unter den Begriff *berechenbar*. Ich kann nachrechnen was bei dem neuronalen Netzwerk herauskommt. Ich kann nicht erklären, welche Regeln das Netzwerk in die Gewichte codiert hat. Schau dir an, wie man die XOR Funktion als NN codieren kann - anhand der Gewichte wirst du so etwas in einem großen NN nicht erkennen, dass eine entweder-oder Entscheidung irgendwo berechnet wird. Jetzt vergleichen das mit einem Entscheidungsbaum. (nicht signierter Beitrag von 78.48.136.158 (Diskussion) 09:37, 7. Dez. 2019 (CET))