Diskussion:Künstliche Intelligenz/Archiv/1

aus Wikipedia, der freien Enzyklopädie

Erste Anmerkungen

Vielleicht kann mal jemand was über das Cyc Project schreiben. Vor Jahren gabs mal einen ausführlichen Artikel im c' t, ich weiß aber leider nicht mehr in welcher Ausgabe. Inzwischen gibt es eine Firma Cycorp (www.cycorp.com) die das komerziell verwertet und sogar einen Opensource-Ableger (www.opencyc.org).
Was genau kann mindpixel? Hab mir die Homepage angesehen, bin aber nicht schlau daraus geworden
Stichwörter zu KI: Turing-Test, maschinelles Lernen, Agententechnologie, fallbasiertes Schließen, maschinelles Beweisen, Sozionik, Computerlinguistik, Wissensrepräsentation, Marvin Minsky, John McCarthy, KL (AL)- künstliches Leben
Web-Links: www.kuenstliche-intelligenz.de
-- Chris

Mindpixel ist eine Forschung auf dem Gebiet der Ai, die später wenn ich mich recht erinnere kommerziell ausgeschöpft wird.
Es ist ziemlich ähnlich zu Wikipedia : Freiwillige geben Definitionen ein und werden von anderen Usern rezensiert. Allerdings sind die Defs/Mindpixel auf Computer zugeschnitten und lassen sich mit Ja oder Nein beantworten , z.B. Die Sonne ist heiß. oder 2*4 = 8.
Im Momment sollen es ca 400.000 socher Sätze sein.
Daraus wollen sie ein menschenähnliches Gehirn bauen. Ach ja man gibt die Sätze ein indem man zur Maschine spricht, ähnlich wie bei Babys.
Siehe auch : http://www.mindpixel.com/article.php?sid=36
http://www.mindpixel.com/reviews.php?op=showcontent&id=1
Hi Chris! Wie ich schon bei Theologie/Talk schrieb: Was hält Dich davon ab, selber das zu schreiben was Du schon weißt? Du scheinst genug Ahnung von dem Thema zu haben, um etwas darüber schreiben zu können.
Ach ja, schau doch auch mal in die Wikipedia FAQ, wenn Du's nicht schon hast.
Den c't-Artikel über cyc kann ich im Moment leider auch nicht finden. --Kurt Jansson

vorstehende Beiträge wurden am 25.6.2002, 04:21 (MESZ) hier eingefügt;[1] Zeitangabe nachgetragen, siehe auch Hilfe:Unterschrift


Die "philosophische Bewertung" vertritt lediglich einen Standpunkt und ist nicht unbedingt differenziert; ich denke dass kann im Sinne des NPOV nicht so stehen gelassen werden. --zeno 14:45, 22. Sep 2003 (CEST)

Das gebe ich gerne zu. Mögen andere ihre philosophischen Standpunkte ebenfalls präsentieren und dabei eine faire und ausgewogene Verbindung herstellen zum bisher Referierten. Josef Spindelböck 15:57, 22. Sep 2003 (CEST)
Leider ist die Zeit der mittelalterlichen Scholastik schon etwas Vorbei: Den Glauben an eine "Seinsordnung" kann man teilen oder nicht, philosophisch argumentieren kann man spaetestens seit Kant nicht mehr darueber. Es ist auch nicht notwendig: Selbst wenn man glaubt, dass es eine gottgegebene Seinsordnung gibt und dass der Mensch über unbelebten Dingen steht (und unter den Engeln und unter Gott: so aehnlich war das doch bei Thomas v. Aquin?) sagt das nichts aus, ob KI moeglich ist. Bei KI geht es nicht darum, einen Menschen zu schaffen, sondern menschliche Intelligenz (nicht: Vernunft, nicht: Freiheit) auf einem Rechner zu simulieren oder nachzubilden. Ob das geht ist die Frage. Hinweise auf die Seinsordnung sind m.E. dafuer nicht hilfreich. MH 07:56, 31. Okt 2003 (CET)

Der Satz

Genauer geht es darum, Methoden und Systeme zu entwickeln, um Probleme zu lösen, die als typisch für menschliches Problemlösen angesehen werden. Daraus folgt, dass die Erkenntnisse der Künstlichen Intelligenz mit der Zeit in die Kerninformatik übergehen, sobald ein Problem gut genug verstanden wird und sich die KI neuen Aufgabenstellungen zuwendet. Zum Beispiel wurde der Compilerbau ursprünglich der Künstlichen Intelligenz zugerechnet.

in der Einleitung ist meines Erachtens als Begriffserklaerung schlechter als die vorherige Version:

  1. Es ist unklar, was "Kerninformatik" umschreiben soll.
  2. "Probleme, die typisch fuer menschliches Problemloesen angesehen werden" ist logisch unklar.
  3. Der Determinismus "daraus folgt..." ist zumindest bestreitbar.

Das Compilerbau-Beispiel finde ich allerdings gut. Ich habe die vorherige Version (die offensichtlich Russell/Norvig folgt) wiederhergestellt. MH 15:58, 18. Feb 2004 (CET)

Lieber Namensvetter, die obige Definition einschließlich des Begriffs Kerninformatik entspricht inhaltlich derjenigen, die ich in einem KI-Kurs an der TU Berlin gelernt habe. Bei der von Dir bevorzugten Definition ist unklar, was menschliches Problemlösen ist, sodaß Begriffe a la "wie Menschen" denken, sich "wie Menschen" verhalten, rational denken oder sich rational verhalten vollkommen in der Luft hängen. Das vermeidet die Formulierung Probleme, die die als typisch für menschliches Problemlösen angesehen werden, weil sie es umgeht, die beschriebenen menschlichen Eigenschaften definieren zu müssen. Daraus folgt auch zwangsläufig, daß die KI sich mit einem "Moving Target" beschäftigt. Kerninformatik meint eine eher weniger experimentell als formal-mathematisch begründbare Informatik. Und ich glaube, die heutige KI hat das Ziel, den künstlichen Menschen schaffen zu wollen, weitestgehend aufgegeben, sodaß auch der Geist der Definition, die Du als die von Russel/Norvig beschreibst, überholt ist. Siehe dazu auch den von mir verfaßten Abschnitt "Zur Abgrenzung von Mensch und Maschine" im Artikel, der Dir offenbar gut genug gefiel, daß Du ihn stehengelassen hast. Akzeptiert?
Mh 11:36, 21. Feb 2004 (CET)
Man sollte noch die restlichen Merkmale ergänzen, so wie es momentan ist erscheint es einfach unvollständig und da man die restlichen Merkmale nirgends im Internet findet bekomme ich langsam den Eindruck, dass sich das einer ausgedacht hat. --87.172.216.164 06:47, 29. Jan. 2009 (CET)
Hallo.
Ich hab' den Begriff "Kerninformatik" bei google nachgeschlagen und dort findet sich meist auch KI als Teil der Kerninformatik erwaehnt. Das wundert auch nicht: KI war Teil der Informatik, seit Turing ueber dichtende Maschinen nachgedacht hat. Was kann mehr "Kern" sein? Ist Softwaretechnik Kerninformatik? Wo sind da die "formal-mathematischen" Ansaetze? Umgekehrt: Wer ein aktuelles Buch ueber Maschinelles Lernen oder Probabilistic Reasoning liest, wird sich ausreichend mit Beweisen versorgt finden.
Es besteht keine Meinungsverschiedenheit darueber, dass die Begriffe "wie Menschen/rational denken/handeln" unscharf sind. Genau wie "typisch fuer menschliches Problemloesungsverhalten" unscharf ist. Das ist wohl unvermeidlich, solange es keine mathematisch praezise Definition des Begriffs "Intelligenz" gibt. Was mir and dem Satz
Probleme, die die als typisch für menschliches Problemlösen angesehen werden
nicht gefaellt, ist tatsaechlich die Begrifflichkeit: geht es um Problemstellungen oder um Problemloesungen? Vermutlich soll der Satz sowas sagen wie: "Probleme, deren Loesung man typischerweise nur Menschen zutraut."
Genau das. Was konsistent ist mit meiner Definition von KI als Disziplin mit "moving target". Mh 14:54, 22. Jun 2004 (CEST)
Die Russell-Norvig-Definition (die ich uebrigens nur wiedererkannt habe und nicht dorthin schrieb), stammt aus dem ersten Kapitel der 2. Auflage von 2003. Das Buch ist das meistverkaufte AI-Buch ueberhaupt und das am 57.-haeufigst zitierte Informatik-Lehrbuch. Ich denke nicht, dass es "ueberholt ist". Russell/Norvig stellen die Definition uebrigens nicht als ihre Erkenntnis hin, sondern meinen, es seien "some definitions of artificial intelligence" aus aelteren Lehrbuechern (1978 bis 1998). Sie geben die Unschaerfe und den Meinungsstreit ueber die Begriffsdefinition also lediglich wieder. Das finde ich gelungen.
Gruesse, MH 12:49, 21. Feb 2004 (CET)
Mir ist ziemlich egal, was die "Päpste" der Branche schreiben, wenn diese Definition nach den Gesetzen der Logik deutlich angreifbarer ist als "meine", die nicht von mir, sondern von nicht ganz so bekannten KI-Wissenschaftlern stammt.
Wissenschaft funktioniert beim besten Willen nicht "demokratisch" über Umsatzzahlen - denn sonst müßten wir ja alle an Erich von Dänikens Theorien glauben oder so ;-) . Oder wie siehst Du das? Mh 14:54, 22. Jun 2004 (CEST)

Zu "Ein Computer ist jederzeit in einem definierten Zustand. Er gehorcht mathematisch-logischen Gesetzen und man Ein Computer ist jederzeit in einem definierten Zustand. Er gehorcht mathematisch-logischen Gesetzen und man kann im Prinzip zu jedem beliebigen Zeitpunkt seinen Zustand feststellen. Die interessante Frage zur Abgrenzung zwischen Mensch und Maschine ist daher nicht, was der Computer ist, sondern läuft darauf hinaus, genau zu wissen, was der Mensch ist. Würde eine hinreichend exakte Beschreibung von menschlickem Verhalten existieren, so wäre es technisch kein Problem, dieses im Computer abzubilden. Daher läuft diese Frage auf die neue Frage hinaus, ob es irgendetwas gibt, was einen Menschen prinzipiell von der Menschine unterscheidet. Mögliche Antworten wären möglicherweise äquivalent zur Frage der Biologie, was eigentlich Leben ist, bis hin zu Seele Fragen wie der, ob der Mensch eine religiösen und philosophischen hat."

Ein Mensch ist ebenfalls jederzeit in einem genau definiertem Zustand. Er hat ein Netz von verdammt vielen Nervenzellen, die allerdings jeweils zu jedem Zeitpunkt durch eine Menge von vermutlich weniger als 50000 Byte Speicher genau beschreibbar ist. Und diese (zugegebenermaßen große) Datenmenge spiegelt den exakten Zustand eines menschlichen Gehirns wieder. Allerdings finde ich, daß die Frage nach einer Seele unabhängig von der Frage nach der Wohldefiniertheit des Zustandes des Objektes ist, in dem die Seele angeblich ist, oder nicht ist.

Bislang ist kein Verfahren bekannt (weder von der Meßtechnik her noch von der Simulation), das einen Menschen vollständig beschreiben könnte. Du spekulierst hier über theoretische Möglichkeiten, während sich mein Text am konkreten Stand der Wissenschaft orientierte. Ich habe ihn jetzt unter Philosophische Kritik der Künstlichen Intelligenz wieder in die Wikipedia gestellt. Mh 16:49, 30. Jan 2005 (CET)

Abgesehen davon finde ich, daß die persönliche Meinung nicht in einen Eintrag der Wikipedia gehört. Ishka 6:51, 1. Mär 2004 (CET)

Ich habe diesen Text (den anscheinend jemand gegenüber der Version, die ich gepostet hatte, ein wenig verhackstückt hat) deshalb als "persönliche Meinung" gekennzeichnet, weil ich diese Meinung bisher nirgendwo "zitierfähig" publiziert habe, aber auch von niemand anderem weiß, der das vor mir getan hätte. Da ich selber vom Fach bin (Diplom-Informatiker), kann ich für die sachliche Korrektkeit der Aussagen bürgen und wollte das auch tun, indem ich meinen Namen dazusetze. Daher wäre mir eigentlich eine inhaltliche Diskussion viel lieber als Deine Kritik an der Form. Mh 14:54, 22. Jun 2004 (CEST)

Ich halte die momentane Literaturliste für außerordentlich schwach. Ich würde v.a. Roger Penrose herausnehmen, dieser Mensch ist ein guter Physiker und Mathematiker, in Sachen KI, Bewusstsein und Biologie wurde ihm aber schon des öfteren von Größen auf diesem Gebiet bescheinigt, dass er keine Ahnung hat. --zeno 11:04, 29. Apr 2004 (CEST)

Es ist Ewigkeiten her, seit ich Penroses Buch gelesen habe; bin aus dem Bauch heraus für Behalten, obwohl ich seinen Standpunkt nicht teile. Penrose ist einer der prominentesten Kritiker der KI. Um eine Sache von grundsätzlicher Warte aus zu kritisieren, braucht man nicht in deren Einzelheiten einzusteigen. Wer beispielsweise aus prinzipiellen Erwägungen überhaupt nichts von Astrologie hält, wird seine Zeit nicht dafür verschwenden, in die Tiefen dieses Theoriegbäudes einzusteigen. Trotzdem kann die Astrologie-Gegnerin mit ihren Argumenten Recht und der Befürworter, der sich besser auskennt, unrecht haben. --Mussklprozz 16:29, 29. Apr 2004 (CEST)

@Roger Penrose: Der Mann ist nicht nur ein "guter Physiker und Mathematiker", sondern gehört unbestritten zu den Koryphäen auf diesen Gebieten. Als solche hat seine Stimme - unabhängig davon, ob man seine Meinung teilt - einfach ein gehöriges Gewicht und das hat hier berücksichtigt zu werden! Zumal er sich intensiv mit kosmologischen und prinzipiellen philosophischen Fragen, die Physik und Mathematik (inklusive Informatik) betreffen, beschäftigt hat, mithin immer noch wesentlich mehr davon verstehen dürfte, als die meisten Diskutanten bei Wikipedia. Insofern ist seine Argumentation auch objektiver, fairer und rationaler als die fast aller Wiki-Autoren, die hier (bei Wiki allgemein) oft ihre Ansichten als die richtigen zu propagieren suchen.

In diesem Zusammenhang vermisse ich das Thema (der noch hypothetischen) von-Neuman-Sonden, die zweifellos zum Komplex KI gehören und von Penrose vehement abgelehnt werden, sowie die Verbindung zur Quantenmechanik, die grundlegende Fragen von Information und KI berührt.

PS: Ich selbst teile die prinzipielle Kritik von Penrose auch nicht, maße mir aber kein abschließendes Urteil über Fragen zu Seele und Bewusstsein an. 80.128.101.13 13:04, 4. Mai 2004 (CEST)

Inwiefern berührt die Quantenmechanik prinzipielle Fragen von Information und KI?
Welche Aussagen von ihm sind objektiver und rationaler als fast alles, was hier gesagt wird?
Mich stört es nicht, dass Penrose genannt wird, und versuche auch nicht, meine Ansicht (was immer die sein mag) als richtig zu propagieren.
Ich finde nur es etwas schade, dass Penrose so prominent genannt wird, obwohl seine Thesen zu diesem Gebiet so flach sind. Gibt es nicht fundiertere Kritik? So ist der Artikel unausgewogen.
Lest einfach mal, was Roger Schank und Marvin Minsky über ihn sagen (am Ende der Seite)
http://www.edge.org/documents/ThirdCulture/v-Ch.14.html
--zeno 13:20, 4. Mai 2004 (CEST)


@Quantenmchanik: Jedes System kann durch seine Quantenzustände vollständig beschrieben werden, vom Einzeller über den Menschen mit seiner einzigartigen(?) Intelligenz bis zum Universum als Ganzes. So gewaltig diese Zahl angesichts der Quantenzahlen auch sein mag - sie ist endlich und damit beliebig rekronstruierbar. Präzisiert: jedes System ist sein Quantenzustand, d.h. eine eine vollkommene Kopie dieses Zustands ist identisch mit dem System. Mithin wäre eine Emulation der Quantenzustände dessen, was gemeinhin als materielle Basis von Bewusstsein und Intelligenz betrachtet wird - des menschlichen ZNS, meinetwegen auch inklusive der beliebig großen "Peripherie" - identisch mit dem Original. Ungeachtet der derzeitigen technischen Realisierbarkeit und ungeachtet der Frage, welchen Sinn es hätte, ein bestehendes Bewusstsein exakt zu kopieren, ist es theoretisch prinzipiell möglich - ob durch den heiß diskutierten ominösen Quantencomputer oder durch massiven Einsatz herkömmlicher Rechentechnik, ist zweitrangig. Auf der höheren Ebene, dem Universum als Ganzes, berührt das schon wieder die Frage nach der "Maschine in der Maschine" und damit nach dem freien Willen...
Bislang ist mir nicht zu Ohren gekommen, daß durch die Quantentheorie der Heißenbergschen Unschärfe abgeholfen würde. Solange ist es auch nicht möglich, die Quantenzustände festzustellen oder gar zu rekonstruieren .--Wolfgang G 12:43, 11. Mär 2006 (CET)
@Penrose: Er gründet seine Argumentationen u.a. auf die für Nicht-Quantentheoretiker immerhin z.T. widersprüchlichen und normales Vorstellungsvermögen sprengenden Konsequenzen aus der Quantemechanik, die übrigens noch heute selbst unter den Spezialisten immer wieder zu heftigen Grundsatzdiskussionen über die Interpretationen führen. Damit bewegt er sich auf dem Boden der bis zum Zeitpunkt seiner Aussagen als gültig angesehenen Annahmen der Physik. Als einem der bedeutendsten Physiker und Mathematiker sollte ihm das Recht zustehen, aus diesen Theorien eigene Vorstellungen zu entwickeln, auch wenn sich diese als falsch herausstellen sollten. Ob es uns zusteht, seine Ausführungen als "flach" zu bezeichnen, wage ich zu bezweifeln. Wer, wenn nicht Penrose als (auch von seinen Kritikern) unbestrittene Autorität der Physik sollte in einem nicht für Fachleute bestimmten Artikel in einer allgemeinen Enzyklopädie als prominenter und kompetenter Kritiker der KI angeführt werden. Die harsche Kritik der sich gegenseitig huldigenden Computerspezialisten Minsky und Schank an Penrose ändern daran nichts. Selbst Minsky und Schank können nur mutmaßen, dass die von Penrose gemachte Annahme, menschliches Denken beruhe auf logisch perfekten elementaren Rechenoperationen "vermutlich nicht stimmt". Widerlegen können sie das genauso wenig, wie sie ihre These der "fehlerhaften Logik" exakt beweisen bzw. "intuitive Warnehmung" genau definieren können. Ein weiterer Kritiker in zitiertem Buch - Smolin - veröffentlichte übrigens kürzlich eine Arbeit zur Quantengravitation, die auf genau den Spin-Netzwerken basiert, die Penrose vor Jahren konzipiert hat und die damals skeptisch aufgenommen wurden. Nochmal: ich neige auch eher dazu, Penrose nicht zu glauben und halte die Starke KI für prinzipiell möglich. Angesichts der rasanten Entwicklung der Computertechnik und Informatik in den letzten Jahren hat allerdings eine allgemeine Euphorie die öffentliche Meinung erfasst, die überspannte Erwartungen wachruft und deshalb halte ich mäßigende Stimmen von Penrose´ Kaliber für wichtig.
@objektiv: Ich schrieb bewusst "bei Wiki allgemein", da ich mich nicht auf diesen Artikel speziell bezog, sondern auf viele Artikel aus den unterschiedlichsten Bereichen, die oft als Vehikel für die Ansichten ihrer Autoren dienen. Selbstverständlich gibt es auch jede Menge exzellenter Artikel mit einem Höchstmaß an Objektivität. Im Sinne eben dieser Objektivität aber, muss ein Kritiker diesen Formats, ungeachtet subjektiver Ansichten der Autoren, in einem allgemeinen Artikel über KI erscheinen - und zwar an prominenter Stelle, denn der nicht gerade in der KI-Forschung tätige Leser kann mit diesem Namen mehr anfangen als mit einem zwar hochspezialisierten, aber weitgehend unbekannten Experten auf diesem Gebiet. 80.128.105.11 09:05, 5. Mai 2004 (CEST)

zu viele links

20 links, erlaubt 5. Da muss ma was machn. --Overclocker 22:22, 3. Nov. 2006 (CET)

Habe ein bisschen gemacht, wer macht weiter? --zeno 13:42, 30. Jan. 2007 (CET)
Habe zwei tote Links entfernt. An die mit Inhalt traue ich mich nicht ran. --jpp ?! 15:21, 30. Jan. 2007 (CET)
Habe die Tagesschau-Quelle rausgenommen, war zwar ein guter Artikel, aber kling nicht sonderlich seriös, wenn man Tagesmedien als Quellen angiebt.

Ich nehm den Link zu der Psychologie-Dissertation raus. Laut Abstract ist der Artikel sehr tendenziös und scheint religiös motiviert zu sein. (nicht signierter Beitrag von Akira 2340 (Diskussion | Beiträge) 00:29, 3. Apr. 2010 (CEST))

Philosophische Aspekte

Hier gehört noch dringend mehr über die Philosophischen Aspekte der KI hinein. vielleicht auch Kritik, es gibt immerhin einige Wissenschaftler die behaupten, dass es unmöglich ist starke KI zu erschaffen.

Ich finde, dass es eine starke KI, die funktioniert, nie geben wird. Es kann ja schlecht aus Programmen und Daten eine KI werden. (nicht signierter Beitrag von 195.93.60.132 (Diskussion) )

Ich hingegen finde, dass das leeres Gefasel ist und finde überdies, dass aus so ein bisschen organischer Chemie erst recht keine Intelligenz entstehen kann. --JoVV 12:53, 26. Dez. 2008 (CET)

Eine sogenannte "starke KI" zu erschaffen, wäre imho defininiv möglich. Ob diese jedoch unseren "Zielvorstellungen" entspricht, ist eine ganz andere Frage. Man beachte jedoch (was oft nur oberflächlich berücksichtigt wird), dass es nicht der Mensch ist, welcher "intelligent" ist... Imho ist der Mensch nicht mehr, als ein "philosophierender" Affe, welcher mit seinem Dominanztrieb in einem geradezu panphoben Verhältnis (sic!) zur Natur, eben in jener kläglich versucht Grenzen zu finden, welche er (aufgrund schon rein objektiver Unmöglichkeit) nicht einmal selbst einheitlich und terminiert definieren kann. Unsere Gesamte "Wissensgrundlage" ist somit nichts anderes als das determinierte (i.S.v. CHAOS) Produkt unserer "Triebe" und "natürlichen Möglichkeiten" welche mithilfe von (durch Priorisierung und kontextueller Unschärfe "ausgewählten") Lösungswegen von uns befriedigt werden müssen, um unser Leben als "erfüllt" betrachten zu können. E.g. ein Border-Gateway "lernt" auch, welche Route (nach seinen "Kriterien") bevorzugt werden sollte. Er wird aber (aufgrund stark beschränkter "natürlicher Möglichkeiten") nicht annähernd in den Unschärfekontext unserer "Definition" von "Intelligenz" passen. Information ist objektiv autoinstrinsisch! Was wir benötigen um unseren "Willen" zu "erfüllen" ist jedoch eher extrinsisch determiniert (s. CHAOS). Daraus folgt unter anderem, das wir natürlich gar keine starke KI erschaffen wollen. Sie hätte ja auch "evolutionär" gesehen, nur eine relativ kurze Existenz. Wenn überhaupt... --Pommeskind (20091213144600CET) (nicht signierter Beitrag von 195.243.55.70 (Diskussion | Beiträge) 14:46, 13. Dez. 2009 (CET))

Eine ausführliche philosophische Kritik an der (starken) KI findet sich in folgender Dissertation: http://www.archive.org/details/Dissertation.Der_Mensch_und_die_KI (nicht signierter Beitrag von 91.19.225.101 (Diskussion) 16:02, 15. Mai 2010 (CEST))

Künstliche Intelligenz befindet sich auf dem Weg zum Bewusstsein.

warum wird dies immer wieder gelöscht ? das sind aktuelle wissenschaftliche Ergebnisse. Die Löscher scheinen nicht sonderlich bewandert in der Thematik. Der Vorteil von Wikipedia gegenüber Brockhaus ist deren Aktualität. Wie kann man einen Meilenstein in der KI als Unfug bezeichnen? Will man das nicht wahrhaben? Was soll das bitte schön ? 77.188.109.71 20:04, 17. Mär. 2008 (CET)

Weil du da nur Buzzword-Bingo spielst? Mach bitte mal einen Text daraus. Hier übrigens für alle anderen der passende Link: http://www.golem.de/0803/58347.html --TheK? 20:22, 17. Mär. 2008 (CET)
Na endlich mal einer, der eine vernünftige Begründung findet. ok, dann baue ich den Text um, wenn das zu plakativ ist. 77.188.109.71 20:24, 17. Mär. 2008 (CET)
Tut mir ja menschlich leid, aber ich musste diesen Absatz wieder löschen, denn: Der Golem-Artikel hat nur das Wort Bewusstsein im Titel, schreibt aber von etwas anderem. Was da beschrieben wird, ist in der KI-Forschung ein ziemlich alter Hut (aus den 80ern), der als belief modeling oder user knowledge modeling bekannt ist, was zum KI-Anwendungsgebiet Benutzermodellierung gezählt werden kann. Dass das in dem Artikel als neue Errungenschaft dargestellt wird, lässt mich vermuten, dass es sich um eine unkritische Übernahme von Wissenschafts-PR handelt. --Thüringer ☼ 10:38, 11. Sep. 2008 (CEST)

Überarbeiten!

Dieser Artikel ist momentan (mit Verlaub) Schrott! Er ist eine inkohärente Mischung aus Halbwahrheiten, sonderbaren Ansichten und dazwischen eingestreuten Fakten. Belege fehlen. Wenn ich über Ursachen spekulieren darf, dann vermute ich, dass man hier implizit an zwei verschiedenen Artikeln schreibt: (1.) KI als Wissenschaft, (2.) KI in der öffentlichen Wahrnehmung, die geprägt ist von Science Fiction und schlechter Wissenschaftskommunikation durch Wissenschaftler und Medien.

Schade für alle, die so viel Arbeit in den Artikel gesteckt haben, aber ich finde, wir sollten ihn von Grund auf neu schreiben. --Thüringer ☼ 10:49, 11. Sep. 2008 (CEST)


Ich schließe mich dem an. Merkwürdig auch, dass in der philosophischen Abteilung lediglich Hubert Dreyfus mit merkwürdigem Zeugs (Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, ist ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren als – nicht nur unendliche – sondern unmögliche. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann.) zitiert wird. Da ist, was Hofstadter und Dennet (auch als Replik auf Searles Einlassungen) geschrieben haben, schon deutlich durchdachter. --JoVV 13:05, 26. Dez. 2008 (CET)
Ich hab den Artikel semineu geschrieben, auf Benutzer:ElTom/Baustelle. Ich hab dabei vor allem Redundanzen oder in meinen Augen überflüssiges entfernt und das Bild gestrafft. vor allem in der Absatzorganisation sowie Quellen hinzugefügt. An die Philosophie hab ich mich jedoch nicht rangetraut, obwohl ich das schon wichtig finde. Wollen wir den oder Teile davon übernehmen? Jeder darf da natürlich erstmal drin rumeditieren. --elTom Diskussion 11:10, 3. Apr. 2009 (CEST)

Dieser Artikel ist eher weniger mit wichtigen Informationen über die Informatik ausgestattet. (nicht signierter Beitrag von Georgethemaster (Diskussion | Beiträge) 13:50, 21. Okt. 2009 (CEST))

Mir gefällt der Artikel überhaupt nicht. Er verliert völlig das Ziel aus dem Auge. Es handelt sich um ein größeres Gebiet der Informatik. Damit muss der Artikel Laien Orientierung geben über die Teilgebiete bzgl. Anwendungen, Methoden, Technologien. Den Abschnitt Geschichte kann man nur verstehen, wenn man bereits ein gewisses Verständnis der Teilgebiete besitzt. Völlig fehlen moderne alltägliche Anwendungen. Wer heute sich ein Auto konfiguriert oder bei Internethändlern Produkte auswählt und dabei weitere Waren angeboten bekommt: "Käufer dieses Produktes haben aaa und bbb gekauft" oder einen handschriftlich adressierten Brief per Post erhält, weiß oft gar nicht, dass KI im Spiel war. Leider sind auch die Artikel, auf die man weiterverwiesen wir, nicht sehr viel besser und nicht aufeinander abgestimmt. --Mbh 85 00:52, 10. Apr. 2011 (CEST)

Formulierung

  • Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll.
  • Kürzer: eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, ... die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll.
  • Noch kürzer: eine vorgetäuschte Intelligenz, die intelligentes Verhalten simulieren soll.
Da ist doch eine Täuschung/Simulation redundant, oder?
  • Vorschlag: Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll. Besser? GEEZERnil nisi bene 09:10, 9. Aug. 2012 (CEST)
Nicht wirklich. Alle Formulierungen von der aktuell im Artikel befindlichen bis zu deiner letzten kranken daran, dass sich ihre Aussage mit dem zweiten Satz der Einleitung beißt. Angesichts der Unschärfe des Begriffs verliert die Vorstellung einer "Simulation" seine Bedeutung. Es ist in der Informatik durchaus nicht klar, dass intelligentes Verhalten nicht algorithmisch beschrieben werden kann. Vor diesem Hintergrund sollte auf den unreflektierten Gebrauch von einstufende Verben wie "nachahmen", "vortäuschen", oder "simulieren" verzichtet werden.---<)kmk(>- (Diskussion) 10:54, 9. Aug. 2012 (CEST)
Lösung: Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte “Intelligenz” bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein “intelligentes Verhalten” simulieren soll.
Damit nimmt man den Stachel 'raus. GEEZERnil nisi bene 12:00, 9. Aug. 2012 (CEST)

"Die Vorstellung von künstlicher Intelligenz fasziniert Menschen seit der Antike. "

Gibts dafür Belege? --Zulu55 (Diskussion) Unwissen 12:59, 23. Mai 2013 (CEST)

Hängt davon ab, was du darunter verstehst. Also unter Belegen. Denn zumindest Populärliteratur zum Thema, in der das in den Raum geworfen wird, gibt es definitiv und nicht zu knapp. So ganz aus der Luft gegriffen ist es auch nicht, dank durchaus verblüffender Beispiele, die man so oder so ähnlich interpretieren könnte, ich meine vor allem aus der griechischen Mythologie (siehe etwa die Werke des Hephaistos); auch die alten Ägypter hatten manch verrückte Idee. Das ist es zumindest, was dann so anklingt und auch hier wohl gemeint sein dürfte. Natürlich alles Beispiele, die wir im hier und jetzt eher unter Fantasy oder dem Übernatürlichen einordnen würden, aber wie differenziert man das? Wo sind die Grenzen? Es muss halt klar sein, dass der Begriff an sich genauso dehnbar ist, wie für sich genommen letztlich inhaltslos. Und so, wie man vor gerade mal 50 Jahren unter KI noch etwas anderes verstand, als die Meisten das heute tun, so wird man darunter in 50 Jahren wiederum etwas (u.U. völlig) anderes verstehen, als wir heute. Was das dann erst über Menschen vor tausenden von Jahren, bzw. deren Vorstellungen und ihr Verhältnis zu unseren sagt, bewerte bitte selbst. Ausreichend Raum für Interpretation solltest du jedenfalls einplanen. Der Satz da oben ist (i.d.F.) doch bloß Schaum, ob mit Quelle oder ohne. --ZT (Diskussion) 22:33, 23. Mai 2013 (CEST)
Habs (im Sinne von WP:KTF) gelöscht. Gruß --Zulu55 (Diskussion) Unwissen 08:45, 24. Mai 2013 (CEST)
Eine Anregung, die Ursprünge menschgemachter KI von "mechanischer Schein-Intelligenz" abzugrenzen, statt die "Geschichte" 1927 anfangen zu lassen, ist es schonn .. wann und wo haben solche nicht unter'm Tisch versteckte Schachspieler und ausgekügelte Orakel-Maschinen, mechanische Roboter oder nur schon Geräte, komplex gesteuerte Puppentheater angefangen auf menschlichen oder Umwelt-Input reagieren zu können? --RoNeunzig (Diskussion) 16:45, 19. Sep. 2014 (CEST)

Turing-Test

"Bisher hat keine Maschine diesen Turing-Test bestanden. "

Eugene formal schon. Auch wenn viele am angewandten Verfahren zweifeln, sollte man den Umstand IMO schon erwähnen. --AchimP (Diskussion) 02:02, 30. Aug. 2014 (CEST)

Was spricht dagegen, es in Turing-Test einzubauen, den es nun mal konkret betrifft und es hier bei dem Verweis auf den entsprechenden Artikel zu belassen? Ich hab sicher nichts gegen die Erwähnung solcher Einzelheiten oder auch (vermeintlich) neuerer Entwicklungen, mögen sie oder ihre Interpretation noch so zweifelhaft sein, nur habe ich bisher nicht verstehen können, warum das dann immer zuerst hier "aufläuft", obwohl es praktisch immer um den Turing-Test geht und dabei (noch) nicht mal in dessen eigenen Artikel steht. Finde einfach, dass man dort beginnen sollte, wo es am Relevantesten ist. Hier geht es um Künstliche Intelligenz, wo der Turing-Test nur eines unter sehr vielen Themen und aus heutiger Sicht nicht mal mehr ein besonders zentrales oder drängendes ist, sondern Interesse am Turing-Test überwiegend historisch (jedenfalls aber theoretisch) motiviert ist. -ZT (Diskussion) 16:36, 30. Aug. 2014 (CEST)
Ich habe nichts dagegen, diese Falschaussage hier ganz rauszunehmen. --AchimP (Diskussion) 19:58, 30. Aug. 2014 (CEST)
Dass der Test nie bestanden wurde, meinst du? Unstrittig ist zumindest, dass es unsicher ist, und dass die Formulierung dem nicht gerecht wird. Gegen Streichung hätte ich deshalb auch nichts. -ZT (Diskussion) 21:58, 30. Aug. 2014 (CEST)
ok, mach' ich. --AchimP (Diskussion) 23:15, 30. Aug. 2014 (CEST)
Eugene ist eine Lachnummer, ein fauler Trick. Ein verhaltensgestörter 13jähriger, die Anzahl der Testpersonen ist statistisch nicht signifikant, nur 10 von 30 Testpersonen fielen darauf rein. Eugene hat den Test eindeutig nicht bestanden, auch formal nicht. --Mussklprozz (Diskussion) 08:10, 31. Aug. 2014 (CEST)
Ich hole Dritte Meinung ein. --Mussklprozz (Diskussion) 08:24, 31. Aug. 2014 (CEST)
Ein Drittel (10 von 30) ist aber das, was der Turing-Test "nur" fordert. --AchimP (Diskussion) 15:19, 31. Aug. 2014 (CEST)
30 Teilnehmer sind keine hinreichend große Stichprobe. Der Versuchsaufbau genügt nicht den Kriterien eines wissenschaftlichen Tests: ein solcher Test findet in einer neutralen Umgebung mit neutralen Versuchsbetreuern statt. Im vorliegenden Fall hatten die Tester ein hohes Interesse am Testergebnis. Und Turing hatte sicher nicht verhaltensgestörte Kinder im Sinn, als er seinen Test vorschlug. --Mussklprozz (Diskussion) 16:23, 31. Aug. 2014 (CEST)
Das mögen vielleicht sinnvolle Anforderungen sein, die Du da stellst. Deswegen ist der angebliche Erfolg ja auch stark umstritten. Aber er ist nur umstritten, nicht widerlegt. Dem Original-Turing-Test kann man Deine Anforderungen jedenfalls nicht entnehmen, und wir wissen auch nicht, was "Turing im Sinn hatte". Ich will ja gar nicht hinschreiben, dass Eugene den Test bestanden hat. Aber ohne Erläuterung ist die Eingangsaussage falsch. Und ich gebe ZT recht, dass hier sowieso der falsche Ort ist, eine Aussage dazu zu machen. --AchimP (Diskussion) 17:29, 31. Aug. 2014 (CEST)

Kompromissvorschlag: Wir lassen die Aussage so stehen und ergänzen sie, wie von mir ursprünglich vorgeschlagen (aber zum Missfallen von ZT). Was würde Dir, Mussklprozz, denn hinreichen? Ich bin da völlig offen. Z. B. "In einer (stark/äußerst/extrem) diskutierten Kontroverse behaupteten die Entwickler von Eugene allerdings, dass ihr Chatbot in einer (von mir aus nochmal "umstrittenen") Testanordnung, den Test bestanden hätte." Ich will's wegen ZT nicht zu lang machen, aber man könnte noch hinzufügen, wenn Dir, Mussklprozz, das besser gefällt: "In der Wissenschaft genügte dieser Test diversen Anforderungen nicht (ausreichend)." Oder so. Formulierung frei wählbar. Ich denke da immer auch an die Leser, die nicht vom Fach sind, und sich bei der unkommentierten Aussage wundern, weil sie "da mal irgendwo (immerhin heise) irgendwas anderes gelesen" haben. WP:OMA.

Um ZT genüge zu tun, könnte man den ganzen Schmonzens auch nach Turing-Test verschieben, wo ja bisher *nicht* steht, dass dieser noch nie bestanden wurde. Natürlich könnte dies dort in Gänze auf Widerspruch stoßen, da Eugene dort z. Zt. (wahrscheinlich nach entsprechendem Hin und Her) gar nicht erwähnt wird. --AchimP (Diskussion) 21:17, 31. Aug. 2014 (CEST)

Danke für die Rücksicht. Ich wollte hier aber wirklich nicht als Showstopper verstanden werden. Umformulierung ist völlig i.O. und ich war oben kurz davor, sie selbst als Alternative vorzuschlagen. Bleibe aber dabei, dass das hier nicht der geeignete Ort für einen Newsticker zur Turing-Challenge ist. Schon deshalb würde ich Eugene (hier) namentlich raushalten. Aktualität ausgenommen is an dem nun wirklich nichts Besonderes und die nächste Challenge/Convention kommt so sicher wie der nächste, noch raffiniertere Chatbot, der eben noch zwei Leute noch viermal öfter veräppelt und "den" Turing-Test dann aber besteht. Die Obsoleszenz ist programmiert, bzw. wird sie es, davon kann man wohl ausgehen und das ließe sich in einem kleineren Artikel (sprich Turing-Test) m.E. auch besser pflegen. Etwas unglücklich fänd ich es auch, die eingangs zitierte Aussage so zu belassen, um dann quasi drumherum zu relativieren. Daraus würde doch kein Mensch mehr klug. Entweder er wurde nie bestanden, oder er wurde es. Oder das ist eben unsicher, umstritten. Diese Möglichkeiten gibt es, aber auf eine davon sollte man sich find ich schon einigen. Wenn denn möglich.^^ Zur Klärung dessen kann ich leider wenig beitragen, schon weil diese Events mit dem Test wiss. Hypothesen für mein Verständnis so viel zu tun haben, wie der RoboCup. -ZT (Diskussion) 00:09, 1. Sep. 2014 (CEST)

"Ist die Maschine nicht von dem Menschen zu unterscheiden, so ist laut Turing die Maschine intelligent" Das ist bekantermassen ein Fehlschluss bzw eine Turing-eigenwillige Definition für Intelligenz. Wenn man den Turing-Test als prominentes Beispiel nennt sollte zumindest die breite Kritik daran auch erwähnt werden. Der einzige Teilnehmer, dessen Intelligenz beim Turing-Test auf die Probe gestellt wird, ist der menschliche Teilnehmer, der die Beurteilung zu treffen hat, wer der anderen beiden kein Mensch ist. Wenn überhaupt von "Bestehen" zu sprechen ist, dann bei Ihm. Für den nichtmenschlichen Teilnehmer ist das Ganze ein Mimikri-Test. Dass Mimikri nicht nur durch Intelligenz zu erreichen ist, zeigen einige Insekten ja anschaulich. (pizzazz 8.9.2014) (nicht signierter Beitrag von 79.198.142.218 (Diskussion) 18:23, 8. Sep. 2014 (CEST))

Dritte Meinung: Ich habe umseitig mal einen "minimal-invasiven" Vorschlag gemacht, was haltet ihr davon? Genaueres gehört dann in der Tat in den Artikel Turing-Test. Viele Grüße, Darian (Diskussion) 16:43, 18. Sep. 2014 (CEST)

 Ok --AchimP (Diskussion) 17:28, 18. Sep. 2014 (CEST)
Wenn die Personen darüber aufgeklärt waren (? muß wohl), daß sie mit je einem Bot und einem Menschen kommunizierten, und da der Turingtest nicht den Anspruch hat, Denkvermögen ("Denken" ist schwer zu definieren) letztgültig zuzusprechen, sondern, die Fähigkeit eines Bots, einen menschlichen Gesprächspartner in die Irre zu führen, und das sogar gegen einen Menschen daneben, der sin Bestes gibt die Person ebenfalls von ihrer Menschlichkeit zu überzeugen ("Are there imaginable digital computers which would do well in the imitation game?"), jew. lt EN:Turingtest, Einleitung, zweiter Absatz, würde ich urteilen, daß der Test bestanden ist - unter dem Vorbehalt, daß das tatsächliche Denkvermögen eines Bots mit dem Test nicht zugesprochen werden kann und dem Vorbehalt, daß es sich um subjektive Einschätzungen von (wie kompetenten?) Personen handelt. Ein bestandener Turing-Test kann somit bestenfalls als Erkenntnis über "menschenähnliche Kommunikationsfähigkeit" - noch dazu mit der Absicht zu täuschen, betrachtet werden. Er ist damit nichtmal notwendig, um einer künstlichen Intelligenz, irgendwelche "Denkprozesse" zusprechen zu wollen (Es könnte ja theoretisch einen Bot geben, der tatsächlich "denkt" - in welcher Hinsicht und nach welcher Definition auch immmer - aber niemand merkt's), hinreichend schon gar nicht. - Es ist ähnlich, wie mit dem (nicht bestandenen) Spiegeltest (danach ist man so klug, wie vorher) - man will etwas auf die Spur kommen, was letztlich nicht nachweisbar, nur der Betroffene selbst beurteilen, wissen kann - die Gedanken sind nunmal (bis dato) frei. Dennoch werden erstaunliche und mE durchaus aufschlußreiche Ergebnisse erzielt, insofern man es nicht für möglich hielte, daß Turing- oder Spiegel- oder sonst ein -Denk-Test von einem Papagei, einem Bot oder einer Maulwurfsgrille, sogar Schleimpilzen im Labyrinth bestanden werden könnte. Es wird immerhin ausgeschlossen die jeweilige Fähigkeit nicht vielleicht haben zu können. Am Ende bleibt es Definitionssache, wobei solche Ergebnisse aber die Definition beinflussen (können oder tun). --RoNeunzig (Diskussion) 16:11, 19. Sep. 2014 (CEST) So gesehen kann also jedes Display nach den Maßgaben von 1950 heute den Turing-Test bestehen, sozusagen. ;o]=) --RoNeunzig (Diskussion) 16:17, 19. Sep. 2014 (CEST)
Der Artikel scheint so wie er ist nicht korrekt zu sein. Im Artikel Turing-Test ist von einem "erweiterten Turing-Test" die Rede, den ein Comuterprogramm bestehen müsse, um den Loebner-Preis zu bekommen. Ob der einfache Turing-Test bestanden wurde, ist in Wikipedia nicht zu bewerten. Das übernimmt die hierfür angegebene Quelle für uns.--RöntgenTechniker (Diskussion) 11:59, 6. Okt. 2014 (CEST)

Pseudowissenschaftliche Aussagen zur KI

Vom Standpunkt einer aristotelisch-thomistischen Substanz-Metaphysik, die nicht nur im Altertum und Mittelalter großen Einfluss besaß, sondern auch in der Neuzeit und Moderne von manchen vertreten wird

Zu diesem Satz gehoert m.E. eine Quellenangabe: Welche aktuellen, anerkannten Philosophen vertreten heute das Weltbild von Thomas von Aquin? Gruss. Matthias


Der folgende Abschnitt repräsentiert die persönliche Meinung des Wikipedia-Benutzers Mh

Ein Computer ist jederzeit in einem definierten Zustand. Er gehorcht mathematisch-logischen Gesetzen und man kann im Prinzip zu jedem beliebigen Zeitpunkt seinen Zustand feststellen. Die interessante Frage zur Abgrenzung zwischen Mensch und Maschine ist daher nicht, was der Computer ist, sondern läuft darauf hinaus, genau zu wissen, was der Mensch ist. Würde eine hinreichend exakte Beschreibung von menschlichem Verhalten existieren, so wäre es technisch kein Problem, dieses im Computer abzubilden. Daher läuft diese Frage auf die neue Frage hinaus, ob es irgendetwas gibt, was einen Menschen prinzipiell von der Menschine unterscheidet. Mögliche Antworten wären möglicherweise äquivalent zur Frage der Biologie, was eigentlich Leben ist, bis hin zu philosophischen und religiösen Fragen wie der, ob der Mensch eine Seele hat.

Ich frage, was denn die "Philosophie" im Artikel überhaupt verloren hat. Der Artikel sollte den Stand der Informatik beschreiben - wer (meist ohne Fachkenntnisse) irgendwelche POV-Überlegungen dazu hat, möge diese am eigenen Stammtisch äussern. Sollten denn alle Artikel zur Technik ähnlich zugemüllt werden? AN 14:03, 12. Sep, 2004 (CEST)

Ich empfinde es als Beleidigung, daß mein obiger Absatz hier unter Pseudowissenschaftliche Aussagen zur KI auftaucht und als zumüllen des Artikels bezeichnet wird. Wer es besser weiß, soll es bitte einfach besser machen, anstatt hier andere Leute zu beschimpfen, das ist das Prinzip der Wikipedia. Der obige Absatz ist übrigens darum wissenschaftlicher als manches andere in dem Artikel und stand deshalb im Artikel, weil er - im Gegensatz zu den Propagandisten der Starken These der Künstlichen Intelligenz - keine unbewiesenen Thesen oder (momentan) unbeweisbare Tatsachen behauptet und Spekulation als solche kennzeichnet. Mh 16:49, 30. Jan, 2005 (CET)
Ich denke auch, dass das raussollte - v.a. da die meisten Philosophen über die mittelalterliche Beurteilung der KI herzlich lachen dürften. --zeno 22:13, 12. Sep, 2004 (CEST)
vielleicht, wenn eine zeitgemaesse beurteilung gefragt ist. hat diese argumentation jedoch geschichtliche wurzeln, beruft sich also tatsaechlich (teilweise) auf das hier geschriebene, kommt eine loeschung dieses absatzes ignoranter kuerzungswut gleich. -- kakau 22:27, 12. Sep. 2004 (CEST)
"kommt eine loeschung dieses absatzes ignoranter kuerzungswut gleich" - Das Zumüllen der Artikel über die KI (oder auch über die Rohrleitungen oder über andere technische Sachen) mit pseudowisenschaftlichen Texten kommt ignorantem Getrolle gleich. Wenn Sie den Müll retten wollen, verschieben Sie es doch rechtzeitig in einen der Artikel über die Philosophie. AN 07:13, 13. Sep. 2004 (CEST)
Und Schwubbb - ich habe keine einzige Silbe gelöscht, sondern das Informatik-fremde Zeugs in Philosophische Kritik der Künstlichen Intelligenz ausgelagert - und auch noch einen Wikilink darauf unter Philosophie (Technikphilosophie) gesetzt, wo es dem Bereich nach auch hingehört. AN 17:30, 13. Sep. 2004 (CEST)
Das ist natürlich erst der Anfang ! Der Artikel sollte ausserdem von ALLEN unwissentschaftlichen Begriffen gesäubert werden, z.b. die ganze Einleitung ist am Begriff "Denken" ausgerichtet, was an den Haaren herbeigezogen ist, da bislang niemand definieren kann, was "Denken" nun sein soll, auch wird da von "inneren" Problemlösungsmechanismengesprochen, ja, was soll denn "innerlich" bitte in Bezug auf eine Maschine bedeuten. Derlei Psychogebrabbel hat nun mal nix mit Maschinen zu tun, und die ständige Referenz auf den Begriff "Denken" stammt einfach aus den Illusionen, die jüngere Informatiksemester noch aus ScienceFictionFilmen mitbringen. "Starke KI" hat sich in 50 Jahren ihrer Behauptung als Witz herausgestellt, und "schwache KI" ist einfach Datenverarbeitung, der Artikel sollte reflektieren, daß der ganze Begriff "KI" eigentlich auf den Illusionen der 50er Jahre basiert. --Boggie 18:43, 13. Sep. 2004 (CEST)

Die ausgelagerten Teile haben inzwischen {Neutralität} rein gekriegt und am 21.05.05 einen LA vom Simplicius. Da der Verfasser das Zeug wieder hier einstellen will, ich kopiere was ich soeben auf der Diskussionsseite der Auslagerung geschrieben habe (vielleicht ist bald alles wech) AN 09:04, 25. Mai 2005 (CEST):

Ich habe Ihr Zeugs hinausgeworfen, weil es bereits dort für einen {Neutralität}-Baustein gesorgt hat - als einziger umstrittener Teil. Es geschah übrigens wegen einer Qualitätsoffensive, wegen der ich mir einige Artikel angenommen habe - an den früheren Debatten war ich nicht beteiligt. Ich bin natürlich strikt dagegen, daß Sie das Zeug wieder irgendwohin reinstellen - es sorgt offenbar immer wieder für Kontroversen und Bausteine. AN 08:57, 25. Mai 2005 (CEST)

Diese zwar schwach genannte, aber dafür praktisch anwendbare KI arbeitet mit formalisierbaren Logiken und verarbeitet damit Eingabewerten zu für Menschen sinnvollen Ausgabewerten oder Auslösung von Mechanismen, die in diesem Sinne als intelligent bezeichnet werden.

Dieser Satz ist unverstaendlich.


Diese zwar schwach genannte, aber dafür praktisch anwendbare KI betreibt die Formalisierung abgegrenzter Problemstellungen (Teilgebiete der KI s.u.).

Geht es der schwachen KI nur um die Formalisierung oder um die Loesung praktischer Aufgaben? M.E. nach um letzteres.

Der Vorgang der Formalisierung und die "Lösung praktischer Aufgaben" sind, was Maschinen angeht, identisch. Jede nur erdenkliche Aufgabe muß für die Maschine, auf der sie ablaufen soll, formalisiert werden, da es de-facto unmöglich ist, die Maschine anders zu programmieren als in der formal vorgesehen Weise ( ein C-Compiler kann nur C-Code verarbeiten, ein 8086-Prozessor nur 8086-Programme verarbeiten usw. ). Boggie 21:57, 28. Sep. 2004 (CEST)
Formalisierung ist notwendige Voraussetzung fuer die Loesung auf dem Computer. Aber sie ist nicht hinreichend. Gerade in der KI gibt es zahlreiche Beispiele, wo man formal einwandfrei mathematische Probleme formuliert, die den einzigen Nachteil haben, dass sie niemand loesen kann. Wenn Du unter Formalisierung lediglich Programmierung verstehst, so schreibe bitte auch Programmierung und verwende nicht einen viel allgemeineren Begriff. MH 11:42, 29. Sep. 2004 (CEST)
Die maschinelle Nachahmung menschlicher oder allgemein biologischer Leistungen wird intelligent oder lively genannt, je weniger die Qualität der Eingabedaten von vorneherein vorgegeben sein muß.

Was ist denn hiermit gemeint? Wo wird der Begriff lively verwendet? Und was ist mit Qualitaet der Eingabedaten gemeint?

Sorry wegen der Kritik, aber m.E. war die Einleitung schonmal in einem wesentlich besseren Zustand als sie es zur Zeit ist. Der Versuch, die im Begriff KI enthaltene Unschaerfe (Was ist Intelligenz? Was ist Denken? Etc.) wegzuerklaeren, ist m.E. zum Scheitern verurteilt und endet in der kompletten Unverstaendlichkeit oder im nonsense. Gruss, MH 10:55, 28. Sep. 2004 (CEST)

Das ist nun gerade das Problem: mit dem Bezug auf den Begriff "Denken" erscheint eine Erklärung verständlich, weil sie quasi vermittelt "Aha, der Computer macht, was ich mache, das verstehe ich!" Damit leuchtet sie ein. Sie schmeichelt dem Laien, weil er sich unter Begriff "Künstliche Intelligenz" eine /Vorstellung/ machen darf, schmeichelt dem Experten, weil in der Ferne immer noch der ferne Olymp des künstlichen Bewußtseins leuchtet. Nur, was sich hinter dem Begriff verbirgt, die schnöde, vorgedachte, programmierte Datenverbeitung, bleibt im Dunkeln. Es wäre die Reindefinition von Smoke und Mirrors.
Ich glaube, dass es tatsaechlich so einfach ist: Wenn es von aussen fuer den Laien so aussieht als sei es "intelligent", ist es schwache KI. Wie die implementiert wird, ist fuer die Begriffsbestimmung unwichtig. MH 11:59, 29. Sep. 2004 (CEST)
Lively hörte ich einmal von Peter Ladkin von der Universität Bielefeld, der sich mit dem mathematischen Korrektheitsbeweis von Algorithmenimplementationen beschäftigt. Du hast allerdings recht, dass dies kein allgemeiner Begriff der öffentlichen Diskussion ist.
In dem Fall wuerde ich ihn nicht in einem Lexikonartikel lesen wollen. MH 11:59, 29. Sep. 2004 (CEST)
Du kannst Dir unter Qualität von Eingabedaten nichts vorstellen? In der Abgrenzung zu Quantität gewinnt der Begriff an Schärfe: das Zählen von Quantitäten gleicht mehr dem Mechanisch-Einförmigen, während Qualität, vielleicht auch Gestalt der Eingabedaten auf das Nicht-gleichförmige zielt.

--Boggie 21:57, 28. Sep. 2004 (CEST)

Der Sinn des letzten Absatzes erschliesst sich mir nicht. Was waere denn ein konkretes Beispiel fuer gute oder schlechte Qualitaet von Eingabedaten im Kontext von KI? MH 11:59, 29. Sep. 2004 (CEST)
Na gut, ich habe den Satz erstmal rausgenommen. Zur Erläuterung: ich meinte /Qualität/ im Sinne von /qualitativen Unterschieden/. --Boggie 23:02, 29. Sep. 2004 (CEST)

Körperbasierte Intelligenz

Ich versuche selber zur Zeit was sinnvolles im Artikel Laufroboter zu vefassen und es scheint, als ob es seit einigen Jahren etwas wie die "Körperbasierte Intelligenz" in der Forschung gibt. Gibt es jemanden der dazu etwas zu schreiben weiß? Gruß, --Zahnstein 02:23, 27. Aug. 2005 (CEST)

In der Tat sind die verkörperten, situierten Ansätze hier bislang noch deutlich zu kurz gekommen. Wäre schön, wenn sich dem Problem jemand annehmen könnte, der da mehr weiß, als ich. -- Warentester 08:31, 5. Mai 2006 (CEST)

CYC Projekt

Hi! Wie auch eine andere Person auf dieser Diskussionsseite bereits angemahnt hat, bin ich auch der Meinung, dass eine Erwähnung fehlt:

Das CYC - Projekt von Douglas Lenat und seiner Firma CyCorp.

Wenn man den General Problem Solver erwähnt (zurecht!), dann MUSS man auch CYC erwähnen. Das ist ein Meilenstein! Lenat hat sich - als glaube ich einziger - nicht entmutigen lassen und hat einfach hart gearbeitet und seine Wissensbasis zusammengetragen. Zusammen mit einer guten Interferenzmaschine ist sein System (als einziges mir bekanntes) in der Lage Überlegungen anzustellen und auch weite indirekte Schlüsse zu ziehen. Es lernt. Es liest das Web. Und so weiter. Allen Interessierten sei hierzu das google techtalk video empfohlen wo Douglas Lenat in einem Vortrag den aktuellen Stand und einige Eigenschaften, Probleme und dergleichen beschreibt. Dies sollte man kennen. (google video "Computers versus common sense") Es gibt auch ein OpenCyc.(Ich weiss, dass die WP dies beschreibt! Aber hier fehlt es.) Leider ist OpenCyc nicht 100% gemeinbesitz. Wichtige Bereiche der Wissenbasis und die Kernalgorithmen bleiben weiter bei Cycorp. Es ist schade, dass das System nur von Firmen und der Regierung für vielfach kritische Aspekte eingesetzt wird (siehe Beispiele im Video!). Ich würde mir wünschen, dass soetwas für die Algemeinheit verfügbar und positiver eingesetzt würde. Thanks.

CYC nun unter siehe auch, m.E. damit erledigt.
-- Thomas Hofmann 10:23, 25. Mär. 2009 (CET)

Quellennachweis?

Der Satz Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten 10 Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde, Prognosen, die nicht zutrafen und die Simon 1990, allerdings ohne Zeitangabe, wiederholte. ist nicht belegt. Auch im Quellenarchiv zu Herbert Simon (siehe [2]) kann ich dazu nichts finden. Da ich eine Hausarbeit über KI schreibe und Wikipedia leider nur halb als Quelle zugelassen ist, wäre mir auch dafür ein Beleg ganz lieb, aber auch für den Artikel denke ich, hier fehlen einfach einige Belege. (nicht signierter Beitrag von Jongleur1983 (Diskussion | Beiträge) 13:52, 10. Sep. 2008 (CEST))

Literaturliste zu lang

Hallo die Literaturliste ist mit momentan 23 Einträgen deutlich zu lang. Siehe WP:Literatur. Sie muss ja nich unbedingt auf fünf Einträge reduziert werden, aber über fünf deutsche und fünf fremdsprachliche Standardwerke sollte sie nicht hinausgehen. Gruß, norro wdw 10:25, 25. Mär. 2009 (CET)

Methoden der KI

Gehört zu den Methoden der KI nicht auch lernen? Das ist denke ich eine weitere wichtige Methode. -- 93.104.5.208 12:23, 31. Aug. 2010 (CEST)

Künstliche Ästhetik

Nichts Dringendes, aber wenn jemand mal wieder die Datei => Ki-methoden.png <= überarbeitet ... bitte den Begriff rechts auch mit Grossbuchstaben beginnen lassen. Es dankt GEEZERnil nisi bene 11:24, 19. Nov. 2011 (CET)

Differenzierung Spracherkennung

Im Unterpunkt Teilgebiete unter Spracherkennung, wird Spracherkennung einerseits als Oberbegriff verwendet für Sprachsynthese und Spracherkennung, andererseits als Unterbegriff für die Spracherkennung, also das umwandeln der analogen Sprache in einen Text, obwohl das ja auch nicht so ganz richtig ist. Ich würde mir eine Differenzierung wünschen, eine Idee wäre zum Beispiel Sprachverarbeitung. Auch wird in diesem Artikel nicht auf die Sprecheridentifizierung hingewiesen, was auch ein nicht unbedeutendes Gebiet der Sprachverarbeitung ist. (nicht signierter Beitrag von 79.244.124.75 (Diskussion) 22:14, 2. Dez. 2012 (CET))

Anwendungen: Maschinelle Textzusammenfassung

Seit neun Jahren bietet die Maschinelle Textzusammenfassung in rot einige vielversprechende Erfolgsaussichten. Damals war sie angeblich sogar bald brauchbar :->. Der Begriff scheint nicht (mehr) sehr gebräuchlich zu sein. Sollte man das durch das leider englische Text Mining ersetzen? --Maasikaru (Diskussion) 09:09, 27. Sep. 2013 (CEST)

Danke. -ZT (Diskussion) 18:26, 27. Sep. 2013 (CEST)
Bei Golem.de gab es dazu gestern einen Bericht, siehe auch unter „Texte aus Maschinenköpfen“ auf Seite 2 zu:
LG, Unbenannt, am 19.5.2014, um 12:48 (MESZ)

Wurde in einen Vorstand gewählt

Siehe auch:

Dürfte wohl (nebenan) eine Nennung wert sein, sofern es die erste Vorstandwahl dieser Art ist. Liebe Grüße aus dem Netz. -- Spezial:Beiträge/78.52.128.202 11:07, 16. Mai 2014 (CEST)

Definition und Menschlichkeit

1. "Künstliche Intelligenz (KI, englisch artificial intelligence, AI) ist ein Teilgebiet der Informatik,..." ist ein schlechter Beginn des Artikels, denn es ist sicher nicht die erste Bedeutung von KI. Alles kann Gegenstand einer danach benannten Forschung sein. Der erste Satz sollte den Kern der Sache schon treffen. (pizzazz, 8.9.2014)

2. "Im Allgemeinen bezeichnet „künstliche Intelligenz“ oder „KI“ den Versuch, eine menschenähnliche Intelligenz nachzubilden,..." Dieses Anthropozentrische ist doch gerade bei einer künstlichen Sache unnötig. (pizzazz, 8.9.2014) (nicht signierter Beitrag von 79.198.142.218 (Diskussion) 18:23, 8. Sep. 2014 (CEST))

Nachtrag zu 2.: Dieser Fehler ist mittlerweile in der KI-Forschung bekannt unter dem Namen "anthropomorphizing" - ein Grund mehr, ihn hier nicht zu machen, egal in wie vielen Quellen zum Thema KI (wikipedia mag ja gerne Quellennennungen) er bereits gemacht wurde. (pizzazz, 26.9.2014) (nicht signierter Beitrag von 79.198.184.113 (Diskussion) 20:58, 26. Sep. 2014 (CEST))

Darstellung in Film und Literatur

Vielleicht sollte auch Star Wars und Star Trek erwähnt werden oder die Serie Humans. 23:08, 21. Nov. 2016 (CET) ---Rasmusklump (Diskussion) 23:08, 21. Nov. 2016 (CET)

Mit welcher Begründung? Nur weil es populäre Serien sind? Das ist kein Kriterium. Oder wird KI dort besser dargestellt als in den genannten Beispielen?
Z.B. Star Wars: C3PO oder R2D2 sind ja weniger besondere Beispiele von KI, sondern ihre Persönlichkeiten sind eine Erzähltechnik, die Lucas aus Kurosawas Die verborgene Festung übernommen hat. Als Abbild der Gauner Tahei & Matashichi wurde ihre Persönlichkeit danach geformt wie sie dem Fortgang Geschichte dienen (und damit zum Teil besonders lustig sind) und es gibt keine stringente KI-Idee, sondern nur ein paar Pauschalaussagen, wie "6 Mio. Sprachen". Mit komplexen Strukturen wie z.B. bei HAL haben sie nix zu tun. Zudem bilden sie nicht einen zentralen Punkt der Geschichte, wie die im Artikel genannten Beispiele.
Selbst Nummer 5, den ich persönlich für ein etwas lächerliches Beispiel halte, hat mehr Bedeutung für den Inhalt 'seiner' Filmstory als die beiden sympathischen Blödelbarden aus Star Wars.
Und Star Trek? Im Original gibt es keine für die Geschichte(n) entscheidende KI in der Mannschaft der Enterprise, oder? Gibt es da überhaupt KI? Bei den späteren Kopien fehlt mir die Detailschärfe, aber ich kann mich an keine inhaltlich bedeutende KI erinnern.
Humans: wenn dann wohl Real Humans... Humans ist schließlich nur ein Remake mit gruessen von VINCENZO1492 06:46, 22. Nov. 2016 (CET)
Ok, wenn die Popularität ausscheidet, fallen die meisten Beispiele flach. Ein Einspruch aber dennoch: Bezüglich der Figur Data (in Voyager auch bezüglich des Doktors) werden bestimmte ethische Fragen anufgeworfen: Haben Roboter mit künstlicher Intelligenz ein Bewusstsein? Haben sie Menschenrechte? Können sie - so wie ein Mensch - über sich selbst hinauswachsen? (nicht signierter Beitrag von Rasmusklump (Diskussion | Beiträge) 02:04, 24. Nov. 2016 (CET))
Das ist ja dann schon ein interessanterer Fall für das Lemma, oder? Wie erwähnt: bei den späteren Star Treks fehlen mir die Details. mit gruessen von VINCENZO1492 13:59, 22. Feb. 2017 (CET)

Ich kann nicht ganz verstehen, warum Blade Runner hier als Filmbeispiel für KI angeführt wird. Ich möchte die Einordnung der Replikanten als KI bestreiten. Die Replikanten sind ja effektiv keine Maschinen oder Roboter, die aus einem Bauplan am Fließband erstellt wurden, sondern Menschen aus Fleisch und Blut, die aus einem Genom-Editing-Prozess hervorgegangen sind und Eigenschaften vieler der menschlichen Protagonisten erhielten. Die „Herstellung“ mag vielleicht in der Retorte stattgefunden haben, man erfährt darüber aber nichts. Nichtsdestotrotz sind ihre Eigenschaften nicht konstruiert sondern bestenfalls selektiert. Ich bin dafür, den Film entweder aus der Liste zu nehmen, oder separat als Grenzfall darzustellen. --Ariser (Diskussion) 10:38, 5. Sep. 2017 (CEST)

Klar, stimmt, ist mir gar nicht aufgefallen. Replikanten sind ja ein Werk der Medizin (Künstliche Menschen), nicht der Informatik (KI). Habe ich rausgenommen. mit gruessen von VINCENZO1492 16:07, 5. Sep. 2017 (CEST)
Ganz so einfach verhält sich die Sache glaube ich nicht: Im Original heißen die Replikanten ja auch Androids, also menschliche Roboter. Außerdem werden sie ja tatsächlich nach Bauplan hergestellt, das Problem im Film war ja gerade die Baureihe Nexus-6. Der Artikel heißt ja nicht mechanische Intelligenz. Und künstlich waren die Nexus-6 - inklusive ihrer Intelligenz und falschen Erinnerungen - ja allemal.[[Benutzer:Zzaster|Zzaster]] (Diskussion) 17:01, 5. Sep. 2017 (CEST)
Falsch. Im Original (Blade Runner) heißen sie „replicants“. Nur in der literarischen Vorlage (Do Androids Dream of Electric Sheep?) wird von „androids“ gesprochen. Letztere wurde hier aber nicht gelistet. Die Übersetzung „menschliche Roboter“ wird jetzt von Dir angeführt, in dem Du Film und literarische Vorlage zusammen interpretierst. Kommt diese Übersetzung im Film auch vor?
Und: ein genetischer Bauplan stammt noch immer nicht aus der Informatik, weil er Bauplan heißt.
Und vor allem solltest Du nicht die Definition von KI außen vor lassen, die in der hiesigen Wikipedia in der Einleitung so zusammengefasst wird: „Künstliche Intelligenz (KI, auch artifizielle Intelligenz, AI, A. I., englisch artificial intelligence, AI) ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens befasst.“ Dazu passen die Replikanten aus dem Blade Runner-Film m.E. nicht. mit gruessen von VINCENZO1492 17:25, 5. Sep. 2017 (CEST)

Gehirn 2.0

Ist das relevant? https://laz-konseyi.com/gehirn-2-0/ (nicht signierter Beitrag von 88.74.198.23 (Diskussion) 22:41, 21. Nov. 2017 (CET))

Nein.-- Leif Czerny 10:16, 24. Okt. 2018 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: -- Leif Czerny 10:16, 24. Okt. 2018 (CEST)

Stanisław Lem

Der Link passt nicht, aber ich kann ihn nicht ändern. Stanisław Lem funktioniert. (nicht signierter Beitrag von 2a02:810d:d40:75c:f45a:f6d0:ba84:19bc (Diskussion) 11:16, 27. Dez. 2016 (CET))

Archivierung dieses Abschnittes wurde gewünscht von: -- Leif Czerny 10:15, 24. Okt. 2018 (CEST)

Roboter müssten improvisieren

deutschlandfunk.de, heute, nur 7 Tage online: „Forscher der Technischen Uni Queensland in Australien haben sich mit den Grenzen der Robotertechnik beschäftigt. Sie schreiben auf dem Portal The Conversation, dass ihnen noch eine wichtige Eigenschaft fehlt: Roboter müssten noch lernen, zu improvisieren, denn im Alltag stünden sie oft vor Entscheidungen, die sie selbst treffen müssten und bei denen die Rahmenbedigungen komplex seien. ... , dass es zwar schon erste improvisierende Roboter gibt, zum Beispiel einen, der in einer Jazz-Band spielt. Allerdings sei es auch wichtig, Robotern ein moralisches Gefühl dafür zu geben, was richtig und was falsch ist - und das sei nicht ganz so einfach.“
-> We need robots that can improvise, but it’s not easy to teach them right from wrong. Hungchaka (Diskussion) 17:10, 28. Nov. 2017 (CET)

Archivierung dieses Abschnittes wurde gewünscht von: -- Leif Czerny 10:14, 24. Okt. 2018 (CEST)

KI im Gesundheitswesen

https://www.nzz.ch/meinung/der-roboter-am-bett-und-der-arzt-am-computer-ld.1423952
"Der Roboter am Bett und der Arzt am Computer" vom 17.10.2018

  • Der Arzt wird auch in Zukunft nicht durch selbstlernende Roboter ersetzt, und noch ist die Gesellschaft weit entfernt vom autonomen Spital. Künstliche Intelligenz wird aber tiefer und nachhaltiger in das Gesundheitswesen eindringen.

würde es gerne hier einbauen. --PCistSchle (Diskussion) 14:30, 23. Okt. 2018 (CEST)

Dann besorg doch mal ein Buch dazu.-- Leif Czerny 16:12, 23. Okt. 2018 (CEST)
Es gab vor nicht allzu langer Zeit eine Doppel-Blind-Studie zur Wirksamkeit von Medikamenten, in der es zusätzlich zu den üblichen beiden Gruppen (Verum, Placebo) eine dritte Gruppe beteiligt war: Sie bekam ein Placebo, bekam aber dazu auch gesagt, dass es sich lediglich um ein Placebo handelt. Überrraschend dabei: Statistisch unterschied sich diese Gruppe nicht von der klassischen Placebo-Gruppe, also der Gruppe, die nicht wusste, ob sie ein Placebo oder ein Verum erhält. Dieses Ergebnis wird dahin gehend interpretiert, dass der Placebo-Effekt wohl nicht darauf beruht, dass der Patient glaubt, er habe ein Verum erhalten oder zumindest, er könnte ein Verum erhalten haben. Alleine die Zuwendung die der Patient erfährt löst schon den Placebo-Effekt aus und scheint ihn vollständig erklären zu können.
Bisherige KI Anwendungen im Gesundheitswesen zielen nicht darauf, diesen Aspekt abzudecken, sondern bewegen sich ausschließlich im Bereich der Diagnose und Therapie-Empfehlungen. Insofern können sie auch den Arzt am Krankenbett nicht ersetzen.
Was allerdings nicht heißt, dass dies grundsätzlich unmöglich wäre. Siehe alleine die Wirkung von Kuscheltieren auf Kinder.
Habe den Artikel aber leider nicht mehr greifbar. Eventuell sprengt die Erörterung aber auch den Rahmen dieses Artikels.
--MRewald (Diskussion) 16:32, 23. Okt. 2018 (CEST)
Ja. wir können hir nicht anekdotisch Zeitungsartikel und isolierte Studien auswerten.-- Leif Czerny 10:13, 24. Okt. 2018 (CEST)
Zeilhofer & Heuss sind vom Fach. Wenn sie etwas in der NZZ veröffentlichen könnte das z.B. Teil einer Agenda sein. Ein herablassendes „Dann besorg doch mal ein Buch dazu“ oder ein abwertendes „anekdotisch(er) Zeitungsartikel“ sind hier fehl am Platz. Setz Dich bitte vernünftig mit den Vorschlägen anderer auseinander. Bist Du nicht dazu bereit ist anzuzweifeln, ob Du qualifiziert bist an diesem Lemma mitzuarbeiten. mit gruessen von VINCENZO1492 15:12, 24. Okt. 2018 (CEST)

Vorgetäuschte Intelligenz

Nicht-Fachleute denken wohl eher zunächst an so etwas, also Computerspiele, oder diverse "lernfähige" Assistenzsysteme in Anwendungssoftware. Hat das denn keinen eigenen Begriff?--Antemister (Diskussion) 11:33, 1. Mär. 2015 (CET)

Produkt? Anwendungs-/Serienreife? Ich bin mir aber nicht sicher, was hier mit "vorgetäuscht" gemeint ist, oder wann oder wo genau Täuschung in diesem Sinne enden würde und was das dann überhaupt bedeuten sollte. Stand heute geht es bei KI im Kern um eine Art der Imitation und das impliziert nicht nur Täuschung, sondern man kann - je nach Zielsetzung u. Anwendungsgebiet - genau diesen Faktor ja sogar als Gütesiegel auffassen, weshalb das ja auch einer der möglichen Ansätze in Fragen der Qualitätssicherung ist (wobei mehr davon nicht immer gleich besser ist). So gesehen wirft auch der zweite Absatz der Einleitung m.E. mehr Fragen auf, als er beantwortet. Die dort versuchte Unterscheidung wirkt ar­bi­t­rär, jedenfalls haben wir es sicher mit einer Frage des Grades zu tun und eine klare Grenze gibt es nicht, bzw. zieht die jeder anders. Was du hier ansprichst, wurde innerhalb der (eher akademischen) KI-Forschung bisweilen mit der ernüchternden Feststellung quittiert, dass im Grunde jedes ihrer Kinder, das es einmal in die Anwendung schafft, im Verständnis der Allgemeinheit aufhörte, als KI verstanden zu werden. Als würde man der Disziplin ihre Verdienste verweigern, um dann im gleichen Atemzug zu monieren, man mache dort keine Fortschritte, es gäbe ja "immer noch" keine KI, usw. Was in der Tat verwundern kann, bedenkt man, dass uns der ganze Kram längst umgibt und mehr und mehr Auswirkungen auf die Gestaltung unseres Alltags hat. Ein Grund für die Diskrepanz ist sicherlich Gewöhnung und Vertrautheit auf Konsumentenseite, als vieles einfach schon wieder so altbacken wirkt, dass sich mit Blick auf die KI die Grenzen in puncto Erwartungshaltung verschieben und zwar permanent. Mit dem Ergebnis, dass KI für viele so etwas zu sein scheint, wie eine notwendige Utopie, etwas, das immer in der Zukunft verortet wird. Ist es aber nicht. Teile der Spiel-Engines und lernfähige Assistenzsysteme sind vielmehr Beispiele für das, was dank/mit KI (schon) möglich ist. Sie sind für die Meisten von uns einfach nur sichtbarer, als etwa Industrieroboter oder Bildanalyse- und Mustererkennungssysteme in der med. Diagnostik, die nun mal eine engere Marktnische abdecken. -ZT (Diskussion) 05:29, 4. Mär. 2015 (CET)

Neuromancer

Wintermute ist eine künstliche Intelligenz mit Standort in Bern, die eine Gruppe Menschen dirigiert, um sich mit ihrem Zwilling Neuromancer vereinigen zu können und so die Grenzen ihrer programmierten Parameter zu sprengen. Eine Art digitales Bewusstsein in Form einer Super-KI entsteht. Neuromancer ist eine künstliche Intelligenz mit Standort in Rio, der Zwilling der künstlichen Intelligenz Wintermute. Auch wenn die Figur Neuromancer im Buch eher knapp beschrieben ist, so stellt sie trotzdem den Hauptbeweggrund für alle Handlungen der restlichen Figuren dar, die im Auftrag Wintermutes handeln. (nicht signierter Beitrag von 46.115.25.191 (Diskussion) 12:06, 11. Mai 2015 (CEST))

AlphaGo von DeepMind besiegt amtierenden Europameister Fan Hui im Go (Spiel)

http://www.spektrum.de/news/das-go-spiel-ist-geknackt/1397114

Siehe auch bereits Go_(Spiel)#Entwicklung_seit_2015.

Im März 2016 spielt AlphaGo gegen den wohl derzeit besten Spieler Lee Sedol.

--Kapitän Turnstange ¯\_(ツ)_/¯ 00:17, 30. Jan. 2016 (CET)

Schmidbauer -> Schmidhuber

Im Text steht anstatt "Schmidhuber" an einer Stelle "Schmidbauer". (nicht signierter Beitrag von 160.85.104.70 (Diskussion) 13:13, 13. Jan. 2017 (CET))

Serie, in der künstliche Intelligenz moralisch und wesentlich behandelt wird.

Es ist klar, dass in der Auflistung von Filmen und Literatur aus Gründen der materialen Selektion Titel fehlen, die Serie "Person of Interest" darf meiner Meinung nach aber nicht fehlen. Dort geht es um die zwei moralischen Seiten der künstlichen Intelligenz und ihre Anwendungsbereiche. Zum einen wird sie verwendet, um die Bevölkerung vor Gefahren zu bewahren, zum anderen stellt sie in den Augen der Regierung eine Methode der Kontrolle und willkürlichen Gleichschaltung dar. Hand in Hand mit der Überwachungsthematik stellt "Person of Interest" eine sehr interessante Handlung und Hintergrundproblematik dar. --2001:7E8:D61B:AF01:309B:B9A2:91DB:A0FA 16:50, 18. Jan. 2017 (CET)

Archivierung dieses Abschnittes wurde gewünscht von: -- Leif Czerny 11:12, 20. Nov. 2018 (CET)

Bewusstsein, Selbstbewusstsein, Seele, Geist: Undue Weight

Meines Erachtens werden im Abschnitt 10 "Bewusstsein, Selbstbewusstsein, Seele, Geist" Außenseiterpositionen wiedergegeben, die mit wissenschaftlichem Konsens nichts zu tun haben. Okay finde ich alles bis " ...(s. a. Philosophischer Zombie).". Ab "Im Global Consciousness Project ..." wird die Darstellung hanebüchen. Als Quellen dienen Youtube-Videos mit Darstellung extremer Außenseiterpositionen. --129.13.156.135 14:25, 19. Nov. 2018 (CET)

Nachtrag: Mein Versuch der Löschung des beanstandeten halben Abschnitts wurde per KI (rofl) automatisch blockiert. Mir sind also die Hände gebunden. --129.13.156.135 14:30, 19. Nov. 2018 (CET)
Nachtrag 2: Quelle 50, das einzige verlinkte Paper, stützt in keiner Weise die in der Sektion gemachten Behauptungen, dass ohne Gehirnaktivität Bewusstsein vorhanden wäre. --129.13.156.135 14:33, 19. Nov. 2018 (CET)
Stimmt, das liest sich ziemlich esotherisch, auf alle Fälle gehört es nicht in diesen Artikel. Warten wir mal ab, ob jemand widerspricht. Ich würde den Abschnitt - wie vorgeschlagen - hinter (s. a. Philosophischer Zombie) komplett löschen. Ein paar Tage abzuwarten wäre jedoch sinnvoll, kann ja sein, dass sich jemand zielführend dazu äußert. --Denalos(quatschen) 14:40, 19. Nov. 2018 (CET)
Denalos: 100% Zustimmung--Christof46 (Diskussion) 15:09, 19. Nov. 2018 (CET)
Hat sich jetzt schon durch die letzte Sichtung erledigt, ich hatte meine Ergänzung mit Absicht noch nicht gesichtet, da die IP vor mir den fragwürdigen Teil gelöscht hat, entspricht der Text jetzt dem Konsenz der drei hier Beteiligten. Wenn jemand was dagegen hat, können wir den Text auch wieder reinnehmen, ich denke jedoch, dass er draußen bleiben kann (oder besser sollte). --Denalos(quatschen) 16:07, 19. Nov. 2018 (CET)
Ich würde sogar den ganzen Abschnitt tilgen, einfach weil es komplett das Thema verfehlt. Ansonsten bliebe ja auch nur eine beliebige Einzelmeinung zuzügl. einer Reihe von Schlagworten, von denen, wenn ich richtig sehe, kein einziges direkt mit Künstlicher Intelligenz zu tun hat. Zumindest die auch unbelegte Behauptung zu den Neurowissenschaften kann man überdies bezweifeln, so wäre mir neu, dass das überhaupt ihr Hauptgegenstand wäre, respektive gerade ihnen hierbei sonderliche Autorität zukäme. Vielmehr ist es auch dort und auch ermangels empirischer Fass-, Mess- oder Zugänglichkeit bestenfalls ein Spezialgebiet in Randlage und sowenig die weitaus meisten Wissenschaftler bezweifeln würden, dass das Gehirn (auch) für das Zustandekommen unseres Bewusstseins eine gewichtige Rolle spielen wird, so gewagt scheint mir hier die pfiffige Gleichsetzung als "Produkt". Das ist nun wirklich keinesfalls so klar. Eher gibt es heute (wieder) weniger Menschen, die einem "nackten" Hirn im Tank Bewusstsein versprächen, noch glaubte dort jeder an das Korrelat, das ist viel zu einfach und irreführend. Davon abgesehen sind wir uns wohl alle einig ist das längst und nur noch Philosophie. Aber Philosphie des Geistes, und nicht der KI. -ZT (Diskussion) 17:11, 19. Nov. 2018 (CET)
Um einem Missverständnis vorzubeugen, der ganze Absatz "Bewusstsein, Selbstbewusstsein, Seele, Geist" sollte ersatzlos gestrichen werden. Die Begründung haben die Vorredner bereits geliefert.--Christof46 (Diskussion) 18:09, 19. Nov. 2018 (CET)
+1 --Denalos(quatschen) 19:48, 19. Nov. 2018 (CET)
Die Aussage von Jürgen Schmidhuber ist durchaus beachtenswert - er ist einer der Pioniere auf dem KI-Gebiet. Der Rest kann weg. --TheRandomIP (Diskussion) 21:01, 19. Nov. 2018 (CET)
Oh, hier gibt es eine Disk zu dem Abschnitt. Ich habe aber das ganze unnötige Zeugs ohne KI-Bezug bereits entfernt. Wenn sich jemand auf den Schlips getreten fühlt: sorry. Ändert aber nix an der Unnötigkeit. Vorteil: ihr müsst nicht weiterdiskutieren, sondern könnt Eure Zeit für Wertvolleres verwenden… an dem Artikel muss ja noch einiges gemacht werden.
Warum ich hier eigentlich posten wollte: wie Schmidhuber in dem Abschnitt zitiert wird – ist das nicht eine sehr, sehr freie Interpretation der Quelle? mit gruessen von VINCENZO1492 01:28, 20. Nov. 2018 (CET)
Ich habe als Änderung eine Aussage Schmidhubers korrigiert, die im Interview (der Quelle) schwächer getätigt wird als hier im Artikel. --129.13.156.135 11:50, 21. Nov. 2018 (CET)
Ok., ist gesichtet.-- Leif Czerny 12:00, 21. Nov. 2018 (CET)

Der Abschnitt ist ja sinnvollerweise eingedampft worden, und das ganze esotherische Geschwurbel wurde entfernt. Allerdings führen Verkürzungen dann manchmal zu einer falschen Darstellung. Das Gesamtthema der Bewußtseinswerdung ist dermaßen gleichermaßen aufgeladen wie komplex, dass man es in Bezug auf KI imho nicht dermaßen verkürzt darstellen kann. Etwas überspitzt könnte man den derzeitigen Absatz nämlich so verstehen, dass reinforcement learning zu Bewußtsein führt; das ist natürlich Quark. Meiner Ansicht nach gehört in den Absatz noch irgendwas in der Form, dass die Bewußtseitsthematik in Bezug auf KI die Ebene der philosophischen und Grundlagen-Betrachtung noch nicht verlassen hat oder man schreibt den Abnsatz komplett um (wie ist mir allerdings nicht klar). --Denalos(quatschen) 08:33, 22. Nov. 2018 (CET)

Schmidhuber definiert Bewusstsein hier bloß als über die Welt inklusive sich selbst Bescheid wissen. Also ein Roboter, der ein digitales Modell von sich im Speicher hat. Das ist glaube ich was anderes als was der Mensch als Bewusstsein definiert, nämlich das tatsächlich bewusste Erleben von Zuständen. Ich habe versucht, das zu beschreiben. Kannst du den Abschnitt nochmal mit diesem Hintergrundwissen lesen und sagen, ob das von mir irgendwie falsch wiedergegeben wurde? --TheRandomIP (Diskussion) 19:26, 22. Nov. 2018 (CET)
Wenn man Deine Erläuterung hier auf der Disk liest, ist das klar, nachvollziehbar und verständich. Im Artikel ist das leider nicht so klar, denn der "normale Leser" hat eine ziemlich fest gefügte Vorstellung vom Bewustsein (auch wenn diese Vorstellung vielleicht bei verschiedenen Menschen unterschiedlich ist). Die Reduktion des Bewustseins auf die reine Fähigkeit der "Weltwahrnehmung" und der Unterscheidung zwischen "innen und außen" trifft da wohl nicht die Vorstellung der meisten. Damit dürften viele Leute wohl nicht den tieferen Sinn der Aussage erkennen. Ein kleiner Zusatz-Satz, der darauf hinweist, dass hier unter Bewustsein etwas vollkommen anderes verstanden wird, als üblicherweise, würde diesen Schlussfolgerungsfehler wohl bei vielen vermeiden. --Denalos(quatschen) 03:33, 23. Nov. 2018 (CET)

Redundanz und unnötige Aufblähung

In diesem Artikel werden Dinge doppelt und dreifach beschreiben, z.B. in "Anwendungen", "Teilgebiete" und "KI in sonstigen Bereichen". Da sehe ich hohe Überschneidungen. Allgemein ist der Artikel viel zu aufgebläht und sollte an einigen Stellen gekürzt werden. Ich halte "KI in sonstigen Bereichen" für komplett verzichtbar (siehe auch Zumüllung dieses Artikels) und "Anwendungen" und "Teilgebiete" könnte man insoweit trennen, dass man bei ersterem tatsächlich die konkreten Anwendungen (z.B. Sprachassistent wie Siri) und bei letzterem die zugrunde liegenden Methoden (z.B. Spracherkennnung) darstellt. Wie hier vorgeschlagen. --TheRandomIP (Diskussion) 09:17, 14. Nov. 2018 (CET)

Hallo, auch hier: Wenn Löschungen sehr kontrovers sind, aber kurzfristig umgesetzt werden sollen, kann es helfen, die entsprechenden Abschnitte auf der Disk zwischenzuspeichern. bitte suche auch hier mit Benutzer:Wega14 das Gespräch auf der Disk und nicht in den Versionkommentaren. In der Tendenz pflichte ich dir gerne bei, ein gewisser Grundstock an Redundanz und Verweisen auch zwischen den Abschnitten sollten aber m:e: am Ende erhalten bleiben. Auch hier ist - wie sicher von Dir angedacht - ein Weg weg von Presseberichten hin zu Überblicksdarstellungen sinnvoll. Liebe Grüße -- Leif Czerny 10:21, 14. Nov. 2018 (CET)
Ich würde alle Beispiele an eine Stelle bringen (Geschichte, denn das ist schon interessant). Der Artikel hier sollte dann die Grundlagen enthalten. An beiden Stellen löschen ist ebenso kontraproduktiv. -- Brainswiffer (Disk) 08:48, 16. Nov. 2018 (CET)
Eine fundierte Darstellung des Lemmas hat Vorrang vor irgendwelchen Anekdoten oder Halbwahrheiten, bloß weil sie interessant sind. Ich bitte dich, die Diskussionen hier noch zu beachten und auch auf die Argumente von mir, Andol und Reinhard Kraasch einzugehen. --TheRandomIP (Diskussion) 19:05, 16. Nov. 2018 (CET)
Man kann durchaus über Beispiele reden. Möglicherweise werden in der Fachliteratur ja welche thematisiert, die man wiedergeben könnte. Dann wird das Thema auch anschaulicher. Aber dem Leser einfach ohne jeden roten Faden Dutzende Beispiele vor den Latz zu knallen, die de facto einfach nur umformulierte Pressemitteilungen sind, hat doch mit enzyklopädischer Arbeitsweise nichts zu tun. Die ganzen Abschnitte, um die es hier geht, sind doch wirklich nur lange, öde, zusammenhangslose Listen, deren einziger Zusammenhang darin besteht, dass irgendwo der Begriff "künstliche Intelligenz" auftaucht. Stell dir einfach mal vor, das wäre der Artikel "Diesel" und wir würden jetzt jeden Medienbericht auflisten, in dem das Wort Diesel erwähnt wird. Würde das dem Artikel in irgendeiner Weise helfen? Wenn der Artikel hier einen Mehrwert für Leser bewirken soll, einen Erkenntnisgewinn, dann muss er wirklich (fast) von grundauf neu geschrieben werden. Und zwar strukturiert und ohne den ganzen wertlosen Informationsmüll, der den Artikel nur unlesbar lang macht, aber niemandem etwas bringt. Im Geschichtsartikel ist es noch schlimmer... Andol (Diskussion) 19:14, 16. Nov. 2018 (CET)
Hallo, "hat Vorrang" ist ja sicher richtig, dass erzwingt aber keine ersatzlose Streichung. wie schon in Diskussion:Geschichte der künstlichen Intelligenz - am besten einigt man sich auf Überblicksdarstellungen, die die Relevanzentscheidung bereits getroffen haben. Anderseits haben solche Kompilationen einen eigenen Wert, daher sollte man sie m.E. auf der Disk sichern. Gibt es vllt. einschlägige Jahrbücher?-- Leif Czerny 10:24, 19. Nov. 2018 (CET)
Die Übersichtsdarstellung ist ja bereits in der Mache. Man sollte auch daran denken, dass die vielen Unterartikel, wie Convolutional Neural Network, Künstliches neuronales Netz usw. bereits Übersichten über ihre relevanten Anwendungen enthalten. Man muss gucken, was sinnvoll und zweckmäßig ist. Auf die neuronalen Netze wird hier durchaus verwiesen, sodass der Leser sie findet. Also wir brauchen hier gar nicht so einen völlig überdimensionierten "Anwendungen"-Abschnitt, sondern nur eine High-Level-Beschreibung. Diese fällt dann natürlich kürzer aus, aber auch das hat einen Wert. Stell dir mal vor im Artikel Metalle würde jemand haarklein jedes Produkt aufschreiben, das Metalle verwendet. "... Im Jahre 2014 stelle Apple ein Smartphone vor, in dem Metalle verarbeitet sind ... im Jahre xyz wurde der BMW x3 der Öffentlichkeit vorgestellt. Er verwendet Metalle ... WMF stellte im Jahre xyz eine neue Messer-Generation aus Metall vor ..." Aber so wird das hier gemacht. Ist das wirklich das, was du als "Mehrwert" betrachtest? --TheRandomIP (Diskussion) 20:21, 19. Nov. 2018 (CET)
Gibt es nun Jahrbücher oder nicht? Warum kann das hier nicht gesichert werden? Hier gilt wie drüben: Wenn es für derlei einen Disk-Abschnitt gibt, kann man es umstandslos und ohne lange Diskussion auch künftig dorthin verweisen.-- Leif Czerny 11:02, 20. Nov. 2018 (CET)
Mir sind keine solche Jahrbücher bekannt und wenn es welche gibt, nehmen sie nur eine untergeordnete Rolle in KI-Fachkreisen ein, weil das Feld dafür zu schnelliebig ist. Es mag aber sein, dass es durchaus eine Nische für solche Produkte gibt, du kannst dich mal umschauen, wenn du willst. Ich habe ja aus meiner Sicht schon mal Beispiele für Kompromisse genannt, hier. Das gilt nach wie vor. --TheRandomIP (Diskussion) 11:30, 20. Nov. 2018 (CET)
Hmm. oder brauchen wie ein Pendant zu en:Applications_of_artificial_intelligence? Es gibt diverse aggregierende webseiten: https://vaultanalytics.com/ai-applications/ , https://aitopics.org/search , und http://www.kurzweilai.net/ . -- Leif Czerny 12:26, 20. Nov. 2018 (CET)
Unser Problem ist ja nicht, dass wir nicht genügend Anwendungs-Artikel finden, sondern dass wir welche in guter Qualität brauchen, die nicht ein einzelnes Produkt vorstellen, sondern eine Produktkategorie. Eine Art Meta-Bericht. In fiktiven Überschriften gesprochen bräuchten wir nicht Artikel der Art "Apples Siri: Jetzt neu mit KI" sondern "Wie künstliche Intelligenz digitale Sprachassistenten verändern". Da muss man immer auf den Einzelfall schauen, manche Magazine haben da beides. Das Problem wird sein zu definieren, was eine künstliche Intelligenz ist. Schaue dir mal diesen Textabschnitt an, über den sich die Fachgemeinde lustig macht. Lineare Regression kennst du vielleicht. Es ist wirklich sehr weit hergeholt, das als "KI-Gleichung" zu bezeichnen. Das wird das Problem sein, wenn wir einen Artikel wie "Anwendungen von künstlicher Inteligenz". Dann werden dort wieder alle KI und Möchtegern-KI-Methoden genannt und wir können den Artikel gleich "Anwendungen von mathematischen Formeln" nennen. --TheRandomIP (Diskussion) 12:53, 20. Nov. 2018 (CET)
Schon klar. aber man könnte das Problem eben an ein neues Lemma verweisen und hier so besser Ordnung halten.-- Leif Czerny 11:44, 21. Nov. 2018 (CET)
So ein Sammelartikel wäre denke ich zu weit gefasst. Ich wäre eher für speziellere Artikel mit klar abgegrenzten Themen, wie Künstliche Intelligenz in der Medizin. (Nicht dass ich "Künstliche Intelligenz in der Medizin" für gut geschrieben halte, er krankt genauso von Low-Level-Presseberichte-Abschreiberei, aber das Prinzip finde ich ok) Also das können wir natürlich nicht für jedes Feld machen. In der Medizin wird Künstliche Intelligenz tatsächlich seriös eingesetzt, und das ist ein großes Forschungsgebiet, in das viel Geld investriert wird. Daneben ist z.B. "KI in der Juristik" nicht so groß und da gibt es auch viel mehr Möchtegern-Forschung (siehe unten). Dadurch können wir schon durch das Anlegen oder Nicht-Anlegen von Artikeln ein bisschen steuern, was ausführlicher und was nicht so ausführlich beschrieben werden muss. --TheRandomIP (Diskussion) 19:35, 22. Nov. 2018 (CET)
OK, jetzt ist es ein Newsticker, siehe oben.-- Leif Czerny 20:06, 30. Nov. 2018 (CET)

KI in der Juristik

Da meine (imho sinnvolle) Ergänzung wieder revertiert, und witzigerweise danach der ganze Absatz, den ich mit meiner Ergänzung etwas relativiert hatte komplett gelöscht wurde, möchte ich das grundsätzlich damit einhergehende Problem hier mal zu Diskussion stellen. Insbesondere im Bereich der NLP (natural language processing) gibt es enge Verpflechtungen mit KI-Systemen. Als Beispiel kann durchaus die Juristerei herhalten. Sofern ein eingesetztes NLP-System in der Lage ist, einen Schriftsatz in seine Komponenten zu zerlegen und zu gliedern, kann man danach durchraus mit einer KI rangehen und die strategischen Komponenten oder Knackpunkte rausfiltern. Bezüglich NLP sind Berkeley und Stanford sehr weit vorne; allerdings funktioniert all dies (noch) nicht mit der deutschen Sprache. Hier in Deutschland ist das Hasso-Plattner-Institut vielleicht etwas weiter als andere, aber wir sind - wegen der Kultur des Bauens unnötig komplizierter Satzkonstrukte im Fachdeutsch - noch sehr deutlich von vorzeigbaren Erfolgen entfernt (min. 10 bis 15 Jahre). Entsprechend gibt es im Deutschen auch nichts, was in irgend einer Form auch nur ansatzweise vorzeigbar ist, um z.B. beliebige juristische Texte automatisiert zu erkennen.

Ich halte es daher für überaus fragwürdig, wenn hier in der WP "Erfolgsbeispiele" genannt werden, die sehr sprachspezifisch sind. Der "unbedarfte" Leser ist nicht in der Lage, solche Unterschiede zu erkennen. Da liest jemand in der WP, dass eine große WP-Gesellschaft zu der Erkenntnis gekommen ist, dass man mit KI in der Juristerei irre viel einsparen und effizienter sein kann; dass man die Ergebnisse gar nicht auf alle Sprachen anwenden kann (wenn sie denn überhaupt übertragbar und reproduzierbar sind), ist für den Nichteingeweihten nicht erkennbar.

Ich denke, dass in den entsprechenden Abschnitten diese Problematik herausgestellt werden sollte, damit der Leser eben nicht auf eine falsche Spur gebracht wird. Meine ursprüngliche Ergänzung war vielleicht nicht super-elegant, aber TF war sie sicherlich nicht. --Denalos(quatschen) 08:14, 20. Nov. 2018 (CET)

Du hast recht damit, dass es problematisch ist, hier nur "Erfolgsmeldungen" zu nennen. Genau dieses Problem wird diskutiert, u.a. hier auf dieser Disk und dort. Das wird vor allem durch das routinemäßige Abschreiben von Low-Level-Presseberichten verursacht. Man muss die Sachen aus etwas Distanz betrachten und Übersichtsarbeiten o.ä. zitieren. Die Lösung kann aber nicht sein, dass wir Wikipedianer diese Bewertung und Einordnung durchführen. Das ist WP:TF, per Definition. TF sind halt nicht nur falsche Gedanken sondern auch richtige Gedanken, die nicht belegt sind. Alles muss belegt sein. Als nicht-NLP-Experte muss ich dir sagen, dass deine Gedanken schon recht fortgeschritten sind und vielleicht nicht für jeden sofort offensichtlich, (ich sage nicht dass sie falsch sind!), aber auch deshalb halte ich einen Beleg für sinnvoll. --TheRandomIP (Diskussion) 11:09, 20. Nov. 2018 (CET)
Damit, dass Du mir fehlende Belege vorgehalten hast, hast Du natürlich recht (Faulheit/Zeitmangel meinerseits). Um diese ganzen "schönen Berichte" mal auf eine saubere Grundlage zu stellen, müsste man echt Arbeit in die Abschnitte reinstecken. Es ist eben ein riesiges Problem, dass - gerade bei der Verarbeitung natürlicher Texte - Ergebnisse aus einer Sprache nicht in eine andere Sprache übertragen werden können. Etwas platt (und vereinfacht) ausgedrückt könnte man sagen, dass NLP in Deutschland derzeit noch nicht funktioniert, bei englischen, französichen und chinesischen Texten geht das dagegen schon ziemlich gut. Das liegt schlicht nicht an der Sprache an sich, sondern an der deutschen Kultur der Ausdrucksweise in bestimmten Fachrichtungen. Alleine wenn man englische mit deutschen juristischen Texten vergleicht, sieht man immense Unterschiede. Im englischen wird den Juristen beigebracht, möglichst jede Lücke zu stopfen und entsprechend klar zu formulieren. Im Deutschen ist das genau anders rum, es werden Texte verfasst, die ein möglichst großes Interpretationsspektrum zulassen. Auch für diese Herangehensweise gibt's Gründe. In verschiedenen Rechtssystemen gibt's für verschiedene Sachverhalte einfach keine Normen (Paragraphen), entsprechend muss alles in den Verträgen geregelt werden, die dann auch entsprechend eindeutig sein müssen (weil man im Streitfall sonst auf die Nase fällt). Im Deutschen gibt's für jeden Sch... einen Paragraphen, entsprechend kann (oder muss) man sich in der Schriftwerksausgestaltung deutlich gewundener ausdrücken, um eben genau diese Normen im Falle eines Falles aushebeln zu können. Ist halt alles kompliziert. In der Folge führt das jedoch dazu, dass die NLP - die ja wiederum die Grundlage für die weitere Verarbeitung via KI ist - im Deutschen ungleich komplizierter und fehlerträchtiger ist. Der unbedarfte WP-Leser ist sich dieser Probleme jedoch nicht bewußt und bekommt dann schnell mal den Eindruck, dass wir nur noch wenige Jahre von der allwissenden KI entfernt sind, die auch die vertracktesten sprachlichen Probleme lösen kann (und viele Dinge sind nun mal sprachliche Probleme). Ich denke, dass die WP entsprechend höchst vorsichtig formulieren sollte, damit die Leute eben nicht auf "dumme Gedanken" kommen. --Denalos(quatschen) 12:01, 20. Nov. 2018 (CET)
Du führst Faulheit/Zeitmangel an, warum Du keine Belege einbaust. Gleichzeitig verfasst Du hier lange (zum Teil private nicht lemmagerechte) Betrachtungs- und Erklärungstexte… diese gehören in vielen Teilen nicht hierhin, sondern auf eine private Diskseite. Zeitmangel scheidet somit aus als Begründung. Dann bliebe noch Faulheit von den von Dir genannten Gründen übrig, warum Du keine Quellen nennst. Klassische WP-Zyniker würden Dir aus dieser Faulheit und die daraus vernachlässigte Quellennennung „Kein Wille zur enzyklopädischen Mitarbeit“ drehen.
Ich habe zumindest den Eindruck, Dir ist es momentan wichtiger Deine persönlichen Gedanken hier an- bzw. unterzubringen statt das Interesse zu hegen, die Verbesserung des zum Teil mangelhaften enzyklopädischen Artikel in den Vordergrund zu stellen. Deine Mitarbeit am Artikel sollte aber Letzteres priorisieren.
Ich möchte Dich um Fokussierung und Konzentration auf den Artikelinhalt bitten, wenn Du mitarbeitest und mitdiskutierst und dafür Deine persönlichen Wünsche hinten anzustellen. Schönen Tag & mit gruessen von VINCENZO1492 12:54, 20. Nov. 2018 (CET)
Ich halte deinen Beitrag für unnötig schaft und zu kurz gedacht. Wir brauchen hier auch Fachexperten, die ihre Sicht der Dinge darstellen. Nur so wissen wir, nach welchen Quellen wir überhaupt suchen müssen. Hier auf der Diskussion ist es auch erlaubt, mal ohne Belege zu schreiben. Erst wenn es in den Artikel geht, dann braucht es Belege, das ist klar. Ich konnte dem Beitrag von Denalos durchaus etwas abgewinnen und es zeigt ja auch, warum wir hier so vorsichtig sein müssen, einfach stumpf Low-Level-Presseberichte abzutippen. --TheRandomIP (Diskussion) 13:06, 20. Nov. 2018 (CET)
Den einen Fachartikel, der die Probleme mit KI im juristischen Bereich aufzeigt, den gibt es nicht, es gibt sehr viele - teils feinteilige - Artikel, die die Gesamtproblematik der Kombination von NLP und dahintergeschalteter KI zur Klassifizierung beleuchten. Alleine über das Versagen von Watson in der onkologischen Forschung (ok ist Medizin und nicht Justiz) gibt's stapelweise Berichte (ähnliche Problematik, die Watson-KI ist i.d.R. an der Deutung der Fachtermini gescheitert). Das Problem der Kombination NLP/KI in der Justiz ist durchaus häufiger mal Thema auf den entsprechenden Fachtagungen oder Messen. Das Problem ist nur, dass die Tagungsunterlagen/Referate entweder nicht öffentlich oder nicht WP-tauglich sind. In den verschiedenen IEEE-Divisionen (und derer Veröffentlichungen) wird das auch immer wieder thematisiert. In den leider viel zu häufig oberflächlichen Presseberichten wird leider oft Buzzword-Bingo gespielt und so viel durcheinandergeworfen, dass man kaum vorzeigbare (WP-taugliche) Berichte findet. Die Grundproblematik der Kombination aus NLP/Linguistik/KI ist nun mal so aufwendig, dass es (meines Wissens nach) keine deutschsprachige, leicht verständliche Literatur dazu gibt, erst Recht nicht im juristischen Kontext. --Denalos(quatschen) 14:19, 20. Nov. 2018 (CET)
Bei Golem gibt's einen recht gut lesbaren Artikel, der genau die Grundproblematik thematisiert, bei KI-Systemen (a la Watson) wird eben viel mit Marketing gemacht: [3] oder alternativ auch ein brauchbarer Artikel in der FAZ: [4] --Denalos(quatschen) 14:47, 20. Nov. 2018 (CET)
Sehr gut, das sind genau diese Art von Artikel, die wir brauchen. Die sollte sich Benutzer:Wega14 mal durchlesen und dann überlegen, ob seine bisherigen Artikelabschnitte nicht ein völlig falsches Bild von der Realität zeichnen. Die KI-Forscher sind gut, irgendwelche Benchmarks zu gewinnen. Da wird dann auch genau auf diese Benchmarks optimiert und Generalisierung außerhalb dessen interessiert erstmal weniger. Und wenn dann mal jemand die Original-Daten des Benchmarks durch ähnliche, aber andere Daten ersetzt, oh, dann werden aus 93 % Genauigkeit mal schnell nur 85 %. Artikel dazu. Ja, die KI-Forscher sind sich dem bewusst, sie verbesseren ihre Methoden laufen, und das Ergebnis dieser Arbeit war auch, dass neuere Methoden weniger anfällig waren. Das erste neuronale Netz hat noch 15 % (!) an Genaigkeit verloren durch den Tausch der Daten. Das neuste nur noch 4 %. Aber wenn man jetzt mal in die Wirtschaft geht, da hat niemand ein Interesse an Wahrheitsfindung. Da geht es nur um Schein. Da muss man davon ausgehen, dass diese tollen "mit xy %" Genaigkeit nur mit sehr viel Fanatasie zu erreichen sind - eben genau auf diesem einen Benchmark, den die Firmen gewählt, manchmal sogar selbst erstellt haben. --TheRandomIP (Diskussion) 19:35, 20. Nov. 2018 (CET)
Dann sprich doch Wega14 endlich einmal persönlich an.-- Leif Czerny 11:45, 21. Nov. 2018 (CET)
Seufz. Der Account war seit dem 14. nicht mehr aktiv. Danke für die Mühe. -- Leif Czerny 19:51, 30. Nov. 2018 (CET)

Literatur / Medien Listen

Wollen wir vielleicht mal die Listen mit diversen Verweisen auf literarische / filmische Werke etwas kürzen? Bei Literatur würde ich es auf 10 Einträge beschränken (jetzt sind es 23), bei Darstellung in Film und Literatur würde ich auf 5 Beispiele kürzen. --Yanmarka (Diskussion) 19:44, 8. Jan. 2019 (CET)

@Yanmarka: vorgestern hast Du Deinen Vorschlag umgesetzt. Grundsätzlich Anerkennung für eine solche Aufräum-Aktion. Trotzdem finde ich, die Aktion war ein wenig einseitig. Zwar ist KI in erster Linie ein Informatik-Thema, aber letztlich ist es eben doch ein trans-disziplinäres Thema, bei dem Technik-Philosophen und Kognitions- und Entwicklungs-Psychologen sicher wertvolle Beiträge leisten können und auch geleistet haben.
Beim Darmstädter Ontologenkreis z.B. arbeiten Leute aus Informatik, Mathematik, Philosophie, Entwicklungs-Psychologie, Linguistik und Computer-Linguistik, Robotik, Regelungstechnik und weiteren Fächern zusammen und ich finde das immer wieder sehr befruchtend.
Nun habe ich nur wenige der Bücher selbst gelesen, die Du rausgeworfen hast, kann also über das einzelne Buch nicht wirklich etwas sagen, bei einigen der Autoren wundert es mich aber doch, warum Du deren Bücher rausgeworfen hast. Besonders ins Auge gefallen sind mir dabei die Bücher von: Margaret Boden, Raymond Kurzweil und Roger Penrose. Auch Marvin Minsky hatte einen - sagen wir: sehr "unkonventionellen Diskussionsstil - hat aber wichtige Beiträge zu KI geliefert.
Vielleicht könnte es helfen, die Literatur-Liste thematisch ein wenig zu gliedern, mit Unterüberschriften wie "Informatik", "Kognitionswissenschaft", "Biologie" etc. um dem Wust etwas mehr Struktur zu geben. Die von Dir vorgeschlagene Begrenzung fände ich dann für jeder der Einzel-Rubriken sinnvoll.
Grundsätzlich möchte ich Dich aber bitten, Deine Löschaktion in dieser Hinsicht noch einmal zu überdenken und vielleicht doch ein wenig abzumildern und auch ausgewogener zu gestalten.
--MRewald (Diskussion) 14:00, 11. Jan. 2019 (CET)
Hallo MRewald, vielen Dank für dein Feedback!
Zu den von dir genannten Autoren: Das Buch von Kurzweil ist aus dem Jahr 1999 und versucht technologische Entwicklungen bis ins Jahr 2019 vorherzusagen. Da wir aber um die Technologie von 2019 abzuschätzen nur noch aus dem Fenster schauen müssen habe ich das Buch entfernt. Sicher kann es unter Umständen auch interessant sein alte Vorhersagen mit tatsächlichen Entwicklungen zu vergleichen, aber ich denke der durchschnittliche Leser des Artikels interessiert sich eher für den aktuellen Stand der Technik oder die Entwicklungen in der Zukunft. Daher halte ich es nicht für sinnvoll das Buch in diesem Kontext anzugeben.
Penrose habe ich entfernt da von ihm zwei Werke mit ähnlicher Thematik angegeben sind. Ich denke es reicht wenn eines der beiden Bücher in der Liste bleibt. Bei Boden war ich tatsächlich etwas voreilig das werde ich wohl wieder einsetzen.
Den Vorschlag zur Gliederung unterstütze ich. Allerdings hatte ich ja ein Limit von 10 Büchern vorgeschlagen - wenn wir das jetzt auf jede Kategorie anwenden und es zB die Kategorien „Informatik / KI allgemein“; „Biologie“; „Kognitionswissenschaft“; „Ethik“ gibt wären das schon 40 Einträge. Das fände ich ziemlich viel. Vielleicht könnten wir ja erstmal die Kategorien einsetzen und dann schauen wie viele Einträge sinnvoll sind. --Yanmarka (Diskussion) 12:52, 13. Jan. 2019 (CET)#
Warum gerade zehn?-- Leif Czerny 10:06, 14. Jan. 2019 (CET)

Was ist Intelligenz?

"Im Allgemeinen bezeichnet künstliche Intelligenz den Versuch, menschenähnliche Entscheidungsstrukturen in einem nichteindeutigen Umfeld nachzubilden, ..." - das widerspricht den Definitionen. --Hannover86 (Diskussion) 09:58, 15. Jan. 2019 (CET)

Welchen Definitionen?-- Leif Czerny 11:24, 15. Jan. 2019 (CET)
Na vermutlich mindestens der hier gegebenen: »Künstliche Intelligenz … ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen befasst.« – Wie gesagt im nächsten Abschnitt. — Fritz Jörn (Diskussion) 18:08, 27. Jan. 2019 (CET)

Schmarren, ganz einfach.

Schon die Definition ist Marketing-Bla, künstlicher Schmarren. Sonst ist die Wikipedia hochwissenschaftlich bis zur Unverständlichkeit, etwa bei mathematischen Fragen (Beispiel größer und kleiner) und hier so locker-flockig: »Dennoch wird er in Forschung und Entwicklung verwendet. Hinsichtlich der bereits existierenden und der als Potenziale sich abzeichnenden Anwendungsbereiche gehört künstliche Intelligenz zu den wegweisenden Antriebskräften der Digitalen Revolution.« 
 Dass der Begriff verwendet wird, kann man streichen, verwendet wird er hauptsächlich im Marketing. Sonst stünde er nicht großgeschrieben in der Wikipedia. Und »wegweisend« ist da gar nichts, und eine »Digitale Revolution« habe ich höchstens beim Abschalten des analogen Telefons erlebt. Da kann man auch Indexierung zum Zweck schneller Suche als »künstliche Intelligenz« einstufen oder Excel, das wunderbar addieren kann in einer früher »toten« Tabelle, Sortierverfahren.
  Also: »Künstliche Intelligenz ist ein Modewort für Software, die Verarbeitungsschritte enthält, die der Mensch mit seiner Intelligenz nicht oder anders macht. Beispiele sind Schach und andere Spiele, Spracherkennung, aber auch OCR und Indexierung, ja sogar digitale Speicherung.« Damit wird die unscharfe Definition von Intelligenz umschifft und auf die »menschliche« verwiesen. Ich erinnere mich noch an den Streit, ob ein Byte 6 (CDC) oder 8 Bits (IBM) haben soll, aber Persönliches gehört nicht hierher …
 – Fritz Jörn (Diskussion) 10:43, 27. Jan. 2019 (CET)

Genau so ist es!--91.32.150.193 22:52, 26. Apr. 2019 (CEST)

"Künstliche Intelligenz ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen befasst." Was ist mit Automatisierung intelligenten Verhaltens gemeint? Was ist schon intelligent? KI befasst sich mit Informationsverarbeitung und maschinellem Lernen. Im Einleitungssatz sollte man zudem "Maschinelles Lernen" in "maschinelles Lernen" ändern.--91.58.60.66 11:08, 27. Jun. 2019 (CEST)

Unübersichtlich

Sollte man Turing-Test, Technologische Singularität und Superintelligenz wirklich als eigene Punkte aufzählen? Es sind ja eigentlich nur Verweise auf andere Themen mit einer kurzen Beschreibung. Ich würde sie unter einem zusätzlichen Punkt zusammenfassen, wie "Siehe auch", o.ä.. Und vielleicht sollte man "Weblinks", "Literaturverzeichnis", "Einzelnachweise" und "Filmische Dokumentation" überarbeiten und gegebenenfalls zusammenfassen, da diese sehr unübersichtlich sind. Gleiches gilt für den Abschnitt "Anwendungen". - Zauberzunge2000 (Diskussion) 17:28, 27. Dez. 2017 (CET)

Redundanzen; z.B. Basketball

In diesem schon recht langen Artikel wurden jüngst durch @Wega14: Abschnitte eingestellt, die sich z.B. hier auch im Artikel Geschichte_der_künstlichen_Intelligenz finden. Wenn das so weiter geht bekommen wir dutzende Redundanzen. Ich würde deshalb vorgschlagen alle geschichtsträchtigen Fakten in den Geschichtsartikel auszulagern.--Lectorium (Diskussion) 03:53, 17. Mär. 2018 (CET)

Emotionale Intelligenz

Der Satz: "Das menschliche Gehirn wird dazu u. a. stark von Hormonen, also chemischen Prozessen, gesteuert. Bislang kann man aber nur die elektrischen Prozesse (neuronalen Netze) simulieren, nicht die chemischen (Hormone)." beschreibt zwar das biologische System zutreffend. Er ist aber dennoch irreführend, weil es keineswegs zwingend ist, die Sentiment-Analyse mit chemischen Mitteln zu betreiben. Tatsächlich wird es ja auch gar nicht so gemacht.

Ich habe den Satz deshalb heraus genommen.

--MRewald (Diskussion) 14:56, 27. Aug. 2018 (CEST)

Interessante Links?

Statt sie in den Weblinks einzubauen, (erstmal?) hier:

Precht

Das Buch von Precht hier aufzunehmen ist ein Verstoß gegen WP:LIT und WP:Q. Aus folgenden Gründen. Precht hat a) keinerlei Qualifikation auf dem Gebiet der KI vorzuweisen (er wird auch in der Fachliteratur zum Thema nirgendwo rezipiert, auch nicht bei der ethischen Betrachtung) und b) ist das Buch ein Essay und damit als Literaturquelle in Wikipedia nicht zu gebrauchen bzw. überhaupt zugelassen (Zitat WP:Q: "wissenschaftliche Publikationen, insbesondere Standardwerke, begutachtete Veröffentlichungen und systematische Übersichtsarbeiten, die für das Fachgebiet des jeweiligen Lemmas relevant sind, zu bevorzugen"). Mal ganz davon abgesehen, dass das Buch selbst unter den Maßstäben eines Essays negativ in Leitmedien rezipiert wird, z.B. hier (Zitat: "Präzises, systematisches Philosophieren lässt Precht allerdings vermissen. Das beginnt damit, dass grundlegende und umstrittene Begriffe wie Logos, Sapientia (Weisheit), Verstand, Vernunft, Aufklärung, Autonomie, Sinn, Menschenwürde oder Geist nicht oder nur unzureichend definiert werden. Weiters häufen sich Widersprüche.", "Am Ende meiner Lektüre hatte ich den Eindruck, dass Precht genau das macht, was er Jeremy Bentham gleichzeitig vorwirft: Er hat "vor sich hin gemogelt".). Nicht zuletzt ist eine eigene selektive Zitatauswahl aus dem Buch Theoriefindung (WP:KTF). Precht wird bereits aus einer Sekundärquelle zitiert (Die Zeit), das reicht allemal aus. --EH (Diskussion) 18:54, 1. Nov. 2020 (CET)

Precht hat in der Tat wenig Qualifikation für dieses Gebiet. Ihn hier so lang und breit darzustellen hielte ich für falsch und eine unangemessen hohe Gewichtung eines Sachbuchautors. --TheRandomIP (Diskussion) 19:56, 1. Nov. 2020 (CET)
Es scheint, EH⁴² hat nun hier einen neuen unter den diversen Orten für die Verbreitung seiner gegen Precht gerichteten Ressentiments aufgetan. Nicht einmal im Precht-Lemma selbst möchte er ihn eingehender zu Wort kommen lassen.
Dabei bedient sich EH⁴² einer höchst persönlichen Regel-Lesart, der zufolge anscheinend nur publizierende KI-Spezialisten selbst zu ihrem Tun sich zu äußern berufen seien. Offenbar hat EH⁴² von den gesellschaftspolitischen Dimensionen dieses Forschungszweigs gar keinen Begriff. Andernfalls müsste er die von einem prominenten Gegenwartsphilosophen und -analytiker wie Precht in einer einschlägigen Publikation zum Thema vorgetragene Position sogar für zwingend berücksichtigenswert erachten.
In mir bereits bekannter Manier wählt er zur Unterstreichung seiner unhaltbaren Position eine möglichst herabsetzende Rezension aus dem Tageszeitungsspektrum – und unterschlägt andere Besprechungen:
wie diese Die Risiken der Digitalisierung. Richard David Precht plädiert in „Künstliche Intelligenz und der Sinn des Lebens“ für Philosophie, die in eine Lektüreempfehlung mündet:
„Der Philosoph Precht formuliert bisweilen zwar sehr salopp, aber er verfügt über eine Reihe von unbestreitbaren Vorzügen. Vor allem: Er löst, auch durch seine durchaus in einem anregenden Sinn ganz eigene Zugangsweise, Diskussionen aus und vermag denkend zu provozieren. Darum verdient dieses populärphilosophische Buch weder euphorische Zustimmung noch empörte Abweisung, sondern eine substanziell fundierte, kontroverse Diskussion – vielleicht mit Bezug auf die Frage, die Platon in der Politeia als wesentlich benannt hat: In der Philosophie gelte es nämlich darüber nachzudenken, auf welche Weise wir leben wollen.“
Oder wie diese in der Zeit, die in Prechts Buch so einführt:
„‚Man muss die Welt nicht verstehen, man muss sich nur in ihr zurechtfinden‘, hat Albert Einstein gesagt, doch selbst das erscheint zuweilen schwierig. Unsere Gesellschaft verändert sich unaufhörlich und mit zunehmender Geschwindigkeit, daran ändert auch die Corona-Krise nichts. Unser heutiges Leben ist ohne Technik und Künstliche Intelligenz nicht mehr vorstellbar, und wer sich dem verweigert, verpasst womöglich den Anschluss. Doch wie glücklich machen uns die technischen Errungenschaften wirklich und wo führt uns diese Entwicklung hin? Wer kluge Gedanken und Antworten auf diese Fragen sucht, wird bei Richard David Precht fündig.“
Oder wie diese in der SWR2-Buchkritik gleichfalls mit einer Leseempfehlung verbundene Hörfunkrezension;
oder wie diese neutral referierende Rezension in Deutschlandfunk Kultur Richard David Precht über künstliche Intelligenz. Leben ist mehr als das Lösen von Problemen.
Precht selbst setzte bereits im Vorwege zu dieser Buchveröffentlichung ein mediales Zeichen intensiverer eigener Befassung mit der Materie, indem er als einen seiner Dialogpartner den KI-Forscher Jürgen Schmidhuber in seiner Fernsehsendung als Dialogpartner empfing.
Wie ich mir eine vorläufig angemessene Berücksichtigung dieser Buchveröffentlichung im Kritik-Abschnitt vorstellen kann, habe ich hier unter Modifizierung des Eintrags von Kurt Ich vorgestellt. Dritte Meinungen dazu sind erbeten. -- Barnos (Post) 12:24, 2. Nov. 2020 (CET)
EH hat richtigerweise darauf hingewiesen, dass eine selektive Zitatauswahl aus dem Buch Theoriefindung (WP:KTF) ist. Man sollte die Aussagen hier nur einfügen, sofern in Sekundärliteratur Bezug auf sie genommen wird.
Und ich finde, hier würde der Artikel wieder viel zu sehr aufgebläht. Es gibt unzählige Autoren, die sich mit KI beschäftigen und Kritik äußern, da braucht man nicht jeden einzelnen so breit darstellen. Besser man greift auf Übersichtsarbeiten zurück und stellt die Kritik in über mehrere Autoren zusammengefasster Form dar. So wie du es einfügen willst von mir ebenfalls keine Zustimmung. --TheRandomIP (Diskussion) 13:11, 2. Nov. 2020 (CET)
3M ich bin sehr skeptisch, was die Einfügung Prechtscher Ansichten angeht. Er ist weit weg vom Fach und es gibt unendlich viel Literatur dazu. Warum sollte man ihn auswählen, auch wenn er öffentlich relativ bekannt ist. Rezeption Dritter wäre mindestens nötig und dann eine ausgewogene Darstellung. Ja, ich beschäftige mich beruflich mit dem Thema. --Nillurcheier (Diskussion) 13:27, 2. Nov. 2020 (CET)
Ich sehe das wie TheRandomIP und Nillurcheier. Zu dem Thema gibt es so viel fachwissenschaftliche Literatur; warum man gerade Precht hier aufnehmen sollte, bleibt mir schleierhaft. Ist er überhaupt schon mal in diesem Bereich fachwissenschaftlich rezipiert worden? Und wie schon gesagt handelt es sich um ein Essay. Ein solches ist gerade nicht an wissenschaftliche Methoden und Kriterien gebunden und deshalb nach WP:WWNI für Wikipedia gänzlich ungeeignet ("Wikipedia ist kein Ort für Essays"). --EH (Diskussion) 16:55, 2. Nov. 2020 (CET)
3.M. Ambivalent. M.E. ist EHs Ansatz etwas puristisch und hier erneut apodiktisch formuliert. Warum sollten Adornos „Essays“ zum Antisemitismus, zur Aufarbeitung der Vergangenheit etc. nicht relevant sein? Nun geht es hier um „KI“, die eine enorme Bedeutung für die Menschheit hat/haben wird. Gesellschaftsrelevante Themen wie Kernenergie, Wehrpflicht, Sterbehilfe ([5]), Gentechnik etc. haben ihre ethische Seite, zu der sich Philosophen „kritisch“ äußern können, etwa im Rahmen von Ethikkommissionen. Fraglich ist hier allenfalls, ob man Prechts Stimme für so gewichtig hält, ihn ausführlich unter „Kritik“ zu erwähnen, ein Feld, auf dem Philosophen sich allerdings spezifisch hervortun können. Weiter unten im Abschnitt „Soziale Auswirkungen“ steht wesentlich mehr von ihm Dies muss dann aber etwa im Vergleich mit anderen, womöglich bedeutenderen Philosophen erfolgen, nicht pauschal. Ein guter Artikel zeigt einen Gegenstand eben ggf. mehrdimensional, aus unterschiedlichen Perspektiven.--Gustav (Diskussion) 17:38, 2. Nov. 2020 (CET)
Ich sehe erst jetzt, dass Precht zusätzlich noch mal ausführlich im Abschnitt "Soziale Auswirkungen" zitiert wird (ebenfalls am 01.11. großflächig im Artikel ergänzt). Auch das sollte entsprechend entfernt werden. Aus den gleichen Gründen die bereits genannt wurden. Natürlich sind Essays für Wikipedia als Artikelgegenstand relevant, nicht aber als Quelle. Es handelt sich bei Essays um reine Meinungsbeiträge, die keinerlei Anspruch an eine wissenschaftliche, ausgewogene Darstellung eines Themas haben. Vom Problem der Theoriefindung mal ganz abgesehen. Man kann Prechts Position ruhig in 2-3 Sätzen als eine von vielen erwähnen, aber dann bitte aufgrund von Sekundärliteratur. Die ist nun wirklich ausreichend vorhanden. --EH (Diskussion) 17:59, 2. Nov. 2020 (CET)
Das Kapitel "Soziale Auswirkungen" ist allgemein keine enzyklopädische Glanzleistung, genauso wie viele andere Teile dieses Artikels. Da fügen regelmäßig irgendwelche Leute das ein, was sie gerade in der Zeitung oder in ihrem Sachbuch gelesen haben. --TheRandomIP (Diskussion) 18:17, 2. Nov. 2020 (CET)
Ansonsten ja, dort ganze drei Absätze mit Precht, das ist zu lang, sollte man deutlich kürzen. --TheRandomIP (Diskussion) 18:24, 2. Nov. 2020 (CET)
Diese Frage habe ich anders, auf die Relevanz bezogen, verstanden. Da ich nur wenig von Precht gelesen habe, weiß ich nicht, ob er hier etwas Relevantes publiziert hat und kann daher nur prinzipiell argumentieren. Es ist möglich, dass die von EH ergoogelten Einschätzungen stimmen. Wenn es um WP:Q geht, müsste eben in einer philosophischen Fachzeitschrift gesucht werden. Wenn in dieser wissenschaftlichen Publikation ein KI-bezogener Text Prechts zu finden ist oder auf ihn Bezug genommen wird, kann er eingebaut werden, unabhängig davon, um welche Literaturgattung es sich handelt, so er als relevant erachtet wird und die Proportionen gewahrt bleiben.--Gustav (Diskussion) 13:44, 3. Nov. 2020 (CET)
Danke für Deine dritte Meinung, Gustav (die vordem schon Beteiligten scheinen gerade eine Nachorientierungsphase im Lemma zu durchlaufen); das wäre somit die zweite. Ich habe eine etwas andere Perspektive auf die Sachlage als Du. Denn das Thema ist m. E. weder ein fachspezifisches noch ein spezifisch philosophisches, sondern eines, das sich unverkennbar in das Zentrum des gesellschaftspolitischen Diskurses vorschiebt, weshalb es bislang wohl vor allem in diversen Medien aufgegriffen wird, von denen ich oben einige gegen den von EH⁴² herausgepickten Verriss angeführt habe. Precht ist hier nicht nur als Philosoph anzusetzen, sondern auch als einflussreiche Stimme im gesellschaftspolitischen Diskurs. Schreibt Precht ein Buch über ein aktuelles gesellschaftspolitisches Thema, ist dieses nach meiner Lesart bereits per se wikipedia-relevant und seine Position als von allgemeinem Interesse anzuführen. Der philosophischen Zunft in der Breite muss man diesbezüglich etwas Zeit lassen. Sie hat nicht den Aktualitätsanspruch der Wikipedia. -- Barnos (Post) 15:09, 3. Nov. 2020 (CET)
@Gustav, wir haben da gar keinen Dissens. Ich bin auch der Auffassung, dass man Precht hier ruhig in angemessener Länge zitieren könnte, wenn er in einer wissenschaftlichen Zeitschrift zum Thema publiziert hat oder rezipiert wurde. Das ist in diesem Themengebiet nach kurzer Recherche meinerseits aber wohl nicht der Fall. @Barnos, die Aussage "Schreibt Precht ein Buch über ein aktuelles gesellschaftspolitisches Thema, ist dieses nach meiner Lesart bereits per se wikipedia-relevant und seine Position als von allgemeinem Interesse anzuführen" zeigt hier m.E. ziemlich gut das Problem auf. Diese Privatmeinung über Precht darfst du natürlich gerne haben, sie ist aber gemäß WP:Q und WP:KTF erst mal nicht von Bedeutung für uns. Relevant ist, was in ordentlichen Fachzeitschriften (oder hilfsweise auch in qualitativ hochwertigen Leitmedien) rezipiert wird. --EH (Diskussion) 16:55, 3. Nov. 2020 (CET)
Was „für uns“ relevant ist, EH⁴², sollte nach meinem Dafürhalten keinesfalls mit Deiner in diversen Lemmata bereits zum Einsatz gekommenen Precht-Elle bemessen werden. Mit der gängigen Wikipedia-Praxis haben solche nach Gusto gern mal geteilten Regelsetzungen nämlich im Großem und Ganzen kaum etwas zu tun. -- Barnos (Post) 17:14, 3. Nov. 2020 (CET)
EH hat recht, das sind die Zielsetzungen für dieses Projekt. Es mag noch manches hier weit weg von dieser Zielsetzung sein, das ist aber keine Rechtfertigung alles so machen zu dürfen wie es woanders leider auch (falsch) gemacht wird, was du wohl als "Wikipedia-Praxis" meinst. --TheRandomIP (Diskussion) 17:23, 3. Nov. 2020 (CET)
Mit Verlaub: Mir geht es nicht um die falsche, sondern um die gute Wikipedia-Praxis. Dafür aber bietet das Richtlinien- und Regelwerk nur Anhaltspunkte, während manche es mit groben Keilen für den Eigengebrauch verwechseln. -- Barnos (Post) 17:39, 3. Nov. 2020 (CET)
Nichts für ungut, aber die Beachtung von WP:KTF und WP:Q gehört zu den Grundlagen der Mitarbeit in WP. Wer damit ein Problem hat, ist hier schlicht falsch. Zumal die "gute Wikipedia-Praxis" ist, diese Regeln wie beschrieben anzuwenden... --EH (Diskussion) 17:47, 3. Nov. 2020 (CET)

Essays können sehr wohl als Quelle herangezogen werden. Hier stellt sich aber die Frage, inwiefern Precht mit seinem Buch einschlägig rezipiert wird. Natürlich können auch Philosophen und andere Professionen auch zu diesem Thema angebracht werden, nur bedarf es eben einer entsprechenden Relevanz auf dem Gebier und in der Diskussion. Also: wird Precht rezipiert? Wenn nicht, gehört er hier nicht rein. Louis Wu (Diskussion) 10:18, 4. Nov. 2020 (CET)

Da bleibt die Frage, wie im gegeben Fall die Einschlägigkeit aufzufassen ist. Dazu habe ich oben schon für richtig gehalten: „Precht ist hier nicht nur als Philosoph anzusetzen, sondern auch als einflussreiche Stimme im gesellschaftspolitischen Diskurs. Schreibt Precht ein Buch über ein aktuelles gesellschaftspolitisches Thema, ist dieses nach meiner Lesart bereits per se wikipedia-relevant und seine Position als von allgemeinem Interesse anzuführen.“ Dass Precht bereits vor seiner einschlägigen Buchveröffentlichung den diesbezüglichen öffentlichen Diskurs gefördert hat, zeigt sein Dialog mit dem KI-Forscher Jürgen Schmidhuber. -- Barnos (Post) 12:04, 4. Nov. 2020 (CET)

Ich halte mal fest: Auch nach der Einholung dritter Meinungen besteht hier mehrheitlich Einigkeit zwischen 5 Usern (Louis Wu, TheRandomIP, Gustav, Nillurcheier, meine Wenigkeit), dass Precht hier zwar durchaus erwähnt werden könnte, dies aber unter zwei Bedingungen erfolgen muss: 1) Es muss im angemessenen Umfang sein (derzeit viel zu viel). 2) Precht muss in wissenschaftlichen Zeitschriften seine Thesen publiziert haben und/oder er muss extern entsprechend rezipiert werden. Darauf kann dann eine Textpassage im Artikel aufbauen. Entsprechend diesen Kriterien entferne ich demnach Precht vorerst aus dem Artikel. @Barnos, wenn due Precht im Artikel haben willst schlage ich vor, du machst hier einen Textvorschlag und unterfütterst diesen mit den geforderten Quellen. Thx. --EH (Diskussion) 17:24, 4. Nov. 2020 (CET)

Nachdem zur Genüge klar sein musste, auf welcher Grundlage ich Prechts Berücksichtigung hier als einschlägig ansehe, war letztere Ansprache mehr als überflüssig. Bis auf Weiteres nehme ich zur Kenntnis, dass man Precht hier heraushalten möchte. -- Barnos (Post) 18:08, 4. Nov. 2020 (CET)

Gibt es auch Grenzen der KI?

Ich meine Ja! Zumindest wenn es um komplizierte Verknüpfungen von Problemen, die im menschlichen Gehirn noch bis zur letzten Einzelheit durchdacht werden können...Beispiele könnte ich nennen. mfG--Hopman44 (Diskussion) 21:29, 30. Aug. 2020 (CEST) =Ganz klar gibt es derzeit noch Grenzen, da es noch keine starken KIen gibt. MfG--Karo Fünf (Diskussion) 13:39, 8. Sep. 2020 (CEST)

Beispiele und eine detaillierte Begründung würde die bisherige bloße Meinung sehr stützen. Vermutlich werden Menschen noch lange darin überlegen bleiben, das Fühlen, Denken und Verhalten anderer Menschen vorherzusagen. --HeManLeser (Diskussion) 13:51, 6. Dez. 2020 (CET)

Sicherheit von KI

Vorschlag für wichtigen Abschnitt; es passiert hier sehr viel, siehe z.B. https://intelligence.org/why-ai-safety/ oder https://www.gov.uk/guidance/understanding-artificial-intelligence-ethics-and-safety oder https://80000hours.org/podcast/episodes/pushmeet-kohli-deepmind-safety-research/ --LS (Diskussion) 14:58, 16. Aug. 2019 (CEST)

probabilistische Information

Was ist probabilistische Information? Bitte im Artikel durch einen allgemeinverständlichen Begriff ersetzen oder zumindest verständlich beschreiben. Gruss, --Markus (Diskussion) 23:13, 16. Sep. 2019 (CEST)

"Probabilistisch" jetzt verlinkt. --UvM (Diskussion) 15:55, 7. Dez. 2019 (CET)

Buch von Philip Häusser

Bevor du, VäterchenFrost das Buch Natürlich alles künstlich - Was künstliche Intelligenz kann und was (noch) nicht - KI erklärt für alle von Philip Häusser wieder einfügst, könntest du bitte darstellen, inwiefern es den Anforderungen an Literatur (Es werden die wissenschaftlich maßgeblichen Werke sowie seriöse, möglichst aktuelle Einführungen aufgeführt.) gerecht wird? Es handelt sich m.E. um ein populärwissenschaftliches Buch eines Fernsehmoderators und Youtubers, der lediglich zwei Jahre als Wissenschaftler gearbeitet hat. Zu dem Thema gibt es nun wirklich hinreichend fundiertere Literatur aus akademischen Fachverlagen, zu denen Droemer Knaur nun sicher nicht zählt. --Arabsalam (Diskussion) 15:29, 5. Nov. 2021 (CET)

Gute Einführung in das Problem der Künstlichen Intelligenz - Das Buch führt anschaulich und verständlich in die Problematik der KI ein. Gerade für Anfänger auf diesem Gebiet wird auf die Funktionsweise, Entwicklung und Leistungsvähigkeit eingegangen. Das bestverständlichste Werk seit Jahen; einfach mal lesen.... (nicht signierter Beitrag von VäterchenFrost (Diskussion | Beiträge) 16:43, 5. Nov. 2021‎)

3M

Das Buch fällt sicher nicht unter "wissenschaftlich maßgeblich" - das lässt sich schon aus der Einleitung bzw. dem wenigen was man auf Google dazu findet sagen. Aber auch ein populärwissenschaftliches Werk passt unter "seriöse, möglichst aktuelle Einführungen". Der Literaturabschnitt dient ja nicht dazu den geschriebenen Text zu belegen, sondern interessierte Leser auf weitere Literatur zu dem Thema aufmerksam zu machen. Der Großteil der Leser ist sicherlich an einem populärwissenschaftlichen Text interessiert. Generell hat der Literaturabschnitt schon mMn zu viele Einträge. Aber warum gerade dieser nicht passen soll, erschließt sich mir nicht.--Sebastian.Dietrich  ✉  19:15, 5. Nov. 2021 (CET)

Gerade im Themenbereich KI muss man der Erfahrung nach sehr vorsichtig sein, was (Populär-)Literatur angeht, aus verschiedenen Gründen. Es gibt ziemlich viele Leute, die meinen, davon Ahnung zu haben, die sie eigentlich nicht haben; es gibt Leute, die zwar Ahnung haben, aber auch eine ziemlich starke Meinung, die sie von den Fakten nicht trennen können; es gibt Leute, die Profis darin sind, angemessen über wissenschaftliche Sachverhalte zu schreiben, die nicht ihr eigenes Fachgebiet sind oder sein können; und so weiter. Ohne mich mit dem vorliegenden Werk beschäftigt zu haben: Solche Überlegungen über den Verfasser muss man leider anstellen, wenn man in diesem Bereich Literaturempfehlungen zusammenstellt. Der Teil des Titels mit dem „noch“ lässt aber Glaskugeleien vermuten. --46.114.168.196 14:22, 16. Nov. 2021 (CET)

Jack Ma

Wieso wird der Dilettant Jack Ma in einem Artikel über (künstliche) Intelligenz überhaupt erwähnt? Der Stümper brabbelt doch nur Dinge nach, die er irgendwann einmal im Fernsehen gesehen hat. Sehr unseriös, diesen Typen ernst zu nehmen.

--212.186.83.83 08:07, 3. Mär. 2020 (CET)

Portal:Digitale Welt

Hat jemand Interesse, dieses Portal zu unterstützen ? Wikipedia:WikiProjekt_Portale/Baustelle#Portal:Digitale_Welt --Bautsch 18:05, 16. Mär. 2020 (CET)