Diskussion:Chinesisches Zimmer
Zusätzlicher Diskussionspunkt: Widerlegt das Chinesische Zimmer tatsächlich den Turing Test?
Ich möchte noch einen Aspekt zur Diskussion stellen, den ich aufgrund mangelnder Referenzen nicht im Artikel einfügen werde.
Zu Beginn des Artikels steht (korrekterweise): "Dieses Experiment sollte den Turing-Test als nicht ausreichendes Kriterium für künstliche Intelligenz ausweisen."
Meiner Erinnerung nach war ein wichtiger Kritikpunkt an Searles Gedankenexperiment, dass Turing nie gesagt hat, dass ein Satz von Symbolen und Regeln ausreicht, um den Turing-Test zu bestehen. Es ist also im Rahmen von Turings These durchaus möglich, dass es eine den Symbolen und Regeln "übergeordnete Instanz" geben muss, damit der Test bestanden werden kann. Vetreter der starken KI würden nun sagen, dass sich diese auch technisch implementieren lässt. Ob das tatsächlich möglich ist oder nicht, hat aber nichts mehr mit der Korrektheit des Turing-Tests zu tun.
Kann jemand diese Aussage bestätigen und eine Referenz angeben? --Florian Bley 15:15, 29. Nov 2005 (CET)
- Zunaechst einmal moechte ich betonen, dass es IMHO Searle urspruenglich nicht darum ging, "den Turing-Test als nicht ausreichendes Kriterium für künstliche Intelligenz" auszuweisen. Vielmehr wandte er sich gegen die damaligen Vertreter der strong AI, die behaupteten ein Programm, wie das von Schank, koenne wirklich Geschichten verstehen (Ein Professor fuer Angewandte Computerlinguistik hat dies erst kuerzlich mir gegenueber behauptet). Der Turing Test wird nur am Rande erwaehnt und als "behavioristic and operationalistic" kritisiert. Nimmt man Searle ernst, so waere ein Test, wie der Turings, sowieso voellig sinnlos, weil ein Computer niemals Intentionalitaet besitzen koenne. Hier ist die wichtige Unterscheidung zwischen Intentionalitaet und Intelligenz zu beachten, denn dass ein Computer sich u.U. intelligent verhalten kann, wurde von Searle nicht bestritten. Er wies sogar explizit darauf hin, dass auch ein nach den Regeln eines Computers funktionierendes System (sein Zimmer) den Turing Test bestehen koenne. Jedoch kann so ein System seiner Meinung nach niemals kognitive Zustaende besitzen und auch "eine den Symbolen und Regeln 'übergeordnete Instanz'" kann daran nichts aendern, solange es sich bei dem ganzen System noch um einen Computer handelt. Searle bezieht sich klar auf die Definition eines Computers oder ebenfalls turingmaechtige Aequivalente, die sich dadurch auszeichnen, dass sie nur formale Symbole manipulieren. Sie bewegen sich also nur auf einer syntaktischen Ebene und Syntax reicht nicht fuer Semantik also Bedeutungsinhalte aus. Fraglich bleibt, ob diese Diskussion viel Relevanz fuer die Verbesserung des Artikels hat. --Torsten Grote 20:27, 29. Nov 2005 (CET)
Überarbeitung
Bezug zum Originaltext nun (versuchsweise) hergestellt. ^^ --Regensang 09:11, 8. Nov 2005 (CET)
Der Artikel ist nun wirklich sachlicher und passender. Ein paar Kleinigkeiten habe trotzdem noch zu bemaengeln:
- Was macht der Computer im Zimmer? Der eigentliche Witz des Gedankenexperiments ist doch, dass der Mensch in diesem Zimmer genau wie ein Computer formale Symbole manipuliert. Er hat mit den Regeln fuer diese Manipulation alles, was ihm die starke AI geben kann und versteht dennoch nichts von den Geschichten in Chinesisch.
- Dieses "Die Prämisse sei" ist ungluecklich formuliert und auch verwirrend. Dass die Antworten, die aus dem Zimmer gereicht werden, von denen eines Chinesischen Muttersprachlers nicht zu unterscheiden sind gehoert wie alles andere auch zur Beschreibung des Experiments.
- "Somit wäre der Turing-Test fehlerhaft" ist IMO auch etwas unklar. Der Test an sich ist ja nicht fehlerhaft. Der Punkt hier ist, dass es nach Searle zwei Systeme geben kann, die beide den Turing-Test bestehen, von denen eines aber keinerlei Intentionalitaet besitzt.
- Die Kritik muesste noch etwas geordnet werden. Die bisher geschilderte "System-Antwort" ist nur eine moegliche und auch Searle's einfache Entgegnung sollte evtl. ergaenzt werden. Die im Artikel beschriebene Kritik weicht stark von der aus Minds, Brains, and Programs ab und ist ohne Kenntnis des Originals sicher schwer nachzuvollziehen.
- Was ist denn die "weitere, unzweckmässige Komponente", die Searle dem Turing-Test hinzugefuegt haben soll?
Ich hoffe, meine Kritik war konstruktiv und nicht zu pedantisch. --Torsten Grote 00:49, 16. Okt 2005 (CEST)
- Vielen Dank, mir ist nun aufgefallen, dass die Erklärstruktur tatsächlich mangelhaft war. Habe versucht, die oben kritisierten Punkte richtigzustellen. Die Kritik kann ich (noch) nicht komplett wiedergeben, wenn das jemand anders machen könnte... --Regensang 09:44, 19. Okt 2005 (CEST)
- Vielen Dank fuer das Beherzigen meiner Kritik. Leider besteht mein erster und wichtigster Kritikpunkt immernoch. Was macht der Computer im Zimmer? Dieser Computer findet sich aus gutem Grund nicht bei Searle, denn mit ihm ist das ganze Experiment nicht plausibel. Wofuer noch das Zimmer und der Mensch, wenn es den Computer gibt? Der Mensch benutzt keinen Computer, aber er tut mit seinem Regelwerk und den Stapeln voller chinesischer Symbole genau das, was auch ein Computer tun wuerde, naemlich formale Symbole zu manipulieren. Baut man hier den Computer ein, ist "zu evident", dass der Mensch nichts versteht, denn der Computer macht die ganze Arbeit und der Mensch gibt nur Daten ein. Searle wollte aber zeigen, dass die Operationen eines Computers nichts zur Intentionalitaet beitragen und das kann man nur "nachvollziehen", wenn man diese Operationen selbst ausfuehrt. Ausserdem findet sich diesr Computer im Zimmer einfach nicht in der Originalkonfiguration des Textes ;) Torsten Grote 23:22, 7. Nov 2005 (CET)
lächerliche Ergebnisse?
war der Witz bei der Sache nicht, dass auch wenn dieses Zimmer brauchbare, also nichtlächerliche Ergebnisse lieferte, und es den Turing-Test bestehen würde, das ganze trotzdem nichts mit mit Intelligenz zu tun hat? Saesch 00:03, 28. Apr 2005 (CEST)
Ja genau. Die Grundidee des Arguments wird in diesem Artikel kaum und meiner Meinung nach sogar falsch vermittelt. Deshalb habe ich den Überarbeitungsvermerk eingefügt. Speziell der vorletzte Paragraph bedarf einer Überarbeitung. --Torsten Grote 01:39, 31. Jul 2005 (CEST)
Genaugenommen war der Gang der Argumentation folgender: 1. Die Maschine besteht den Turing-Test. 2. Laut Turing muss die Maschine nun Chinesisch verstehen können, da man sie nicht von einem echten Chinesen unterscheiden kann. 3. Nun simuliert Searle die Simulation. Es vollzieht mit Hilfe des gleichen Satzes an grammatikalischen Regeln und Vokabeln den Test in der gleichen Art und Weise. 4. Nach Turings Behauptung müsste Searle also Chinesisch verstehen, was er aber nicht kann. Er hat lediglich einen (zugebenermassen) sehr komplexen Regelsatz angewandt. --Florian Bley 29. Aug 2005 (CEST)
Zu 4. Nicht Searle versteht Chinesisch, sondern das Zimmer, zu dem auch Searle gehört.
Ergänzung--164.61.216.35 13:38, 25. Jul 2006 (CEST) Es wird nicht klar, was Searl überhaupt als verstehen definiert. Die ganze Konstruktion des chinesischen Zimmers erfüllt doch nur einen sehr begrenzeten Zweck, nämlich eine rein sprachliche Komminikation zwischen 2 Instanzen. Im Hinblick auf diesen Zweck versteht das Zimmer natürlich chinesich, wenn es korrekt auf alle Fragen antworten kann.
Setzt man das Zimmer jedoch in eine reale Umgebung indem man z.B. einen Roboter drumherum baut und verlangt von ihm eine weitergehende Interaktion mit dieser muss es natürlich zunächst scheitern, weil sein Befehlssatz natürlich gar keine Anweisungen für eine derartige Interaktion enthält, z.B. auf die Anweisung des Befrages einen Gegenstand zu beschreiben oder eine Handlung durchzuführen, so gesehen versteht es natürlich nicht was der reale Hintergrund der Kommunikation ist, weil es dazu weder Anweisungen in den Skripten gibt, noch sensorische Einrichtungen um derartige Aufträge umzusetzen. Erweitert man nun Skripte und Hardware um diese Komponenten und die gesamte Apparatur würde sich verhalten wie ein Chinese und problemlos mit Chinesen interagieren können, ja was unterscheidet dann den Mechanismus noch von einem Chinesen. Was handelt wie ein Chinese und ggfls. auch noch aussieht wie ein Chinese ist ein Chinese oder?
Wenn ich dem Gerät sage nimm den Ball und werfe in gegen die Wand, und es führt dieses aus, versteht es doch was ich sage, Searls Argumentation ist damit ad absurdum geführt. Letzendlich bestimmt doch lediglich die Komplexität und der Handlungsspielraum eines solchen Systems ob wir es als intelligent definieren oder nicht. Schliesslich bezeichnen wir auch einen Hund der gut dressiert ist als einen klugen Hund.
Verständnisproblem: Skript
Was ist in diesem Zusammenhang ein "Skript"? Wie können Anweisungen aussehen, die mir erlauben, auf unverständliche chinesische Schriftzeichen adäquate chinesische Zeichen zu erwidern?
Danke 84.56.251.103 21:43, 11. Jul 2006 (CEST)
- Wie genau solche Regeln aussehen sollen beschreibt Searle nicht. Es ist fuer das Argument auch nicht wesentlich. Es reicht zu wissen, dass diese Regeln (dieses Skript) wie ein Computerprogramm auf rein syntaktischer Ebene arbeiten. Wenn man z.B. "squiggle squiggle" liesst schreibt man immer danach "squoggle squoggle" ohne dass man weiss, was dies eigentlich bedeutet. --Torsten Grote 10:44, 13. Jul 2006 (CEST)
- Eine (sehr vereinfachte) Form ist das "Eliza"-Programm. Ein Beispiel ist online im Web: http://www-ai.ijs.si/eliza/eliza.html --Hutschi 11:25, 7. Sep 2006 (CEST)
- Oh doch, das ist sehr wesentlich. Denn die Anweisungen zur Beantwortung chinesicher Fragen müssten derart komplex sein, dass allein durch die Zeit, die zur Beantwortung benötigt wäre, der Turing-Test nicht bestanden würde. Es gibt einen Artikel von Raymond Kurzweil zu eben dieser Frage. Werde dessen Argumente beizeiten mal hier ergänzen. 88.152.18.172 02:01, 30. Aug. 2008 (CEST)
- Was hier deutlich zu sehen ist: Die Antworten auf Searles Gedankenexperiment fehlen im Artikel. Searle hat ein paar "Tricks" angewandt, die zu systematischer Irreführung des Lesers führen und damit glauben machen, Searle würde recht vernünftig argumentieren. Alles recht ausführlich bei Hofstadter & Dennett - ein Link reicht da nicht. --JoVV 13:19, 26. Dez. 2008 (CET)
- Habe dazu etwas in Ravenscroft (siehe ^ref^) gefunden + ergänzt. --Cami de Son Duc (Diskussion) 12:21, 21. Dez. 2014 (CET)
- Was hier deutlich zu sehen ist: Die Antworten auf Searles Gedankenexperiment fehlen im Artikel. Searle hat ein paar "Tricks" angewandt, die zu systematischer Irreführung des Lesers führen und damit glauben machen, Searle würde recht vernünftig argumentieren. Alles recht ausführlich bei Hofstadter & Dennett - ein Link reicht da nicht. --JoVV 13:19, 26. Dez. 2008 (CET)
Einige Unklarheiten
1. In der Einleitung steht ja, dass es darum geht zu beweisen, dass die menschliche Intelligenz nicht von einem Computer nachgeahmt werden kann. Sagt Searle nun, dass die Box nichts versteht (trotz evtl. intelligentem Verhalten), weil der Mensch im innern seine Intelligenz/Verständnis für das erfolgreiche Lösen der Aufgabe nicht braucht (und der Mensch ja das einzige am ganzen Mechanismus ist, der etwas verstehen kann)? Aber ob man die Arbeit "Befehl im Handbuch ausführen" von einem intelligenten Wesen ausführen lässt oder nicht ist doch völlig belanglos. Es geht doch darum, die Intelligenz des Algorithmus "Befehl im Handbuch befolgen" zu testen. Die Intelligenz des Menschen hat nichts mit der ganzen Sache zu tun, das ist ja schon aus Definition der Geschichte so (wieso ist das dann das Kernargument?). Was soll das überhaupt?
- Searle meint, dass die Box nichts versteht - und das soll heißen, dass rein algorytmische Prozeduren kein Verständnis, keine Intelligenz erzeugen können. --JoVV 13:28, 26. Dez. 2008 (CET)
2. Mir ist der Unterschied bzw. die Funktion von Handbuch und Skript nicht klargeworden. Wieso reicht nicht einfach ein Handbuch, mit einem "Algorithmus", mit welchem der Mensch jede Frage in eine Antwort verwandeln kann? Wieso jetzt auch noch ein Skript? Das müsste man vielleicht etwas besser erklären. Das verwirrt nur.
- Handbuch: Daten, Skript: Programm --JoVV 13:28, 26. Dez. 2008 (CET)
3. Absatz "Die Systemkritik". Wieso sollte so ein Regelwerk unendlich umfangreich sein müsen? Wenn man davon ausgeht, dass die Information im Gehirn nicht unendlich umfangreich ist, muss es das Regelwerk auch nicht sein.
- Das Regelwerk muss extrem groß (praktisch unendlich) sein, da es keine einfachen Regeln gibt, die kontextuale Zusammenhänge erfassen. Auch im Gehirn ist das "Regelwerk" (die neuronalen Verknüpfungen und Interaktionen) extrem groß. --JoVV 13:28, 26. Dez. 2008 (CET)
4. In der Einleitung wird von Intelligenz gesprochen, im Text von Verständnis. Sollte man vielleicht einheitlicher gestalten bzw. hinschreiben, dass aus Verständnis Intelligenz folgt, oder sowas ähnliches. Oder ist das eh klar?
- Das SKript ist eine Niederschrift in einer (zumindes möglicherweise) unbekannten Sprache. Das Handbuch ist eine Anweisung zum Interpretieren. Zumindest näherungsweise verstehe ich das so. --Hutschi 11:30, 7. Sep 2006 (CEST)
Okay. Es geht wohl also darum, dass im Handbuch kein Chinesisch vorkommen soll sondern nur Verweise ins Skript. Meinetwegen, okay. Übrigens sind im Originaltext von Searle die auf Wikipedia genannten Kritikpunkte drin und Searle selbst versucht diese zu widerlegen. Obwohl seine Argumente IMHO nicht überzeugen, könnte man die vielleicht in den Artikel einbauen.
- sowie die deutlich überzeugenderen Argumente von Dennett und Hofstadter. --JoVV 13:28, 26. Dez. 2008 (CET)
Mehrwert
Falls jemand an Illustrationen zum Thema interessiert ist, Commons hat zwei Bilder:
- Chinese Room2.jpg
- ChineseRoom2009 CRset.jpg
Letzteres ist aus dem Film The Chinese Room (2009), kommt erst in etwa zwei Monaten auf den internationalen Markt.
Zum Vergleich einige Illustration im WWW
- http://www3.hku.hk/philodep/joelau/wiki/pmwiki.php?n=Main.TheChineseRoomArgument
- http://subcortex.com/pictures/ ganz weit unten auf der Seite
- http://www.jimpryor.net/teaching/courses/mind/notes/searle.html
- http://www.macrovu.com/CCTWeb/CCT4/CCTMap4OtherChinese.html
- http://www.haslo.ch/blog/john-searles-chinese-room/
- http://core.ecu.edu/phil/yalcinu/uylecturenotes.html auf "The Turing Test and The Chinese Room (page 2)" klicken
- http://macorrellsmp.wordpress.com/searles-chinese-room-argument/ drei Seiten mit mehreren Panels
Animationen
- http://inquiry.ucsd.edu/Reviewer/flashComponents.php etwas in der Mitte der Seite
- http://www.mind.ilstu.edu/curriculum/searle_chinese_room/searle_chinese_room.php Seite 2 hat mehrere Animation zum Roboter-Ansatz
Grüße, Paradoctor 19:21, 24. Mai 2009 (CEST)
Beschreibung des Gedankenexperiments unverständlich
Die deutsche Version spricht von Skripten, Handbüchern und Regeln, das klingt für mich wirklich sehr umständlich und letztlich unverständlich. Worum es bei dem Gedankenexperiment eigentlich geht, wird da schon klarer, wenn man sich die Beschreibung im englischen Artikel durchliest:
1. Man nehme an, auf einem Computer in einem Raum läuft ein Programm (Algorithmus), das chinesische Texte verstehen und inhaltliche Fragen zu diesen sinnvoll beantworten kann. Der Algorithmus ist derart leistungsfähig, dass seine Antworten keine Rückschlüsse darauf zulassen, ob sie von einem Menschen oder einer Maschine stammen, er könnte also locker einen Turing-Test bestehen. 2. Nun nehme man an, man setze anstelle des Computers einen Menschen in den Raum, der kein chinesisch versteht, aber trotzdem, indem er das Programm und die Wissensdatenbank des Computers benutzt und den Algorithmus Schritt für Schritt "von Hand" abarbeitet, genau denselben Output (dieselben Antworten) wie der Computer abliefern kann.
Eine solche Beschreibung würde auch viel besser zur Einleitung passen, in der ja auf den Turing-Test und die Definitionsproblematik Künstlicher Intelligenz hingewiesen wird. Searle zieht aus dem zweiten Teil des Experiments den Schluss, dass der Computer in Wahrheit kein chinesisch versteht, da ein Mensch ohne Chinesischkenntnisse zum gleichen Output gelangen kann. Genau diese Schlussfolgerung wird von Befürwortern der ("starken") KI aber bestritten: Ihnen zufolge macht der Algorithmus selbst (im Zusammenspiel mit der zugrunde liegenden Wissensdatenbank) das Chinesischverstehen aus, er ist das Verstehen, und ob er nun auf einem Computer ausgeführt wird oder ein Mensch die Schritte einzeln mit Bleistift und Papier ausführt, d.h. die Art der Hardware, spielt keine Rolle. Für Computerwissenschaftler ist der Turing-Test zur Beantwortung philosophischer Fragen ohnehin ungeeignet: Wenn der Computer den Test besteht, heißt das nur, dass er bestimmte Aufgaben auf dem Leistungsniveau des menschlichen Gehirns lösen kann - nicht mehr und nicht weniger. Eine Beantwortung der Frage, ob dabei tatsächlich "Denkprozesse" stattfinden und welcher Natur diese sind, kann (und soll) der Test nicht leisten. --217.236.68.200 21:00, 11. Jan. 2010 (CET)
Ich fand auch die englische Version des Artikels wesentlich verständlicher. Der deutsche Artikel muss dringend überarbeitet werden. Selbst eine Übersetzung des englischen Artikels wäre wahrscheinlich schon ein Fortschritt. (nicht signierter Beitrag von 99.188.95.93 (Diskussion | Beiträge) 05:32, 22. Jan. 2010 (CET))
Ich verstehe auch nicht wirklich, was gemeint ist. Der Satz "Das Handbuch ermöglicht es ihm, die Symbole mit der Geschichte in Verbindung zu bringen" sollte mal überarbeitet werden. Was ist mit "Symbole" gemeint? "Symbole" taucht hier zum ersten mal auf in der Beschreibung. Das macht den Erklärungsversuch, was das Handbuch macht zu einem non-sequitor für mich. Symbole könnten Worte oder Zeichen sein oder auch Teile der Wissensdatenbank. Bei sowas mit den Begriffen rumspielen, also nicht strikt immer genau die selben Begriffe für genau die selben Sachen oder Sachverhalte zu nehmen, gehört für mich in den Bereich des schönen Schreibens und der Poesie. Ich habe leider keinen Zugriff auf die Quelle. --77.10.1.218 02:08, 22. Mai 2021 (CEST)
Noch ein Kritikpunkt...
Der Mensch in dem Raum bräuchte sich nur einige Zeit lang das Regelwerk anzuschauen und er könnte die chinesische Sprache komplett erschließen. Denn in allen möglichen Fragen findet man ja hinreichend Kriterien, um alle Begriffe zu identifizieren. Es könnte natürlich so etwas passieren, dass z.B. die Wörter Apfel und Birne zufällig in genau gleichen Strukturen auftreten, d.h. man hat eine Menge von Wörtern A, die Apfel enthält, und eine Menge von Wörtern B, die Birne enthält, und wenn man die Elemente miteinander austauscht unter Beibehaltung der ursprünglichen Beziehungen erhält man dasselbe System. Jedoch existieren in dem Regelwerk ja auch Aussagen über jene scheinbar austauschbare Regeln, sodass diese sich schließlich doch übersetzen lassen müssten. Offensichtlich könnte jemand, der Chinesisch spricht, auch dieses Regelwerk herleiten, womit Regelwerk und chinesische Sprache höchst wahrscheinlich äquivalent sind und dieses Gedankenexperiment hinfällig wird. --Chricho 16:05, 29. Jun. 2010 (CEST)
- Das Gedankenexperiment ist damit nicht hinfällig, denn in allen möglichen Fragen finden sich nur dann Kriterien, um alle Begriffe zu identifizieren, wenn man die Sprache bereits versteht. --CallunaCarduelis 11:55, 16. Jan. 2011 (CET)
POV
"Biologische kognitive Systeme entwickeln eigenständige, komplexe Handlungen nur aufgrund ihrer genetisch bestimmten und sozial erworbenen Information." (Dieser Artikel) vs. "Das Bewusstsein bzw. der Geist wird oft als ein Phänomen angesehen, das sich grundsätzlich einer rein naturwissenschaftlichen Beschreibung entzieht." (Reduktionismus
Das erste Zitat wird als Fakt dargestellt. (nicht signierter Beitrag von 178.2.180.221 (Diskussion) 22:50, 20. Jun. 2012 (CEST))
POV, oder das Problem der Information
Das Experiment hat meiner Meinung nach mehrere Knackpunkte. Einige sind in diesem Artikel angesprochen, aber dann nicht gut beurteilt.
Der Chinese vor dem Zimmer, kann den Inhalt des Zimmers nicht sehen. Er MUSS anhand der Reaktionen des Zimmers urteilen. Und dann kommt er zu dem Schluss, dass das Zimmer ihn versteht. Zu sagen, dass es das nicht tut, weil man dann reinschaut und nun weiß, wie es gemacht wurde ist ausgesprochen unfair dem Zimmer und damit dem Experiement gegenüber! Auch bei einem Menschen weiß ich ja nicht wirklich, ob er mich versteht. Ich kann nur anhand seines Verhaltens Urteile fällen. Dabei ist es völlig gleich, ob es geistige Zustände gibt oder nicht, ob es Intensionen gibt oder nicht, wenn der Mensch etwas tut (dazu gehört auch sprechen), dass mir als Verstehen erscheint, dann muss ich dem Menschen Verstehen zubilligen! Wenn das Zimmer, wie ein vermutlich verstehender Mensch reagiert, dann muss ich dem Zimmer Verständnis unterstellen, egal wie die Reaktionen erzeugt werden! as sähe ich als meine wissenschafltiche Pflicht an!
Zum Roboter: Das ist absurd! Würde denn jemand behaupten, meine Hand versteht deutsch? Es ist mein Gehirn, dass die Daten aufnimmt, verarbeitet und dann den Körper anweist, etwas zu tun. Im Roboterfall heisst das: JA! Wenn das programm den Robotoer steuert, und ihn so steuert, dass ich seine Aktionen von einem vermutlich verstehenden Menschen nicht unterscheiden kann, dann versteht das Programm mich in gleicher Art, wie der Mensch! Es ist, wie oben. Zu sagen, dass etwas nicht versteht, nur weil du weißt, wie es funktioniert, oder dass es künstlich ist, ist unfair und unwissenschaftlich!
Das Verhalten von Kindern wurde ja schon angesprochen. Sie lernen anhand von Beobachtung und genetisch definierten Voreinstellungen. Wenn ich ein Computer so baue, dass es ebenfalls ein so lernendes System ist, bekomme ich etwas, von dem anzunehmen wäre, dass es ein gewisses Verständnis besitzt. Es wird ab und an eingeworfen, dass so eine Maschiene nicht kreativ wäre. Sie könnte nichts Neues schaffen und hätte deswegen nichts verstanden. Dieser Punkt verkennt aber die Rolle der Umgebung. Verstehen bedeutet mir der Umgebung zu nteragieren. Die Reaktionen der Umgebeung sagen mir, ob ich das verstanden habe oder nicht. Genau so lernt ein Kind sprechen. Es testet gehörte und neu erfundene Zeichenkombinationen und bewertet dann die Reaktionen der Umwelt nach klaren Regeln! Denn nur so, kann es die gerade aktuell geltenden Bedeutungen der Zeichenketten kennen lernen! Auch in diesem Punkt ist das Zimmerexperiment unfair, weil erwartet wird, dass das Programm ohne Erfahrungen mit der Umwelt versteht. Man könnte sicher Erfahrungen einprogrammieren, aber dann hätte das Zimmer wieder die Verhaltensmöglichkeiten, die ich beim Menschen als "Verstehen" kennzeichnen würde. Womit wir wieder da sind, dass ich dann dem Zimmer auch verstehen zubilligen muss.
Egal, wie ich es drehe und wende: Ich darf nur aus der Sicht des Chinesen vor dem Zimmer urteilen. Wenn dann die Ergebnisse stimmtn, versteht das Zimmer. (Übrigens gibt es beim Verstehen ja unterschiedliche Niveaus, die wir auch bei Menschen unterscheiden.)
Verstand
Kapitel Systemkritik "das menschliche Denken setze sich noch aus weiteren Dingen zusammen, die nicht in ein Programm abstrahierbar sind."
Ja und welche? Eine Quellenangabe wäre nett. (nicht signierter Beitrag von 2A02:120B:2C43:3330:8CFE:C83D:7573:45D4 (Diskussion | Beiträge) 21:58, 13. Dez. 2014 (CET))
Fehler in Einleitung: In Muttersprache übersetzen?
In der Einleitung findet sich derzeit der Satz "Bei dem Gedankenexperiment stellt man sich einen geschlossenen Raum vor, in dem ein Mensch, der Chinesisch nicht beherrscht, chinesische Schriftzeichen – anhand einer in seiner Muttersprache verfassten Anleitung – in seine Muttersprache übersetzt." Das ist falsch, oder? Es geht nicht darum, dass der Mensch chinesische Schriftzeichen in seine doer ihre Muttersprache übersetzt. Das würde ganz im Gegenteil das Experiment verschieben. Es geht doch darum zu zeigen, dass der Mensch nach mutterspachlicher Anleitung auf unverständliche Symbole mit (für andere) sinnvolle Symbole reagiert, ohne diese selbst verstehen zu können, sprich in die eigene Mutetrsprache zu übersetzen. Liege ich falsch? Larry Gopnik (Diskussion) 08:48, 19. Apr. 2018 (CEST)
- Ja, richtig. --Arno Matthias (Diskussion) 16:00, 19. Apr. 2018 (CEST)