Diskussion:Technologische Singularität

aus Wikipedia, der freien Enzyklopädie
Auf dieser Seite werden Abschnitte ab Überschriftebene 2 automatisch archiviert, die seit 60 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind.
Archiv
Wie wird ein Archiv angelegt?

Verständnis des Gehirns

"Das wirtschaftliche Interesse am Thema ist bereits in den 1970er Jahren erloschen und hat sich der vielversprechenderen schwachen Intelligenz – hochspezialisierten Problemlösern für Einzelaufgaben – zugewandt. Zwar bilden Perzeptronen den menschlichen Wahrnehmungsprozess mit wenigen Nervenzellen nach, die Simulation eines kompletten Gehirns steht jedoch noch in den Sternen. Die Funktionsweise des menschlichen Gehirns selbst ist noch nicht einmal ansatzweise verstanden; ohne dieses Wissen, so die Argumentation, sei jedoch an eine ausgereifte Computer-Gehirn-Schnittstellen nicht zu denken, von technischen Intelligenzerweiterungen oder der genetischen Zucht eines Genies ganz zu schweigen."

Stimmt so nicht. Das Blue Brain Projekt dreht sich genau um diese Problematik. Andererseits ist "Intelligenz" nicht gleich "Rechenleistung". Das Gehirn als solches hat eine komplett andere Arbeitsweise als ein Computer (siehe Neuron auf Silizium-Basis. Ein großer Unterschied zwischen Gehirn und Computer liegt darin, dass das Gehirn eben auch Vergessen kann und muss um richtig arbeiten zu können. Was ich damit sagen will ist, dass bei der gesamten Argumentation um KI und Intelligenz vergessen wird, dass Menschen darauf ausgelegt sind zu leben und zu überleben während Computer ausgelegt sind für ein paar Jahre höchste Leistung in einem eng begrenzten Bereich zu liefern.
Bei der Gedankenkette um eine starke KI und der Reproduktion und rekursiven Verbesserung derselben wird nicht bedacht, dass die Ressourcen beschränkt sind. Sollte es eine KI geben die sich reproduziert, aber an einem Punkt nicht mehr genügend Ressourcen vorhanden sind, müsste sich die alte KI opfern für eine Neue. Spätestens an diesem Punkt wird es Interessenkonflikte geben und die Entwicklung würde gestoppt.
Andererseits bin ich der Meinung, dass es immer wieder Singularitäten gibt. Der Einstieg in die Gentechnik, das Internet oder die Nanotechnik waren Zeiten die genau auf die Definition passen. Besonders die Gentechnik und Pränataldiagnostik bzw. Klonierung waren und sind immer noch Themen die sehr kritisch diskutiert werden in der Gesellschaft - wobei die wenigsten die jeweiligen Themen vollständig verstehen (bzw. verstanden haben). Daraus resultiert Techno-phobie und im Endeffekt eine Bremsung der Entwicklung, bis der Status Quo von den meisten akzeptiert wird. --Amogorkon 12:05, 3. Aug. 2007 (CEST)

Blue Brain ist ein akademisches Projekt in Kooperation mit einem Industriepartner. Von „wirtschaftlichem“ Interesse würde ich hier nicht sprechen. Wirtschaftliches Interesse liegt für mich erst dann vor, wenn Organisationen konkrekte Produkte entwickeln oder zumindest positive ökonomische Einschätzungen des Marktes abgeben.
Gentechnik, Nanotechnik und Internettechnik weisen keineswegs derart rasante technische Fortschritte auf, dass gewöhnliche Menschen nicht mehr folgen können. Zwar ist bereits heute der vollständige Durchblick in einem Wissensgebiet kaum möglich, das liegt aber an der Wissensmenge und nicht an der Schwierigkeit der Konzepte. Die Technologische Singularität spricht aber von einem Zeitpunkt, ab dem nicht einmal mehr hochspezialisierte Wissenschaftler ohne „BrainBooster“ in ihrem Fachgebiet durchblicken. Von solchen unüberwindbaren intellektuellen Hürden sind wir weit entfernt.
Bedenke, dass die Technologische Singularität von einer Intelligenz ausgeht, die der menschlichen weit überlegen ist. Es ist nicht übertrieben anzunehmen, dass ein solches System neben logischer Intelligenz auch Gefühle, Kreativität und die Fähigkeit zu Vergessen besitzen könnte. Ein solches System hätte alle Facetten des menschlichen Verstandes – und mehr. Und es würde sich ebensowenig wie die Menschheit von ein bisschen Ressourcenmangel am Weitermachen hindern lassen. --Bitbert -?- 08:51, 7. Aug. 2007 (CEST)


Übersetzung Ulam

Original:

One conversation centered on the ever accelerating progress of technology and changes in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue.

Hier vorgefundene, unbequellte Übersetzung:

Ein Gespräch drehte sich um den sich stets beschleunigenden technologischen Fortschritt und um die Veränderungen in der Art und Weise menschlichen Lebens, die den Anschein machen, auf eine unumgängliche Singularität in der Geschichte der Menschheit hinauszulaufen, nach der das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann.

Mein Vorschlag:

Ein Gespräch drehte sich um die stete Beschleunigung des technischen Fortschritts und der Veränderungen im Lebenswandel, die den Anschein macht, auf eine entscheidende Singularität in der Geschichte der Menschheit hinauszulaufen, nach der die Lebensverhältnisse, so wie wir sie kennen, sich nicht fortsetzen könnten.

Anmerkungen:

  1. "accelerating progress of" bezieht sich imho sowohl auf "technology" als auch auf "changes ...".
  2. technologischer Fortschritt → technischer Fortschritt (Faktor 18 mehr Buchtreffer und imho synonym)
  3. "im Lebenswandel" gefällt mir ebenso wenig wie "in der Art und Weise menschlichen Lebens", ist aber kürzer.
  4. unumgänglich → entscheidend (angemessen vage in der Bedeutung, jedenfalls stünde im Original eher "inevitable", wenn „unumgänglich“ gemeint gewesen wäre)
  5. das Leben → die Lebensverhältnisse (um das Missverständnis auszuschließen, Ulam (oder von Neumann?) hätte das Überleben gemeint – das heißt "human affairs" ganz sicher nicht)
  6. kann nicht → könnte nicht ("could" lässt sich verschieden übersetzen, aber „kann nicht“ hieße "can not"
  7. weitergehen → sich fortsetzen (unerheblich, einfach nur näher an "continue")

--Rainald62 (Diskussion) 22:36, 22. Feb. 2015 (CET)

Ja, eindeutig bessere Übersetzung, danke. Im Vergleich zum englischen Artikel fehlen mir nach wie vor die Vorgänger Ulams. Hier steht er da wie der erste Mensch, der eine Beschleunigung bemerkt. --Enyavar (Diskussion) 06:56, 23. Feb. 2015 (CET)
Es geht nicht um die Beschleunigung (eine Exponentialfunktion beschleunigt auch, auf lange Sicht schneller als jede noch so hohe Potenz, hat aber keine Unstetigkeitsstelle. Es geht darum, wer den Begriff geprägt hat (die Bezeichung Singularität mit dieser Bedeutung).
Noch was: Ich frage mich (falls es eine Quelle überhaupt gibt), ob Ulam oder von Neumann die Idee hatte. Die Quelle ist ja eine Hommage an von Neumann, sodass vermutet werden kann, dass der Inhalt die Leistungen von Neumanns herausstellen soll. Aus dem Kontext wird nicht klar, ob das ein Interview mit von Neumann, ein symmetrisches Gespräch zu zweit oder eine öffentliche Diskussion nach einem Vortrag war, an der Ulam womöglich nur als Zuhörer beteiligt war. --Rainald62 (Diskussion) 21:31, 23. Feb. 2015 (CET)
Zur Begriffsprägung: Laut Artikeltext ist "Die erste bekannte Erwähnung des Konzepts einer technologischen Singularität..." das Gespräch Neumann/Ulam. Das Konzept bestand jedoch bereits früher, wie im englischen Artikel belegt; es trug nur verschiedenste Namen, wenige passend. Bevor "(Technologische) Singularität" feststand, gab es "Intelligenz-Explosion", "Gedanken-Equilibrium" und dergleichen mehr. Wenn es um die Begriffsprägung geht, müsste stehen: "Der Begriff der (technologischen) Singularität wurde, soweit bekannt, erstmals...". Das ist präziser und schließt nicht aus, dass mal irgendjemand auch die restlichen konzeptuellen Vorläufer einpflegt. Denn das ist alles, was ich in dem Zitat erkennen kann: einen Vorläufer. Jemand hat (nicht völlig zufällig, aber zufällig) den Fachbegriff für das Thema verwendet, bevor dieses allgemein mit dem Begriff belegt war.
Damit direkt übergehend zum zweiten Punkt: Wie du auch selbst feststellst, sagt die Quelle nicht einmal, ob der genaue Begriff "singularity" in jener einen Diskussion tatsächlich gefallen ist, welche Ulam im Februar 1958 beschreibt und welche möglicherweise lange vor 1957 stattgefunden hat. Im Kontext um die zitierte Stelle herum geht es auch um Paradigmenwechsel (ein weiter Begriff, der damals noch nicht geprägt war!) und allgemeine Zukunftssorgen. Die "entscheidende Singularität", über welche Neumann so stark besorgt war, könnte ebensogut ökologischer oder kriegerischer Natur sein, wie technologischer. --Enyavar (Diskussion) 10:27, 24. Feb. 2015 (CET)

Abschnitt Kritik ist Beleglos

Der einzige Quellenhinweis zum Absatz Kritik kommt von eienem 3.klassigen Sciance Fiction Author. Aller anderen knallharten Anschuldigungen und Behauptungen sind aus der Luft gegriffen - ohne Beleg. Ohne Quelle. Ohne Argument und vorallem ohne die Person die das geäußert hat. Einfach mal hingerotzt.

Beeindruckend! Gehört rausgelöscht. Es gibt keine Kritk zu diesem Thema die valide ist! (nicht signierter Beitrag von 87.163.160.109 (Diskussion) 17:50, 20. Mai 2015 (CEST))

Gehen wir mal die einzelnen Aussagen durch:
  • Ein Kritikpunkt sind fehlerhafte Datenauslegung und damit mangelnde Wissenschaftlichkeit. Das Mooresche Gesetz werde in die Zukunft extrapoliert, obwohl die bisherige Steigerung der Rechenleistung auf Verkleinerung der Computerschaltkreise beruhe, die physikalisch begrenzt sei.
Das ist Kritik am Mooreschen Gesetz, nicht am Mechanismus der Technologischen Singularität, kann raus.
  • Zudem sind die Leistungsangaben lediglich theoretische Höchstwerte, die sich ebenfalls exponentiell von praktischen Werten entfernen, da die Speicherbandbreite viel langsamer wächst (Memory Wall). Das Gehirn speichert Daten nicht separat von Schaltkreisen zu ihrer Verarbeitung.
Das ist im verlinkten Artikel gut belegt. Meine Kritik an der Kritik wäre, dass die Existenz der Memory Wall (seit zwei Jahrzehnten!) kein Argument gegen die postulierte unkalkulierbare Beschleunigung ist, sondern im Gegenteil ein Bruch der Memory Wall uns der Singularität zumindest sehr nahe bringen würde.
  • Zwar bilden Perzeptrons (einfache neuronale Netze) den menschlichen Wahrnehmungsprozess mit wenigen Nervenzellen nach, die Simulation eines kompletten Gehirns steht jedoch nicht in Aussicht.
Das ließe sich leicht belegen, ist aber irrelevant, kann raus. Das Eintreten der Technologische Singularität setzt nicht voraus, dass das Gehirn simuliert wird.
  • Der wohl wichtigste Kritikpunkt spricht jedoch die stagnierende Forschung im Gebiet starker KI an. Trotz jahrzehntelanger Forschung zeichnete sich kein Durchbruch ab.[9] Das wirtschaftliche Interesse am Thema ist bereits in den 1970er Jahren erloschen und hat sich der schwachen KI – hochspezialisierten Problemlösern für Einzelaufgaben – zugewandt. Jordan Pollack dämpfte die Erwartungen raschen Fortschritts in dieser Richtung: „Having worked on AI for 30 years, I can say with certainty that Moore's law doesn't apply to software design.“[10]
Das ist relevant und gut belegt.
  • Andere Kritik äußert Zweifel am Singularitätsbegriff. So habe es in der Geschichte der Menschheit viele Zeitpunkte gegeben, zu denen die Welt, in der wir heute leben, völlig unvorstellbar gewesen wäre. Begrenze man die Definition der Singularität auf „überschreitet die Grenze unseres Vorstellungsvermögens“, so sei die angesprochene Singularität nichts Einmaliges, sondern ein immer wieder stattfindendes Ereignis.
Diese Kritik geht daneben – „überschreitet die Grenze unseres Vorstellungsvermögens“ ist kein definierendes Attribut der Technologischen Singularität.
  • Schließlich gibt es Kritik an der Originalität der Theorie. Für den Science-Fiction-Schriftsteller Ken MacLeod etwa ist die Idee der technologischen Singularität nichts weiter als die technisierte Neuauflage des theologischen Begriffs der Lehre von den Hoffnungen auf Vollendung der Welt (der sog. Eschatologie), ähnlich auch bei Jaron Lanier.[11] Thomas Wagner sieht sogar den Wunsch nach Gottwerdung des Menschen.[12] So schreibt Kurzweil:[13] ...
Das ist imho interessant, jedenfalls gut belegt.
Insgesamt ging die Kritik an der Kritik ziemlich daneben. --Rainald62 (Diskussion) 14:04, 21. Mai 2015 (CEST)
ich seh den ersten Punkt mit dem moorschen Gesetz etwas anders bzw. mit den Perzeptrons ggf. sollte man das zusammenfassen. Für den Eintritt der technologischen Singularität ist eine "größere Rechenkraft" zwingende Bedingung um komplexes Verhalten zu simulieren/erzeugen. Eine Struktur die vergleichbar lernfähig ist wie der Mensch. Wir haben dabei zwei Möglichkeiten eine räumlich begrenzte und eine räumlich unbegrenzte Struktur oder um mal mit fantastischen Paralellen es zu versinbildlichen. Skynet vs. NS-5 wie in I Robot/Film mit Will Smith. Das Moorsche Gesetzt hat also für die technologische Singularität in einem begrenzten Raum wie etwa eine "gehirngroße" Rechenapparatur durchaus Relevanz und in der Kritik an Moor das man nicht endlos verkleinern kann (nach gegenwärtigem Wissensstand), wird die Singularität zumindest in begrenztem Raum kritisiert. physisch barrierfreie Strukturen ist hingegen einfacher, weil zum erreichen die Welt überzogen werden kann mit entsprechend großer Anzahl an Recheneinheit die in ihrer Gesamtheit die Komplexität erreichen um eine technische Singularität zu erzeugen. Allerdings ist dafür eine belgbar Stelle zu finden mir noch nicht untergekommen. Insofern ist das zwar Motzen ohne beleg, aber ich würde es drin behalten für die Kritik an einer technologischen Singularität unter der Prämise begrezenten Raumes - wie Roboter die sich verselbstständigen (und die sind ja im SiFi die Darstellung schlechthin von tech. Singularität) --Airwave2k2 (Diskussion) 17:06, 21. Mai 2015 (CEST)
"größere Rechenkraft zwingende Bedingung" bezeifele ich – Quelle? Ich bin vom Gegenteil überzeugt, natürlich ohne Quelle, will das aber auch nicht in den Artikel einbringen. --Rainald62 (Diskussion) 18:13, 21. Mai 2015 (CEST)
Ja gute Frage Quelle, es ist hypothetisch. Wenn Transistoren (aktuell 7 Billionen) die Anzahl erreichen wie wir Nervenzellen im menschlichen Hirn haben (Hunderte Milliarden ->100 Billionen Synapsen), so liegen da noch ein zwei Faktoren dazwischen und selbst dann ist es ein frage der Vernetzung. Wenn du vom Gegenteil überzeugt bist, hätte man schon mit 8088er eine KI erschaffen können, die selbstreflektierend ist. - vielleicht ist das auch ne Sackgasse mit elektronischen Schaltungen. Keine Ahnung, aber die derzeitige Technologie ist halt darauf aufbauend. Biologische Datenverarbeitung ist zwar denkbar braucht aber sicher noch etwas - und da weiß ich nicht ob Moors Gesetz gültigkeit hat. - Aber um nochmal zum Kern zurück zu kommen, mir ist es egal ob es drin bleibt oder rausfliegt - nur wenn du es rauswirfst prüf nochmal vorher. --Airwave2k2 (Diskussion) 20:37, 21. Mai 2015 (CEST)
Vergiss nicht die ~8 Größenordnungen zwischen der Schaltzeit von Neuronen und Logikgattern. --Rainald62 (Diskussion) 13:36, 22. Mai 2015 (CEST)
Die Schaltzeit ist mMn irrelevant, was ggf. relevant ist, ist die Zu- und Abflussgeschwindigkeit von Botenstoffen also chemischen Verbindungen, die in der Zelle für die Reaktion mit anderen Zellen genutzt werden. Diese "Füllgeschwindigkeit" bestimmt über die maximal erreichbaren Interaktionen mit Nachbarzellen bis Erschöpfung - elektrisch gestüzte Rechenproße haben sowas nicht solang Strom da ist, dafür aber serielle/parallele Einschränkungen je nach Komplexität. Die Datengeschwindigkeit ist wie beim Elektronenfluß in den Synapsen als Schaltzeit egal. Die sind da und werden auf der einen Seite mit Potenzialdifferenz durchgeschubst zur anderen. Da wir bei einer aktiven Wahrnehmung der Umwelt von einem konstanten Informationsinput ausgehen, wo wir Annehmen/Unterstellen das er interpretiert wird und dann eine "willentiliche" Beeinflussung der Umwelt stattfindet, ist das "panta rhei" oder auf Englisch "in process", wo die Reaktionszeit zwar unterschiedlich ist, aber nicht das Ergebnis. --Airwave2k2 (Diskussion) 14:53, 22. Mai 2015 (CEST)

Singularity University

@Rainald62. In deinem Edit schreibst du: "Da die SU bei Dickel nicht genannt ist, stellt [sich] die Frage, ob sie mit dem Gegenstand des Artikels mehr als den Namen und den Begründer gemein hat."

Deine Frage ist absolut berechtigt, da die SU einen etwas anders gelagerten Schwerpunkt hat als die vorher genannten. Aus gesellschaftswissenschaftlicher Sicht passt es aber absolut, auch wenn dieser Aspekt im Artikel bislang keine Rolle spielt.

Ich bin auf die SU über einen Aufsatz von Thomas Wagner gestoßen. Man kann den Klappentext für sein Buch leicht im Netz finden, um grob zu sehen, wie er das Lemma einordnet. Um einem Satz von TW aufzugreifen: "An den Mythos der Unterjochung [durch Maschinen] glaube ich nicht. Unterjochung von Menschen durch Menschen, die sich auch von Maschinen helfen lassen, ja."

Die TS passt, zumindest in Versatzstücken, ideologisch für bestimmte Gruppen von Leuten im Silicon Valley. Du hattest in der Editierung die Verortung der SU im NASA-Campus auf dem Moffett Federal Airfield im Silicon Valley gestrichen. TW erwähnt eine Nähe der SU zum militärisch-industriellen Komplex. Simon Worden, ein General im Ruhestand, vermittelte die Räumlichkeiten. Die SU ist insgesamt eine ziemliche Kaderveranstaltung: CEOs, Unternehmer, Hedgefontmanager, Risikokapitalgeber sind eine zentrale Zielgruppe. Dazu passt das Kursprogramm, die Beteilungen, die Preise, etc, aber eben auch die Inhalte. Accelerating change z.B., also grenzenloses exponentielles Wachstum passt da einfach prima.

Eine bloss technische Betrachtung der Allmachtsphantasien im TS wie es z.Zt. Schwerpunkt im Artikel ist, greift evtl. zu kurz. Und deshalb scheint das SU auch nicht ins Bild zu passen.

-- Cobalt pen (Diskussion) 15:51, 4. Aug. 2015 (CEST)

Moore's Law

Wie hier schon etwas auch in der Diskussion angedeutet, ist die Nennung des Gesetzes im Kontext der exponentiellen Rechenleistungs- entwicklung zwar nicht grundsätzlich falsch, suggeriert aber auch in der jetzigen Form die häufig gemachte klar falsche Interpretation des Gesetzes, wonach die tatsächliche Rechenleistung dem Gesetz folgen würde. Das ist aber nicht die Aussage des Gesetzes, sondern dieses macht lediglich eine entsprechende Aussage über die quantitative Entwicklung (der Dichte) der integrierten Schaltkreise. So bemerkte Moore selbst ja auch schon recht zeitig nach Etablierung des Gesetzes in der Rechnertheorie, dass die tatsächliche Entwicklung der Rechenleistung damit nicht zwangsläufig direkt korreliert und mittlerweile höchstens noch inhaltlich stimmig bei der Skalierung von Parallelrechnerkonzepten überhaupt auch nur ansatzweise dem Trend noch irgendwie folgt. Das ist dann aber auch schon wieder fast ein anderes Thema. Petrucciation (Diskussion) 14:53, 27. Dez. 2016 (CET)

Die erste Grafik erklärt nichts

Die Punkte sind nicht nachvollziehbar; sind diese vieleicht eher quantitativ (55 verschiedene Musikplayerentwicklungen)? Nur eins rausgepickt - Auto: diese waren in den 1930ern so leistungsfähig (Geschwindigkeit, Größe), wie in den 2010ern, auch wenn heute viel mehr Kokolores eingebaut wird (Bluetooth anstatt Grammophon, Servo- anstatt Klotzbremse). Auch die ursprünglichen Erfindungen unserer heutigen Technologie fanden in den ersten Jahrezehnten des 20. Jahrhunderts statt und werden heute nur "abgeändert", aber nicht grundlegend verändert.--Wikiseidank (Diskussion) 08:24, 14. Sep. 2017 (CEST)

"Sind vernachlässigbar" oder "waren vernachlässigbar"?

Mein Edit, der revertet wurde, sagte, die Mitgliederschaft und Forschungsaktivitäten dieser Institute waren laut dem deutschen Soziologen Sascha Dickel noch 2010 „faktisch vernachlässigbar“.

Er wurde revertet, weil es keine Belege gäbe, dass der Stand sich geändert habe.

Acht Jahre alte Zitate als aktuellen Stand auszugeben ist aber mM ebenfalls Unsinn. Die Quelle sagt nichts über "sind" aus, allerhöchstens über "waren". (ping @Rainald62) FeepingCreature (Diskussion) 20:24, 29. Jan. 2019 (CET)

Ich weiß nicht, wie ich darauf reagieren soll, dass bei einem Editkonflikt der Diskussionspartner verschwindet. Ich stimme dem Revert nicht zu. Wenn du ihn nicht besser begründest, nehm ich das Thema zu Dritte Meinung.

"sind faktisch vernachlässigbar" ist eine Formulierung, die für eine Institution mit laufenden Aktionen schlicht nicht der Quelle entspricht, wenn die Quelle acht Jahre veraltet ist.

Ping @Rainald62 FeepingCreature (Diskussion) 06:11, 18. Jun. 2019 (CEST)

Dass die Quelle nicht aktuell ist, dürfte der interessierte Leser sehen. Muss es dem weniger interessierten Leser per "Stand 2010" nahegebracht werden, obwohl eine wesentliche Änderung unwahrscheinlich ist? Die Institute waren ja 2010 nicht jung und expandierend. Falls deine Einschätzung anders ist, belege sie. --Rainald62 (Diskussion) 20:41, 4. Jul. 2019 (CEST)