Wikiup Diskussion:Wiki 2030/Thema 2
{{Wikipedia:Wiki 2030/Menü | TabDisk=Active }}
1. Welche Auswirkung auf die Welt hätte die Verfolgung dieses Themas?
Wissen ist Teil des Menschen und unter seiner Kontrolle, künstliche Intelligenz bedient sich dieses Wissens, es ist jedoch frei jeder Werte. Welche Rolle spielt Wikipedia im diesem Prozess unter den folgenden Prämissen?
- Gilt noch die Aussage von Herbert George Wells: „Die menschliche Geschichte kennt nur eine Richtung, vorwärts und aufwärts. Die Menschheit ist zu Höherem bestimmt.“[1]
- Yuval Noah Harari: „Um die heutige Welt zu verstehen, muss man unglaubliche Mengen an Daten auswerten. (In der weltweiten Finanzkrise haben selbst die Experten nicht gewusst, was geschieht.) Die einzigen Systeme, die alle relevanten Daten verarbeiten können, sind Big-Data-Algorithmen. Durch künstliche Intelligenz wird der Mensch durch bessere, höhere Algorithmen ersetzt werden.“[2]
- Stephen Hawking: „Künstliche Intelligenz kann eines Tages die Fähigkeit erlangen, sich selbst zu verbessern und zu einer Explosion der Intelligenz führen, die die Spezies Mensch verdrängt und keiner menschlichen Wertvorstellung unterworfen ist (OpenAI).[3] --Hapebalf (Diskussion) 16:59, 22. Mai 2017 (CEST)
- Die Idee etwas Übermenschliches zu schaffen, das einem Wissen generiert und Antworten liefert ist älter als der Fauststoff. Nur befürchte ich, dass wir uns dem mephistophelischen Verführungen dahinter nur oft nicht bewusst sind. Auch Asimov ging auf einige Folgen ein, die echt erschreckend sein können. Wichtig ist, denke ich, dass wir erstmal zwischen menschlicher Intelligenz/ weiterer kognitiver Fähigkeiten und bloßen Algorithmen differenzieren. Der Lsjbot wandelt hauptsächlich Daten um und platziert sie an der richtigen Stelle, hierbei würde ich aber noch nicht von einer Intelligenz sprechen. Die Gefahren durch Botbesitzer sind aber dennoch nicht zu unterschätzen, allerdings liegen diese dann immer noch beim Menschen der sie ausführt. Zusätzlich werden auch dadurch schon Wikipedianer redundant. Aber dieser Fortschritt lässt sich schwer stoppen, wie der kürzlich entstandene Artikel Generation R zeigt. Jetzt frage ich aber auch mal kritisch zurück: Braucht es zur Wissensgenerierung und Wartung Werte oder sind diese sogar hinderlich für z.B. die Fehlerfreiheit und Neutralität? Also welche Rolle spielt künstliche Intelligenz nun in der Wikipedia? Als Menschen ist es unserer Verantwortung und Natur nach Antworten zu suchen, Dinge zu verändern und die Natur zu erhalten. Dafür ist es notwendig über diese Bescheid zu wissen. Ein Bot der z.B. Artikel zu Orten, astronomischen Objekten und Lebewesen erstellt, hilft uns mehr über unsere Umwelt zu erfahren und dadurch besser auf sie eingehen zu können. Wenn wir wirklich wissen wollen "was die Welt/das Universum im Innersten zusammenhält" sehe ich dies als einzige Möglichkeit an - vom utopischen Charakter mal abgesehen. Zum Beispiel sagt Stephen Hawking auch, dass wir den Planeten in den nächsten 100 Jahren verlassen müssen, diesen Prozess kann ich mir nur sehr schwer ohne künstliche Intelligenz vorstellen. Gesellschaftliche Themen sind allerdings nochmal ganz anders zu bewerten. Und bis Bots komplexe Artikel erstellen können wird es wohl auch noch etwas dauern. Ein weiter Schwerpunkt wird wohl auch der Einsatz in der Komplexitätstheorie und Berechenbarkeitstheorie sein, z.B. zur Ermittlung von potenziellen Artikeln. Was auch kritisch zu bewerten ist, das Assistenzsysteme dem Leser im weniger abfordern und mehr oder weniger kontrollieren was er weiß als andersrum. Deswegen sollten wir auch weiterhin uns nicht nur auf diese Antworten verlassen und weiter in die Materie gehen. Durch die schematische Struktur kann das eigentliche enzyklopädische Verständnis verloren gehen und es bleibt natürlich die Frage ob ein Wiki wie wir es kennen noch tragbar ist, wenn ein Bot direkt Lösungen auf Fragen bieten kann. Allerdings wird wohl erstmal der Alltag/Forschung betroffen sein, für die Bildung kann ich mir sowas noch schwer vorstellen. --Noobius2 (Diskussion) 16:18, 22. Mai 2017 (CEST)
- Ich glaube, es ist weniger eine „individuelle künstliche Intelligenz“ zu fürchten. Vielmehr sind es die heute bereits in großem Stil gesammelten Daten von Google, Facebook und Co., die über die Persönlichkeitsstrukturen der Nutzer (sie sind das „Produkt“) mehr wissen als die Nutzer selbst, wie Daten aus Suchanfragen, Handynutzung, Kreditkarteneinsatz, Navigationssysteme, GPS, Email, „eigene“ Bilder im Netz, Krankenkarte usw. Dank der Werbung ist das auch noch ein gutes Geschäft, die ungebremst nach immer mehr Daten fragt (Big Data). Dem Nutzer werden heute bereits Vorschläge für bestimmte Verhaltensweisen unterbreitet (vorstellbar auch eine Wahlempfehlung für eine Partei), deren Zusammenhänge sich dem Nutzer nicht erschließt. Ein nächster kleiner Schritt ist Klassifizierung bzw. Ranking der Menschen. --Hapebalf (Diskussion) 17:37, 22. Mai 2017 (CEST)
- Aber ist es Aufgabe einer Enzyklopädie Persönlichkeitsstrukturen zu erstellen oder eher eine der großen Konzerne? Anderseits wenn man sich z.B. die Suche anschaut. Was ich mir aber vorstellen kann sind Wikimedia-Projekte die dies tun und wenn diese Daten dann an die falschen Hände geraten will ich auch nicht dabei sein. BigData zu nutzen bietet natürlich aus als Wissens/Informationssystem viele Vorteile, da sich so schnell Strukturen herstellen lassen. Wahlentscheidungen übernimmt ja z.B. schon der Wahlomat. Auch Ranking von Menschen nach Big Data ist ja heute schon Alltag (gerade im Online-Marketing). Das solche Systeme teilweise mehr wissen als der Mensch ist manchmal schon erschreckend. Sind wir doch nicht so unberechenbar wie wir immer behaupten? Man muss aber auch bedenken Big Data und Co. ist die einzige Möglichkeit in dem Datendschungel zurecht zu kommen und für Ordnung zu sorgen. Uns Menschen ist es jedenfalls nicht möglich dieses Wissen zu erfassen und dann auch noch zu ordnen - allein aus Zeit und Belastbarkeitsgründen. Was man aber davon nun auch brauch und was mehr Fluch als Segen ist, dass wird man wohl bald sehen.--Noobius2 (Diskussion) 18:43, 22. Mai 2017 (CEST)
- Wenn mir an der KI etwas sorgen macht, dann, dass sie zu gut funktionieren könnte. Die Ausgabe 11/17 der Computerzeitschrift c't liefert ein schönes Beispiel. Dort geht es um den Einsatz von KI in der Bildbearbeitung (Andrea Trinkwalder: Foto-Synthese – Die neuronale Bildbearbeitung der Zukunft, S. 80–85). Man nehme eine Tageslichtaufnahme der Stadt A, eine Nachtaufnahme der Stadt B, rechne beides zusammen und – schwunpp! – schon hat man die Stadt A bei Nacht. Nun hat man schon immer Fotos retuschiert und verfälscht, Es ist aber ein Unterschied, ob man Geschick und Kenntnisse für sowas benötigt oder mal eben zwei Fotos zusammenrechnen kann. Außerdem stellt sich die Frage, wer soll die Fälschung noch erkennen? Okay, kann man jetzt auch wieder 'n neuronales Netz drauf ansetzen. Kommt das nächste Netz und macht die Fälschung noch perfekter. Sowas hat natürlich Auswirkungen auf das Bildmaterial, dass WP und andere Projekte verwenden, sei es zur Bebilderung oder als (Teil von) Quellen. --Duschgeldrache2 (Diskussion) 23:31, 28. Mai 2017 (CEST)
- Ich halte KI bei uns für durchaus sinnvoll. Beispielsweise könnten wir gut ein Programm gebrauchen, dass alle commons-Bilder anschaut und anschließend auf dem zukünftigen commons-Wikidata eine Bild-Beschreibung abspeichert. Also ein KI-tool. Das ist allerdings keine Sache, die der Wikipedia neues Leben einhaucht, sondern nur halt ein weiteres tool. Die Frage wäre, welcher Aufwand muss gemacht werden, um so etwas zu realisieren, weil es zwar den Basiscode irgendwo geben wird, aber die Anpassung an unsere Bedürfnisse müssen wir dann schon selbst machen. Zur Foto-Synthese: Ich hatte die Idee zu einer bestimmten Art von Grafik im Sportbereich, die aus Wikidata-Daten gespeist wird. Wäre schon mit heute vorhandenen Mittel machbar. Vorteil wäre, dass man innerhalb einer Minute so eine Grafik anfertigen kann, im Gegensatz zur händischen Grafik-Anfertigung. Aber auch hier: Das ist kein strategisches Produkt. --Goldzahn (Diskussion) 10:54, 29. Mai 2017 (CEST)
Ich verstehe die Diskussion nicht - die passt doch nicht wirklich zu dem Thema. Das was dort steht hat ja nichts mit KI zu tun. Es sollen Tools zur Anwendung kommen, die das Bearbeiten und die Informationsverbreitung verbessern. Konkret wird ja ein Übersetzungstool erwähnt, was helfen würde Texte aus Schwesterprojekten (Sprachraum) zu übersetzen. Wikipedia könnte dann schneller wachsen. Wenn die Informationsvermittlung verbessert würde würde Wikipedia bestimmt noch häufiger verwendet werden. Was jetzt schon ein Problem ist und was bestimmt zunehmen würde ist die Selbstdarstellung von Firmen, Politikern und anderen Personen. -- Schuppi (Diskussion) 00:34, 4. Jun. 2017 (CEST)
2. Wie wichtig ist dieses Thema im Vergleich zu den anderen vier Themen und warum ist das so?
Ich würde dieses Thema mit Thema 4 und 5 als wichtig einstufen. (Thema 1 als sehr wichtig und Thema 3 als weniger wichtig.) Es bildet ja die Grundlage Wikipedia schneller auszubauen und besser das Wissen zu verbreiten. -- Schuppi (Diskussion) 00:41, 4. Jun. 2017 (CEST)
3. Fokussierung bedeutet auch, einen Kompromiss einzugehen. Wenn wir uns also für die nächsten 15 Jahre verstärkt für dieses Thema einsetzen, gäbe es dafür etwas, das wir stattdessen zum jetzigen Zeitpunkt nicht mehr verfolgen sollten?
Ich denke man sollte die Technisierung nicht auf die Spitze treiben, so dass er Aufwand nicht ins unermessliche steigt. Technik ist zwar nützlich aber man sollte den Fokus "Wissen" nicht aus dem Auge verlieren. -- Schuppi (Diskussion) 00:48, 4. Jun. 2017 (CEST)
Na, etwas mehr als nur "am Laufen halten" darfs schon sein. Für das "Wissen", die Inhalte, sollen ja die User sorgen. Der technische Background ist dabei immer verbesserbar, v.A. auch softwareseitig. Warum z.B. die Buchfunktion bei mir dauernd Fehler wirft, sobald sich mal eine mathematische Formel o.Ä. hineinverirrt hat... Und auch Wikipedia darf ruhig mal mit künstlicher Intelligenz herumspielen, Google u.a. tun es ja auch (meine Güte, das klingt ja schon fast wie was Verbotenes). Vllt. springen ja ein paar Komfortfunktionen für die User bei raus ("Hallo XXXX, erklär mir mal kurz den Aufbau einer römischen Legion unter Augustus!" - wobei XXXX der noch zu findende Name des freien Wikipedia-Sprachassistenten ist). Achja, und wo wir bei Technik sind: Ich bin sehr dafür, dass die Wikipedia-Verantwortlichen, also die GANZ oben, freien Zugang zur WP überall auf der Welt fordern. Und dort wo das aus v.A. politischen Gründen nicht gestattet ist, den Leuten technische Möglichkeiten in die Hand geben. Egal was. Ich hab so das Gefühl, dort wo der WP- oder überhaupt Internetzugang am schwersten ist, dort wird er am meisten gebraucht. Darauf ruhig den Fokus. Ayanami rei (Diskussion) 23:18, 14. Aug. 2017 (CEST)
4. Was sollte zu diesem Thema ergänzt werden, um es stärker hervorzuheben und effektiver zu machen?
Am effektivsten wird man arbeiten, wenn man Technik einsetzen, die schon etabliert ist. Unausgereifte Technik wird viel Zeit und Geld in Anspruch nehmen. -- Schuppi (Diskussion) 00:55, 4. Jun. 2017 (CEST)
Die Gefahren von zusätzlicher Technik und komplexer Software:
- Zuverlässigkeit kann nur gewährleistet werden, wenn die Strukturen transparent, einfach und zeitlich stabil sind. Daher sollte im Zentrum eine Datenbank und Schnittstellen vorhanden sein, die nicht unbedingte die Modernste ist, aber zuverlässig funktioniert, für die meisten Anwender in ihrer Struktur durchschaubar bleibt und ausschließlich mit freien Standards arbeitet.
- Mit der Nutzung von Apps begibt man sich in die Hegonomie (Gefängnishöfe) und Zensur von Konzernen wie Apple, Google etc. - Wer will mag Apps bauen die Wikimedia-Inhalte benutzen, sie sollten aber nicht im Zentrum der Wikipedia-Gemeinschaft stehen.
- Programmtechnische Hilfen haben auch immer die Gefahr der Entmündigung der Benutzer und der Hilflosigkeit, wenn die Dinger nicht so wie gewünscht funktionieren, am Ende durchschaut keiner mehr was da eigentlich mit welcher Programmversion x.y wie produziert wird. Ich plädiere daher für eine große Zurückhaltung. Für Spielfreudige mag man ja ein Trainingsplatz außerhalb der zentralen Wikipedia zur Verfügung stellen.
- Die Einführung von Wikidata ist begrüssenswert und nützlich, aber um dieses Potential wirklich auszuschöpfen, werden wohl in den nächsten, na sagen wir, 10 Jahre viele Ressourcen gebunden bleiben. Auch um die damit zusammenhängenden Probleme der Konsistenz, der Rückverfolgbarkeit (Belege) und der stärkeren Nutzung innerhalb Wikipedias zu lösen. Weitere große Software-Projekte könnten das Wikidata-Projekt schwächen.
- Bei der verstärkten Einführung von Video- und Audio-Material, sollte die schwerere Überprüfbarkeit und die Manipulationsmöglichkeiten mit diesen Medien bedacht werden.
- Bei der Nutzung von Medien, sollten Wikipedia nicht in Konkurrenz zu solchen Einrichtungen wie Facebook treten; oder genauer Wikipedia sollte sich nicht in die Richtung eines Unterhaltungsportals oder eines Privatdatensammlers entwickeln. ArchibaldWagner (Diskussion) 11:56, 23. Aug. 2017 (CEST)
5. Welche Organisationen sind noch in diesem Thema aktiv und wie könnten wir mit ihnen zusammenarbeiten?
Den letzten Satz konkreter formulieren
Die Themenbeschreibung wurde ja in den letzen Tagen (zwischen dem 16. und dem 21. Mai) zwei mal überarbeitet. Insbesondere der letzte Satz ist dabei meines Erachtens zu wolkig und unklar geraten, daher schlage ich folgende Formuierung vor: „We will curate and present knowledge in ways that allow people to learn and to contribute more effective, more efficient and easier than today.“ --X:: black ::X (Diskussion) 22:38, 22. Mai 2017 (CEST)