Benutzer:Asb/Research/Statement

aus Wikipedia, der freien Enzyklopädie

-> Benutzer:Mathias Schindler/OpenContent-Fragen

Grundsätzliche Fragen:

  • was ist hier"Open Content" gemeint?
    • Jegliche kostenlose Inhalte?
    • Inhalte unter einer freien Lizenz wie der GNU FDL, oder im Verständnis von Open Source im Gegensatz zu Free Software?
    • Welche Merkmale zeichnen diesen "Open Content" aus?
    • Geht es nur um textuellen "Content", oder auch um Bilder und Musik?
    • Wird "Content" als Oberbegriff auch für Software verwendet?
    • Falls nicht: Wie wird Free (libre) Open Source Software (FLOSS) von "Content" abgegrenzt, wo ist die Grenze zwischen Inhalt und Algorithmus?

Grundsätzliche Anmerkungen:

  • Ich würde empfehlen zu versuchen, die Terminologie präziser zu halten. "Offene Inhalte" können durch die Allgemeinheit editierbare Inhalte bezeichnen, wie dies bei der Wikipedia der Fall ist; "Open Content" oder "Free Software" bezieht sich auf die Lizenzierung und im Falle von Software auf die Verfügbarkeit des Quellcodes, dies schließt jedoch nicht automatischz die Möglichkeit ein, eigene Beiträge in den Quellcode einfließen lassen zu können (beispielsweise beim Linux-Kernel gibt es eine Art vorgeschalteten Peer-Review-Prozeß, in der Wikipedia nicht); keiner der Begriffe bezeichnet ausserdem explizit kostenlose Inhalte, was aber anscheinend hier überwiegend mit "open" oder "offen" gemeint zu sein scheint.

Anwendungsbereich für Open Content

Sind Sie der Meinung, dass Open Content auch in anderen Bereichen als dem der Enzykloädie von Nutzen sein kann?

Definitiv und uneingeschränkt: ja.

Welches ist das Thema, das die meisten Teilnehmer hat?

Unklare Frage:

  • Was ist ein "Thema" (ein Wikipedia-Artikel? ein Themenbereich wie "christdemokratische Politik"? wie wird der eingegrenzt? ein Abschnitt auf einer Diskussionsseite?);
  • was ist ein "Teilnehmer" (ein registrierter Wikipedia-Benutzer? ein anonymer Benutzer? ein aktiv-schreibender Teilnehmer einer Diskussion? ein nur-lesender Teilnehmer? jeder aktive und passive, lesende und schreibende, regelmäßige und sporadische Benutzer?)?

Vielleicht liegt hier auch ein Mißverständnis bezüglich der Natur von Wikipedia vor; die Wikipedia ist kein (Diskussions-) Forum, bei dem Teilnehmer einen bestimmten Thread abonnieren, dessen Subscribers man dann einfach zu Zeitpunkt t abzählen könnte; die Wikipedia ist weitaus dynamischer und flexibler als die meisten derartigen Systeme:

  • In der Wikipedia gibt es zu keinem Zeitpunkt einen "fertigen" und abgeschlossenen Beitrag wie eine Nachricht in einem News-Portal oder ein Posting in einem Weblog; Inhalte sind kontinuierlich im Fluss der Bearbeitung und Veränderung.
  • Durch Prozesse wie das Refactoring kann ein Artikel zum Zeitpunkt t+n ganz anders aussehen als zum Zeitpunkt t. Man kann sich daher bestenfalls auf eine bestimmte Version eines Artikels zum Zeitpunkt t beziehen.
  • Egal, wie "Thema" definiert wird, es muss für jede sinnvolle Aussage die Zeitkomponente angegeben werden. Beispiel: Analog dazu kann man kaum pauschal angeben, wie viele Leser eine Usenet-Newsgroup oder ein Thread hat, man kann aber determinieren, wie viele Beiträge es zu einem bestimmten Zeitpunkt zu einem bestimmten Thread gegeben hat. Wir könnten in der Wikipedia vermutlich in etwa bestimmen, wie häufig ein bestimmter Artikel im Zeitraum t1 bis t2 gelesen und/oder zum bearbeiten von den wikipedia.org-Servern aufgerufen wurde; natürlich beziehen sich solche Aussagen dann nicht auf Mirrors oder lokal installierte Datenbanken, sind also bestenfalls Näherungswerte.

Ich würde von der Leistung einer wissenschaftlichen Untersuchung genau diese Erhebung analoger Daten in Beziehung auf die Wikipedia erwarten; wir können darüber nur subjektive Spekulationen anstellen.

  • Messen könnte man beispielsweise HTTP-Zugriffe auf einen Artikel; siehe [1], z.B. [2], in den Logfiles sollte noch wesentlich mehr stecken;
  • man könnte eine Artikelgruppe (z.B. aktuelle tagespolitische Themen) als Einheit operationalisieren und die HTTP-Zugriffe darauf auszählen;
  • man könnte die Anzahl der Beiträge auf der Diskussionsseite auszählen;
  • man könnte die Bearbeitungen des Artikels zählen, wie das in der "Edit Flow"-Studie von IBM Research ([3] und [4]) versucht wurde; leider ist die verwendete Software für uns nicht verfügbar, daher haben die Forschungen von Viegas et al. nur peripheren Schauwert, aber keinen praktischen Nutzwert; wir können diesen Ansatz nicht selbst einsetzen, ohne eine vergleichbare Software selbst zu programmieren (was recht ärgerlich ist).
  • Wahrscheinlich könnte man mit eindem direkten Datenbankzugriff auch schauen, wie viele Benutzer einen bestimmten Artikel auf ihrer Beobachtungsliste haben; das sagt aber mehr etwas über "Interessenten" als über "Teilnehmer" aus.

Als Ansatz für solche quantitativen Aussagen würde ich empfehlen:

  1. Begriffe "Thema" und "Teilnehmer" klar definieren;
  2. "Thema" operationalisieren, also z.B. Artikelgruppen bilden;
  3. Geeignetes Messinstrument wählen, also z.B. Logfile-Auswertungen von HTTP-Zugriffen etc., dann nochmal nachfragen, ob wir die Rohdaten beschaffen können.

Welche Personen nehmen an der Schaffung des Inhalts teil?

Auch hier gilt: Dies wäre ein Gegenstand für eine wissenschaftliche Untersuchung.

  • Wer kann teilnehmen: Nach dem Selbstverständnis der Wikipedia kann jeder teilnehmen,
    • der die jeweilige Sprache ausreichend beherrscht, um sinnvolle Sätze formulieren zu können und
    • der die internen Regeln und Gepflogenheiten akzeptiert (z.B. Wikipedia:Wikiquette).
  • Spektrum der Teilnehmer: Potentiell reicht das Spektrum also von engagierten Schülern über Studenten, Professoren, jeglichen interessierten Bürgern bis hin zu Rentnern, Fans oder Spezialisten.
  • Spekulation über den typischen Wikipedianer: Wir können nach den Benutzerseiten und IRL-Treffen im Sinne eines "educated guess" spekulieren, dass der durchschnittliche deutschsprachige Wikipedianer etwa Mitte 20 bis Anfang 30 ist, überdurchschnittlich gebildet oder zumindest an Bildung interessiert, studiert oder arbeitslos (flexibles Zeitbudget) und männlich ist.

Eine weitere Hypothese wäre, dass viele Wikipedianer gerande nicht schwerpunktmäßig auf ihrem erlernten Fachgebiet arbeiten, sondern der promovierte Mediziner in der Wikipedia beispielsweise eher zu Film oder Musik schreibt und nur sporadisch sein Fachgebiet aufarbeitet.

Wie die sozio-demographische Zusammensetzung der Wikipedianer tatsächlich aussieht, wissen wir nicht, das müsste in einer Studie analysiert werden.

Von wo kommen sie?

Hier gilt zum dritten mal: Dies wäre ein Gegenstand für eine wissenschaftliche Untersuchung.

Angenommen, die geografische Herkunft ist gemeint:

  • Aus einer Logfile-Analyse ließen sich einige Anhaltspunkte über die geographische Herkunft ableiten.
  • Ich würde vermuten, dass die deutschsprachigen Wikipedianer schwerpunktmässig aus dem deutschsprachigen Raum (de, at, ch) stammen und erheblich weniger international zusammengesetzt sind als die Mitarbeiter der englischsprachigen Wikipedia; aber auch das ist eine reine Spekulation.

Die Arbeit mit offenem Inhalt scheint mehr in den Vereinigten Staaten und in Afrika als in Europa verbreitet zu sein?

Ich kenne diese These nicht; welche Quellen oder Belege gibt es dafür? In einigen Regionen Afrikas gibt es zwar eine ökonomische Notwendigkeit, sich mit freien Inhalten zu beschäftigen, aber nur vereinzelt die infrastrukturellen Rahmenbedingungen, die dafür notwendig wären; dazu gibt es auch durchaus Studien, beispielsweise bei FirstMonday; keine mir bekannte belegt jedoch die These, die Arbeit mit "offenem" (vermutlich ist "kostenlos" gemeint?) sei generell in Afrika überhaupt weit verbreitet.

Was die behaupteten Unterschiede zwischen Europa und den USA angeht, bezweifle ich die Behauptung; in Europa gibt es eine sehr starke und engagierte Open-Source-Bewegung, Torvalds war ein schwedischsprechender Finne, das World Wide Web wurde in Genf von einem Briten erfunden. Gerade im akademischen Umfeld ist es in Deutschland nicht unüblich, Lehr- und Lernmaterialien an Kollegen weiterzugeben; das ist nicht neu, sondern schon seit Jahrzehnten so, es mag aber Unterschiede in der Handhabung zwischen den Hochschulen und sogar innerhalb der einzelnen Fachrichtungen geben.

Beispielsweise aus der Tatsache, dass die englischsprachige Wikipedia mehr Artikel aufweist als die deutschsprachige, kann man derartige Thesen jedenfalls sicherlich nicht ableiten, ebensowenig aus der singulären Erscheinung, dass das MIT mehr oder weniger umfangreiche Materialien als OpenCourseWare anbietet.

Ihrer Meinung nach, welches sind die Gründe für diese "Verspätung"?

Ich sehe durchaus Unterschiede in der pragmatischeren angloamerikanischen und der eher theoretischen kontinentaleuropäischen Forschungstradition; möglicherweise plant man im angloamerikanischen Raum weniger, sondern krempelt schneller die Ärmel hoch und baut einen Prototyp ("demo or die"); möglicherweise steht man sich in Kontinentaleuropa mit ausufernden Planungen und Debatten selbst im Weg, bevor ein Projekt realisiert wird. Das ist aber eine persönliche Beobachtung, und ich bin nicht sicher, ob man dafür systematische Belege finden könnte.

Qualitätskontrolle

Gibt es bei Wikipedia Personen, die die Entwicklung der Inhalte überwachen?

Fragen:

  • Was ist eine Person, die die "Entwicklung der Inhalte überwacht"?
  • Was ist ein "externer Kontrolleur"?

In der Wikipedia gibt es zunächst mal keinen signifikanten Unterschied zwischen "intern" und "extern", deshalb ist die Wikipedia auch per definitionem ein offenes Hypertextsystem, beispielsweise im Gegensatz zur Microsoft Encarta, die ein geschlossenes Hypertextsystem ist. Das gilt für jedes echte Wiki, also eins, in dem man ohne Benutzeraccount editieren kann.

Natürlich gibt es auch "Personen, die die Entwicklung der Inhalte überwachen", das Selbstverständnis als Enzyklopädie wäre sonst wohl auch ein schlechter Scherz; was hier vermutlich gemeint ist, ist aber wohl, ob diese Funktionen institutionalisiert sind; das ist nicht der Fall:

  • In der Wikipedia überwacht potentiell jeder registrierte oder anonyme Benutzer die Aktivitäten jedes anderen registrierten oder anonymen Benutzers.
  • Es gibt keine zentrale Planungsinstanz ("top-down"), die beispielsweise über die Lemmaselektion entscheiden würde; die Wikipedia funktioniert überwiegend entgegengesetzt ("bottom-up"); vgl. auch Wikipedia:Machtstruktur.
  • Es gibt keine dedizierten Moderatoren oder Zensoren für Inhalte, auch die Sysops bzw. Administratoren haben nicht die Funktion, Inhalte auf Gültigkeit zu überwachen; ihre Funktion besteht vielmehr darin, die Einhaltung der Regeln und Konventionen zu gewährleisten.

Eine sinnvolle Unterscheidung könnte man treffen zwischen

  • stärker und weniger stark engagierten bzw. motivierten Benutzern (siehe Wikipedia:Alternative_Benutzerstatistik) und dem, was das persönliche Engagement bewirkt oder bewirken kann bzw. wie stark ein Individuum durch Engagement das Gesamtsystem überhaupt beeinflusen kann sowie zwischen
  • Arbeitsschwerpunkten von Benutzern (User) in ihrer Funktion als Redakteure (Editors); manche Benutzter achten stärker auf formale Fehler, andere mehr auf Textkonsistenz, wieder andere kümmern sich stärker um unerfahrene neue Benutzer usw.

Es handelt sich hierbeit um eine vollständig selbstorganisierte Arbeitsteilung, die halt mehr oder weniger gut funktioniert. Welche Defizite es in diesen Prozessen gibt, wäre wiederum Gegenstand einer wissenschaftlichen Untersuchung.

Oder gibt es externe Kontrolleure?

-/-

Welches ist die Häufigkeit der Kontrollen?

Möglicherweise wird ein Artikel ununterbrochen von mehreren Benutzern überwacht und jede kleinste Änderung kontrolliert, ebenso könnte es vorkommen, daß ein einmal erstellter Artikel nie mehr geprüft wird; das hängt von zahlreichen Faktoren ab.

  • Inhalte werden in der Wikipedia sowohl potentiell ständig als auch potentiell nie kontrolliert.
  • Es gibt keinen Workflow, der irgendeine Person zur Kontrolle eines neuen Artikels zwingen würde, es gibt keinen Freigabemechanismus für "geprüfte" Artikel und keine "ungeprüften Artikel", die in irgendeiner Wiedervorlage auftauchen würden.
  • Kontrollwahrscheinlichkeit: Die Wahrscheinlichkeit, dass ein Artikel kontrolliert wird, nimmt mit der Häufigkeit der Bearbeitungen zu; neue Artikel erscheinen in einer Verwaltungsseite (Spezial:Newpages) und werden mit hoher Wahrscheinlichkeit mehrfach geprüft, da viele Wikipedianer diese Seite regelmäßig aufrufen; bearbeitete Artikel erscheinen in einer anderen Verwaltungsseite (Spezial:Recentchanges), auch was hier auftaucht wird mit hoher Wahrscheinlichkeit mehrfach geprüft. Es existieren ausserdem noch diverse weitere ähnliche Hilfmittel für Kontrollprozesse, die die Kontrollwahrscheinlichkeit beeinflussen.

Weitere Faktoren, die die Häufigkeit von Kontrollen beeinflussen können, sind beispielsweise

  • Interne Faktoren:
    • der Grad der Verlinkung, d.h. wie viele Links auf den jeweiligen Artikel zeigen;
    • das Hervorheben des Artikels, beispielsweise auf der Hauptseite als "Neuer Artikel", oder in Portalen;
    • der Grad der Aktivität einer Diskussion zum Artikel;
    • Explizite oder implizite Kontrollinitiativen wie "Vollständigkeitstests" oder "Qualitätsinitiativen" (z.B. Wikipedia:Qualitätsoffensive), [[Wikipedia:WikiProjekt|WikiProjekte), WikiReader usw.
  • Externe Faktoren:
    • Erwähnung eines Artikels in der Medienberichterstattung über die Wikipedia,
    • Grad der Thematisierung eines Begriffs oder einer Person in der Medienberichterstattung,
    • die Interessenschwerpunkte der gerade aktiven Wikipedianer; in Zeiten, in denen ein Wikipedianer intensiv neue Rechtsschreibfehler korrigiert, ist vermutlich die orthographische Qualität höher als in Zeiten, in denen überwiegend Wikipedianer aktiv sind, die vor allem neue Artikel schreiben, dabei jedoch weniger auf Orthographie achten. Durch die Kombination der Faktoren "Zeit" und "Masse der Benutzer" würde ich jedoch die Hypothese aufstellen, dass sich solche individuellen Einflüsse nivellieren.

Gab es bereits Probleme mit der Qualität eines Inhalts?

[Genanntes Beispiel für Probleme mit der Qualität des Inhalts: "falsche Informationen"]

Natürlich gibt es "Probleme mit der Qualität eines Inhalts", das gilt für die Wikipedia genauso wie für jede andere Publikation in Printform oder im Web.

  • Erstens müste man auch hier präziser Unterscheiden, was "Probleme mit der Qualität eines Inhalts" überhaupt sind (geht es hier um Rechtschreibung und Interpunktion, um Geburtsdaten von historischen Persönlichkeiten oder die "falsche" Einschätzung der Bedeutung von Personen oder Ereignissen, oder um "falsche" Gewichtung von Themen? wer bestimmt, was "falsch" ist oder wie ungenau eine Formulierung sein darf, bevor sie als "Problem" gewertet wird?),
  • zweitens gibt es in der Wikipedia ganz andere Probleme, die erheblich gravierender sind als "falsche Informationen".

Die Frage macht so einfach keinen Sinn. Viel interessanter als die triviale Feststellung von "Qualitätsproblemen" ist

  • die Operationalisierung (wie gravierend sind die Qualitätsprobleme? was bewirken sie?) und
  • der Umgang mit der Tatsache, dass nichts und niemand unfehlbar ist und keine Information absolut wahr sein kann.

Ich würde auch hier dringend zu einer Auseinandersetzung mit der internen Funktionsweise der Wikipedia raten; die Frage scheint anzudeuten, dass fundamentale Prinzipien der Wikipedia anscheinend noch nicht ausreichend klar sind.

  • Falsches Faktenwissen: Wirklich gravierende Probleme mit relevantem Faktenwissen kann die Wikipedia kaum über längere Zeit tradieren; relevante, also häufig gelesene Artikel werden eben überproportional häufig gelesen und daher auch überproportional intensiv geprüft; da jeder Benutzer den Artikel unmittelbar korrigieren kann und dies faktisch auf funktioniert, ist die Wahrscheinlichkeit äußerst gering, dass sich bei solchen wichtigen Artikeln dauerhaft Fehler einschleichen. Orchideenartikel werden seltener aufgerufen und seltener oder potentiell nie geprüft, sind daher aber auch weniger relevant, daher sind die potentiellen Probleme von Fehlinformationen auch vergleichsweise begrenzt.
  • Umgang mit Qualitätsproblemen: Eine Tageszeitung hat die Möglichkeit der Gegendarstellung und der Korrektur in einer der Folgeausgaben; Loseblattsammlungen sind korrigierbar mit der nächsten Lieferung; Monographien oder gedruckte Lexika können nachträglich nur mit enormem Aufwand modifiziert werden, allerdings sind auch solche Beispiele bekannt. Das Alleinstellungsmerkmal der Wikipedia in der intermediären Konkurrenz besteht darin, dass die Wikipedia als einziges enzyklopädiartiges Projekt einen Mechanismus bietet, Korrekturen (aber natürlich ebenso auch Fälschungen) nahezu ohne Zeitversatz einzubringen.
  • Beispiele für wirklich gravierende inhärente Probleme der Wikipedia und des Wiki-Prinzips an sich sind beispielsweise in den Bereichen der Textkohärenz, -konsistenz und -kohäsion zu suchen. Ich würde empfehlen, die Aufmerksamkeit eher auf diesen Bereich zu richten.

Welches sind die Vorteile und/oder Nachteile, die mit der Arbeit mit offenem Inhalt zusammenhängen?

  • Nachteile:
    • Die Arbeit an freien Inhalten ist, zumindest im gegenwärtigen Entwicklungsstadium, an den Luxus von viel Freizeit, Idealismus und Engagement gekoppelt.
    • Man kann von dieser Arbeit leider derzeit nicht leben. Möglicherweise bleibt die Schaffung freier Inhalte damit weiterhin bis zu einem gewissen Grad amateurhaft (im Sinne von unprofessionell); jeder tut eben das, wozu er Lust hat und unterlässt, was ihm Mühe macht oder nicht interessiert. Nur die Leute tragen zu freien Inhalten bei, die damit kein Geld verdinen können.
    • Möglicherweise verändern sich die gesellschaftlichen oder wirtschaftlichen Rahmenbedingungen irgendwann einmal dahin, dass der Luxus von viel Freizeit zurückgeht und Idealismus als Dummheit oder Unfähigkeit zu "produktiver" (geldbringender) Tätigkeit angesehen wird.

Gibt es eine Kompensation zwischen den zwei oder ist das Gewicht einer Seite überwiegender?

Definitiv und uneingeschränkt: Die Vorteile überwiegen.

Ihrer Meinung nach, wird sich die Arbeit mit offenem Inhalt als einen Erfolg erweisen (jetzt oder der Zukunft)? Ja, nein, warum?

Definitiv und uneingeschränkt: ja.

Freie Inhalte und FLOSS funktionieren nach dem ziemlich grausamen, sehr sozialdarwinistisch anmutenden Prinzip des "survival of the fittest". Ich gehe davon aus, dass freie Inhalte und Open Source den "Rest" der Welt mittelfristig einem enormen Überlebensdruck aussetzen werden, der massive Auswirkungen auf den Markt insgesamt, insbesondere auf die Qualität und die Preisgestaltung von kommerziellen Produkten, haben wird.

Ich halte das Prinzip von freien Inhalten (wieder: Kommunismus der Wissenschaften) für absolut überlegen, weil dieses Prinzip das funktioniernede Fundament für Wissenschaft seit über 2000 Jahren ist. Keine Wirtschaftsordnung oder kein politisches Modell hat sich über einen vergleichbaren Zeitraum dermaßen erfolgreich bewährt.

Und auf welchem Gebiet?

-/- (Prognosen wären hier zu spekulativ)

Theoretischer Teil

Somit möchte ich wissen ob Wikipedia sich eines oder mehrerer Modelle bedient? Aus welchem Grund?

[Genannte Beispiele: "Advertising Model" oder "Subscription Model" oder noch wissen, von anderen spezifischeren Modellen für offenen Inhalt wie "Street Performer Protocol" "Tipster", "Tipping"..."]

Auch hier gibt es wohl wieder ein fundamentales Mißverständnis von dem, was die Wikipedia ist; bei Open Content muss ebenso wie bei Freier Software oder Open Source Software grundsätzlich unterschieden werden zwischen

  • dem schöpferischen Prozess an sich und
  • einer eventuellen Vermarktung.

Die verschiedenen Formen freier Inhalte werden, im Gegensatz zu einem kommerziellen Produkt, grundsätzlich nicht mit dem Ziel erstellt, irgendeine kommerzielle Verwertung durchzuführen oder sich refinanzieren zu müssen. Freie Inhalte sind daher auch viel enger verwandt mit der Tätigkeit von Hackern oder Wissenschaftlern als mit kommerziellen Produkten; daher ist die Frage nach dem "Business Model" der Wikipedia irrelevant.

Ein ganz anderes Thema ist eine mögliche und zukünftige Verwertung von Wikipedia-Inhalten; m.W. gibt es aber noch keinen ernsthaften Versuch, Wikipedia-Inhalte kommerziell zu verwerten. Hier werden sich möglicherweise in Zukunft Verwertungsideen entwickeln; Ansätze sind der WikiReader oder das Spiegeln der Inhalte unter Beifügung von Bannerwerbung, weitere Ideen das Verkaufen von Wikipedias auf CD-ROM oder in gedruckten Exzerpten ("Version 1.0"), derzeit macht aber noch niemand richtig Cash mit der Wikipedia, daher ist es noch viel zu früh, über eventuelle zukünftige Geschäftsmodelle zu spekulieren.

Aber auch für konkretere Spekulationen müssten die genannten Geschäftsmodelle erklärt werden; ich kenne zwar beispielsweise das "Street Performer Protocol", habe aber keinerlei Vorstellung, worin sich "Tipster" und "Tipping" unterscheiden sollen.

Ist es möglich, dass Personen mit dem Inhalt von Wikipedia Profit machen können?

Ja, das impliziert jede GNU-Lizenz explizit. Das ist ja der Sinn von freien Inhalten, die Nutzung soll eben nicht künstlichen Nutzungseinschränkungen unterworfen werden.

Funktioniert das Modell gut? Ja, nein, warum?

-/-

Sonstiges

Kennen Sie vielleicht noch andere Webseiten oder Dokumentationen die ich noch benutzen könnte, oder vielleicht andere Personen, an die ich mich noch wenden könnte?

Ein paar Ansätze und Links gibt es hier und hier.


Ich bin übrigens gespannt auf die Ergebnisse der Untersuchung. In welcher Sprache werden die veröffentlicht werden?