Konferenzbericht Session II: Digitale Governance

Posted: September 25, 2010 at 9:47 pm  |  By: Andreas Möllenkamp  |  Tags: , , , ,  |  1 Comment

Autor: Andreas Schmidt

Welche Prozesse, Strukturen und Institutionen sind es, die über Zugang zum Wissen, zur Publikation von Wissen entscheiden? Johanna Niesyto, Doktorandin an der Universität Siegen und Mitinitiatorin der Wikipedia-Forschungsinitiative “Critical Point of View”, moderierte die Session zu Digitale Governance in dem beeindruckenden Lesesaal der Universitätsbibliothek Leipzig. Ulrich Johannes Schneider würde es Schreibsaal nennen, weil man dort zuvorderst Schreiben würde; was ich einem Mann aber nicht so recht abnehmen kann, der in seinem Vortrag in der Session am Morgen gefühlte hundert Enzyklopädien aus zwanzig Ländern zitierte. So viel kann man gar nicht schreiben. Schon gar nicht, wenn die Textsubstrate als komprimierte Wissenswände in den Raum geschickt werden, wie im ersten Vortrag.

Ramón Reichert, Professor an der Universität Wien und lehrend in halb Österreich tätig, gab einen hoch angereicherten Einblick in Wissenspraktiken der Selbstregulierung der Wikipedia. Industriesoziologie, Arbeits- und Personalwirtschaftswissenschaften, Innovationsstudien – Wikipedia ist zum Studienobjekt einer ganzen Bandbreite von Wissenschaftsdisziplinen geworden. Sie alle wollen wissen, ob und wie sich das Phänomen und die Kernmerkmale von Wikipedia auf andere gesellschaftliche Bereiche übertragen lassen. Die einzelnen Disziplinen fokussieren sich auf unterschiedliche Gebiete: die Schaffung von Wissen (oder besser: die Explifizierung von Wissen) ohne das die Kreierenden dazu von Dritten mit welchen Incentives auch immer (Hierarchie oder Markt, also: Gehalt, Gewinn oder Knüppel) angehalten werden müssten, neue Formen betrieblicher Organisation um die Wikimedia Foundation und die Nutzer (nicht die Leser) der Wikipedia.
Reichert gab einen Überblick über verschiedene theoretische Zugänge, um die genannten Charakteristiken der Wikipedia zu begreifen. Als Literaturinspirationen nannte er unter anderem Yochai Benklers Erläuterungen zu Common-based Peer Production (2006 und 2001, den Artikel “New role of users in internet based innovation processes” von Heidemarie Hanekop und Volker Wittke (eine deutsche Version) sowie “Organizational Structures and Decision Making Processes: A Multi-Level Model” von Alexandre Gachet und Patrick Brézillon.

Benklers Modell der commons-based peer production ist auch eine der theoretischen Säulen, auf denen Christian Pentzolds jüngste Arbeiten über Wikipedia beruhen. Nach Aufenthalten als visiting scholar am Oxford Internet Institute und dem Berkman Center der Harvard Law School wieder zurück an der TU Chemnitz, präsentierte Pentzold einige Ergebnisse eines Forschungsprojektes, das er zusammen mit Max Loubser (OII) durchgeführt hatte: “Gemeingut-Regime: Wie die Wikipedia ihre Inhalte schützt”.

Zuerst jedoch ein solider Galopp durch theoretische und konzeptionelle Landschaften der Sozialwissenschaften, in der so Dinge wie Gemeingüter (englisch: commons), Tragedy of the Commons, Informational commons oder peer production gedeihen. Warum schaut sich das Pentzold an, wenn er der Frage nachgeht, wie die Wikipedia ihre Inhalte schützt? Zunächst ordnet er Wikipedia als ein Gemeingut ein, ganz im Sinne des “befreiungsideologischen” (Christian Stegbauer) Wikipedia-Slogans “The encyclopedia anyone can edit”. Zugang zu, Nutzung von und Kontrolle der Wikipedia-Informationen stehen grosso modo allen offen. Allerdings gibt es verschiedene Varianten der Offenheit von Allgemeingütern und des Grades ihrer Regulierung. Offen und unreguliert war Wikipedia in ihren frühen Tagen und Luft ist es heute weitgehend auch, reguliert und offen sind einige Fischfangzonen (vgl. Homans/Wilen 1997 über Regulated open access), geschlossen und reguliert die Almwiesen für Viehauftrieb in den Seitentälern des Vinschgautals in Südtirol.

Garrett Hardin hatte mit seinem Artikel von 1968 über die “Tragedy of the commons” lange Zeit das Bild der Gemeingüter geprägt: Wäre ja schön, wenn sie gelängen, aber – homo economicus, homo hominem lupus – irgendeiner ist immer darunter, der mehr abgreifen möchte und so die Gemeinwirtschaft tragisch zusammenbrechen lässt. Elinor Ostroms Verdienst war es, mit ihrer Forschung die prinzipielle Funktions- und Selbstregulationsfähigkeit von Gemeingütern wie Fischgründen oder Bewässerungssystemen nachgewiesen zu haben. (Ein kleiner FAZ-Artikel über Ostrom)

Aber warum überhaupt Tragedy of the commons erwähnen? ” Wo soll bei Wikipedia die Gefahr der Tragödie liegen? Pentzold sieht bei Wikipedia zwei Bereitstellungsdilemmata, ein Dilemma bei der Produktion von Artikeln, nicht eines bei der Verteilung: Zum einen müssen die Informationen produziert werden, dazu benötigt man Freiwillige, die sich an der Produktion und Administration von Texten beteiligen möchten. Zum anderen können Vandalen und in Edit-Wars engagierte Nutzer die Arbeitskraft der Freiwilligen binden und deren Motivation zur unentgeltlichen Mitarbeit untergraben. Wie Fischgründe durch Selbst- oder Fremdregulation vor Überfischung bewahrt werden, versucht die Wikimedia das Bereitstellungsdilemma durch verschiedene Sicherungssysteme zu mildern.

Niesyto hatte in ihren einleitenden Worten zu Pentzold angekündigt, der Vortrage würde – in Anspielung an James Surowieckis “Wisdom of the Crowds” – die “Wisdom of Controlling Crowds” behandeln. Pentzold trug nun keine Sicht aus Perspektive der Surveillance Studies auf Wikipedia vor. Er erläuterte in seinem empirischen Teil die Sperraktivitäten in der englischsprachigen Wikipedia, basierend auf einem Datendump aus dem Jahre 2008. Neuere Daten und Daten zur deutschen Wikipedia konnte er entsprechend leider nicht präsentieren. Während in den Anfangszeiten 2003 lediglich 0,05% aller Artikel pro Tag gesperrt waren, ist der Anteil insbesondere ab 2007 bis 2008 auf 0,4% angestiegen. Fast neunzig Prozent der tausend meisteditierten Artikel wurde ein- oder mehrmals gesperrt. Einige Artikel werden gar dauerhaft geschützt. Die Hälfte der Sperrungen werden nach 16 Stunden wieder aufgehoben, 75% nach spätestens zwei Wochen und 84% innerhalb von vier Wochen.

Die Administratoren verfügen über verschiedenen Schutzinstrumente wie Vollschutz, Verschiebeschutz oder Halb-Schutz (Vgl. Wikipedia Protection Policy). Ursachen für den Einsatz von Schutzmaßnahmen sind – absteigend nach ihrem Häufigkeitsanteil – Vandalismus (32%), unbekannte Gründe (27%), Löschungen (25%), Edit-Wars (9%), Schutz vor Artikelverschiebungen (4%). Vollschutz setzten die Wikipedia-Administratoren vor allem bei Artikellöschungen (46%) und Edit-Wars (21%) ein. Zum Halbschutz (semi-protection) wird vor allem bei Vandalismus (58%) gegriffen.

Die empirische Zwischenlage zwischen Reicherts aus Theorie-Geflecht und Pentzolds solidem Theorie-Empirie-Gemisch lieferte Leonhard Dobusch mit seinem schnell vorgetragenen Vergleich der Wikimedia Foundation und Creative Commons und deren unterschiedlichen Organisations- und Entwicklungsstrategien.

Nicht dass er, promovierter Ökonom, theorie- und modelllos vortragen würde. Aber in seiner Zunft pflegt, wie er selbstironischer Genauigkeit anmerkte, die Welt in handliche 2×2-Matrices zu unterteilen. Eine Folie zu den Beziehungen zwischen Organisationen (Eigenschaften: formale Organisation u. Mitgliedschaften, implizite Hierarchie) und Communities (organisierte Informalität, Mitgliedschaft durch Selbstidentifikation).
Ein weitere Matrix zu Governanceformen – mit den beiden Dimensionen zentralisierte Hierarchie vs. dezentralisierte Heterarchie sowie partizipativ vs. nicht-partizipativ. Macht zusammen eine handliche Vier-Felder-Matrix: a) zentral, partizipativ: repräsentative Demokratie nannte Dobusch als einen solchen Fall [der Repräsentant partizipiert in der Tat ;-) ], b) zentral, nicht-partizipativ: wohlmeinende Diktatur, c) dezentral, nicht partizipativ: organisationales Netzwerk, Koalitionen, d) dezentral, partizipativ: Basisdemokratie [Sind nationale Volksabstimmungen nicht ein Element der Basisdemokratie? Bzw. ist sind die dezentral?].

Anyhow, Dobusch hatte interessante Dinge über die unterschiedlichen Entwicklungsdynamiken von Wikimedia auf den einen Seite und Creative Commons auf der anderen mitzuteilen. Beide Organisationen charakterisierte Dobusch als Franchisegeber, der jeweils “dem wirtschaftlich und rechtlich selbständigen Franchisenehmer genau festgelegte Rechte einräumt und diesem bei der Erfüllung seiner Tätigkeit anleitet”. Wikimedia Foundation und Creative Commons erlauben ihren jeweiligen nationalen oder regionalen (es gibt keine deutsche Wikipedia oder CC, sondern deutschprachige) Ableger die Verwendung von Namen, Logos, Software, etc.

Doch beide Organisationen wählten unterschiedliche Entwicklungsstrategien. Für die Wikimedia Foundation diente interessanterweise die zurecht viel geschmähte deutsche Vereinsmeierei (treffen sich zwei Deutsche, interessieren sich für Wikipedia und Gründen einen Verein…) als organisatorisches Vorbild. Unter Druck geraten durch einen spanischen Fork (Enciclopedia Libre, detaillierter die englischsprachige Version), transferierten Wales & Co die Wikipedia-Domain von ihrem Porno-Büdchen Bomis zur eigens neu gegründeten Wikimedia Foundation, die wiederum die einzelnen Sprachprojekte in mitgliederbasierte Chapter überführte, denen sodann als “Franchisenehmern” die Nutzung von Software, Domain, Namen etc. eingeräumt wurde.

Creative Commons, die US-amerikanische Non-Profit-Organisation, die sich die globale Verbreitung der Creative-Commons-Lizenzen zum Ziel genommen hat, wählte einen anderen Expansionspfad. Sie setzte auf Kooperationen mit existierenden Organisationen, um die Creative-Commons-Lizenzen an die jeweiligen nationalen Rechtsetzungen anzupassen. Für diese Lizenzportierungen suchte CC in den “epistemischen Gemeinschaften von urheberrechtskritischen Juristen”. In Deutschland etwa wurde CC bei der Europäischen EDV-Akademie des Rechts, Merzig/Saarbrücken, fündig. Als hiesiger politisches Sprachrohr fungiert newthinking.

Die Entwicklungsdynamiken dieser beiden Ansätze vergleichend, erkannte Dobusch einen anfänglich schnelleres Wachstum der CC, insbesondere in Entwicklungsländern. In denen fehlt offenbar eine breite, gut gebildete Mittelschicht mit günstigem Onlinezugang und hinreichender Freizeit, um Wikipedia-Artikel in großer Anzahl zu schreiben zu können. Ein paar portierungswillige Juristen zu finden, bereitete Creative Commons dagegen offenbar auch in Entwicklungsländern keine großen Probleme.

Responses

  1. netdefences » Blog Archive » Limits of commons-based peer production at Wikipedia says:

    September 28th, 2010 at 19:21 (#)

    […] discussed the session on “Digitale Governance” in greater detail at the CPOV website (in deutsch, though). September 28th, 2010 | peer production, Wikipedia | […]

Leave a Response