Hermann Maurer ist ein distinguierter Professor für Informatik an der TU Graz. Stefan Weber hat sich dem Kampf gegen die „Copy-and-Paste-Kultur“ verschrieben. Beide zusammen haben mit weiteren MitarbeiterInnen jetzt einen „Forschungsreport“ verfasst, der darlegen soll, dass erstens Google eine Gefahr für mindestens die Weltwirtschaft darstellt und dass zweitens „other Web 2.0 related phenomena, particularly Wikipedia, Blogs, and other related community efforts“ – also die Organisation von Informationen durch Laien statt durch professionelle Experten-Software – ebenso brandgefährlich seien. Das ganze hat dem Grazer Institut einige Schlagzeilen gebracht („Google zerschlagen“ (Netzpolitik.org), „Google muss zerschlagen werden (heise.de)).
Universitätsbibliothek – Katalogsuche noch ganz ohne Google-Know-How …
Hinter dem Getöse scheint mir allerdings nicht sehr viel zu stecken. Vielmehr wird wild mit Vermutungen um sich geschlagen (etwa der Stefan-Weberschen „These“ des „Google Copy Paste Syndrome“ oder einer verschwörungstheoretisch erklärten Höherrankung von Wikipedia-Artikeln bei Google). Insbesondere werden zwei Sachen zusammengeworfen: die Tatsache, dass es eine qualitative Veränderung von Web 1.0 zu Web 2.0 gab, also die stärkere Einbeziehung von NutzerInnen in die Generierung von Content, und die Tatsache, dass eine basale Infrastruktur – nämlich die meistgenutzte Suchmaschine – in privater Hand ist. Die Kritik an Punkt 1 erscheint mir nur aus dem akademischen Elfenbeinturm heraus verständlich (bzw. nur im Kontext kulturpessimistischer Weltbilder). Die Kritik an Punkt 2 hat einiges für sich, wird aber so in ein falsches Licht gestellt – und führt angesichts des Hintergrunds der AutorInnen (und der Forderung nach regionalen branchenspezifischen Suchmaschinen) zur Frage, was diese sich davon versprechen. Zumindest weitere Forschungsgelder für öffentlich geförderte Suchmaschinen sollten wohl – so meine ins Blaue zielende Vermutung – wohl rausspringen, oder?
Wenn wir das Getöse und den (ja auch schon in der Telepolis und in anderen Medien zu Haufe wahrnehmbaren) Ärger Stefan Webers über die Möglichkeit des erleichterten Abschreibens dank digitaler Kopierbarkeit mal beiseite lassen, bleibt die Frage, ob angesichts eines Geschäftsmodells, bei dem möglichst genaues Wissen über die NutzerInnen zur Erleichterung entsprechender Werbeverkäufe den Grundstock bildet, Google nicht tatsächlich eine Gefahr darstellt. Darf eine private Firma – und sei sie auch noch so bemüht, sich möglicht un-evil zu geben – die Kontrolle über einen wichtigen Teil der Webinfrastruktur haben? Und dass eine Suchmaschine heute für die Funktion des Internets extrem wichtig ist – noch dazu eine, die z.B. in Firefox als Standard eingestellt ist – und dass damit Nutzerdaten en masse gewonnen werden – stimmt auf jeden Fall. Was nicht in Google auftaucht, wird tatsächlich selten gesehen. Andererseits sind auch die Telefon- und Datennetze in privater Hand. Warum also nicht der Layer „Suchmaschine“? Und auch die Aufmerksamkeitsbündelung funktioniert ja nicht nur über Google. Erstens gab es davor andere Suchmaschinen (die Zeiten von Altavista …), die von Google vor allem aufgrund der besseren Ergebnisse und Bedienbarkeit abgelöst wurden, zweitens gibt es weiterhin andere Suchmaschinen (z.B. Yahoo und die Versuche von Microsoft), drittens tragen private Medienangebote wie Spiegel online sicherlich ebenso massiv zur Formierung von Weltbildern bei, wie dies Wikipedia-Einträge und Suchmaschinentreffer tun, und viertens ist der technologische Vorsprung von Google zwar gewaltig, aber nicht uneinholbar. Technorati ist ein Beispiel dafür.
Wie könnte eine Regulierung von Google aussehen? Wichtige Gesichtspunkte hier sind sicherlich der Datenschutz und die Frage, was Google wie lange speichern kann, die Frage, in welcher Form Suchergebnisse zur Verfügung gestellt werden (also z.B. auch digital an Weiterverwerter …) und die Frage, ob die Neutralität der Suchergebnisse regulierbar ist (z.B. eine klare Kennzeichnung nicht nur der Textanzeigen am Rand, sondern aller Suchmaschinenergebnisse, die nicht allein algorithmisch eingeordnet wurden). Da ließe sich vermutlich ein entsprechender politischer Rahmen schaffen.
Bleibt als Fazit: Kartellämter und ähnliche Aufsichtsbehörden sind auch im Web 2.0 nicht unwichtiger geworden. Und auch der sympathischsten Firma sollte ab und zu auf die Finger geschaut werden – insbesondere, wenn es um grundlegende Infrastrukturen geht: Wasser, Strom, Verkehrsnetze, Datennetze oder die darüber liegenden Layer an Informationsinfrastrukturen. Monopolbildungstendenzen liegen hier nahe. Die Lösung, „Google zu zerschlagen“, oder massiv öffentliche Gelder in die Konkurrenz zu stecken, ergibt meiner Meinung nach jedoch wenig Sinn. Und Wikipedia, Second Life und andere Web‑2.0‑Angebot einfach mal so mitzuschlagen, wenn etwas anderes gemeint ist, ist ebenso falsch. Natürlich ist auch das Web 2.0 in großem Maße eine Infrastruktur – am Beispiel Flickr habe ich mir ja schon einmal ausführlich Gedanken dazu gemacht, warum eigentlich ein offener Standard für soziale Netzwerke not tut. Nicht zuletzt Google ist hier übrigens in letzter Zeit ziemlich aktiv …
Warum blogge ich das? Weil ich mich über die Meldung – und dann über den Report – ziemlich geärgert habe.
Update: Wer etwas Intelligentes über die Gefahren einer Google-World lesen möchte, ist mit Scroogled von Cory Doctorow bestens bedient. Dank der von Weber verpönten Creative-Commons-Lizenz liegt diese Kurzgeschichte inzwischen in dutzenden Sprachen vor und kann kreativ verwendet werden.
Update 2: Noch zwei interessante Reaktionen der Blogsphäre: Grazer Dekan badet im Fettnäpfchen, heißt es in Österreich, und bei Mathias Schindler gibt es ein paar gute Argumente gegen diesen „Forschungsreport“ aus Sicht der Wikipedia (auch die Kommentare sind lesenswert).
Update 3: (14.12.2007) Florian Rötzer weist in der Telepolis auf Googles Projekt Knol heraus – eine wohl unter Creative-Commons-Lizenz stehende autorenbezogene Wikipedia-Alternative. Also doch auf dem Weg zur informationellen und diskursiven Weltbeherrschung? Oder nur ein Versuch, ein akademisches Äquivalent zu Facebook & Flickr zu schaffen? Mich interessiert vor allem – mal jenseits der dystopischen Unkenrufe – die Frage, ob Knol, wenn es den wirklich kommt, bidirektional Wikipedia-kompatibel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das andere System wandern können.