Google regulieren statt Wikipedia schlagen (Update 3: Knol)

Her­mann Mau­rer ist ein distin­gu­ier­ter Pro­fes­sor für Infor­ma­tik an der TU Graz. Ste­fan Weber hat sich dem Kampf gegen die „Copy-and-Pas­te-Kul­tur“ ver­schrie­ben. Bei­de zusam­men haben mit wei­te­ren Mit­ar­bei­te­rIn­nen jetzt einen „For­schungs­re­port“ ver­fasst, der dar­le­gen soll, dass ers­tens Goog­le eine Gefahr für min­des­tens die Welt­wirt­schaft dar­stellt und dass zwei­tens „other Web 2.0 rela­ted phe­no­me­na, par­ti­cu­lar­ly Wiki­pe­dia, Blogs, and other rela­ted com­mu­ni­ty efforts“ – also die Orga­ni­sa­ti­on von Infor­ma­tio­nen durch Lai­en statt durch pro­fes­sio­nel­le Exper­ten-Soft­ware – eben­so brand­ge­fähr­lich sei­en. Das gan­ze hat dem Gra­zer Insti­tut eini­ge Schlag­zei­len gebracht („Goog­le zer­schla­gen“ (Netzpolitik.org), „Goog­le muss zer­schla­gen wer­den (heise.de)).

UB terminals waiting
Uni­ver­si­täts­bi­blio­thek – Kata­log­su­che noch ganz ohne Google-Know-How …

Hin­ter dem Getö­se scheint mir aller­dings nicht sehr viel zu ste­cken. Viel­mehr wird wild mit Ver­mu­tun­gen um sich geschla­gen (etwa der Ste­fan-Weber­schen „The­se“ des „Goog­le Copy Pas­te Syn­dro­me“ oder einer ver­schwö­rungs­theo­re­tisch erklär­ten Höher­ran­kung von Wiki­pe­dia-Arti­keln bei Goog­le). Ins­be­son­de­re wer­den zwei Sachen zusam­men­ge­wor­fen: die Tat­sa­che, dass es eine qua­li­ta­ti­ve Ver­än­de­rung von Web 1.0 zu Web 2.0 gab, also die stär­ke­re Ein­be­zie­hung von Nut­ze­rIn­nen in die Gene­rie­rung von Con­tent, und die Tat­sa­che, dass eine basa­le Infra­struk­tur – näm­lich die meist­ge­nutz­te Such­ma­schi­ne – in pri­va­ter Hand ist. Die Kri­tik an Punkt 1 erscheint mir nur aus dem aka­de­mi­schen Elfen­bein­turm her­aus ver­ständ­lich (bzw. nur im Kon­text kul­tur­pes­si­mis­ti­scher Welt­bil­der). Die Kri­tik an Punkt 2 hat eini­ges für sich, wird aber so in ein fal­sches Licht gestellt – und führt ange­sichts des Hin­ter­grunds der AutorIn­nen (und der For­de­rung nach regio­na­len bran­chen­spe­zi­fi­schen Such­ma­schi­nen) zur Fra­ge, was die­se sich davon ver­spre­chen. Zumin­dest wei­te­re For­schungs­gel­der für öffent­lich geför­der­te Such­ma­schi­nen soll­ten wohl – so mei­ne ins Blaue zie­len­de Ver­mu­tung – wohl raus­sprin­gen, oder?

Wenn wir das Getö­se und den (ja auch schon in der Tele­po­lis und in ande­ren Medi­en zu Hau­fe wahr­nehm­ba­ren) Ärger Ste­fan Webers über die Mög­lich­keit des erleich­ter­ten Abschrei­bens dank digi­ta­ler Kopier­bar­keit mal bei­sei­te las­sen, bleibt die Fra­ge, ob ange­sichts eines Geschäfts­mo­dells, bei dem mög­lichst genau­es Wis­sen über die Nut­ze­rIn­nen zur Erleich­te­rung ent­spre­chen­der Wer­be­ver­käu­fe den Grund­stock bil­det, Goog­le nicht tat­säch­lich eine Gefahr dar­stellt. Darf eine pri­va­te Fir­ma – und sei sie auch noch so bemüht, sich mög­licht un-evil zu geben – die Kon­trol­le über einen wich­ti­gen Teil der Web­in­fra­struk­tur haben? Und dass eine Such­ma­schi­ne heu­te für die Funk­ti­on des Inter­nets extrem wich­tig ist – noch dazu eine, die z.B. in Fire­fox als Stan­dard ein­ge­stellt ist – und dass damit Nut­zer­da­ten en mas­se gewon­nen wer­den – stimmt auf jeden Fall. Was nicht in Goog­le auf­taucht, wird tat­säch­lich sel­ten gese­hen. Ande­rer­seits sind auch die Tele­fon- und Daten­net­ze in pri­va­ter Hand. War­um also nicht der Lay­er „Such­ma­schi­ne“? Und auch die Auf­merk­sam­keits­bün­de­lung funk­tio­niert ja nicht nur über Goog­le. Ers­tens gab es davor ande­re Such­ma­schi­nen (die Zei­ten von Alta­vis­ta …), die von Goog­le vor allem auf­grund der bes­se­ren Ergeb­nis­se und Bedien­bar­keit abge­löst wur­den, zwei­tens gibt es wei­ter­hin ande­re Such­ma­schi­nen (z.B. Yahoo und die Ver­su­che von Micro­soft), drit­tens tra­gen pri­va­te Medi­en­an­ge­bo­te wie Spie­gel online sicher­lich eben­so mas­siv zur For­mie­rung von Welt­bil­dern bei, wie dies Wiki­pe­dia-Ein­trä­ge und Such­ma­schi­nen­tref­fer tun, und vier­tens ist der tech­no­lo­gi­sche Vor­sprung von Goog­le zwar gewal­tig, aber nicht unein­hol­bar. Tech­no­ra­ti ist ein Bei­spiel dafür. 

Wie könn­te eine Regu­lie­rung von Goog­le aus­se­hen? Wich­ti­ge Gesichts­punk­te hier sind sicher­lich der Daten­schutz und die Fra­ge, was Goog­le wie lan­ge spei­chern kann, die Fra­ge, in wel­cher Form Such­ergeb­nis­se zur Ver­fü­gung gestellt wer­den (also z.B. auch digi­tal an Wei­ter­ver­wer­ter …) und die Fra­ge, ob die Neu­tra­li­tät der Such­ergeb­nis­se regu­lier­bar ist (z.B. eine kla­re Kenn­zeich­nung nicht nur der Text­an­zei­gen am Rand, son­dern aller Such­ma­schi­nen­er­geb­nis­se, die nicht allein algo­rith­misch ein­ge­ord­net wur­den). Da lie­ße sich ver­mut­lich ein ent­spre­chen­der poli­ti­scher Rah­men schaffen.

Bleibt als Fazit: Kar­tell­äm­ter und ähn­li­che Auf­sichts­be­hör­den sind auch im Web 2.0 nicht unwich­ti­ger gewor­den. Und auch der sym­pa­thischs­ten Fir­ma soll­te ab und zu auf die Fin­ger geschaut wer­den – ins­be­son­de­re, wenn es um grund­le­gen­de Infra­struk­tu­ren geht: Was­ser, Strom, Ver­kehrs­net­ze, Daten­net­ze oder die dar­über lie­gen­den Lay­er an Infor­ma­ti­ons­in­fra­struk­tu­ren. Mono­pol­bil­dungs­ten­den­zen lie­gen hier nahe. Die Lösung, „Goog­le zu zer­schla­gen“, oder mas­siv öffent­li­che Gel­der in die Kon­kur­renz zu ste­cken, ergibt mei­ner Mei­nung nach jedoch wenig Sinn. Und Wiki­pe­dia, Second Life und ande­re Web‑2.0‑Angebot ein­fach mal so mit­zu­schla­gen, wenn etwas ande­res gemeint ist, ist eben­so falsch. Natür­lich ist auch das Web 2.0 in gro­ßem Maße eine Infra­struk­tur – am Bei­spiel Flickr habe ich mir ja schon ein­mal aus­führ­lich Gedan­ken dazu gemacht, war­um eigent­lich ein offe­ner Stan­dard für sozia­le Netz­wer­ke not tut. Nicht zuletzt Goog­le ist hier übri­gens in letz­ter Zeit ziem­lich aktiv

War­um blog­ge ich das? Weil ich mich über die Mel­dung – und dann über den Report – ziem­lich geär­gert habe.

Update: Wer etwas Intel­li­gen­tes über die Gefah­ren einer Goog­le-World lesen möch­te, ist mit Scr­oo­g­led von Cory Doc­to­row bes­tens bedient. Dank der von Weber ver­pön­ten Crea­ti­ve-Com­mons-Lizenz liegt die­se Kurz­ge­schich­te inzwi­schen in dut­zen­den Spra­chen vor und kann krea­tiv ver­wen­det werden.

Update 2: Noch zwei inter­es­san­te Reak­tio­nen der Blog­sphä­re: Gra­zer Dekan badet im Fett­näpf­chen, heißt es in Öster­reich, und bei Mathi­as Schind­ler gibt es ein paar gute Argu­men­te gegen die­sen „For­schungs­re­port“ aus Sicht der Wiki­pe­dia (auch die Kom­men­ta­re sind lesenswert).

Update 3: (14.12.2007) Flo­ri­an Röt­zer weist in der Tele­po­lis auf Goo­gles Pro­jekt Knol her­aus – eine wohl unter Crea­ti­ve-Com­mons-Lizenz ste­hen­de autoren­be­zo­ge­ne Wiki­pe­dia-Alter­na­ti­ve. Also doch auf dem Weg zur infor­ma­tio­nel­len und dis­kur­si­ven Welt­be­herr­schung? Oder nur ein Ver­such, ein aka­de­mi­sches Äqui­va­lent zu Face­book & Flickr zu schaf­fen? Mich inter­es­siert vor allem – mal jen­seits der dys­to­pi­schen Unken­ru­fe – die Fra­ge, ob Knol, wenn es den wirk­lich kommt, bidi­rek­tio­nal Wiki­pe­dia-kom­pa­ti­bel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das ande­re Sys­tem wan­dern können.

3 Antworten auf „Google regulieren statt Wikipedia schlagen (Update 3: Knol)“

  1. „von Cory Doc­to­row“ – hey, du nennst ja den Namen des Autors. Damit wider­sprichst du aber dem in dem Doku­ment beschrie­be­nen „Copy­left para­digm“ der „net logic“, das auf dem Unscharf-Wer­den der Refe­ren­zie­rungs­sys­te­me basiert ;-)

  2. Sehe ich genau­so. Man soll­te liber mal etwas gegen den Mono­plois­ten tun anstatt gegen eine Sei­te die frei­es Wis­sen für alle zur Ver­fü­gung stellt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert