Kurzeintrag: Flickr > Yahoo > Microsoft – Google (Update)

Eigent­lich habe ich das Gefühl, mich zum hei­ßen The­ma „Micro­soft will Yahoo über­neh­men“ äußern zu müs­sen. Dazu kom­me ich gera­de aber nicht. Des­we­gen ver­wei­se ich auf die Pres­se­mit­tei­lung, die Griet­je Bet­tin MdB dazu her­aus­ge­ge­ben hat – als einer von vie­len inter­es­san­ten Ein­schät­zun­gen der poten­zi­el­len Über­nah­me. Dort heißt es aus einer vor allem am Ver­brau­cher­schutz ori­en­tier­ten Sicht u.a.:

Schein­hei­lig sind daher auch Äuße­run­gen aus Goo­gles Füh­rungs­ebe­ne, die mit dem Zusam­men­gang von Micro­soft und Yahoo den Ver­lust von Offen­heit und Inno­va­ti­on im WWW in Gefahr sehen. Hier spricht immer­hin ein Mono­po­list, der im Bereich Such­ma­schi­nen welt­weit auf einen Markt­an­teil von über 60 Pro­zent kommt, in Deutsch­land sogar über 80 Prozent.

Update: Lesens­wert erscheint mir auch fol­gen­de Hei­se-Mel­dung, in der um die Affi­ni­tät von Yahoo-Mana­gern und Teil­fir­men (u.a. Flickr) zu offe­ner Soft­ware geht – ganz im Gegen­satz zu Micro­softs tech­ni­schem Port­fo­lio. Eine Über­nah­me wäre inso­fern auch ein gewal­ti­ger Zusam­men­stoß von Kulturen.

Panisches WordPress-Update (Update)

Heu­te mit­tag hat mein Blog mich damit erschreckt, plötz­lich nicht mehr die übli­che umkehrt chro­no­lo­gi­sche Rei­hen­fol­ge zu ver­wen­den, son­dern mit den ältes­ten Ein­trä­gen anzu­fan­gen. In mei­nem Fall sind das Kopien aus Live­jour­nal, die ihrer­seits zusam­men­fas­sen­de Kopien aus einem alten Xan­ga-Blog sind, die irgend­wann aus dem Jahr 2002 stam­men. Die woll­te ich eigent­lich nicht ganz vor­ne sehen.

Den Word­Press-Foren habe ich dann ent­nom­men, dass der Feh­ler wohl häu­fi­ger bei älte­ren Word­Press-Ver­sio­nen (war noch bei 2.0.2) und Hos­tern wie 1&1 oder Stra­to auf­tritt. Was hilft: ein Update.

Gesagt, getan – und mit einem „500 Inter­nal Ser­ver Error“ beglückt. Erst ein­mal Abend­essen und mei­ne Toch­ter ins Bett bringen. 

Und dann: selbst beim Ver­such, die mit Word­Press mit­ge­lie­fer­te Read­me-Datei – schlich­tes HTML – von mei­ner Domain aus anzu­zei­gen, nur die Feh­ler­mel­dung. Gro­ße Panik, glück­li­cher­wei­se habe ich ein Back­up gemacht, aber der Sta­tus quo ante wäre ja auch nichts. 

Wei­ter­ge­hol­fen hat mir dann ein Blog­ein­trag bei Fern­wis­ser: das Pro­blem ist eine .htac­cess-Datei, in die Word­Press Din­ge zur Umlei­tung von Per­ma­links rein­schreibt, die bei Stra­to etc. für Ver­wir­rung sor­gen. Und sie­he da: das Erset­zen der .httac­cess durch die alte Ver­si­on brach­te mein Blog pro­blem­los wie­der zum Lau­fen – jetzt in WP 2.3.2.

Toi, toi, toi.

War­um blog­ge ich das? Um die Aus­zeit der letz­ten paar Stun­den zu erklären.

Update: (16.01.2008) Inzwi­schen habe ich (dan­ke, Dirk!) auch einen Blog-Ein­trag gefun­den, der zusam­men­fas­send erklärt, wie das Pro­blem über­haupt zustan­de kommt: SQL-Code, der sich auf ein etwas selt­sa­mes Ver­hal­ten von MyS­QL (der Daten­bank­soft­ware) ver­lässt, die sich aber in der neus­ten, bei 1&1, Stra­to etc. inzwi­schen auf­ge­spiel­ten Ver­si­on nun nor­mal ver­hält. Und damit Word­Press in älte­ren Ver­sio­nen Pro­ble­me macht. Es gibt wohl auch für alle, die nicht upda­ten wol­len, ein Plug­in, um den von Wor­press gene­rier­ten SQL-Code zu patchen.

Mal ein paar nette Flickr-Neuigkeiten

Nein, dies­mal geht’s mir nicht um die Yahoo-Über­nah­me, son­dern dar­um, dass es bei Flickr ein paar net­te neue Fea­tures gibt, die vor allem akti­ve Nut­ze­rIn­nen betref­fen. Ins­be­son­de­re zwei davon haben es mir angetan.

1. Ein neu­es Uploadr-Pro­gramm, bei dem schon vor dem Hoch­la­den von Fotos die Rei­hen­fol­ge, Tags, Kom­men­ta­re und Set-Zuge­hö­rig­keit je Foto fest­ge­legt wer­den können.

2. „Stats for your account“ – wer schon immer mal wis­sen woll­te, wel­ches Bild in der letz­ten Woche wie oft von wel­cher URL aus ange­schaut wur­de, kann das jetzt tun (zugäng­lich unter Your Pho­tos -> Popu­lar -> Stats). Damit lässt sich viel Zeit verbringen ;-)

Und dann gibt es 3. noch Gerüch­te dar­über, dass sich FlickR in Rich­tung „Open-ID“ bewe­gen wird. Eines von meh­re­ren Zei­chen dafür, dass sich in der Web 2.0‑Welt eini­ges in Rich­tung Inter­ope­ra­tio­na­li­tät zwi­schen den Anwen­dun­gen tut.

War­um blog­ge ich das? Nicht zuletzt des­we­gen, weil mein alter Flickr-Bei­trag noch immer einer der popu­lärs­ten in die­sem Blog ist.

Kurz gefragt: Licht an oder aus? (Update 6: noch mehr Daten)

 

Google.de erscheint heu­te in schwarz, und BILD und Green­peace rufen zusam­men dazu auf, das Licht aus zu machen. Für fünf Minu­ten. Als Zei­chen für Bali. Mal abge­se­hen, dass dis­ku­tiert wird, ob das zu einem Black­out füh­ren könn­te, gibt’s ande­re (u.a. die taz und Robin Wood), denen fünf sym­bo­li­sche Minu­ten nicht rei­chen und die des­we­gen Licht an rufen und damit mei­nen, sich für Ener­gie­spar­lam­pen und gegen Koh­le­kraft­wer­ke ein­zu­set­zen. Und in Ber­lin und Neu­r­a­th kann heu­te groß demons­triert wer­den. Bleibt die Fra­ge: heu­te abend von 20.00 Uhr bis 20.05 Uhr das Licht* aus­schal­ten – oder lie­ber doch nicht?

* P.S.: Der Fern­se­her wird in den BILD-Haus­hal­ten dann natür­lich wei­ter­lau­fen, eben­so wie das Inter­net bei den aka­de­mi­schen Ökos. Von hun­dert auf null wird der Strom­ver­brauch also kei­nes­falls sinken.

 

Update: Trotz hel­den­haf­ten Abschal­tens der einen zu die­sem Zeit­punkt bren­nen­den 11-Watt-Ener­gie­spar­lam­pe blieb das Strom­netz sta­bil. Und Green­peace fin­det auch die taz-Akti­on toll.

Update 2: Das grü­ne Kli­ma-Blog berich­tet von den Demos in Ber­lin (tau­sen­de) und Neu­r­a­th (hun­der­te). Deutsch­land ist ein­fach zu groß für zen­tra­le Demonstrationen …

Update 3: Green­peace spricht davon, dass ers­te gro­be Schät­zun­gen für ges­tern 20.00 Uhr einen Rück­gang der Strom­nach­fra­ge um 1000 Mega­watt nahe­le­gen, was 10 Mil­lio­nen Glüh­bir­nen a 100 Watt ent­spre­chen wür­de. Die Ein­heit Mega­watt (und nicht Mega­watt­stun­den) ver­weist ja wohl auf die Netz­be­las­tung – dazu, wie hoch die in Deutsch­land um 20 Uhr übli­cher­wei­se ist, lie­gen aber kei­ne Daten vor, jeden­falls habe ich kei­ne gefun­den (1976 waren es um 20 Uhr etwa 40000 MW). Und aus dem Jah­res­strom­ver­brauch von 540 Mil­lio­nen Mega­watt­stun­den lässt sie sich auch nicht so ein­fach aus­rech­nen, befürch­te ich (durch ein Jahr geteilt ergibt das etwa 62.000 Mega­watt, davon wären 1000 MW 1,6 %)… wer mehr weiss, darf ger­ne kommentieren.

Update 4: Doch noch Daten gefun­den. Laut die­sem Bericht betrug die Jah­res­höchst­last des deut­schen Strom­net­zes im Dezem­ber 2004 77.200 MW. Die zu die­sem Zeit­punkt ver­füg­ba­re Kraft­werks­leis­tung betrug 86.000 MW. Damit schei­nen etwa 70.000 MW tat­säch­lich die Grö­ßen­ord­nung zu sein, an der sich die von Green­peace genann­ten 1000 MW mes­sen las­sen müssen.

Update 5: Die vier gro­ßen Über­land­netz­be­trei­ber müs­sen sogar tages- und stun­den­ge­nau ihre „ver­ti­ka­le Netz­last“ ver­öf­fent­li­chen (ENBW, Eon, RWE und Vat­ten­fall). Die Daten gibt es nach Vier­tel­stun­den auf­ge­schlüs­selt – aller­dings noch nicht bei allen Netz­be­trei­bern für den 8.12., 20.00 Uhr. Über­schlags­mäs­sig müss­tens es so um die 50.000 MW sein; 1000 MW Dif­fe­renz wären dann 2 %. In ein paar Tagen müss­te sich die Ver­än­de­rung der Netz­last aber sehr genau nach­zeich­nen lassen.

Update 6: Hei­se berich­tet dar­über, dass die 1000 MW elek­tri­scher Leis­tung einer Strom­ein­spa­rung von 80 MWh ent­spre­chen (von 540 Mrd. MWh pro Jahr insgesamt).

Google regulieren statt Wikipedia schlagen (Update 3: Knol)

Her­mann Mau­rer ist ein distin­gu­ier­ter Pro­fes­sor für Infor­ma­tik an der TU Graz. Ste­fan Weber hat sich dem Kampf gegen die „Copy-and-Pas­te-Kul­tur“ ver­schrie­ben. Bei­de zusam­men haben mit wei­te­ren Mit­ar­bei­te­rIn­nen jetzt einen „For­schungs­re­port“ ver­fasst, der dar­le­gen soll, dass ers­tens Goog­le eine Gefahr für min­des­tens die Welt­wirt­schaft dar­stellt und dass zwei­tens „other Web 2.0 rela­ted phe­no­me­na, par­ti­cu­lar­ly Wiki­pe­dia, Blogs, and other rela­ted com­mu­ni­ty efforts“ – also die Orga­ni­sa­ti­on von Infor­ma­tio­nen durch Lai­en statt durch pro­fes­sio­nel­le Exper­ten-Soft­ware – eben­so brand­ge­fähr­lich sei­en. Das gan­ze hat dem Gra­zer Insti­tut eini­ge Schlag­zei­len gebracht („Goog­le zer­schla­gen“ (Netzpolitik.org), „Goog­le muss zer­schla­gen wer­den (heise.de)).

UB terminals waiting
Uni­ver­si­täts­bi­blio­thek – Kata­log­su­che noch ganz ohne Google-Know-How …

Hin­ter dem Getö­se scheint mir aller­dings nicht sehr viel zu ste­cken. Viel­mehr wird wild mit Ver­mu­tun­gen um sich geschla­gen (etwa der Ste­fan-Weber­schen „The­se“ des „Goog­le Copy Pas­te Syn­dro­me“ oder einer ver­schwö­rungs­theo­re­tisch erklär­ten Höher­ran­kung von Wiki­pe­dia-Arti­keln bei Goog­le). Ins­be­son­de­re wer­den zwei Sachen zusam­men­ge­wor­fen: die Tat­sa­che, dass es eine qua­li­ta­ti­ve Ver­än­de­rung von Web 1.0 zu Web 2.0 gab, also die stär­ke­re Ein­be­zie­hung von Nut­ze­rIn­nen in die Gene­rie­rung von Con­tent, und die Tat­sa­che, dass eine basa­le Infra­struk­tur – näm­lich die meist­ge­nutz­te Such­ma­schi­ne – in pri­va­ter Hand ist. Die Kri­tik an Punkt 1 erscheint mir nur aus dem aka­de­mi­schen Elfen­bein­turm her­aus ver­ständ­lich (bzw. nur im Kon­text kul­tur­pes­si­mis­ti­scher Welt­bil­der). Die Kri­tik an Punkt 2 hat eini­ges für sich, wird aber so in ein fal­sches Licht gestellt – und führt ange­sichts des Hin­ter­grunds der AutorIn­nen (und der For­de­rung nach regio­na­len bran­chen­spe­zi­fi­schen Such­ma­schi­nen) zur Fra­ge, was die­se sich davon ver­spre­chen. Zumin­dest wei­te­re For­schungs­gel­der für öffent­lich geför­der­te Such­ma­schi­nen soll­ten wohl – so mei­ne ins Blaue zie­len­de Ver­mu­tung – wohl raus­sprin­gen, oder?

Wenn wir das Getö­se und den (ja auch schon in der Tele­po­lis und in ande­ren Medi­en zu Hau­fe wahr­nehm­ba­ren) Ärger Ste­fan Webers über die Mög­lich­keit des erleich­ter­ten Abschrei­bens dank digi­ta­ler Kopier­bar­keit mal bei­sei­te las­sen, bleibt die Fra­ge, ob ange­sichts eines Geschäfts­mo­dells, bei dem mög­lichst genau­es Wis­sen über die Nut­ze­rIn­nen zur Erleich­te­rung ent­spre­chen­der Wer­be­ver­käu­fe den Grund­stock bil­det, Goog­le nicht tat­säch­lich eine Gefahr dar­stellt. Darf eine pri­va­te Fir­ma – und sei sie auch noch so bemüht, sich mög­licht un-evil zu geben – die Kon­trol­le über einen wich­ti­gen Teil der Web­in­fra­struk­tur haben? Und dass eine Such­ma­schi­ne heu­te für die Funk­ti­on des Inter­nets extrem wich­tig ist – noch dazu eine, die z.B. in Fire­fox als Stan­dard ein­ge­stellt ist – und dass damit Nut­zer­da­ten en mas­se gewon­nen wer­den – stimmt auf jeden Fall. Was nicht in Goog­le auf­taucht, wird tat­säch­lich sel­ten gese­hen. Ande­rer­seits sind auch die Tele­fon- und Daten­net­ze in pri­va­ter Hand. War­um also nicht der Lay­er „Such­ma­schi­ne“? Und auch die Auf­merk­sam­keits­bün­de­lung funk­tio­niert ja nicht nur über Goog­le. Ers­tens gab es davor ande­re Such­ma­schi­nen (die Zei­ten von Alta­vis­ta …), die von Goog­le vor allem auf­grund der bes­se­ren Ergeb­nis­se und Bedien­bar­keit abge­löst wur­den, zwei­tens gibt es wei­ter­hin ande­re Such­ma­schi­nen (z.B. Yahoo und die Ver­su­che von Micro­soft), drit­tens tra­gen pri­va­te Medi­en­an­ge­bo­te wie Spie­gel online sicher­lich eben­so mas­siv zur For­mie­rung von Welt­bil­dern bei, wie dies Wiki­pe­dia-Ein­trä­ge und Such­ma­schi­nen­tref­fer tun, und vier­tens ist der tech­no­lo­gi­sche Vor­sprung von Goog­le zwar gewal­tig, aber nicht unein­hol­bar. Tech­no­ra­ti ist ein Bei­spiel dafür. 

Wie könn­te eine Regu­lie­rung von Goog­le aus­se­hen? Wich­ti­ge Gesichts­punk­te hier sind sicher­lich der Daten­schutz und die Fra­ge, was Goog­le wie lan­ge spei­chern kann, die Fra­ge, in wel­cher Form Such­ergeb­nis­se zur Ver­fü­gung gestellt wer­den (also z.B. auch digi­tal an Wei­ter­ver­wer­ter …) und die Fra­ge, ob die Neu­tra­li­tät der Such­ergeb­nis­se regu­lier­bar ist (z.B. eine kla­re Kenn­zeich­nung nicht nur der Text­an­zei­gen am Rand, son­dern aller Such­ma­schi­nen­er­geb­nis­se, die nicht allein algo­rith­misch ein­ge­ord­net wur­den). Da lie­ße sich ver­mut­lich ein ent­spre­chen­der poli­ti­scher Rah­men schaffen.

Bleibt als Fazit: Kar­tell­äm­ter und ähn­li­che Auf­sichts­be­hör­den sind auch im Web 2.0 nicht unwich­ti­ger gewor­den. Und auch der sym­pa­thischs­ten Fir­ma soll­te ab und zu auf die Fin­ger geschaut wer­den – ins­be­son­de­re, wenn es um grund­le­gen­de Infra­struk­tu­ren geht: Was­ser, Strom, Ver­kehrs­net­ze, Daten­net­ze oder die dar­über lie­gen­den Lay­er an Infor­ma­ti­ons­in­fra­struk­tu­ren. Mono­pol­bil­dungs­ten­den­zen lie­gen hier nahe. Die Lösung, „Goog­le zu zer­schla­gen“, oder mas­siv öffent­li­che Gel­der in die Kon­kur­renz zu ste­cken, ergibt mei­ner Mei­nung nach jedoch wenig Sinn. Und Wiki­pe­dia, Second Life und ande­re Web‑2.0‑Angebot ein­fach mal so mit­zu­schla­gen, wenn etwas ande­res gemeint ist, ist eben­so falsch. Natür­lich ist auch das Web 2.0 in gro­ßem Maße eine Infra­struk­tur – am Bei­spiel Flickr habe ich mir ja schon ein­mal aus­führ­lich Gedan­ken dazu gemacht, war­um eigent­lich ein offe­ner Stan­dard für sozia­le Netz­wer­ke not tut. Nicht zuletzt Goog­le ist hier übri­gens in letz­ter Zeit ziem­lich aktiv

War­um blog­ge ich das? Weil ich mich über die Mel­dung – und dann über den Report – ziem­lich geär­gert habe.

Update: Wer etwas Intel­li­gen­tes über die Gefah­ren einer Goog­le-World lesen möch­te, ist mit Scr­oo­g­led von Cory Doc­to­row bes­tens bedient. Dank der von Weber ver­pön­ten Crea­ti­ve-Com­mons-Lizenz liegt die­se Kurz­ge­schich­te inzwi­schen in dut­zen­den Spra­chen vor und kann krea­tiv ver­wen­det werden.

Update 2: Noch zwei inter­es­san­te Reak­tio­nen der Blog­sphä­re: Gra­zer Dekan badet im Fett­näpf­chen, heißt es in Öster­reich, und bei Mathi­as Schind­ler gibt es ein paar gute Argu­men­te gegen die­sen „For­schungs­re­port“ aus Sicht der Wiki­pe­dia (auch die Kom­men­ta­re sind lesenswert).

Update 3: (14.12.2007) Flo­ri­an Röt­zer weist in der Tele­po­lis auf Goo­gles Pro­jekt Knol her­aus – eine wohl unter Crea­ti­ve-Com­mons-Lizenz ste­hen­de autoren­be­zo­ge­ne Wiki­pe­dia-Alter­na­ti­ve. Also doch auf dem Weg zur infor­ma­tio­nel­len und dis­kur­si­ven Welt­be­herr­schung? Oder nur ein Ver­such, ein aka­de­mi­sches Äqui­va­lent zu Face­book & Flickr zu schaf­fen? Mich inter­es­siert vor allem – mal jen­seits der dys­to­pi­schen Unken­ru­fe – die Fra­ge, ob Knol, wenn es den wirk­lich kommt, bidi­rek­tio­nal Wiki­pe­dia-kom­pa­ti­bel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das ande­re Sys­tem wan­dern können.