Nach den Nettigkeiten mal wieder ein Fall von Überreaktion: eine Nutzerin von Flickr verwendet in Kommentaren ein animiertes GIF, das Brüste und wohl auch mehr zeigt, und auf eine Beschwerde hin wird nicht einfach eine Warnung ausgesprochen, das Bild gelöscht, oder als Adult-Only eingestuft, sondern sämtliche Kommentare dieser Nutzerin werden gelöscht. Und warum, darf der Flickr-Staff nicht mitteilen (keine Ahnung, ob dahinter Gerichtsverfahren oder bloß kommerziell motivierte Panik steckt). Inzwischen haben sich die Wogen etwas geglättet, es gab einige Entschuldigungen, aber dass so was passieren kann, ist wen nichts anderes so doch zumindest ein weiterer Hinweis auf die massiven Machtasymmetrien zwischen NutzerInnen und BetreiberInnen von Web‑2.0‑Anwendungen.
Kurzeintrag: Abgeordnetenevaluation (Update)
Theresia Bauer, die hochschulpolitische Sprecherin der Grünen im Landtag von Baden-Württemberg, war heute in Freiburg und hat in einer Veranstaltung der grünen Hochschulgruppe über 30 Jahre Kampf für die Wiedereinführung der Verfassten Studierendenschaft berichtet. War ganz interessant, hätten ruhig mehr Leute da sein können, ist aber gar nicht Thema dieses Kurzeintrags. Sondern die Tatsache, dass Theresia am Schluss ihres Beitrags einige Ideen äußerte, wie studentische Mitwirkung an der Hochschule denn noch so verbessert werden könne. Als positives Beispiel nannte sie u.a. auch spickmich.de, ein durchaus umstrittenes LehrerInnen-Bewertungsnetzwerk. Und ähnliches gibt es natürlich auch für ProfessorInnen. Kam im Publikum allerdings nicht ganz so gut an.
Bleibt trotzdem die Frage: Wer registriert (und realisiert) meinMdL.de?
Update: (15.01.2008) Zufälligerweise bin ich in einem Werbe-Kommentar bei Henning auf Trupoli gestoßen. Gibt es also auch schon. Aber abgeordnetenwatch.de finde ich konzeptionell eigentlich besser (Deliberation statt Evaluation!), um das auch mal zu sagen.
Panisches WordPress-Update (Update)
Heute mittag hat mein Blog mich damit erschreckt, plötzlich nicht mehr die übliche umkehrt chronologische Reihenfolge zu verwenden, sondern mit den ältesten Einträgen anzufangen. In meinem Fall sind das Kopien aus Livejournal, die ihrerseits zusammenfassende Kopien aus einem alten Xanga-Blog sind, die irgendwann aus dem Jahr 2002 stammen. Die wollte ich eigentlich nicht ganz vorne sehen.
Den WordPress-Foren habe ich dann entnommen, dass der Fehler wohl häufiger bei älteren WordPress-Versionen (war noch bei 2.0.2) und Hostern wie 1&1 oder Strato auftritt. Was hilft: ein Update.
Gesagt, getan – und mit einem „500 Internal Server Error“ beglückt. Erst einmal Abendessen und meine Tochter ins Bett bringen.
Und dann: selbst beim Versuch, die mit WordPress mitgelieferte Readme-Datei – schlichtes HTML – von meiner Domain aus anzuzeigen, nur die Fehlermeldung. Große Panik, glücklicherweise habe ich ein Backup gemacht, aber der Status quo ante wäre ja auch nichts.
Weitergeholfen hat mir dann ein Blogeintrag bei Fernwisser: das Problem ist eine .htaccess-Datei, in die WordPress Dinge zur Umleitung von Permalinks reinschreibt, die bei Strato etc. für Verwirrung sorgen. Und siehe da: das Ersetzen der .httaccess durch die alte Version brachte mein Blog problemlos wieder zum Laufen – jetzt in WP 2.3.2.
Toi, toi, toi.
Warum blogge ich das? Um die Auszeit der letzten paar Stunden zu erklären.
Update: (16.01.2008) Inzwischen habe ich (danke, Dirk!) auch einen Blog-Eintrag gefunden, der zusammenfassend erklärt, wie das Problem überhaupt zustande kommt: SQL-Code, der sich auf ein etwas seltsames Verhalten von MySQL (der Datenbanksoftware) verlässt, die sich aber in der neusten, bei 1&1, Strato etc. inzwischen aufgespielten Version nun normal verhält. Und damit WordPress in älteren Versionen Probleme macht. Es gibt wohl auch für alle, die nicht updaten wollen, ein Plugin, um den von Worpress generierten SQL-Code zu patchen.
Mal ein paar nette Flickr-Neuigkeiten
Nein, diesmal geht’s mir nicht um die Yahoo-Übernahme, sondern darum, dass es bei Flickr ein paar nette neue Features gibt, die vor allem aktive NutzerInnen betreffen. Insbesondere zwei davon haben es mir angetan.
1. Ein neues Uploadr-Programm, bei dem schon vor dem Hochladen von Fotos die Reihenfolge, Tags, Kommentare und Set-Zugehörigkeit je Foto festgelegt werden können.
2. „Stats for your account“ – wer schon immer mal wissen wollte, welches Bild in der letzten Woche wie oft von welcher URL aus angeschaut wurde, kann das jetzt tun (zugänglich unter Your Photos -> Popular -> Stats). Damit lässt sich viel Zeit verbringen ;-)
Und dann gibt es 3. noch Gerüchte darüber, dass sich FlickR in Richtung „Open-ID“ bewegen wird. Eines von mehreren Zeichen dafür, dass sich in der Web 2.0‑Welt einiges in Richtung Interoperationalität zwischen den Anwendungen tut.
Warum blogge ich das? Nicht zuletzt deswegen, weil mein alter Flickr-Beitrag noch immer einer der populärsten in diesem Blog ist.
Google regulieren statt Wikipedia schlagen (Update 3: Knol)
Hermann Maurer ist ein distinguierter Professor für Informatik an der TU Graz. Stefan Weber hat sich dem Kampf gegen die „Copy-and-Paste-Kultur“ verschrieben. Beide zusammen haben mit weiteren MitarbeiterInnen jetzt einen „Forschungsreport“ verfasst, der darlegen soll, dass erstens Google eine Gefahr für mindestens die Weltwirtschaft darstellt und dass zweitens „other Web 2.0 related phenomena, particularly Wikipedia, Blogs, and other related community efforts“ – also die Organisation von Informationen durch Laien statt durch professionelle Experten-Software – ebenso brandgefährlich seien. Das ganze hat dem Grazer Institut einige Schlagzeilen gebracht („Google zerschlagen“ (Netzpolitik.org), „Google muss zerschlagen werden (heise.de)).
Universitätsbibliothek – Katalogsuche noch ganz ohne Google-Know-How …
Hinter dem Getöse scheint mir allerdings nicht sehr viel zu stecken. Vielmehr wird wild mit Vermutungen um sich geschlagen (etwa der Stefan-Weberschen „These“ des „Google Copy Paste Syndrome“ oder einer verschwörungstheoretisch erklärten Höherrankung von Wikipedia-Artikeln bei Google). Insbesondere werden zwei Sachen zusammengeworfen: die Tatsache, dass es eine qualitative Veränderung von Web 1.0 zu Web 2.0 gab, also die stärkere Einbeziehung von NutzerInnen in die Generierung von Content, und die Tatsache, dass eine basale Infrastruktur – nämlich die meistgenutzte Suchmaschine – in privater Hand ist. Die Kritik an Punkt 1 erscheint mir nur aus dem akademischen Elfenbeinturm heraus verständlich (bzw. nur im Kontext kulturpessimistischer Weltbilder). Die Kritik an Punkt 2 hat einiges für sich, wird aber so in ein falsches Licht gestellt – und führt angesichts des Hintergrunds der AutorInnen (und der Forderung nach regionalen branchenspezifischen Suchmaschinen) zur Frage, was diese sich davon versprechen. Zumindest weitere Forschungsgelder für öffentlich geförderte Suchmaschinen sollten wohl – so meine ins Blaue zielende Vermutung – wohl rausspringen, oder?
Wenn wir das Getöse und den (ja auch schon in der Telepolis und in anderen Medien zu Haufe wahrnehmbaren) Ärger Stefan Webers über die Möglichkeit des erleichterten Abschreibens dank digitaler Kopierbarkeit mal beiseite lassen, bleibt die Frage, ob angesichts eines Geschäftsmodells, bei dem möglichst genaues Wissen über die NutzerInnen zur Erleichterung entsprechender Werbeverkäufe den Grundstock bildet, Google nicht tatsächlich eine Gefahr darstellt. Darf eine private Firma – und sei sie auch noch so bemüht, sich möglicht un-evil zu geben – die Kontrolle über einen wichtigen Teil der Webinfrastruktur haben? Und dass eine Suchmaschine heute für die Funktion des Internets extrem wichtig ist – noch dazu eine, die z.B. in Firefox als Standard eingestellt ist – und dass damit Nutzerdaten en masse gewonnen werden – stimmt auf jeden Fall. Was nicht in Google auftaucht, wird tatsächlich selten gesehen. Andererseits sind auch die Telefon- und Datennetze in privater Hand. Warum also nicht der Layer „Suchmaschine“? Und auch die Aufmerksamkeitsbündelung funktioniert ja nicht nur über Google. Erstens gab es davor andere Suchmaschinen (die Zeiten von Altavista …), die von Google vor allem aufgrund der besseren Ergebnisse und Bedienbarkeit abgelöst wurden, zweitens gibt es weiterhin andere Suchmaschinen (z.B. Yahoo und die Versuche von Microsoft), drittens tragen private Medienangebote wie Spiegel online sicherlich ebenso massiv zur Formierung von Weltbildern bei, wie dies Wikipedia-Einträge und Suchmaschinentreffer tun, und viertens ist der technologische Vorsprung von Google zwar gewaltig, aber nicht uneinholbar. Technorati ist ein Beispiel dafür.
Wie könnte eine Regulierung von Google aussehen? Wichtige Gesichtspunkte hier sind sicherlich der Datenschutz und die Frage, was Google wie lange speichern kann, die Frage, in welcher Form Suchergebnisse zur Verfügung gestellt werden (also z.B. auch digital an Weiterverwerter …) und die Frage, ob die Neutralität der Suchergebnisse regulierbar ist (z.B. eine klare Kennzeichnung nicht nur der Textanzeigen am Rand, sondern aller Suchmaschinenergebnisse, die nicht allein algorithmisch eingeordnet wurden). Da ließe sich vermutlich ein entsprechender politischer Rahmen schaffen.
Bleibt als Fazit: Kartellämter und ähnliche Aufsichtsbehörden sind auch im Web 2.0 nicht unwichtiger geworden. Und auch der sympathischsten Firma sollte ab und zu auf die Finger geschaut werden – insbesondere, wenn es um grundlegende Infrastrukturen geht: Wasser, Strom, Verkehrsnetze, Datennetze oder die darüber liegenden Layer an Informationsinfrastrukturen. Monopolbildungstendenzen liegen hier nahe. Die Lösung, „Google zu zerschlagen“, oder massiv öffentliche Gelder in die Konkurrenz zu stecken, ergibt meiner Meinung nach jedoch wenig Sinn. Und Wikipedia, Second Life und andere Web‑2.0‑Angebot einfach mal so mitzuschlagen, wenn etwas anderes gemeint ist, ist ebenso falsch. Natürlich ist auch das Web 2.0 in großem Maße eine Infrastruktur – am Beispiel Flickr habe ich mir ja schon einmal ausführlich Gedanken dazu gemacht, warum eigentlich ein offener Standard für soziale Netzwerke not tut. Nicht zuletzt Google ist hier übrigens in letzter Zeit ziemlich aktiv …
Warum blogge ich das? Weil ich mich über die Meldung – und dann über den Report – ziemlich geärgert habe.
Update: Wer etwas Intelligentes über die Gefahren einer Google-World lesen möchte, ist mit Scroogled von Cory Doctorow bestens bedient. Dank der von Weber verpönten Creative-Commons-Lizenz liegt diese Kurzgeschichte inzwischen in dutzenden Sprachen vor und kann kreativ verwendet werden.
Update 2: Noch zwei interessante Reaktionen der Blogsphäre: Grazer Dekan badet im Fettnäpfchen, heißt es in Österreich, und bei Mathias Schindler gibt es ein paar gute Argumente gegen diesen „Forschungsreport“ aus Sicht der Wikipedia (auch die Kommentare sind lesenswert).
Update 3: (14.12.2007) Florian Rötzer weist in der Telepolis auf Googles Projekt Knol heraus – eine wohl unter Creative-Commons-Lizenz stehende autorenbezogene Wikipedia-Alternative. Also doch auf dem Weg zur informationellen und diskursiven Weltbeherrschung? Oder nur ein Versuch, ein akademisches Äquivalent zu Facebook & Flickr zu schaffen? Mich interessiert vor allem – mal jenseits der dystopischen Unkenrufe – die Frage, ob Knol, wenn es den wirklich kommt, bidirektional Wikipedia-kompatibel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das andere System wandern können.