Kurz gefragt: Licht an oder aus? (Update 6: noch mehr Daten)
Google.de erscheint heute in schwarz, und BILD und Greenpeace rufen zusammen dazu auf, das Licht aus zu machen. Für fünf Minuten. Als Zeichen für Bali. Mal abgesehen, dass diskutiert wird, ob das zu einem Blackout führen könnte, gibt’s andere (u.a. die taz und Robin Wood), denen fünf symbolische Minuten nicht reichen und die deswegen Licht an rufen und damit meinen, sich für Energiesparlampen und gegen Kohlekraftwerke einzusetzen. Und in Berlin und Neurath kann heute groß demonstriert werden. Bleibt die Frage: heute abend von 20.00 Uhr bis 20.05 Uhr das Licht* ausschalten – oder lieber doch nicht?
* P.S.: Der Fernseher wird in den BILD-Haushalten dann natürlich weiterlaufen, ebenso wie das Internet bei den akademischen Ökos. Von hundert auf null wird der Stromverbrauch also keinesfalls sinken.
Update: Trotz heldenhaften Abschaltens der einen zu diesem Zeitpunkt brennenden 11-Watt-Energiesparlampe blieb das Stromnetz stabil. Und Greenpeace findet auch die taz-Aktion toll.
Update 2: Das grüne Klima-Blog berichtet von den Demos in Berlin (tausende) und Neurath (hunderte). Deutschland ist einfach zu groß für zentrale Demonstrationen …
Update 3: Greenpeace spricht davon, dass erste grobe Schätzungen für gestern 20.00 Uhr einen Rückgang der Stromnachfrage um 1000 Megawatt nahelegen, was 10 Millionen Glühbirnen a 100 Watt entsprechen würde. Die Einheit Megawatt (und nicht Megawattstunden) verweist ja wohl auf die Netzbelastung – dazu, wie hoch die in Deutschland um 20 Uhr üblicherweise ist, liegen aber keine Daten vor, jedenfalls habe ich keine gefunden (1976 waren es um 20 Uhr etwa 40000 MW). Und aus dem Jahresstromverbrauch von 540 Millionen Megawattstunden lässt sie sich auch nicht so einfach ausrechnen, befürchte ich (durch ein Jahr geteilt ergibt das etwa 62.000 Megawatt, davon wären 1000 MW 1,6 %)… wer mehr weiss, darf gerne kommentieren.
Update 4: Doch noch Daten gefunden. Laut diesem Bericht betrug die Jahreshöchstlast des deutschen Stromnetzes im Dezember 2004 77.200 MW. Die zu diesem Zeitpunkt verfügbare Kraftwerksleistung betrug 86.000 MW. Damit scheinen etwa 70.000 MW tatsächlich die Größenordnung zu sein, an der sich die von Greenpeace genannten 1000 MW messen lassen müssen.
Update 5: Die vier großen Überlandnetzbetreiber müssen sogar tages- und stundengenau ihre „vertikale Netzlast“ veröffentlichen (ENBW, Eon, RWE und Vattenfall). Die Daten gibt es nach Viertelstunden aufgeschlüsselt – allerdings noch nicht bei allen Netzbetreibern für den 8.12., 20.00 Uhr. Überschlagsmässig müsstens es so um die 50.000 MW sein; 1000 MW Differenz wären dann 2 %. In ein paar Tagen müsste sich die Veränderung der Netzlast aber sehr genau nachzeichnen lassen.
Update 6: Heise berichtet darüber, dass die 1000 MW elektrischer Leistung einer Stromeinsparung von 80 MWh entsprechen (von 540 Mrd. MWh pro Jahr insgesamt).
Kurzeintrag: Die Zora sagt Zora
Während bisher immer nur die Rede von „meiner“, „Baby“ oder „Kind“ war, sagt die Zora seit ein paar Tagen Zora, wenn sie sich meint. Oder etwas, das ihr gehört bzw. ihr gehören sollte. Und zwar gerne, häufig und auch in schon fast richtiger Aussprache. Selbstbewusstsein!
Update zu Die Zora redet.
Menschheitsgeschichte in 60 Sekunden?
Via Worldsfair: Prof. Alan Charles Kors von der University of Pennsylvania versucht, die Geschichte der Menschheit in 60 Sekunden zu erklären. Hier findet sich das Transkript zu seinem Vortrag. Und hier findet sich mein Versuch, das ganze schnell mal eben ins Deutsche zu übersetzen:
- Am Anfang Stämme: hartes Leben.
– Über den engen Kreis hinaus waren Gewalt, Abneigung gegenüber Unterschiedlichkeit und Sklaverei das Normale. Überall Aberglaube.
– Kultur trägt zu deren Überwindung bei.
– Regen-Landwirtschaft macht Verrückte möglich.
– Bewässerungs-Landwirtschaft bevorzugt Gemeinschaften.
– Arbeitsteilung und Handel führen zu gegenseitiger Kooperation, auch über den Stamm hinaus.
– Immer aber der Impuls: „Töte oder versklave den Außenseiter!“
– Schritt für Schritt entsteht Wissenschaft aus Athens Pakt mit der Vernunft.
– Arbeitsteilung, Handel, Wissensmeisterschaft, und mit der Zeit Mehrwert, manchmal erweiterte Friedensherrschaft und vielfältig entstandende Regeln und Zusammenarbeit zwischen Fremden: immer in der Abwehr gegen die grimmige Normalität der Stammesherrschaft, Gewalt und Ignoranz.
– Niemand, der hier lehrt, weiss was in Zukunft passieren wird.
Warum blogge ich das? Weil ich interessant finde, wie sich über die Form („Menschheitsgeschichte in 60 Sekunden“) diese Kurzdarstellung verbreitet (ich trage mit diesem Eintrag natürlich auch dazu bei), und weil mir gerade in der kompakten Form auffällt, dass ich mich frage, ob ich diese Darstellung eigentlich plausibel finde (Arbeitsteilung, Handel und Wissen als Motoren des Fortschritts), oder ob wir es hier letztlich mit einem sehr guten Beispiel für eine aus einer ganz bestimmten Kultur heraus gesehenen Reinterpretation des Weltgeschehens zu tun haben. Jedenfalls scheint mir die Menschheitsgeschichte in 60 Sekunden einigen Stoff für Diskussionen zu bieten.
Google regulieren statt Wikipedia schlagen (Update 3: Knol)
Hermann Maurer ist ein distinguierter Professor für Informatik an der TU Graz. Stefan Weber hat sich dem Kampf gegen die „Copy-and-Paste-Kultur“ verschrieben. Beide zusammen haben mit weiteren MitarbeiterInnen jetzt einen „Forschungsreport“ verfasst, der darlegen soll, dass erstens Google eine Gefahr für mindestens die Weltwirtschaft darstellt und dass zweitens „other Web 2.0 related phenomena, particularly Wikipedia, Blogs, and other related community efforts“ – also die Organisation von Informationen durch Laien statt durch professionelle Experten-Software – ebenso brandgefährlich seien. Das ganze hat dem Grazer Institut einige Schlagzeilen gebracht („Google zerschlagen“ (Netzpolitik.org), „Google muss zerschlagen werden (heise.de)).
Universitätsbibliothek – Katalogsuche noch ganz ohne Google-Know-How …
Hinter dem Getöse scheint mir allerdings nicht sehr viel zu stecken. Vielmehr wird wild mit Vermutungen um sich geschlagen (etwa der Stefan-Weberschen „These“ des „Google Copy Paste Syndrome“ oder einer verschwörungstheoretisch erklärten Höherrankung von Wikipedia-Artikeln bei Google). Insbesondere werden zwei Sachen zusammengeworfen: die Tatsache, dass es eine qualitative Veränderung von Web 1.0 zu Web 2.0 gab, also die stärkere Einbeziehung von NutzerInnen in die Generierung von Content, und die Tatsache, dass eine basale Infrastruktur – nämlich die meistgenutzte Suchmaschine – in privater Hand ist. Die Kritik an Punkt 1 erscheint mir nur aus dem akademischen Elfenbeinturm heraus verständlich (bzw. nur im Kontext kulturpessimistischer Weltbilder). Die Kritik an Punkt 2 hat einiges für sich, wird aber so in ein falsches Licht gestellt – und führt angesichts des Hintergrunds der AutorInnen (und der Forderung nach regionalen branchenspezifischen Suchmaschinen) zur Frage, was diese sich davon versprechen. Zumindest weitere Forschungsgelder für öffentlich geförderte Suchmaschinen sollten wohl – so meine ins Blaue zielende Vermutung – wohl rausspringen, oder?
Wenn wir das Getöse und den (ja auch schon in der Telepolis und in anderen Medien zu Haufe wahrnehmbaren) Ärger Stefan Webers über die Möglichkeit des erleichterten Abschreibens dank digitaler Kopierbarkeit mal beiseite lassen, bleibt die Frage, ob angesichts eines Geschäftsmodells, bei dem möglichst genaues Wissen über die NutzerInnen zur Erleichterung entsprechender Werbeverkäufe den Grundstock bildet, Google nicht tatsächlich eine Gefahr darstellt. Darf eine private Firma – und sei sie auch noch so bemüht, sich möglicht un-evil zu geben – die Kontrolle über einen wichtigen Teil der Webinfrastruktur haben? Und dass eine Suchmaschine heute für die Funktion des Internets extrem wichtig ist – noch dazu eine, die z.B. in Firefox als Standard eingestellt ist – und dass damit Nutzerdaten en masse gewonnen werden – stimmt auf jeden Fall. Was nicht in Google auftaucht, wird tatsächlich selten gesehen. Andererseits sind auch die Telefon- und Datennetze in privater Hand. Warum also nicht der Layer „Suchmaschine“? Und auch die Aufmerksamkeitsbündelung funktioniert ja nicht nur über Google. Erstens gab es davor andere Suchmaschinen (die Zeiten von Altavista …), die von Google vor allem aufgrund der besseren Ergebnisse und Bedienbarkeit abgelöst wurden, zweitens gibt es weiterhin andere Suchmaschinen (z.B. Yahoo und die Versuche von Microsoft), drittens tragen private Medienangebote wie Spiegel online sicherlich ebenso massiv zur Formierung von Weltbildern bei, wie dies Wikipedia-Einträge und Suchmaschinentreffer tun, und viertens ist der technologische Vorsprung von Google zwar gewaltig, aber nicht uneinholbar. Technorati ist ein Beispiel dafür.
Wie könnte eine Regulierung von Google aussehen? Wichtige Gesichtspunkte hier sind sicherlich der Datenschutz und die Frage, was Google wie lange speichern kann, die Frage, in welcher Form Suchergebnisse zur Verfügung gestellt werden (also z.B. auch digital an Weiterverwerter …) und die Frage, ob die Neutralität der Suchergebnisse regulierbar ist (z.B. eine klare Kennzeichnung nicht nur der Textanzeigen am Rand, sondern aller Suchmaschinenergebnisse, die nicht allein algorithmisch eingeordnet wurden). Da ließe sich vermutlich ein entsprechender politischer Rahmen schaffen.
Bleibt als Fazit: Kartellämter und ähnliche Aufsichtsbehörden sind auch im Web 2.0 nicht unwichtiger geworden. Und auch der sympathischsten Firma sollte ab und zu auf die Finger geschaut werden – insbesondere, wenn es um grundlegende Infrastrukturen geht: Wasser, Strom, Verkehrsnetze, Datennetze oder die darüber liegenden Layer an Informationsinfrastrukturen. Monopolbildungstendenzen liegen hier nahe. Die Lösung, „Google zu zerschlagen“, oder massiv öffentliche Gelder in die Konkurrenz zu stecken, ergibt meiner Meinung nach jedoch wenig Sinn. Und Wikipedia, Second Life und andere Web‑2.0‑Angebot einfach mal so mitzuschlagen, wenn etwas anderes gemeint ist, ist ebenso falsch. Natürlich ist auch das Web 2.0 in großem Maße eine Infrastruktur – am Beispiel Flickr habe ich mir ja schon einmal ausführlich Gedanken dazu gemacht, warum eigentlich ein offener Standard für soziale Netzwerke not tut. Nicht zuletzt Google ist hier übrigens in letzter Zeit ziemlich aktiv …
Warum blogge ich das? Weil ich mich über die Meldung – und dann über den Report – ziemlich geärgert habe.
Update: Wer etwas Intelligentes über die Gefahren einer Google-World lesen möchte, ist mit Scroogled von Cory Doctorow bestens bedient. Dank der von Weber verpönten Creative-Commons-Lizenz liegt diese Kurzgeschichte inzwischen in dutzenden Sprachen vor und kann kreativ verwendet werden.
Update 2: Noch zwei interessante Reaktionen der Blogsphäre: Grazer Dekan badet im Fettnäpfchen, heißt es in Österreich, und bei Mathias Schindler gibt es ein paar gute Argumente gegen diesen „Forschungsreport“ aus Sicht der Wikipedia (auch die Kommentare sind lesenswert).
Update 3: (14.12.2007) Florian Rötzer weist in der Telepolis auf Googles Projekt Knol heraus – eine wohl unter Creative-Commons-Lizenz stehende autorenbezogene Wikipedia-Alternative. Also doch auf dem Weg zur informationellen und diskursiven Weltbeherrschung? Oder nur ein Versuch, ein akademisches Äquivalent zu Facebook & Flickr zu schaffen? Mich interessiert vor allem – mal jenseits der dystopischen Unkenrufe – die Frage, ob Knol, wenn es den wirklich kommt, bidirektional Wikipedia-kompatibel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das andere System wandern können.