Schlagwort-Archive: plagiat

Kurz: Schavan heißt jetzt Wanka

Veröffentlicht unter Hochschulpolitik | Verschlagwortet mit , , , , , , , , , ,  

Ein paar generellere Überlegungen zum Plagiatsverfahren Schavan hatte ich bereits im Oktober aufgeschrieben. Jetzt ist es soweit: Die Bundesforschungsministerin hat heute ihren Rücktritt erklärt. Begründet nicht mit dem Plagiat – das sie weiterhin leugnet – sondern mit der Tatsache, dass sie als Forschungsministerin, wenn sie gegen eine Uni klagt, dem Amt schadet.

Stimmt zwar, ist aber doch eine interessante Verkürzung. Abgesehen davon blieb der Rücktritt ein Rücktritt mit Stil: Die Bundeskanzlerin elogierte und betonte Verdienste und die bleibende Freundschaft (Borgen, anyone?), Schavan gab sich verantwortungsbewusst und rational.

Ihre Nachfolgerin wird weder McAllister noch Gröhe, sondern die scheidende niedersächsische Wissenschaftsministerin Prof. Dr. Johanna Wanka – ostdeutsch, konservativ, Mathematikerin, FH-Rektorin, Ministerin in Brandenburg (CDU abgewählt) und Niedersachsen (CDU abgewählt) – fachlich also durchaus versiert. Ein Kurswechsel weg vom neoliberal-elitären, auf Technik fixierten Kurs in der Hochschul- und Forschungspolitik ist mit diesem Wechsel nicht verbunden; ich erwarte, dass Wanka da recht nahtlos an Schavan anknüpft. Und umso deutlicher wird, warum am 22.9. eine andere Politik gewählt werden muss.

3 Personen gefällt dieser Eintrag.


Neun Sätze zu Guttenbergs Rücktritt

Veröffentlicht unter Digitales Leben, Politik und Gesellschaft | Verschlagwortet mit , , , , , , , , , ,  
Meet the stapler II
Höchststapler, angeschlagen

Karl Theodor Maria Nikolaus Johann Jacob Philipp Franz Joseph Sylvester Freiherr von und zu Guttenberg ist jetzt endlich, endlich als Verteidigungsminister* zurückgetreten.

Ich hoffe jetzt erstens, dass seine selbst in der Rücktrittsrede zu findenden Versuche, das ganze als eine Art mediales Mobbing darzustellen, nicht auf fruchtbaren Boden fallen. Guttenberg hat sein Amt nicht deswegen verloren, weil konservative und linke Zeitungen und ein paar verrückte WissenschaftlerInnen ihm eine kleine studentische Betrügerei übel genommen haben, sondern weil er sich in Lügen und den immer stärker zu Tage tretenden Unaufrichtigkeiten in seinem Lebenslauf verfangen hat.

Und zweitens finde ich es wichtig, festzuhalten, dass das Netz großen Anteil an diesem Rücktritt hatte. Dass die Plagiatsprobleme, die vor einigen Wochen von Prof. Fischer-Lescano öffentlich gemacht wurden, auf diese Resonanz gestoßen sind, und sehr schnell deutlich wurde, dass es um weit mehr geht als um acht »raubkopierte« Textstellen ist ein Phänomen, dass in dieser Weise nur in einer weitgehend vernetzten Gesellschaft möglich war. Ähnliches gilt für die rasant anwachsende Zahl an Unterschriften unter dem »Offenen Brief« an Merkel (gestern waren es schon über 33000). Und nicht zuletzt meine ich, dass Twitter und Facebook und ein paar Blogs ein starkes Gegengewicht zum Versuch der BILD dargestellt haben, Guttenberg zu halten. Ob es auch zu diesem Rücktritt gekommen wäre, wenn FAZ und NZZ nicht sichtlich verärgert gewesen wären, weiss ich nicht. Ohne Internet – und ohne eine inzwischen sehr politische Netzszene – wäre Guttenberg aber, da bin ich mir sicher, weiterhin Minister.

* Bzw. genauer, das war anfangs ein bisschen unklar: er ist von allen politischen Ämtern zurückgetreten.

P.S.: Wer es noch nicht kennt – mein vor zwei Wochen geschriebener langer Text zur Causa Guttenberg.

4 Personen gefällt dieser Eintrag.


Logiken des Promovierens, oder: Senf zu Guttenberg

Veröffentlicht unter Politik und Gesellschaft, Wissenschaft | Verschlagwortet mit , , , , , , , , , ,  

Benutzerausweis

Seit gestern huscht ein Sturm der – massenmedial abgeschwächten – Entrüstung durchs Netz: der allseits beliebte Verteidigungsminister hat abgeschrieben. Da liegt aber eigentlich schon das Problem: der Skandal ist nicht die Tatsache, dass von und zu Guttenberg in seiner Dissertation auf fremde Quellen zurückgreift und diese ausführlich zitiert. Das ist – gerade in eher geisteswissenschaftlichen Arbeiten – durchaus üblich. Der Skandal liegt darin, dass größere Passagen der Arbeit aus anderen Texten – offensichtlich Netzfunde – in seine Arbeit hineinkopiert wurden, dort sprachlich teilweise überarbeitet wurden, aber eben weder korrekt als Zitate gekennzeichnet sind noch in wissenschaftsadäquater Weise damit umgegangen wird (also z.B. das Zitat zum Ausgangspunkt einer eigenen Standpunktsuche gemacht wird). Vielmehr scheint es von und zu Guttenberg hier einzig und allein darum gegangen zu sein, wohlformulierte Gedanken in schmückender Weise in seinen Text einzufügen.

Visuell schön aufbereitet finden sich diese Schmuckübernahmen bei der Süddeutschen Zeitung (auf die ich hier allerdings nur mit Bauchschmerzen verlinke, setzt sie sich selbst doch gerade intensiv für ein »Leistungsschutzrecht« ein, das selbst kurze Zitate aus Zeitungstexten im Netz illegal machen würde – während hier zu Dokumentationszwecken umfangreichst aus der Arbeit von und zu Guttenbergs wie aus den Originalquellen zitiert wird). Und hingewiesen werden muss natürlich auch auf Andreas Fischer-Lescano, der als Jura-Professor in Bremen die ganze Sache überhaupt erst ins Rollen gebracht hat. [Nachtrag: das Netz sucht nun auch kollaborativ nach undokumentierten Zitaten …].

Wie ist das Copy‹n'Paste von und zu Guttenbergs nun zu werten?
Weiterlesen

7 Personen gefällt dieser Eintrag.


Google regulieren statt Wikipedia schlagen (Update 3: Knol)

Veröffentlicht unter Digitales Leben, Politik und Gesellschaft | Verschlagwortet mit , , , , , , , , , ,  

Hermann Maurer ist ein distinguierter Professor für Informatik an der TU Graz. Stefan Weber hat sich dem Kampf gegen die »Copy-and-Paste-Kultur« verschrieben. Beide zusammen haben mit weiteren MitarbeiterInnen jetzt einen »Forschungsreport« verfasst, der darlegen soll, dass erstens Google eine Gefahr für mindestens die Weltwirtschaft darstellt und dass zweitens »other Web 2.0 related phenomena, particularly Wikipedia, Blogs, and other related community efforts« – also die Organisation von Informationen durch Laien statt durch professionelle Experten-Software – ebenso brandgefährlich seien. Das ganze hat dem Grazer Institut einige Schlagzeilen gebracht (»Google zerschlagen« (Netzpolitik.org), »Google muss zerschlagen werden (heise.de)).

UB terminals waiting
Universitätsbibliothek – Katalogsuche noch ganz ohne Google-Know-How …

Hinter dem Getöse scheint mir allerdings nicht sehr viel zu stecken. Vielmehr wird wild mit Vermutungen um sich geschlagen (etwa der Stefan-Weberschen »These« des »Google Copy Paste Syndrome« oder einer verschwörungstheoretisch erklärten Höherrankung von Wikipedia-Artikeln bei Google). Insbesondere werden zwei Sachen zusammengeworfen: die Tatsache, dass es eine qualitative Veränderung von Web 1.0 zu Web 2.0 gab, also die stärkere Einbeziehung von NutzerInnen in die Generierung von Content, und die Tatsache, dass eine basale Infrastruktur – nämlich die meistgenutzte Suchmaschine – in privater Hand ist. Die Kritik an Punkt 1 erscheint mir nur aus dem akademischen Elfenbeinturm heraus verständlich (bzw. nur im Kontext kulturpessimistischer Weltbilder). Die Kritik an Punkt 2 hat einiges für sich, wird aber so in ein falsches Licht gestellt – und führt angesichts des Hintergrunds der AutorInnen (und der Forderung nach regionalen branchenspezifischen Suchmaschinen) zur Frage, was diese sich davon versprechen. Zumindest weitere Forschungsgelder für öffentlich geförderte Suchmaschinen sollten wohl – so meine ins Blaue zielende Vermutung – wohl rausspringen, oder?

Wenn wir das Getöse und den (ja auch schon in der Telepolis und in anderen Medien zu Haufe wahrnehmbaren) Ärger Stefan Webers über die Möglichkeit des erleichterten Abschreibens dank digitaler Kopierbarkeit mal beiseite lassen, bleibt die Frage, ob angesichts eines Geschäftsmodells, bei dem möglichst genaues Wissen über die NutzerInnen zur Erleichterung entsprechender Werbeverkäufe den Grundstock bildet, Google nicht tatsächlich eine Gefahr darstellt. Darf eine private Firma – und sei sie auch noch so bemüht, sich möglicht un-evil zu geben – die Kontrolle über einen wichtigen Teil der Webinfrastruktur haben? Und dass eine Suchmaschine heute für die Funktion des Internets extrem wichtig ist – noch dazu eine, die z.B. in Firefox als Standard eingestellt ist – und dass damit Nutzerdaten en masse gewonnen werden – stimmt auf jeden Fall. Was nicht in Google auftaucht, wird tatsächlich selten gesehen. Andererseits sind auch die Telefon- und Datennetze in privater Hand. Warum also nicht der Layer »Suchmaschine«? Und auch die Aufmerksamkeitsbündelung funktioniert ja nicht nur über Google. Erstens gab es davor andere Suchmaschinen (die Zeiten von Altavista …), die von Google vor allem aufgrund der besseren Ergebnisse und Bedienbarkeit abgelöst wurden, zweitens gibt es weiterhin andere Suchmaschinen (z.B. Yahoo und die Versuche von Microsoft), drittens tragen private Medienangebote wie Spiegel online sicherlich ebenso massiv zur Formierung von Weltbildern bei, wie dies Wikipedia-Einträge und Suchmaschinentreffer tun, und viertens ist der technologische Vorsprung von Google zwar gewaltig, aber nicht uneinholbar. Technorati ist ein Beispiel dafür.

Wie könnte eine Regulierung von Google aussehen? Wichtige Gesichtspunkte hier sind sicherlich der Datenschutz und die Frage, was Google wie lange speichern kann, die Frage, in welcher Form Suchergebnisse zur Verfügung gestellt werden (also z.B. auch digital an Weiterverwerter …) und die Frage, ob die Neutralität der Suchergebnisse regulierbar ist (z.B. eine klare Kennzeichnung nicht nur der Textanzeigen am Rand, sondern aller Suchmaschinenergebnisse, die nicht allein algorithmisch eingeordnet wurden). Da ließe sich vermutlich ein entsprechender politischer Rahmen schaffen.

Bleibt als Fazit: Kartellämter und ähnliche Aufsichtsbehörden sind auch im Web 2.0 nicht unwichtiger geworden. Und auch der sympathischsten Firma sollte ab und zu auf die Finger geschaut werden – insbesondere, wenn es um grundlegende Infrastrukturen geht: Wasser, Strom, Verkehrsnetze, Datennetze oder die darüber liegenden Layer an Informationsinfrastrukturen. Monopolbildungstendenzen liegen hier nahe. Die Lösung, »Google zu zerschlagen«, oder massiv öffentliche Gelder in die Konkurrenz zu stecken, ergibt meiner Meinung nach jedoch wenig Sinn. Und Wikipedia, Second Life und andere Web-2.0-Angebot einfach mal so mitzuschlagen, wenn etwas anderes gemeint ist, ist ebenso falsch. Natürlich ist auch das Web 2.0 in großem Maße eine Infrastruktur – am Beispiel Flickr habe ich mir ja schon einmal ausführlich Gedanken dazu gemacht, warum eigentlich ein offener Standard für soziale Netzwerke not tut. Nicht zuletzt Google ist hier übrigens in letzter Zeit ziemlich aktiv

Warum blogge ich das? Weil ich mich über die Meldung – und dann über den Report – ziemlich geärgert habe.

Update: Wer etwas Intelligentes über die Gefahren einer Google-World lesen möchte, ist mit Scroogled von Cory Doctorow bestens bedient. Dank der von Weber verpönten Creative-Commons-Lizenz liegt diese Kurzgeschichte inzwischen in dutzenden Sprachen vor und kann kreativ verwendet werden.

Update 2: Noch zwei interessante Reaktionen der Blogsphäre: Grazer Dekan badet im Fettnäpfchen, heißt es in Österreich, und bei Mathias Schindler gibt es ein paar gute Argumente gegen diesen »Forschungsreport« aus Sicht der Wikipedia (auch die Kommentare sind lesenswert).

Update 3: (14.12.2007) Florian Rötzer weist in der Telepolis auf Googles Projekt Knol heraus – eine wohl unter Creative-Commons-Lizenz stehende autorenbezogene Wikipedia-Alternative. Also doch auf dem Weg zur informationellen und diskursiven Weltbeherrschung? Oder nur ein Versuch, ein akademisches Äquivalent zu Facebook & Flickr zu schaffen? Mich interessiert vor allem – mal jenseits der dystopischen Unkenrufe – die Frage, ob Knol, wenn es den wirklich kommt, bidirektional Wikipedia-kompatibel ist; sprich, in wie weit Artikel(fragmente) aus dem einen in das andere System wandern können.

Be the first to like.