IBI-Weblog » Debatte http://weblog.ib.hu-berlin.de Weblog am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin Wed, 28 Jun 2017 08:24:09 +0000 en hourly 1 http://wordpress.org/?v=3.0.4 Fake Cancer study published in 157 Open Access Journals http://weblog.ib.hu-berlin.de/p=12142/index.html http://weblog.ib.hu-berlin.de/p=12142/index.html#comments Tue, 08 Oct 2013 16:49:12 +0000 Elena http://weblog.ib.hu-berlin.de/?p=12142 Eine heftige Diskussion über Qualität von Open Access Journalen bzw. Mängel im Peer-Review-Verfahren generell wurde ausgelöst, nachdem John Bohannon die Ergebnisse seines “Experiments” veröffentlicht hat: Over the past 10 months, I have submitted 304 versions of the wonder drug paper to open-access journals. More than half of the journals accepted the paper, failing to notice [...]]]>

Eine heftige Diskussion über Qualität von Open Access Journalen bzw. Mängel im Peer-Review-Verfahren generell wurde ausgelöst, nachdem John Bohannon die Ergebnisse seines “Experiments” veröffentlicht hat:

Over the past 10 months, I have submitted 304 versions of the wonder drug paper to open-access journals. More than half of the journals accepted the paper, failing to notice its fatal flaws. Beyond that headline result, the data from this sting operation reveal the contours of an emerging Wild West in academic publishing.

(in: Who’s Afraid of Peer Review? Science Vol. 342 no. 6154 pp. 60-65. DOI: 10.1126/science.342.6154.60)

Einige Pressestimmen:
http://www.theguardian.com/higher-education-network/2013/oct/04/open-access-journals-fake-paper
http://www.sparc.arl.org/blog/science-magazine-open-access-sting
http://archiv.twoday.net/stories/498221367/
http://retractionwatch.wordpress.com/2013/10/03/science-reporter-spoofs-hundreds-of-journals-with-a-fake-paper/

Insbesondere im Hinblick auf die kommende Open Access Week werden wir bestimmt davon noch hören, also eine gute Gelegenheit, die Debatte am IBI aufzugreifen ;)

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=12142 0
Volunteers für re:publica 13 gesucht! http://weblog.ib.hu-berlin.de/p=9692/index.html http://weblog.ib.hu-berlin.de/p=9692/index.html#comments Thu, 28 Mar 2013 11:07:21 +0000 Elena http://weblog.ib.hu-berlin.de/?p=9692 Mit dem Motto IN/SIDE/OUT wird am 6-8 Mai 2013 in Station Berlin die diesjährige re:publica stattfinden. Unter den Speakers sind diesmal auch Aktivisten aus der akademischen Welt dabei, mit den Themen wie Digitaldarwinismus (Wieso simulieren E-Books das Blättern von Papier?), Gute MOOCs – böse MOOCs? (Openness als Killerkriterium!) und natürlich eine Menge Data (Open Data [...]]]>

Mit dem Motto IN/SIDE/OUT wird am 6-8 Mai 2013 in Station Berlin die diesjährige re:publica stattfinden. Unter den Speakers sind diesmal auch Aktivisten aus der akademischen Welt dabei, mit den Themen wie Digitaldarwinismus (Wieso simulieren E-Books das Blättern von Papier?), Gute MOOCs – böse MOOCs? (Openness als Killerkriterium!) und natürlich eine Menge Data (Open Data – und was hat das mit mir zu tun?, Data in Concert: A sonification party you can dance to, Faszination Grundlagenforschung – Das Higgs, Big Data und die Teilchenphysik).
Für all dies werden noch Helfer gesucht:

In diesem Jahr gilt folgender Deal: du übernimmst eine Schicht von 8 Stunden vor, während oder nach der Veranstaltung und kannst die re:publica mindestens zwei Tage kostenfrei besuchen. An den Tagen, an denen du im Einsatz bist, ist für kostenlose Verpflegung gesorgt. Und als Teammitglied der re:publica bekommst du auch das offizielle re:publica 2013 T-Shirt.

Mehr Infos & Anmeldung direkt bei re:publica.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=9692 0
Digitaler Salon zum Thema “Open Science” http://weblog.ib.hu-berlin.de/p=9685/index.html http://weblog.ib.hu-berlin.de/p=9685/index.html#comments Wed, 20 Mar 2013 18:10:44 +0000 Elena http://weblog.ib.hu-berlin.de/?p=9685 Unter dem Titel “Digitaler Salon – Fragen zur vernetzten Gegenwart” laden das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) und DRadio Wissen jeden letzten Mittwoch zum Digitalen Salon ein. Am 27.03. geht es um “Open Science“: Moderne Kommunikationsmittel eröffnen neue Wege des Publizierens und Kooperierens. Verändert sich dadurch Wissenschaft? Wie sehen diese Wandlungsprozesse [...]]]>

Unter dem Titel “Digitaler Salon – Fragen zur vernetzten Gegenwart” laden das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) und DRadio Wissen jeden letzten Mittwoch zum Digitalen Salon ein. Am 27.03. geht es um “Open Science“: Moderne Kommunikationsmittel eröffnen neue Wege des Publizierens und Kooperierens. Verändert sich dadurch Wissenschaft? Wie sehen diese Wandlungsprozesse aus und was daran ist wirklich neu?

Mit dabei sind unter anderem Prof. Peter Frensch, Vizepräsident für Forschung der Humboldt-Universität zu Berlin, Martin Fenner, Mediziner und Autor für die Public Library of Science (PLoS.org) sowie Sascha Friesike vom Alexander von Humboldt Institut für Internet und Gesellschaft (Impulsvortrag). Für einen angeregten Austausch sorgt dieses mal Thilo Jahn von DRadio Wissen.

Diskutiert wird in den Institutsräumen des HIIG (Bebelplatz 1 / Ecke Unter den Linden). Alle Sendungen werden gestreamt und auch als Podcast veröffentlicht, sowie auf DRadio Wissen als NETZ.REPORTER XL – Ausgabe gesendet. Die Veranstaltung ist öffentlich, im Anschluss an die Talks erwarten Sie gemütliche Gespräche bei Wein, Brezeln und DJ-Musik.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=9685 0
Wissenschaft, E-Books und das Urheberrecht http://weblog.ib.hu-berlin.de/p=7925/index.html http://weblog.ib.hu-berlin.de/p=7925/index.html#comments Wed, 31 Mar 2010 13:25:56 +0000 Jenny http://weblog.ib.hu-berlin.de/?p=7925 Die Aufzeichnung des Inforadio RBB zu der Veranstaltung “Wissenschaft, E-Books und das Urheberrecht”, die in Zusammenarbeit mit der Landesinitiative Projekt Zukunft der Senatsverwaltung fuer Wirtschaft, Technologie und Frauen am 2. Maerz in Berlin stattgefunden hat  ist unter http://www.inforadio.de/programm/schema/sendungen/forum/201003/135542.html zugänglich.]]>

Die Aufzeichnung des Inforadio RBB zu der Veranstaltung “Wissenschaft, E-Books und das Urheberrecht”, die in Zusammenarbeit mit der Landesinitiative Projekt Zukunft der Senatsverwaltung fuer Wirtschaft, Technologie und Frauen am 2. Maerz in Berlin stattgefunden hat  ist unter http://www.inforadio.de/programm/schema/sendungen/forum/201003/135542.html zugänglich.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7925 0
Wo steht die Kuh des Open Access eigentlich? Die FAZ meint: Auf dem Eis. http://weblog.ib.hu-berlin.de/p=7332/index.html http://weblog.ib.hu-berlin.de/p=7332/index.html#comments Tue, 28 Jul 2009 20:55:14 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7332 “Das heißt aber auch, dass „künftig“, soweit keine Vereinbarung entgegensteht, eine klare Erwartung besteht. Freilich: Es kommt entscheidend auf die Praxis an. Was wird vom Autor gefordert? Kann er sich tatsächlich frei entscheiden? Muss er sich fügen, nur weil öffentliche Mittel im Spiel sind?” Im Feuilleton der Mittwochsausgabe der Frankfurter Allgemeinen Zeitung bleibt Reinhard Müller [...]]]>

“Das heißt aber auch, dass „künftig“, soweit keine Vereinbarung entgegensteht, eine klare Erwartung besteht. Freilich: Es kommt entscheidend auf die Praxis an. Was wird vom Autor gefordert? Kann er sich tatsächlich frei entscheiden? Muss er sich fügen, nur weil öffentliche Mittel im Spiel sind?”

Im Feuilleton der Mittwochsausgabe der Frankfurter Allgemeinen Zeitung bleibt Reinhard Müller (Die Kuh ist nicht vom Eis. In: FAZ, 29.07.2009, S. 29) gegenüber der nun wirklich sehr deutlichen Aussage der DFG, es gäbe keinen Zwang zur Publikation nach dem Open Access-Verfahren in der deutschen Wissenschaft, skeptisch:

Eine Erklärung von zahlreichen Wissenschaftsorganisationen wird durch den Brief des Präsidenten einer der beteiligten Vereinigungen oder durch eine Tagungsäußerung nicht hinfällig.

Er hält sich dabei betont vage (“Freilich: Es kommt entscheidend auf die Praxis an.”), empfindet die Empfehlungen der Wissenschaftsorganisationen wohl aber durchaus als potentiell eine Bedrohung der Wissenschaftsfreiheit in sich tragend. Solange die Wahl bleibt, hat er letztlich aber kein Problem. Daneben aber einen Ratschlag, wie die Zeitschriftenkrise – offensichtlich begrenzt auf die Printtitel – zu lösen sei:

“Wer meint, gedruckte Werke seien zu teuer, sollte den Monopolisten auf die Finger schauen und das Wettbewerbsrecht bemühen – dazu ist es nämlich da.”

Man darf gespannt sein, ob diese neuerliche Sensibilisierung die Debatte am laufen hält oder in der Wissenschaftswirklichkeit die Kuh vielleicht doch vom Eis ist bzw. nie darauf war und die Kirche im Dorf bleibt.

Mit der heutigen Ausgabe der Basler Zeitung lässt sich immerhin dagegenhalten:

Open Access oder nicht – das ist längst nicht mehr die Frage, die Bewegung ist ein Megatrend der Wissenschaftswelt, und das ist auch gut so. 90 Prozent der Zeitschriften und Verlage, auch die Giganten, stimmen inzwischen zu, dass bei ihnen veröffentlichte Texte auch auf der Website der Autoren oder einem Universitätsserver stehen – öffentlich und kostenfrei zugänglich. In den meisten Disziplinen sind die Vorteile überwältigend. Und für den Erhalt einiger mittelgrosser Player in unserer Kulturlandschaft müsste sich auch sorgen lassen.

Das Wissen der Welt frei im Netz: Open Access funktioniert.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7332 2
Nichts als Schreckgespenster. Die Süddeutsche Zeitung schickt einen Artikel zum Open Access gen Frankfurt http://weblog.ib.hu-berlin.de/p=7280/index.html http://weblog.ib.hu-berlin.de/p=7280/index.html#comments Tue, 14 Jul 2009 23:54:22 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7280 Wer nach einem schönen BBK-Vortrag z.B. zum Thema Open Access und geisteswissenschaftlichen Primärdaten bzw. konkret zum ECHO Projekt an einem solchen Dienstagabend in einem Straßencafé der Berliner Kastanienallee zum Nachtmahl einkehrt, bekommt die Süddeutsche Zeitung vom Mittwoch druckfrisch als Beilage serviert. Je nach Betrachtung lässt sich die aktuelle Ausgabe allgemein als Hors d’œuvre zum kulinarischen [...]]]>

Wer nach einem schönen BBK-Vortrag z.B. zum Thema Open Access und geisteswissenschaftlichen Primärdaten bzw. konkret zum ECHO Projekt an einem solchen Dienstagabend in einem Straßencafé der Berliner Kastanienallee zum Nachtmahl einkehrt, bekommt die Süddeutsche Zeitung vom Mittwoch druckfrisch als Beilage serviert. Je nach Betrachtung lässt sich die aktuelle Ausgabe allgemein als Hors d’œuvre zum kulinarischen Ausklingen des Tages oder als Nachtisch zur Präsentation der digitalisierten Keilschriften und der daraus folgenden Umwälzungen in der Wissenschaftspraxis der Assyriologie lesen.

Oder mehr in Hinblick auf Open Access an sich, denn im Feuilleton lacht dem aufblätternden Betrachter ein Beitrag entgegen, der sich in der Überschrift am Titel der momentan vielgerühmten, aber mangels Online-Verfügbarkeit wohl weniger gelesenen Ausgabe der Zeitschrift Gegenworte orientiert. Titelt diese “Die Wissenschaft geht ins Netz”, so hat Johan Schloemann den Schritt in gewisser Weise bereits vollzogen und entsprechend liest man über dem Artikel: Die Wissenschaft im Netz.

Darunter folgt ein höchst lobenswerter Aufruf, der sich prima auf die heute in Frankfurt/Main stattfindende Urheberrechtstagung beziehen lässt: “Schluss mit dem Kulturkampf” und als Themenstellung für den Text “Die Chancen des Open Access.”

In der Tat ist der Artikel auf die Veranstaltung, die vorwiegend über Roland Reuß als “gegenwärtige[n] Meister” “düstere[r] Schreckensszenarien” identifiziert wird, ausgerichtet und möchte offensichtlich den Anspruch der Versachlichung der Debatte gleich selbst einlösen. Entsprechend erfreulich unaufgeregt erläutert Schloemann zunächst einmal den allgemeinen Erkenntnisgewinn, den jeder halbwegs an Argumenten Interessierte aus der Hitze der Debatte ziehen musste:
“Längst wurde seitdem dazugelernt, dass das Massendigitalisierungsprojekt von Google, Raubkopien von E-Books, belletristisches Publizieren und Open Access in den Wissenschaften ganz verschiedene Fragen sind, die nicht zusammengehören. Die Wissenschaftsorganisationen mussten erklären, dass sie mit dem illegalen Herunterladen von Büchern von Daniel Kehlmann und Brigitte Kronauer nichts zu tun haben.”
Schlimm genug, dass sie das überhaupt mussten. Wer es jetzt aber nicht verstanden hat, tut dies mit Vorsatz… Im Anschluss an diese Passage wendet sich der Autor einem seiner Meinung nach verbindenden Element aller beteiligten Positionen zu: der Auffassung “Es muss nicht alles gedruckt werden.” Die Flut wissenschaftlicher Publikationen scheint ihm dafür als Veranschaulichung geeignet. Allerdings hat die Wissenschaft durchaus eine halbwegs angemessene Lösung für die Unmöglichkeit, die pro Jahr erscheinenden 1,6 Millionen Aufsätze zu lesen, gefunden. Sie spezialisiert sich mit den bekannten Folgen. Das Beispiel ist also dürftig, denn niemand liest auf Vollständigkeit, weder in der Wissenschaft noch auf den Buchmarkt mit seinen 80.000 oder 90.000 Neuerscheinungen im Jahr noch in der Tageszeitung. Die Publikationsflut lässt sich auf der individuellen Ebene durch eine konkrete Interessenformulierung und möglichst optimierte Relevanzauswahl – für die Informationsvermittler wie Bibliotheken eine Rolle spielen können – immerhin grob eindeichen.
Und wenn es ans eigene Publizieren geht, da ist Schloemann beizupflichten, nimmt ohnehin kein Wissenschaftler Rücksicht:
“Er muss seine Publikationsliste anreichern, um im Kampf um Stellen und Drittmittel eine Chance zu haben.”

In der Regel, so könnte man das Argument anders herum legen, erfüllt der Wissenschaftler durch das Publizieren auch seine Rechenschaftspflicht gegenüber denen, die ihm seine Wissenschaft finanzieren. Das führt direkt ins Herz eines zentralen Streitpunkts in der Debatte, zu dem der Artikel leider nicht konkret wird.

Er erläutert vielmehr am Beispiel von Tagungsbänden, dass man nun mit dem Netz die Möglichkeit hat, alles zu publizieren, ohne es gleich drucken zu müssen. Nun ja, die materielle/nicht-materielle Form ist ohnehin auf dem Weg, so relativ zu werden, dass sich an dieser Frage im Print-on-demand-Zeitalter wohl niemand mehr aufhalten wird.

Relevanter ist da vielleicht die Aufklärung, dass sich kommerzielles Verlegen von Inhalten und die Publikation nach Open Access, z.B. mit dem berühmten “Moving Wall”-Prinzip, keinesfalls ausschließen und schon gar nicht das Ende der Verlagsvielfalt zu befürchten ist. Bedroht ist die Verlagslandschaft

“nur eben an ihren extremen Rändern, mithin dort, wo die Preise für Sammelbände und vor allem Zeitschriften in den letzten Jahren so exorbitant gestiegen sind, dass die Etats der Forschungsbibliotheken sie einfach nicht mehr bewältigen können.”

Dass die Bedrohung nicht einmal zwangsläufig die Akteure, sondern vorwiegend Geschäftsmodelle betrifft, zeigen gerade die dominanten Wissenschaftsverlage, die mit ihren “Author-Pays”-Ansätzen eigene Open Access-Verfahren entwickeln, von denen sie vielleicht auch ganz gut leben können. Publizieren müssen die Wissenschaftler nunmal und angesichts der schon erwähnten Publikationsmenge spielen diese Verlage durchaus eine Rolle, in dem sie Publikationen kanalisieren und in einer Form labeln, die dem Einzelwissenschaftler über die Zuordnung zu Zeitschriften bestimmter Güteabstufungen einen schnelleren Überblick verschafft. Ihre Aufgabe ist die Reduktion von Komplexität über die Vorauswahl. Das Einrechnen von Publikationskosten für diese Dienstleistung vor der eigentlichen Veröffentlichung erscheint dabei allemal fairer, als die Barriere, die die Subskriptionen aufschichten.

Schloemann weist darauf hin, dass Open Access Journals durchaus eine tatsächliche Rolle spielen, die darauf schließen lässt, dass sie nicht von staatlichen Kontrollinstanzen über die Wissenschaftler gestülpt wurden, sondern durchaus in der Community selbst angestoßen und vor allem angenommen werden und durch sie funktionieren. Er schätzt aufgrund der Daten des DOAJ, dass 15 % aller Zeitschriften mit Peer Review (“also mit geregelter Kollegenkontrolle”) Open Access sind. Dass diese Schätzung recht grob und vielleicht etwas hoch gegriffen ist kann man natürlich bemängeln. Es bleibt aber vermutlich ein ausreichend großer Anteil, um daraus zu schlußfolgern, dass Open Access als Publikationsvariante in der Wissenschaft durchaus angenommen wird. Und zwar von den Wissenschaftlern. Geht es dem “Heidelberger Appell” auch mehr um das (Parallel)-Publizieren in Repositorien und weniger um das Publizieren in Open Access-Zeitschriften, so wird doch der sich lange zäh haltende Mythos erledigt, dass Wissenschaftler eigentlich gar kein Interesse an Open Access hätten, sondern Opfer einer “technokratischen Machtergreifung” (Roland Reuß) würden. Jedoch sollte man die beiden Grundformen der OA-Veröffentlichung – Zeitschrift und Repositorium – bei einer tiefer greifenden Auseinandersetzung differenzieren, sprechen sie doch eine jeweils andere Form der Wissenschaftskommunikation an.

Sicher sind privatwirtschaftlich operierende Verlage mit ihren Erfahrungen im Ideallfall “Garanten von Qualität und Vielfalt”. Allerdings sind genauso gut Modelle vorstellbar, in denen die Peer Review oder auch Open Review-Plattformen über öffentliche Forschungs-/Forschungsinfrastrukturetats und dennoch problemlos unter Absicherung der Wissenschaftsfreiheit organisiert werden. Oft sind die Herausgeber bzw. koordinierenden Redakteure solcher Zeitschriften ohnehin als Wissenschaftler bei entsprechenden Institutionen angestellt. Wer sie für diese Aufgabe entlohnt – mitunter ist es ja eher eine Art Ehrenamt denn eine nennenswerte Einkommensquelle – dürfte ihnen am Ende womöglich gar nicht so wichtig sein. Es ist also nicht unbedingt schlüssig, wieso die Aufgabe der Qualitätskontrolle unbedingt von privatwirtschaftlichen Akteuren organisiert werden muss. Natürlich übernehmen in der Realität überwiegend letztere diese Aufgabe und vermutlich wird es in absehbarer Zeit dahingehend nur geringe Veränderungen geben. Entsprechend ist Schloemanns Fazit zuzustimmen:

“[...] das Schreckgespenst einer staatlich monopolisierten Publikationskultur ist völlig übertrieben. Ein Zwang, alles auf Online-Portalen der Wissenschaftseinrichtungen zu publizieren, lässt sich überhaupt nicht durchsetzen. Da ist schon der Wunsch der Wissenschaftler vor, eine möglichst diversifizierte Publikationsliste vorweisen zu können. Geben wir also Open Access eine Chance.”

(Schloemann, Johan: Die Wissenschaft im Netz. In: Süddeutsche Zeitung. Nr. 160, 15. Juli 2009, S. 9)

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7280 2
Dasselbe, nur älter. Wie man vor fünf Jahren um Open Access stritt. http://weblog.ib.hu-berlin.de/p=7112/index.html http://weblog.ib.hu-berlin.de/p=7112/index.html#comments Wed, 10 Jun 2009 17:57:39 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7112 Wer die aktuelle Diskussion zum Thema Open Access, Verlage, Urheberrecht etwas gründlicher angehen und nachvollziehen möchte, bekommt nur zwei, drei Klicks entfernt eine Ahnung von der Trägheit der Debatte. In einer Diskussion in der inetbib aus dem Januar 2004 findet man z.B. eine Stellungnahme des damaligen Justiziars des Börsenvereins, die sich haargenau in der deutschen [...]]]>

Wer die aktuelle Diskussion zum Thema Open Access, Verlage, Urheberrecht etwas gründlicher angehen und nachvollziehen möchte, bekommt nur zwei, drei Klicks entfernt eine Ahnung von der Trägheit der Debatte. In einer Diskussion in der inetbib aus dem Januar 2004 findet man z.B. eine Stellungnahme des damaligen Justiziars des Börsenvereins, die sich haargenau in der deutschen Presselandschaft des Jahres 2009 einstellen ließe, ohne das jemand den Unterschied bemerkte:

Zu Ihren open-access-Ideen: Bislang übernehmen Verlage für die Wissenschaft die Aufgaben der Informationsselektion, -aufbereitung und -navigation. Das Vorhalten des dafür erforderlichen Knowhows und Kapitals kostet Geld, das sie mittels Markterfolges verdienen müssen. Auch in der schönen neuen open-access-Welt werden diese Kosten entstehen, wenn die Qualität und Aufbereitung der Informationen gleich gut bleiben soll. Sie scheinen davon auszugehen, dass es für die Gesellschaft billiger und besser wird, wenn sich anstelle privater Unternehmer die öffentliche Hand dieser Aufgabe annimmt. Ob dies wirklich so ist, muss allerdings aufgrund der Erfahrungen der Vergangenheit bezweifelt werden.

Die ebenfalls heute noch gültige Entgegnung kann man hier nachlesen. Spannend ist es ja, aber auch erschreckend, wie wenig neue Argumente in die Diskussion in den letzten fünf Jahren gedrungen sind. Der zentrale Unterschied liegt immerhin darin, dass die Debatte 2004 in einem Fachforum ablief und sich heute in den Seiten der großen Tages- und Wochenzeitungen vollzieht.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7112 0
Treffer! Versenkt!: Volker Gerhardts “bürokratischer Imperativ des Open Access” und die Schriftkultur http://weblog.ib.hu-berlin.de/p=7098/index.html http://weblog.ib.hu-berlin.de/p=7098/index.html#comments Wed, 10 Jun 2009 11:40:36 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7098 Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für [...]]]>

Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für die Schwerpunktausgabe der Zeitschrift Gegenworte (Heft 21) auf zeitungstaugliches Niveau zusammengekürzt. Damit muss man erst einmal auskommen, denn die Gegenworte sind noch nicht erschienen. Man traut aber der FAZ-Redaktion zu, dass sie sich im sinngemäßen Kürzen auskennt und bedankt sich für die vorgreifende Nachverwertung.

Der Artikel  mit der mächtig abgeschmackten Überschrift “Open Exzess: Die Folgen des Publizierzwangs” (Frankfurter Allgemeine Zeitung, 10.06.2009, Seite N5) zeigt sich am Ende leider auch wieder nur als dystopisch kolorierte Angst vor einem “Monopol” elektronischer Publikationsformen und davor als ein Hohelied auf die Verdienste der Verlagslandschaft für die Wissenschaft und die Gefahren der Zerstörung (sowohl als auch) durch das freie Publizieren im Netz.

Nun ist leider schon die Prämisse verkehrt, denn genauso wenig wie „das Internet“ als Feind des Intellektuellen und der Tageszeitung gibt es nur eine Form des „Open Access“. Statt rigorosem Publikationszwang werden diverse Schattierungen diskutiert und angewahnt und jemand, dem es an Argumentation gelegen ist, sollte wenigstens erklären, dass er mit einer übertriebenen Zuspitzung hantiert und nicht mit der Tatsächlichkeit der Sachlage. Die lautet: Es gibt momentan keinen Zwang zum Open Access. Und angesichts des Furors der Verlagslobby, einiger Heidelberger und mancher Wissenschaftler werden auch die Wissenschaftsorganisationen den Teufel tun und hier mehr als Freiwilligkeit verlangen. Bei konkreten Finanzierungsförderungen mag das anders aussehen. Aber das entspricht auch dem normalen Umgang mit Verlagen: Es gibt Bedingungen, die der Autor annehmen kann oder ablehnen.

Feindschaft zu den Verlagen sucht man in der Open-Access-Bewegung jedenfalls nicht. Sondern man unterbreitet ein Angebot, dass relativ neu, mitunter noch besser in die Rahmenbedingungen eingepasst werden muss, ansonsten aber durchaus seinen Zweck erfüllt.

Leider rufen Volker Gerhardt, der seinen Text eigentlich erfreulich moderat beginnt, und auch andere Beiträger zu der Debatte beim Leser ein wenig den Eindruck hervor, dass irgendeine dritte Macht versucht, der Wissenschaft eine Open-Access-Bürokratie aufzuzwingen, die wissenschaftliches Arbeiten, wie man es bisher kennt, nachhaltig beschädigen wird.

Open Access, woher er wirklich kommt

Dabei entfällt, dass Open Access eine Initiative aus der Wissenschaft heraus ist, die aus oft genannten, wohl bekannten und richtigen Gründen entstand – nämlich einerseits als Gegenreaktion zur so genannten Zeitschriftenkrise, die den Zugang zu wissenschaftlichen Publikationen durch das Monopol bestimmter wissenschaftsexterner Marktakteure kaum bis unbezahlbar machte und andererseits als Nutzung der zeitnahen und kostengünstigen technischen Möglichkeiten für die innerwissenschaftliche Kommunikation, die elektronischen Kommunikationsumgebungen nun einmal bieten.

Gleichwohl darf man sich nicht einbilden, mit dem Imperativ des Open Access der Wissenschaft etwas Gutes zu tun. Sie leidet schon lange genug unter der Verwechslung von Quantität mit Qualität, mit der das Rating an die Stelle der Urteilskraft tritt und die im Übrigen ein sicheres Indiz dafür ist, dass die Wissenschaft sich nicht mehr nach ihren eigenen Kriterien bewertet.

Dass das, was der Mensch so gern tut vom zu wenig ins zu viel kippt, ist eine Grunderfahrung nicht nur aus dem elektronischen Umfeld. Auch der Printmarkt überschüttet jeden leicht über engste disziplinäre Eingrenzungen hinaus Blickenden mit weitaus mehr Inhalten, als er vernünftig rezipieren kann. Das Klagelied: “Wer soll das alles lesen!” ist noch älter als “Wer soll das bezahlen!” Die Dokumentation hat mit den Abstract-Zeitschriften und ähnlichen Ansätzen vor weit mehr als hundert Jahren bereits Ausgleichsformen zur Komplexitätsreduktion entwickelt, die immer Perpetual Beta waren. Dies ist nun einmal der charakteristische Zug eines gesellschaftlichen Tätigkeitsfelds, das genuin nach Neuem strebt: Dynamik. Die Kommunikationswerkzeuge folgen immer mit einer gewissen Verzögerung dem tatsächlichen Geschehen. Es muss erst das Problem auftreten, bevor man die Lösung durchsetzen kann.

Im elektronischen Publizieren – denn eigentlich geht es Volker Gerhardt nicht nur um Open Access, sondern an sich um elektronisches Publizieren mit seinen Nebenwirkungen – ist dies genauso der Fall. Da diese Kommunikationsumgebungen mit so aussagearmen Kriterien wie Klick- und Downloadraten zunächst einmal exzellente quantitative Messmöglichkeiten bieten, greift jeder, der in der Lage ist, bewerten zu wollen oder zu müssen, zunächst beherzt zu. Wenn er dann aber schließlich darauf kommt, wie fehlgeleitet seine Schlussfolgerung aus einem rein mengenorientierten Ranking sein kann, wird er sich an die Entwicklung differenzierterer Ansätze machen. Es gibt durchaus rege Tätigkeit auf diesem Feld. Dass quantitative Evaluation wenig über die Güte von Wissenschaft aussagt ist mittlerweile ein Allgemeinplatz.

Eitel schreibt am meisten?

Warum hat Volker Gerhardt eigentlich so wenig Vertrauen in die Selbstregulierung der Wissenschaftsgemeinschaft?:

Jeder ist sein eigener Lektor, der dem Autor großzügig jede Eitelkeit durchgehen lässt. Mit der Verständlichkeit der Ausführungen hat er jedenfalls keine Probleme, schließlich hat er den Text ja selber verfasst. Von der Illusion umfangen, die Ablagerung im Netz sei schon die Aufnahme durch die wissenschaftliche Welt, verwechselt er die Produktion des Textes mit dessen Rezeption.

Glaubt er, dass seine Peers einen schlechten, im Netz abgelagerten Artikel seiner Feder unreflektiert rezipieren und applaudieren? Mit entsprechenden Diskussionsstrukturem im Web stände wohl eher schnell bei einem rezeptionsbasierten Post-Review-Verfahren an der entsprechenden Stelle: „Mir scheint, Sie sind ein eitler Geck/und schreibens nur zum eigenen Zweck“ – allerdings in der Etikette entsprechender Wissenschaftssprache. Traditionell reguliert die Wissenschaft, was sie für wissenschaftlich hält und nicht der Lektor im Verlag. Dieser markiert bestenfalls eine Schranke, die dafür sorgt, dass das Publizierte ins Verlagsprogramm passt. Er urteilt in erster Instanz nach Verkaufbarkeit, wobei Wissenschaftlichkeit bei wissenschaftlichen Verlag ein relevantes Kriterium ist. Zeitgeist aber auch. Der Abgelehnte geht im Regelfall einfach zu einem anderen Verlag und irgendwann wird sein Text doch gedruckt.

Fünf Stufen in die Versenkung

Wie dem auch im Print auch sei, für das Publizieren im Internet sieht Volker Gerhardt stufenweisen Schwund an Kultur und Kultiviertheit. Seine fünf „Sinkstufen“ zur Zersetzung der Schriftkultur sind allerdings nur der schematisierte Ausdruck, dass er sich eine Welt, in der der idealtypische Wissenschaftsverlag nicht mehr das tut, was man idealtypisch von ihm erwartet, nicht vorzustellen vermag.

Stufe 1: Kurz gesagt: Der Wissenschaftler stellt die Texte lieber selbst ins Netz und lässt die Verlage außen vor. Die dürfen ihn zwar noch drucken, erhalten aber keine Rechte – was eigentlich bedeutet: keine Exklusivrechte. Volker Gerhardt flüchtet sich an dieser Stelle in eine eher peinliche Polemik:

Zwar räumen sie den Verlagen die Möglichkeit zur Publikation der Ergebnisse ein, sind aber nicht bereit, ihnen auch Rechte zuzugestehen. Wie kämen sie auch dazu, wenn doch offensichtlich ist, dass die Verlage nur ihre Profite machen wollen? Unter Berufung auf den Konsens, der den Open Access so selbstverständlich macht, kann ein Wissenschaftler es doch nicht zulassen, dass sich ein Verlag an der Vermarktung von Ergebnissen bereichert, die unter Einsatz öffentlicher Mittel erzielt worden sind.

Derartig schlicht funktional ticken Wissenschaftler nicht. Es geht im Open Access nicht darum, den Verlagen ihre Leistung abzuerkennen oder sie zu beschädigen. Daher bestehen auch Embargo-Szenarien, die den Verlagen einen bestimmten Zeitraum geben, einen Titel sogar exklusiv zu vermarkten. Nur danach, wenn die Restauflage in der Backlist verschwindet oder remittiert wird, versteht man nicht, warum der Text nicht auch frei zugänglich im Netz stehen darf. Das Ziel eines Open Access-Ansatzes ist an dieser Stelle mehr ein Ausbalancieren der Interessen der Wissenschaft und der Verlage und nicht, letzteren die Existenzgrundlage zu nehmen. Selbst bei Pre-Prints ist die Verlagspublikation –sofern der Verlag seine Arbeit (gut) macht – eben nicht identisch mit dem E-Produkt. Das erklärt sich schon rein aus der Materialität des Druckwerks und schließt im Idealfall das Lektorat mit ein. Der Verlag publiziert in solch einem Szenario mit der ersten Auflage die zweite verbesserte und überarbeitete Ausgabe eines Textes.

Es ist unverständlich, warum diejenigen, die sich damit am besten auskennen, grundsätzlich annehmen, niemand würde eine solche Optimierungs- oder Veredelungsleistung honorieren und doch das Buch kaufen, obschon es denn Inhalt frei online gibt. Aus anderen Bereichen – z.B. der DRM–Diskussion – kennt man das Prinzip, dass Anbieter ihren Kunden grundsätzlich als Gefahr und Feind bewerten. Die Verlage begeben sich momentan oft in eine ähnliche Richtung und werden sicher von ihrem Misstrauensgrundsatz nicht profitieren. Sie vergessen gern, dass man sie nie für die Inhalte selbst bezahlte, sondern nur dafür, dass sie diesen eine rezeptionsadäquate Form gaben. Oder, weil sie der einzige Weg waren, um die Inhalte überhaupt zur Kenntnis nehmen zu können. Der zweite Punkt verschwindet zugegeben mit Open Access und trägt damit der Verfasstheit immaterieller Güter wie der wissenschaftlichen Information konsequent Rechnung. Der erste Punkt bleibt, gerade im elektronischen Umfeld, hoch relevant.

Die zweite Stufe betrifft das Wegfallen der Bibliotheken als Käufer von Büchern:

Die zweite Sinkstufe besteht darin, dass die Verlage keine Möglichkeit mehr sehen, Texte herauszubringen, die ihnen noch nicht einmal mehr die Bibliotheken abkaufen, weil ja ohnehin alles kostenlos im Netz zu haben ist.

Es wurde schon vermehrt darauf hingewiesen, dass im Bibliotheksetat ein übergroßer Anteil in die objektiv überteuerten Zeitschriftenpakete einige Monopolverlage gehen, was sich negativ auf die Monographieetats auswirkt. Gerade hier müssten die mittelständischen Wissenschaftsverlage Open Access befürworten, da dadurch wieder Geld für ihre Produkte frei werden könnte. Internetpublikationen erweisen sich für die argumentativ ausgerichteten Disziplinen nicht als zwingend vorteilhaft. Wenn die Wissenschaftler als Bibliotheksbenutzer also einen entsprechenden Bedarf artikulieren und als mündige Nutzer auftreten, die nicht alles hinnehmen, was ihnen die Sparvorhaben eines Berliner Senats aufdrängen möchten, dann werden sie auch mit längerer Perspektive das Printprodukt ins Freihandregal bekommen, das sie möchten. In der Bibliothekswelt predigt man jedenfalls andauernd, wie wichtig Nutzerorientierung ist. Man wird das gedruckte nicht gegen den Willen der Wissenschaftler aus dem Bestand nehmen. Dass die Einrichtungen Dienstleister für die Wissenschaft sind, ist weitgehend Konsens. Dass Bibliothekare bislang als Sinnenmenschen selbst zumeist Bücher bevorzugen, ist auch bekannt.

Ein anderer Punkt ist das grundsätzliche Vorurteil, Netzpublikationen seien per se von minderer Qualität, denn sie basieren „auf der dilettantischen Textbearbeitung durch die Editoren.” Wer sagt denn, dass nicht inner- und außeruniversitär Raum für professionelle Edition auch von Netz- und OA-Dokumenten ist? Wieso sollen ausschließlich die traditionellen Verlage entsprechende Kompetenzen aufweisen? Wenn die Verlage clever sind, dann orientieren sie sich verstärkt auf dieses Feld und entwickeln ansprechende und hochwertige Formen für die netzpublizierten Inhalte. Fast niemand erfreut sich daran, Inhalte auf Quellcodeniveau oder im Rohschnitt zu lesen. Warum sollte man längerfristig daran Geschmack entwickeln?

Entsprechend redundant ist dritte „Sinkstufe“. Volker Gerhardt vermisst bei Netzpublikationen die “kundige Bearbeitung durch professionelle Lektoren und Produzenten”. So etwas ist für ihn im Open Access scheinbar ausgeschlossen, denn die Wissenschaftler selbst bekommen nur die elementaren Forschungsvoraussetzungen. Allerdings sind spätestens seit dem DTP Wissenschaftler nicht selten ihre eigenen Setzer und Korrekturleser. Nicht, weil sie es wollen, sondern weil manche Verlage so wenig von der „kundigen Bearbeitung durch professionelle Lektoren und Produzenten“ halten, dass sie diese lieber einsparen und die Devise pflegen: „Formatier selbst oder publizier eben nicht.“ In den Bibliotheken finden sich durchaus nicht wenige Publikationen, bei denen „eine sinnfällige Gestalt, eine brauchbare Oberfläche und eine solide Tiefenstruktur“ für die Verlage bei weitem nicht so wichtig waren, wie ein Relevanz verkündender Titel und ein entsprechend tüchtiger Preis.

Bei den Open Access-Verfahren bleibt die Zusatzbelastung des Wissenschaftlers natürlich gleich. Aber auf die schwarzen Schafe unter den Wissenschaftsverlagen ist er immerhin nicht mehr angewiesen. Das Schema der professionelleVerlag hier, der dilettantische Wissenschaftler da ist so nicht haltbar. Zudem kann man sich durchaus vorstellen, dass den Wissenschaftlern z.B. in Bibliotheken Fachleute mit dem Zuschnitt der Unterstützung im Publikationsprozess zur Seite stehen oder gegebenenfalls die Publikationsvorbereitung übernehmen. Nicht zuletzt erweist sich der Universitätsverlag, der in Deutschland eine eher geringe Tradition hat, als Möglichkeit, eine Qualitätskontrolle zu etablieren. Volker Gerhardt zeigt sich weitaus pessimistischer:

Die zuständigen Forscher werden kaum mehr als Arbeitsgrundlagen zur Verfügung stellen. Von Büchern, die man wenigstens mit Hilfe eines i-books lesen möchte, kann keine Rede mehr sein. Die Pflege der Websites ist damit noch gar nicht berührt.

Die Pflege der Websites wird doch eigentlich weitgehend sauber geleistet? Das Apple-Product-Placement wirkt dagegen etwas zu aufgesetzt. Wenn sogar das E-Book vergehen wird, dann doch lieber auf dem Kindle

Die vierte Sinkstufe bietet in der Aussage nichts substantiell anderes, als die vorhergehenden bereits enthielten. Die Ergänzung liegt darin, dass es seiner Rechnung nach billiger ist, die Bücher von Verlagen zu kaufen, als die Wissenschaftler mit dem „Sachverstand in den Verlagen“ auf eine Kompetenzstufe zu heben. Da aber im Open-Access-Kontext die ganze Vermarktungsmaschinerie entfällt, also das kaufmännische Element, spart man wieder etwas ein.

Gerechter war diese Finanzierung durch den Nutzer allemal. Doch das ist dann bereits Vergangenheit, die sich nicht zurückholen lässt, weil die Etats der Wissenschaft mit Sicherheit nicht ausreichen, um alles das zu finanzieren, was derzeit noch die Verlage bieten.

Auch hier sollte sich Volker Gerhardt einmal mit den Kollegen von der Universitätsbibliothek kurzschließen und erfragen, wie gerecht eigentlich die Preisgestaltung bei den großen STM-Verlagen ist, der die Bibliotheken und indirekt die Wissenschaftler folgen müssen.

Die Stufe Fünf entspricht dem Verlust des kulturellen Erbes. Denn ohne gedruckte Originale, so das Argument, sind die digitalen Daten verloren, wenn sie verloren gehen. Von LOCKSS oder vergleichbaren Ansätzen hat Volker Gerhardt womöglich noch nichts gehört. Das muss er auch nicht unbedingt. Aber er könnte sich durchaus denken, dass diejenigen, die sich permanent und professionell mit Fragen des elektronischen Publizierens befassen, auch die Fragen der Langzeitarchivierung von digitalen Inhalten in ihrem Wahrnehmungs- und Entwicklungsradius berücksichtigen.

Fazit

Eigentlich ist der Niedergang der Kultur, den Volker Gerhardt hier ausmalt, ein Niedergang des Verlagswesens, wie wir es kennen. So weit so schlimm. Die Frage ist, ob er überhaupt eintritt. Die Bandbreite möglicher Entwicklungen umfasst durchaus positive Szenarien, die auch Verlagen eine Rolle selbst in Open-Access-Kontexten zugestehen.

Was weitaus stärker erstaunt, ist, wie sehr hier die selbstregulierende Funktion des Kommunikationssystems Wissenschaft unterschätzt wird. Die Wissenschaftsgeschichte zeigt, dass es immer um ein Ausbalancieren zwischen dem Machbaren, dem Wünschbaren und dem Zweckmäßigen. Letzteres setzt sich für eine Weile durch, unterliegt aber permanenter Modifikation durch die anderen beiden Einflussgrößen. Eine mediale Grundform besetzte bisher immer ein bestimmtes Zeitfenster und einen bestimmten disziplinären Wirkungsrahmen als dominante Größe. Dann verlor es an Bedeutung. Das kulturelle Erbe hat dabei bisher weniger durch Medienwechsel als durch Ignoranz Schaden genommen. Mangelnde Sensibilität ist in jeder Hinsicht ein Problem. Das „Monopol“ elektronischer Medien ist genauso wenig zu begrüßen, wie das Monopol des Papiers. Noch im 19. Jahrhundert galt das Schreiben dem Reden in der Wissenschaft als nachgeordnet. Vielleicht ist es im 21. Jahrhundert so, dass die in elektronischen Umgebungen möglichen Echtzeitkommunikationen über Plattformen, die wir bisher kaum kennen, zu einer Rückkehr der Oralität in verschriftlicher Form auch in der Wissenschaft führen. Die Kritik, denn der Peer direkt an der richtigen Textstelle im Pre-Print einfügt und auf den der Autor dann wieder eingeht, sind eine sinnvolle Variante für einen unmittelbaren und lebendigen Diskurs. Nachträglich lesen muss man das eigentlich nur, wenn die Debatte wieder zu dem Punkt zurückkehrt. Man könnte es, denn es ist sauber dokumentiert. Was im Idealfall am Ende steht und bleibt, ist das geschriebene Wort. In einer erweiterten, nicht versunkenen Schriftkultur.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7098 13
Der Traum im leeren Wald: Das Ende des Bloggens und die Furcht vor dem Internet in der ZEIT http://weblog.ib.hu-berlin.de/p=7060/index.html http://weblog.ib.hu-berlin.de/p=7060/index.html#comments Sun, 07 Jun 2009 21:21:43 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7060 Auch manche Bibliotheken, die es mal mit einem Blog versucht haben wissen, dass es beim Bloggen zwar “easy come” heißt, aber nicht “easy go”. Die New York Times bestätigt heute in einem Artikel (Blogs Falling in an Empty Forest) noch einmal das simple Phänomen, dass es zwar eine nahezu unüberschaubare Anzahl an Weblogs gibt, aber [...]]]>

Auch manche Bibliotheken, die es mal mit einem Blog versucht haben wissen, dass es beim Bloggen zwar “easy come” heißt, aber nicht “easy go”. Die New York Times bestätigt heute in einem Artikel (Blogs Falling in an Empty Forest) noch einmal das simple Phänomen, dass es zwar eine nahezu unüberschaubare Anzahl an Weblogs gibt, aber nur ein Bruchteil wirklich regelmäßige Inhalte liefert. Zum Glück, möchte man meinen, denn die Feeds liefern auch schon auf diesem niedrigen Aktualisierungsniveau ausreichend Inhalte, die zwar selten brennend relevant sind, aber oft eben doch potentiell interessant klingen und daher gesichtet werden wollen:

According to a 2008 survey by Technorati, which runs a search engine for blogs, only 7.4 million out of the 133 million blogs the company tracks had been updated in the past 120 days. That translates to 95 percent of blogs being essentially abandoned, left to lie fallow on the Web, where they become public remnants of a dream — or at least an ambition — unfulfilled.

Die Überreste eines Traumes – das klingt groß, trifft aber nur bedingt zu. Denn natürlich ist es gerade die niedrige Einstiegsschwelle ins Bloggen, die dazu führt, dass man einfach diese Kommunikationsform mal ausprobiert und beginnt. Ob da tatsächlich bei jedem hohe Erwartungen und Ambitionen vorliegen, scheint eher zweifelhaft. Immerhin hat die New York Times ehemalige Blogger gefunden, die die Nichterfüllung der erwarteten Popularität als Grund angeben, nicht weiter zu bloggen. Man kann sich zwar, wie neulich auf dem Bibliothekartag zu hören war, die Nullnutzung elektronischer Inhalte immer noch als perspektivisch potentielle Nutzung positiv interpretieren. In den Vergänglichkeitsmedien des Web 2.0, in denen ein Inhalt fast noch schneller veraltet, als die Tageszeitung, ist dies aber nur ein schwacher Trost und nur selten eine Motivation. Ein anderer Grund liegt genau im Gegenteil: der überraschenden Popularität, die Geister auf den Plan rief, denen man im virtuellen Sozialraum kaum entkommen kann. Auch dafür liefert der Beitrag Beispiele. Schließlich gibt es noch die Tendenz zum Medienwechsel. Wenn es hauptsächlich um schnelle, kurze Kommunikation und nicht um die Kreation von Texten geht, sind Facebook und Twitter attraktivere, unkompliziertere und direktere Werkzeuge. Während man ein Weblog mühsam verlinken und bekannt machen muss, ist die Liste der “Freunde” bei Facebook auch die der wahrscheinlichen Leser.

Wer allerdings der Mär aufsaß, dass man mit Blogs unmittelbar Geld verdienen kann, befindet sich wenigstens in Deutschland im falschen Medium. Allerdings eignen sie sich natürlich doch, wenn genügend Energie und Talent hineinfließt, um eine gewisse Popularität aufzubauen, aus der heraus dann Bücher entstehen können oder Einladungen für Vorträge resultieren. Für bestimmte Berufsgruppen – z.B. freie Journalisten – bietet sich das Medium an, um sichtbarer zu werden oder sichtbar zu bleiben, ein Profil zu schärfen und so eventuell doch die eigene wirtschaftliche Stellung mittelbar zu verbessern.

Dann darf man vielleicht auch mit- oder gegendiskutieren, wenn Adam Soboczynski oder aktuell Jens Jessen in der ZEIT (Das Netz trügt) die grundsätzliche Intellektuellen- und Demokratiefeindlichkeit des Internets propagieren, für das von ihnen und ihren Texten hochgehaltene Diskursniveau am Ende aber doch sehr niedrig argumentieren:

Wer je nach Argumenten gegen die direkte Demokratie suchen wollte, im Netz würde er fündig. Den spontanen Aufwallungen des Volkszornes, der Bereitschaft zur Diffamierung und Verfolgung Andersdenkender steht keine zivilisierende Bremse entgegen. Natürlich gibt es moderierte Gesprächsforen, die nicht jeden beliebigen hetzerischen Beitrag dulden. Aber die Abneigung, die solchen Eingriffen entgegenschlägt (man muss nur einmal verfolgen, was im Netz los ist, wenn ein Beitrag entfernt wird), verrät doch, dass dies nicht dem primären Impuls vieler Nutzer entspricht.

Wo Adam Soboczynski eine bestürzende Dünnhäutigkeit an den Tag legt (mehr dazu auch hier), weil ihm mal jemand in dem von ihm gewählten Medium einen Leserkommentar unter den Text setzt, der da sinngemäß lautet: Ich denke, du schreibst Unsinn, Kollege, sieht Jens Jessen den Urtrieb eines beträchtlichen Teils der Nutzer von den Ausdrucksformen des Web im Flaming, der Diffamierung und nicht zuletzt – drunter geht es wohl auch hier nicht – “der Verfolgung Andersdenkender”. Es ist nur schade, dass das Andersdenken dieser Dissidenten in der ZEIT zwar dem durschnittlichen Blogbeitrag in rhetorischer Güte weit überlegen ist, inhaltlich aber auf einem ähnlichen Niveau, wie die herbeigesuchten Negativbeispiele herumstreunert. Man kann gerade mit ein wenig intellektueller Distanz zum Gegenstand mit einem weitaus elaborierterm Bogen spannen und ins Schwarze der gesellschaftsrelevanten Entwicklungen im Internet treffen. Warum pfeifen Adam Sobczynski und Jens Jessen denn nicht einfach auf den von ihnen so gehassten Egalitarismus, der mancherblogs tatsächlich gefeiert wird?

Diese Etikette, die verlangt, dass alle sich so dumm stellen müssen wie der dümmste Diskussionsteilnehmer, ist, vorsichtig gesagt, dem Aufbau einer Wissensgesellschaft nicht eben günstig.

Nach solch putzigen Attacken muss sich allerdings der Mann vom gehobenen Kulturinterpretationsfach nicht wundern, wenn man ihm Arroganz vorwirft. Es geht nicht um dumm und dümmer, sondern darum, dass man sich auf seine Zielgruppe einstellt. Wer in der ZEIT veröffentlicht, muss sich – so ist das Geschäft in der Zeitungswelt – auch auf die Verständnisfähigkeit des durchschnittlichen ZEIT-Lesers beziehen. Jens Jessen nimmt diese Hürde problemlos, denn die einen bedient er mit üblichen, im Schnellkopftoch der Google-Welt aufgekochten Vorurteilen und die anderen fordert er so heraus, dass die von ihm so geschmähte Klickrate gerade bei seinem Artikel in Höhe schnellt. Der Zeitung gefällt es und ihm als Journalisten ist es sicher nicht unangenehm, wenn sich einerseits dank der Leserkommentare seine selbstgesetzte Prophezeiung bestätigt wird und er andererseits auch noch denn einen oder anderen Schulterklopfer zum Zeilenhonorar abholt. Greift er dann noch zu Wortschöpfungen wie “E-Bolschewismus”, ist ihm ein Eingang ins Neuwortlexikon gewiss und mehr Aufmerksamkeit und Empörung obendrein.

Das ändert aber nichts daran, dass das alles eine Scheindebatte ist, die den Kern des Mediums verfehlt, bei weniger mit diesem vertrauten Lesern aber so manchen Flurschaden hinterlässt. Die glauben nämlich tatsächlich, dass Eigenschaften wie kritisches Denken, inhaltliche Tiefe und gründliche Analyse von Heerscharen dummdreister Blogger mit Fackeln und Mistgabeln durch die Suchmaschinen gejagt werden. Den meisten Bloggern ist allerdings die Furcht eines Adam Soboczynski ziemlich egal, sein Name unbekannt und sein Anliegen unverständlich. Sie haben nichts gegen ihn, sondern wollen einfach mit ihren Möglichkeiten über das schreiben, was ihnen im Kopf herumgeht. Dabei zwingen sie weder ihn noch Jens Jessen oder irgendeinen anderen Intellektuellen oder Nicht-Intellektuellen dazu, das zu lesen. Außer vielleicht bei den Leserkommentaren.

Wenn es das ist, was die beiden Autoren stört, dann sollten sie mal mit der ZEIT-Online-Redaktion reden. Die könnte die Funktion dann aus Respekt vor der Qualität der Artikel abstellen. Macht sie aber nicht. Warum? Vielleicht lässt sie sich auch  vom Mythos Klickrate blenden: diese Klickrate ist aber im Webdiskurs weder Währung noch Abstimmung. Sondern nur eine Krücke, mit der man versucht Aufmerksamkeit zu messen und wiederum den Werbekunden (“Fahren Sie voraus”, “Jetzt privat versichern”, “Trendhandel mit System”), die neben den Klickbringern von Jens Jessen und Adam Soboczynski ihre Anzeigen schalten, eine passende Rechnung auszustellen.Vielleicht ist sie auch überparteilich und denkt über ihre Autoren: Selber schuld, wenn sie sich den faulen Tomaten aussetzen.

Kurz: Es ist offensichtlich, dass der Stammtisch auch im Netz existiert. Es wäre verwunderlich, wenn nicht. Die “gegenwärtigen sozialen Umgangsformen” im Internet sind die des Kulturraums, in dem die Debatte stattfindet. So ist Deutschland und im Vergleich trotz aller Drastik sogar oft vergleichsweise gemäßigt. Wer hier zur Schmähung des Mediums aufruft, müsste auch manches Vereinsheim und manche Eckkneipe und manchen Stadtplatz als Diskursraum schließen lassen wollen. Es ist ebenfalls offensichtlich, dass sich einige Akteure wider besseren Wissens zur am Ende recht naiven Provokation hinreißen lassen. Und ist schließlich auch offensichtlich, dass ihr auflagen- und klickorientiertes Publikations- und Leitmedium darüber nicht unglücklich ist. Das hat die Funktionsweise des Web in jedem Fall besser verstanden, als einige seiner Autoren.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7060 4
Die Freiheit im Digitalen: Ein Text zum Open Access im Freitag. http://weblog.ib.hu-berlin.de/p=6984/index.html http://weblog.ib.hu-berlin.de/p=6984/index.html#comments Wed, 20 May 2009 10:20:48 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6984 Es wird nicht viel Wasser den Fluss hinabfließen, bis Open Access auch in den Geisteswissenschaften weltweit zum Standard wissenschaftlichen Publizierens wird – ganz ohne „technokratische Machtergreifung“ und äußeren Zwang. Ich als Altertumswissenschaftler brauche schon heute gedruckte Bücher und Open Access – und Verlage mit im Boot, die mir beides ermöglichen. Hier sind wir wieder im [...]]]>

Es wird nicht viel Wasser den Fluss hinabfließen, bis Open Access auch in den Geisteswissenschaften weltweit zum Standard wissenschaftlichen Publizierens wird – ganz ohne „technokratische Machtergreifung“ und äußeren Zwang. Ich als Altertumswissenschaftler brauche schon heute gedruckte Bücher und Open Access – und Verlage mit im Boot, die mir beides ermöglichen.

Hier sind wir wieder im freien Prognostizieren. Joachim Losehand rechnet heute im Freitag seine Rezeptionspraxis hoch und es ist natürlich schwer, ihm nicht Recht zu geben. (Losehand, Joachim: Der Zwang zur Freiheit. In: Freitag online. 20.05.2009 05:00) Allerdings muss man nicht unbedingt mit dem Revoutionsvokabular mitstürmen, das er – nicht unpassend zur aktuellen Linie des Wochenblattes – benutzt, wenn er zum Jubiläum die Bedeutung des Mauerfall mit dem anderen Jubiläum der Erfindung des WWW (“eine viel größere und bedeutsamere Revolution”) zusammenspielt. Die Koinzidenz ist verführerisch, aber das gegeneinander Aufwägen ist ein Schritt zuviel und am Ende klingt das Freiheitslied, das hier aufgespielt, etwas zu einfach komponiert: Alles frei, alles besser und ein paar Ewiggestrige vom Politbüro der Deutungshoheit (Andrew Keen, Marek Lieberberg, Susanne Gaschke, Thomas Schmid und man kann aus der heutigen ZEIT auch noch Adam Soboczynski ergänzen) “fürchten um die Integrität ihrer Werke, ihre Souveränität als Urheber, um die Existenz der traditionellen Verlage, oder gleich um den Erhalt der literarischen und wissenschaftlichen Kultur”. Dabei steht doch eine neue, bessere Kultur erst ins Haus: “In dem Wunsch, die Wissenschaftler zur Publikation unter den Regeln von Open Access zu verpflichten, drückt sich nicht ein Ruf nach Enteignung aus, sondern die Stimme der Freiheit.”

So ganz simpel rollen die Würfel dann aber doch nicht zum Sechserpasch für alle. Die wissenschaftssoziologische Erfahrung zeigt, dass es neben dem idealistischen Ziel, der Menschheit vermittels Bekanntgabe von Erkenntnis etwas mehr oder weniger Gutes zu tun, in der Wissenschaft auch andere, ganz auf das eigene Dasein des Wissenschaftlers bezogene Motivationen vorliegen: Der Aufbau von Reputation. Open Access, so meine These, gelingt dann und dort, wo es dafür einen Beitrag leisten kann. Dann setzt es sich auf diesem Markt konkurrierender Publikationsformen durch.

Die Debatte, die um diesen Reibungspunkt geführt wird, lässt sich nämlich nicht nur als freiheitsgetriebener Durchsetzungswillen von progressiven Eingesperrten gegen rückständige Sachwalter der alten Zeit sehen, sondern ist durchaus insgesamt auch als Wettbewerb bis Machtkampf zu lesen: Wo es den einen mittels einer technischen Innovation darum geht, sich selbst – ganz wertfrei gemeint – zu profilieren und sich eine möglichst breite Existenzgrundlage zu sichern, die rhetorisch mit Deutungsanspruch für das, was morgen sein soll (und wird), also einem Zukunftsversprechen, verkauft wird, fühlen sich die anderen zwangsläufig in ihrer Position und ihrem Daseinsentwurf gefährdet. “Du musst dein Leben ändern” – der Imperativ auf dem Gemeinplatz schwingt mit (bzw. im Freitag: „Man kann nicht zweimal in denselben Fluss steigen“).

“Der vom gebundenen Buch befreite Text gilt ihnen, da scheinbar unkontrolliert und dem kritischen Auge des Verlages entzogen, für qualitativ minderwertig.”

Das stimmt natürlich nicht, denn wer in die Buchhandlungen geht und an den Regalen entlang schaut, sieht nicht unbedingt nur Werke, die Zeugnis eines besonders kritischen Verlagsauges geben. Aber es kann verkauft werden und es wird verkauft. Das vermeintliche Kriterium einer qualitativen Wertigkeit als Scheidelinie zwischen gedruckt und elektronisch wurde spätestens mit dem Einstieg der Verlage ins elektronische Publizieren überholt. Und kontrolliert wird der Text für die meisten Nutzer auch: Über die Zugangsprovider, die sich aus Marktgründen hüten, dies willkürlich zu tun. Dennoch: Wenn Vodafone die Funkmasten abschaltet, hat es sich auch mit dem freien digital Lifestyle. Die Kontrollinstanz ist nur eine andere. Wir sind aber nicht ausgebrochen, schon gar nicht aus dem Marktprinzip, denn nach wie vor verdient man mit uns Geld: wir sehen Anzeigen bei jeder Suchanfrage – d.h. wir zahlen mit unserer Aufmerksamkeit – und wir überweisen monatlich eine mittlere zweistellige Summe an die Zugangsprovider. Wir bezahlen also in gewisser Weise nach wie vor, um Inhalte zu rezipieren. Das ist auch notwendig, denn die Serverparks, auf denen wir unser digitales Leben einlagern und vollziehen, müssen am Laufen gehalten werden.

Jenseits dieser für den Freitag-Autor “einzigen Barrieren” und doch hochrelevanten Hürden des Zugangs bietet die Digitalität eine unendliche und vielfältig nutzbare Abbildungsfläche für symbolischen Ausdruck. Das Medienwandelargument ist dabei der Drehpunkt. Für Joachim Losehand ist das Aufkommen der digitalen Produktion, Distribution und Rezeption in ihrer Wirksamkeit mit dem Aufkommen der Schrift als Ergänzung zur Oralität vergleichbar. Ich (und vermutlich nicht nur ich) habe an anderer Stelle die Überlegung geäußert, dass besonders in Medienformen wie den Sozialen Netzwerken oder Twitter und auch vielen Weblogs, eigentlich eine Verschriftlichung des Gesprächs stattfindet. Die in den Jahrhundert elaborierten Kriterien der Schriftkultur werden dabei übergangen. Kurz: Man schreibt, was man sonst sagen würde und oft, wie man es sagen würde. Es wird der reine Kommunikationsakt dokumentiert, ohne den Willen, Aussagen im Sinn und in der Form dessen, was wir uns unter Geschriebenem vorstellen, zu fixieren. Die Rahmentechnologie des Speicherns und Durchsuchbarmachen hebt dabei die unmittelbare Vergänglichkeit des Gesprochenen auf, nivelliert technisch die Bedeutung der Äußerung. Das geschriebene Gesprochene und das Geschriebene klassischer Art gelten vor dem Suchroboter gleichermaßen. Wir zeichnen dadurch einen größeren Ausschnitt unseres Erlebens digital auf. Daraus erwächst eine ungeheure Komplexität, vor der verständlicherweise die, deren traditionelle Funktion es ist, das Geschehen der Welt zu deuten, erschrecken, weil es sie hoffnungslos überfordert.

Wer versucht, die Äußerungen zu einem Themengebiet – z.B. Open Access – im Netz mittels der zur Verfügung stehenden Technologien (RSS-Feeds) zeitnah mitzuverfolgen, kann sich in der Kommunikationsphäre im Minutentakt mit neuen Nachrichten konfrontieren, die zu lesen, zu verstehen und einzuordnen sind. Praktisch und sachgerecht leistbar ist es nicht. Auch in einer dematerialisierten, beschränkungsfreien Kommunikationswelt bleibt die Materie die Grenze, nämlich die der Körperlichkeit des Rezipienten. Die knappe Ressource in digitalen Lebenswelten ist nicht Geld, sondern Aufmerksamkeit. Hier gibt es sicher auch generationale Verschiebungen, ich bezweifle jedoch, dass die Wahrnehmung diesbezüglich unbegrenzt optimierbar ist. Letztlich zeigt sich der Nutzer (oder der Informationsrezipient) als ambivalente Größe: Auf ihn sind alle Entwicklungen und Erwartungen, ob totale Befreiung oder der Absatz von Büchern, projiziert, nur bleibt er trotz aller Nutzerbefragungen und Verhaltensanalysen eine Black Box, an der die Deutungseliten von gestern, heute und morgen ihre Vorstellungen von Welt ausprobieren.  Die wirkliche Freiheit in der Digitalität würde die Möglichkeit beinhalten, sich dieser auch zu verweigern und nicht wenige tun es in der Tat, manche sogar aus ökonomischen Gründen, da ihnen ein Internetzugang auch mit billigster Flatrate noch zu teuer scheint. Darin liegt auch ein Unschärfe im Text Joachim Loshands und vieler anderer, die ihre eigene Erfahrungswelt (hier: Buch und Web werden parallel genutzt) als Maßstab anlegen. Sie – und ich eingeschlossen – repräsentieren immer einen bestimmten informationellen Verhaltenstypus, der sich aufgrund seiner Webaffinität viel und permanent äußert und daher im Diskurs überproportional präsent ist. Dass die Hochrechnung der eigenen Rolle aber dann versagt, wo die Rollenmuster nicht gelten, wird oft vergessen. Joachim Losehand schreibt für und über den idealtypischen Freitag-Leser. Andere, durchaus legitime Weltsichten bleiben dabei allerdings naturgemäß außen vor. Und auch die begrenzte Perspektive ist oft allein quantitativ schon zuviel zum Lesen, Bewerten und bei Bedarf zum Kommentieren.

Jenseits der abgegrenzten, bekannten und durchschauten Fachcommunity ist es noch ungleich schwerer, Indikatoren für die Einschätzung der Relevanz von Äußerungen zu finden. Besonders wenn als Zugang nur die Volltextsuche bleibt. Da benötigt man viel Zeit zur Diskurssichtung und Tiefenlektüre. Folgerichtig versucht man die Darstellung zu optimieren und arbeitet an semantischen Technologien, die den Menschen bei der Relevanzbewertung unterstützen. Praktisch Wirksames findet sich momentan dabei leider noch nicht. Man ist in digitalen Umgebung bewusster denn je in dem klassischen Dilemma, immer zwischen zuviel und zu wenig zu stehen. Und noch mehr zu wollen. Bzw. wollen zu müssen: Es gibt weitaus zuviel Material, um mit traditionellen Methoden wissenschaftsgerecht, d.h. systematisch und annähernd umfassend, hindurchzusteigen. Das Gefühl, was einen angesichts der Regalkilometer in den Bibliotheksmagazin umfing, diese Empfindung immer am Bruchteil des Bruchteils eines Bruchteils herumzuarbeiten, stellt sich auch und manchmal besonders im dematerialisierten Zustand der Texte ebenfalls ein. Andererseits geht es aber auch darum, möglichst noch viel mehr digital verfügbar zu haben. Googles quasi-utopische Leitvorstellung, das Wissen der Welt an einer Stelle zu bündeln, ist dafür die prominenteste Variante.

Es gilt aber auch für die Wissenschaft und nicht zuletzt unter dem ökonomischen Zwang, die Investition in ein Repository auch vor dem Unterhaltsträger legitmieren zu können. Unbestritten meist dem Willen zur Verbesserung der Wissenschaftskommunikation nachgeordnet. Die allseits dahinterstehende Annahme lautet, dass es, wenn alles (in Zeichenform repräsentierte) Wissen der Welt in gleichen oder vergleichbaren Datenmodellen vorliegt, möglich wird, dies mit der entsprechenden Technologie viel effizienter nutzen zu können.

Die idealistischen Vertreter dieser – mitunter nur implizit mitschwingenden – Auffassung, gehen davon aus, dass sie mit dadurch die Welt verbessern. Die pragmatischen Vertreter erwarten neue Geschäftsmodelle. Die derzeit Etablierten sehen sich bedroht und versuchen entweder den Widerstand oder die Anpassung.

Aber wahrscheinlich ist es für alle tatsächlich wie am 9. November am Übergang an der Bornholmer Straße: Niemand weiß so recht, was passiert, nur alle spüren, dass etwas passiert und hoffen, dass es für sie gut ausgeht. Was aber eigentlich geschieht, erkennt man dann erst wieder in der Rückschau aus der Distanz.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6984 9
Ein Solitär und die Debatte ums Urheberrecht, drei aktuelle Texte zum Thema http://weblog.ib.hu-berlin.de/p=6931/index.html http://weblog.ib.hu-berlin.de/p=6931/index.html#comments Mon, 11 May 2009 09:36:50 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6931 Reuß hat zuletzt mit seinem „Heidelberger Appell“ zur Verteidigung der wissenschaftlichen Publikationsfreiheit enorme Unterstützung erfahren; auf der Berliner Tagung freilich blieb er ein Fremdkörper. Wissenschaft als das schöpferische Treiben genialer Individuen auf der unbeirrten Suche nach Wahrheit – das kann weder für den Wissensbetrieb als exemplarisch gelten, noch taugt es als Paradigma für ein Urheberrecht, [...]]]>

Reuß hat zuletzt mit seinem „Heidelberger Appell“ zur Verteidigung der wissenschaftlichen Publikationsfreiheit enorme Unterstützung erfahren; auf der Berliner Tagung freilich blieb er ein Fremdkörper. Wissenschaft als das schöpferische Treiben genialer Individuen auf der unbeirrten Suche nach Wahrheit – das kann weder für den Wissensbetrieb als exemplarisch gelten, noch taugt es als Paradigma für ein Urheberrecht, das von Filmen über Unterhaltungsmusik und Literatur bis hin zu naturwissenschaftlichen Spezialaufsätzen sämtliche Erzeugnisse geistiger Schaffenskraft mit einem einheitlichen Schutz vor fremder Einwirkung versieht.

Der Rechtswissenschaftler Benjamin Lahusen hat für die heutige Ausgabe der Frankfurter Allgemeinen Zeitung die letzte Woche im Bundesjustizministerium stattfindende Konferenz zur Zukunft des Urheberrechts zusammengefasst. Der Text macht u.a. deutlich, dass der Heidelberger Appell vermutlich im großen Zusammenhang mehr eine Zünderfunktion besitzt, also als Aufhänger dient, um das Thema auf eine übergreifende Agenda zu setzen. Roland Reuß als die maßgebliche Triebkaft hinter diesem scheint jedenfalls bei der Diskussion keine allzu glückliche Figur abgegeben zu haben und es ist anzunehmen, dass andere Akteure auch aus den Geisteswissenschaften demnächst die Debatte bestimmen.

Nach seinem Interview in der Süddeutschen Zeitung am 29. April tritt beispielsweise der Kunsthistoriker Hubertus Kohle heute bei Telepolis in Erscheinung, um die Thesen die er im Gespräch anriss, etwas weiter auszuformulieren: Open Access und die Zukunft des wissenschaftlichen Publizierens. Unter anderem weist er darauf hin, dass die wissenschaftlichen Verlage, die ohnehin einen großen Teil der Auflage nur eingeschränkt über den Verkauf der Bücher und oft über den  “Druckkostenzuschuss, der vom Autor erbracht wird bzw. von privaten oder öffentlichen Institutionen” (re)finanzieren, auch für Open Access-Publikationen eine Rolle spielen können:

Denn ein Text im Internet ist genauso redaktionsbedürftig wie einer im Druck.

Der Wissenschaftsverlag agiert dann nicht mehr auf einen Buchmarkt bezogen, sondern als Redaktionsdienstleister für die Wissenschaft. Dieses Standbein sollten die Betroffenen tatsächlich einmal ins Auge fassen, denn die Idee eines professionellen Lektorats und Redigierens für solche Wissenschaftspublikationen ist viel zu gut, als dass sich darauf nicht auch dritte Anbieter breit etablieren könnten. Ein Text im Internet sollte die gleiche Güte aufweisen, wie ein gedruckter, denn eine Druckausgabe könnte durchaus als Print-on-Demand-Variante auch perspektivisch eine Rolle spielen.

Für Berufsschriftsteller, diejenigen, die sich also nicht über ihre Bezüge als Wissenschaftler finanzieren, sondern die von ihrer Textproduktion in den Mund leben müssen, liegen die Dinge anders, wie sich in einem Artikel der Schriftstellerin Cora Stephan nachlesen lässt. Wie man hier mit digitalen Texten geschäftsmäßig so umgeht, ist noch völlig unklar. Gerade die Preisdiskussion um das E-Book wirft neue Fragen auf:

Zehn Prozent von einem Hardcover zum Ladenpreis von 19.90 machen knapp 2 Euro für den Autor, der davon schon ordentlich verkaufen müßte, um mit vielen Lesungen und einer Taschenbuchausgabe halbwegs auf seine Kosten zu kommen. Je billiger ein Buch als E-Book wird, desto weniger sind 10 %. Dafür kann sich niemand einen gutgearbeiteten Roman aus den Fingern saugen. Also höhere Prozente – und warum nicht, denkt der Autor, werden die Kosten für Buchdruck und Vertrieb nicht billiger bzw. fallen ganz weg? Und was ist mit den oft über 40 %, die der Buchhandel kassiert, der doch mit dem E-Buch gar nicht mehr handelt?

Vermutlich ist hier die Musikindustrie längerfristig tatsächlich Vorbild, denn allein von den Tonträger- bzw. Dateiverkäufen wird auch dort wohl kaum noch jemand reich. Dafür bewegen sich die Tickets für Konzertbesuche bei den Größen der Populärmusik gern mal im dreistelligen Bereich. Die Zukunft liegt wohl in einer Mischfinanzierung, bei der für Schriftsteller eine öffentliche Zusatzfinanzierung in stärkeren Maße, als dies mitunter bereits jetzt über Preisgelder u.ä. geschieht, relevant werden könnte – mit allen damit verbundenen Problemen. Bisher scheint der Buchmarkt aber strukturell  vergleichsweise noch weitgehend stabil zu sein. Das bietet die Möglichkeit, sich eher in Ruhe sinnvolle Geschäftsmodelle zu überlegen und auch öffentlich auszuhandeln, die digitale Nutzungsformen mit einschließen. Was aktuell bei den E-Books geschieht, ist ein solches Ausprobieren und man sollte es auch als ein solches ansehen. In die rechte Perspektive gerückt, sind die Unternehmungen selbst Amazons keinesfalls ein alternativloses Muster.

Festzustellen ist generell, dass der Markt für Publikationen für die wissenschaftliche Kommunikation und der für den Sortimentsbuchhandel sehr unterschiedlichen Gesetzmäßigkeiten unterliegen. Dies wird bei Netzpublikationen kaum anders sein. Insofern war das eigentlich bedenkliche Element des Heidelberger Appells, dass er beide Facetten vermengte. Darüber hinaus kann man diskutieren, ob das Urheberrecht womöglich diesen Aspekt ebenfalls nicht genügend würdigt und eigentlich differenzierter gearbeitet sein müsste. Zu klären ist sicherlich die Frage, wie man mit Publikationen umgeht, die irgendwo zwischen beiden Polen anzusiedeln sind. Dies betrifft hauptsächlich Lehrbücher, aber z.T. auch Monographien an sich. Mittwoch geht es vor dem Landgericht Frankfurt/Main um die Sache Eugen Ulmer KG gegen die TU Darmstadt und dann wird ein neuer Argumentationsbaustein in die Debatte kommen, die momentan wenigstens hinsichtlich der Intensität viel versprechend läuft.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6931 1
Der Heidelberger Appell wird zum Europa-Thema, dank des Kulturstaatsministers http://weblog.ib.hu-berlin.de/p=6915/index.html http://weblog.ib.hu-berlin.de/p=6915/index.html#comments Thu, 07 May 2009 14:19:17 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6915 Außerdem muss bedacht werden, dass Bücher, sonstige Kulturgüter und wissenschaftliche Daten abgesehen von der urheberrechtlichen Relevanz Teil der kulturellen Identität einer Nation und damit genuin öffentliche Güter sind. Deshalb ist es wichtig, dass die digitale Verfügungsgewalt über solche Bestände auf nationaler und europäischer Ebene auch in öffentlicher Verantwortung bleibt. Hier sollen unter anderem die Europäische [...]]]>

Außerdem muss bedacht werden, dass Bücher, sonstige Kulturgüter und wissenschaftliche Daten abgesehen von der urheberrechtlichen Relevanz Teil der kulturellen Identität einer Nation und damit genuin öffentliche Güter sind. Deshalb ist es wichtig, dass die digitale Verfügungsgewalt über solche Bestände auf nationaler und europäischer Ebene auch in öffentlicher Verantwortung bleibt. Hier sollen unter anderem die Europäische Digitale Bibliothek – die so genannte Europeana – und die Deutsche Digitale Bibliothek helfen.

Gestern gab es eine Pressemitteilung mit der Stellungnahme des Kulturstaatsministers zum Heidelberger Appell, in der es aber vorwiegend um die Google-Facette des Aufrufs geht. Den anderen Streitpunkt – das Thema Open Access – erwähnt er nicht explizit. Man liest allerdings:

“Wir sind uns auf europäischer Ebene einig, dass mehr legale Online-Inhalte zur Verfügung gestellt werden müssen. Unser Anliegen ist es schon, dass kulturelle Inhalte einem möglichst breiten Publikum zugänglich gemacht werden sollten, aber dies muss im Rahmen des Urheberrechts geschehen

Sofern also das Open Access-Prinzip urheberrechtskonform angewendet wird, scheint man auf der kulturpolitischen Ebene kein Problem damit zu haben. “mehr legale Online-Inhalte” klingt sogar mehr wie eine Stärkung des Gedankens. Und der eingangs zititerte Wille nach “öffentlicher Verantwortung” verweist eigentlich recht klar auch auf die öffentlichen Institutionen “Universität” bzw. “Bibliothek”.

Ob am Ende vielleicht die öffentliche Position der Wissenschaftseinrichtungen mit ihren Open Access-Bestrebungen in der politischen Debatte als Gegenpol zum kommerziellen Großakteur Google herausdefiniert wird, lässt sich aus dieser Mitteilung noch nicht ableiten. Denkbar scheint es aber schon. Jedenfalls setzt Bernd Neumann die bisher eher national geführte Debatte zum Anfang der nächsten Woche auf die Agenda des europäischen Kulturministerrates.

Die ganze Pressemitteilung gibt es hier: Kulturstaatsminister will Thema „Google / Digitalisierung“ beim Kulturministerrat ansprechen.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6915 4
Der Heidelberger Appell, abgepellt von Stevan Harnad http://weblog.ib.hu-berlin.de/p=6906/index.html http://weblog.ib.hu-berlin.de/p=6906/index.html#comments Wed, 06 May 2009 15:42:51 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6906 The Humanities are more book-intensive than other disciplines, but insofar as their journal articles are concerned, they are no different: their authors write them (and give them away) for usage and impact, not royalty income. Stevan Harnad hat Joachim Güntners NZZ-Artikel Der Kampf ums Urheberrecht hat viele Schauplätze vom vergangenen Samstag gelesen, erkennt diesem einen [...]]]>

The Humanities are more book-intensive than other disciplines, but insofar as their journal articles are concerned, they are no different: their authors write them (and give them away) for usage and impact, not royalty income.

Stevan Harnad hat Joachim Güntners NZZ-Artikel Der Kampf ums Urheberrecht hat viele Schauplätze vom vergangenen Samstag gelesen, erkennt diesem einen gewissen Richtigstellungseffekt zu,  schüttelt nachvollziehbarerweise den Kopf über den Heidelberger Appell und informiert kurz die internationale OA-Öffentlichkeit über die aktuellen Vorgänge in Deutschland: Heidelberg Humanities Hocus Pocus.
Damit diese weiß, was hierzulande getextet wird, analysiert er obendrein die Heidelberger Erklärung anhand einer Übersetzung ins Englische Absatz für Absatz: Heidelberg Appeal Peeled

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6906 4
Na klar stimmt das, ich hab’s aus der FAZ! Der Mittwoch als Tag des Urheberrechtsstreits. http://weblog.ib.hu-berlin.de/p=6866/index.html http://weblog.ib.hu-berlin.de/p=6866/index.html#comments Tue, 05 May 2009 23:50:15 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6866 Sollte die Universität ihre Vorstellung durchsetzen können, würden ihre Forscher keine Bücher mehr veröffentlichen. Macht dieses Beispiel Schule, so läuft das auf eine Verabschiedung der geisteswissenschaftlichen Forschung von der Buchproduktion und tendenziell auf eine Abschaffung des wissenschaftlichen Buches und des geisteswissenschaftlichen Verlagswesens hinaus. Die Frankfurter Allgemeine Zeitung fährt in ihrer heutigen Ausgabe eine wahre Armada [...]]]>

Sollte die Universität ihre Vorstellung durchsetzen können, würden ihre Forscher keine Bücher mehr veröffentlichen. Macht dieses Beispiel Schule, so läuft das auf eine Verabschiedung der geisteswissenschaftlichen Forschung von der Buchproduktion und tendenziell auf eine Abschaffung des wissenschaftlichen Buches und des geisteswissenschaftlichen Verlagswesens hinaus.

Die Frankfurter Allgemeine Zeitung fährt in ihrer heutigen Ausgabe eine wahre Armada an Beiträgen zum Thema Urheberrecht und digitale Medien und generell gegen den Open Access auf. Wirklich überzeugen kann sie dabei aber nicht. Drei Lektüreeindrücke:

1. Open Access und die totale Kontrolle – mit Michael Hagner

Der mal berühmten, mal berüchtigten Open Access-Idee widmet der Zürcher Wissenschaftshistoriker Michael Hagner einen satten Dreispalter (Open access als Traum der Verwaltungen. Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N5, online), und die Bildredaktion stellt ihm einen schönen schiefen Bücherturm ins Zentrum. Er lobt die deutsche Situation, wie sie Volker Rieble sieht (vgl. auch hier), und schimpft ob des Zwanges, den die ETH mutmaßlich per Arbeitsvertrag auch auf die Geisteswissenschaftler dahingehend ausübt, dass sie ein Nutzungs- und Verwertungsrecht für “sämtliche im Rahmen des Arbeitsverhältnisses erstellten Werke, Erfindungen und Computerprogramme” von ihren Mitarbeitern einfordert.

Man versteht schnell, dass dies so manchen Wissenschaftler tief im Kern seines Selbstverständnisses trifft und muss damit auch als Freund des Open Access-Gedankens nicht unbedingt einverstanden sein.

Dennoch fragt man sich, ob der Sturm, den man hier zusammenbraut, der tatsächlichen Praxis oder nicht eher einem Quirlen im Wasserglas entspricht. Welche Sanktionsmöglichkeiten bleiben eigentlich der Universität, wenn ein Geisteswissenschaftler eben doch selbst erst zum Verlag geht, diesem viel Arbeit macht und nicht daran denkt, seinen Text der Universität zu schenken? Wird sie ihn abmahnen? Fristlos entlassen? Wird sie ihre Wissenschaftler davonjagen und die Fakultäten der renitenten OA-Verweigerer auflösen?

Wahrscheinlicher ist, dass diese Geschichte gar nicht so heiß gegessen wird, wie man sie der Öffentlichkeit aufbrüht. Es wäre schön, wenn die ETH sich einmal offen dazu äußerte und Michael Hagner plus Kollegen versichern würde, dass sie auch zukünftig mit einer Monographie, “die am Abend, an den Wochenenden, in der vorlesungsfreien Zeit und vielleicht sogar im Forschungsfreisemester, das einem die Universität gewährt hat, entsteht”, zu einem mittelständischen Wissenschaftsverlag ziehen dürfen. Dann wäre das Kartenhaus der Kampfdebatte aus Heidelberg und anderswo ziemlich schnell seiner Standfestigkeit beraubt, denn man baut, so weit zu sehen ist, nahezu ausschließlich auf den Sand dieser zugegeben sehr unglücklichen Formulierung.

Das Zitationsproblem, das Hagner sieht, wenn er das Manuskript auf den Server legt, ist dagegen am Ende womöglich ein nicht ganz so riesiges:

“Sollen zwei Fassungen publiziert werden, eine vorläufige auf dem Universitätsserver und eine definitive als Buch im Verlag? Das wäre absurd, denn nach welcher sollte dann zitiert werden?”

Eine digitale Editionsphilologie wäre doch auch sehr spannend. Zitiert wird in praxi natürlich die der jeweils der Argumentation zugrunde gelegten Variante.

Eine zeitgemäße Wissenschaft ist sich nun mal ihrer Vorläufigkeit bewusst und wenn sich Open Review als offene Diskursform etabliert, gewöhnt man sich sicher schnell daran, auch mal den Rohschliff zu lesen, zumal wenn es sich bei den Zutaten der Verlage nur um “Sichtung, Lektorat, Umbruch, Satz” handelt. Inhaltlich sollte sich dann eigentlich nicht mehr viel zwischen digitalem Manuskript und Druckausgabe verschieben.

Die Monographie bleibt natürlich selbstredend als zentrale Rezeptions- und Referenzversion solange die Wissenschaftsgemeinschaft dies möchte. Das System der Wissenschaftskommunikation ist traditionell weitgehend selbst organisierend und daran kann auch eine einzelne Universitätsverwaltung wenig drehen. Sollte die Monographie innerhalb der Gemeinschaft als das optimale Kommunikationsmedium akzeptiert bleiben, wird es sie auch geben. Entwickeln sich Kommunikationsformen, die besser geeignet sind, scheint es eigentlich widersinnig, gegen diese anzufechten. Anzugehen wären also hier für den konservativen Vertreter einer Disziplin im (langsamen) Wandel eher die Vertreter der eigenen Zunft, die von der heiligen Kuh des gedruckten Buches abfallen und lieber in anderer Form publizieren. Nur muss die Wissenschaft dies unter sich aushandeln und nicht nach übergreifender Regulierung rufen. Soviel Selbstvertrauen in die Fähigkeit zur Selbstorganisation der Wissenschaftsgemeinschaft setzt man doch eigentlich voraus.

Obendrein wird – so einfach ist das – bei entsprechend moderater Preisgestaltung niemand Lust haben, sich ein Lehrbuch zur Wissenschaftsgeschichte raubauszudrucken. Oder am Bildschirm lesen.

Wenn die Verlage also wirklich derart formal qualitativ hochwertige Monographien herstellen, sollten sie keine elektronische Version fürchten. Sie tun es anscheinend dennoch und Michael Hagner gleich mit, denn erwartungsgemäß geht es in seinem Text auch wieder nicht ohne dem schlimmstmöglichen Fall: Den Dolchstoß, zu dem die Universität ausholt, um das grundlegende Kommunikationsmedium der Geisteswissenschaften plant, also das Buch, auszulöschen. Denn es ist der verbliebene Dorn im Auge einer, so erscheint es in der vorliegender Argumentation, nach totaler Kontrolle strebenden Verwaltung, eine letzte Bastion freier Wissenschaft.

Die Universitäten werden dafür in der Beweisführung in ihrer potentiellen Schurkigkeit bzw. Indifferenz gegenüber dem Medium Buch mit den renditewilden Großverlagen Wiley, Elsevier oder Springer “die den Heidelberger Appell nicht unterzeichnet haben” (oha! Welch Zeichen!) in eine Ecke geschoben. Und über allem steht als Mahnung der Albtraum der aktuellen französischen Wissenschaftspolitik.

Dass “H-Faktor”-Versessenheit aber nicht zwangsläufig etwas mit Open Access zu tun hat und Open Access auch nicht unbedingt etwas mit der Gleichmacherei von Publikationen auf einem “Leviathanschen Server”, also mit totaler Kontrolle der Wissenschaft durch die Universitätsverwaltung, sollte man vielleicht doch deutlicher herausstellen. Michael Hagner lässt sich mit seinem ziemlich nach Versöhnung formulierten Einstieg die Möglichkeit zwar offen, schlägt dann aber bald perjorativ im Volker-Rieble-Stil (OA ist gut für den qualitativen Bodensatz: “Es ließe sich viel Papier sparen.”, vgl. hier) zu und überspitzt das Gesamtbild derart, dass der unkundige Leser meint, auf den Schultern des Open Access ritte der Beelzebub der Knechtung freier Wissenschaft einher – “keine Überraschungen und Exzentrizitäten mehr möglich”? Hier lässt sich problemlos die Brücke wohl eher nach Bologna schlagen (vgl. auch den Beitrag von Pirmin Stekeler-Weithofer auf der selben Seite), das in der Lehre vormacht, wie man es in der Forschung nicht machen sollte und von da vielleicht zum McKinseyanismus, der in der Wissenschaftspolitik unglücklicherweise als Leitstern und Irrlicht zugleich aufging. Die freie Wissenschaft kämpft gegen eine die totale Kontrolle anstrebende Verwaltung – so die Essenz des Textes. Soweit so gut. Open Access aber zum Werkzeug dieser Verwaltung bei der Durchsetzung ihres vermeintlichen Kontrollwahns abzustempeln, verfehlt das Ziel komplett. Gerade um einer Überregulierung von Wissenschaft vorzubeugen, sollte man eher den Open Access-Gedanken als Form alternativer, offener Publikationsformen stützen. Das Weihwasser, das hier versprüht wird, trifft eigentlich irgendwie die Falschen.

2. Open Access und die Überfischung der Wissenschaft – mit Jürgen Kaube

Jürgen Kaube setzt das Feuerwerk eindringlicher Untergangsbilder gleich neben Michael Hagners Albtraum der totalen Verwaltung fort und führt anlässlich der Darmstadt-Download-Debatte den nicht schlüssigen Vergleich zwischen offenen digitalen Lesegründen und der Überfischung der Weltmeere an(“Ein immergrüner wissenschaftlicher Weidegrund”, Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N5). Digitale Dokumente haben nun mal – man kann es nicht oft genug betonen – die Eigenschaft, sich nicht abzunutzen, auch wenn sie 1000 Mal kopiert und gelesen werden. Die “wissenschaftliche Allmende” lässt sich nicht auf den blanken Stein abgrasen, sondern bleibt strukturell immergrün. Auch mit Standesdünkel gegen die “copy and paste”-Praxis gespickt wird solche Argumentation nicht richtiger.

Wenn der Verlag Eugen Ulmer sich gegen eine zeitgemäße elektronische Nutzung seiner E-Books ausspricht, empfiehlt sich wohl eher, auf elektronische Publikationen ganz zu verzichten, als hier mühsam mit irgendeinem unsinnigen DRM-System herumzubasteln. Vom hohen Ross des Qualitätsjournalismus-Labels herunter die Rezeptionspraxis (bzw. die “sinngemäße Benutzung eines Lehrbuches”) als Argumentationsmaßstab anzulegen, wirkt dagegen unangenehm überheblich. In der Tat ist die Aufgabe der Bibliotheken in einem freien Wissenschaftssystem eben keine erzieherische, indem sie den Nutzern vorschreibt, wie sie Texte zu lesen haben. Bibliotheken sammeln, erschließen Inhalte und bieten den Zugang an. Nicht mehr und nicht weniger. Was der Nutzer mit den ihm zur Verfügung stehenden Quellen anfängt, ist ihm weitesgehend selbst überlassen. Ein freier wissenschaftlich Arbeitender würde sich vermutlich auch ausdrücklich dagegen verwehren, dass die Bibliothek ihm sagt, was er wie zu rezipieren und zu verarbeiten hat.

Wenn man so will, geht es tatsächlich um eine “Verbreitung von Datensätzen”. Ob Professor Schulze und sein Verlag und Jürgen Kaube damit nun glücklich sind oder nicht, liegt nicht im Zuständigkeitsbereich der Bibliotheken. Nochmal: Wenn der Verleger Matthias Ulmer mit elektronischen Büchern sein Geschäft machen möchte, muss er sich auch mit den Besonderheiten des Mediums auseinandersetzen. Der beste digitale Kopierschutz ist bislang die Print-only-Ausgabe. Und Jürgen Kaube sollte man bei der Gelegenheit vielleicht auch noch einmal mitteilen, dass bei weitem nicht alle Bibliothekare Verfechter der “freien Zugänglichkeit” sind. Solche Schubladereien sollten in einer distinguierten Zeitung wie der FAZ eigentlich keinen Platz finden.

3. Open Access und Kompetenzeinbußen – mit Stefan Weber

Das „Google-Copy-Paste-Syndrom“ treibt aber nicht nur Jürgen Kaube, sondern – und zwar schon eine ganze Weile und hauptberuflich – auch den Salzburger Netzplagiatorenjäger Stefan Weber um. Die FAZ räumt ihm ganz passend zu ihrem Schwerpunkt ebenfalls viel Platz ein, um seine üblichen Überlegungen ein weiteres Mal zu präsentieren (Na klar stimmt das, ich hab’s aus dem Netz! Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N3). Auch hier dominiert Endzeit, denn

“Der Matthäus-Effekt des Netzes könnte weiter dazu führen, dass Qualität und Innovation systematisch untergehen. Open Access und die Google-Buchsuche sind Schritte zur Abschaffung der Druckkultur. Offenbar kollabiert damit auch deren Referenzkultur. Irgendwann könnten dann auch die Texte selbst, so wie wir sie derzeit noch kennen, obsolet werden.”

Man beachte den wegkippenden und wiederkehrenden Konjunktiv. So ganz festlegen möchte sich nun mal niemand gern. Aber wenn, dann ist Open Access schuld, denn es führt, da “alle neuen Texte digital und gratis verfügbar” sind, zum Aussterben – so der eigenwillige Schluß – wissenschaftsgrundierender Kompetenzen wie “quellenkritische[s] Rezipieren, Verstehen, Interpretieren und Einordnen”. Selbstverständlich lernt sich wissenschaftliches Arbeiten nicht von allein. Schon gar nicht in so gestreuten Informations- und Kommunikationsräumen wie dem WWW.

Es gibt aber sicher keinen ernstzunehmenden “Open-Access-Befürworter”, der von derartigen autodidaktischen Effekten ausgeht und eine methodische Grundausbildung im Studium durch bloßes Bereitstellen von digitalen Dokumenten ersetzt sehen mag. Die beiden Schuhe passen also nicht so recht zusammen, aber, so glaubt man wohl, lassen sich dadurch passend machen, dass man permanent alles zusammenrührt und auf das Unliebsame Geißel und Bedrohung und dann dick drunter Es ist fünf vor zwölf! schreibt. Andererseits könnte man auch anstatt der allgemeinen Verdammnis die Option in Betracht ziehen, Diskursregeln für digitale Räume zu elaborieren. Es ist durchaus sinnvoll zu überlegen, wie man Quellenintegrität und Vertrauenswürdigkeit in elektronischen Symbolzusammenhängen hinterlegt. Dazu existiert ernsthafte Forschung, nur schafft diese es selten in das Feuilleton, zu dem man die heutige Ausgabe der geisteswissenschaftlichen Sektion der FAZ zählen muss.

Alarmismus statt solider Abwägung der verschiedenen Gesichtspunkte erscheint hier als rhetorisches Mittel der Wahl zur Einflußnahme, denn bei nahezu allen Beiträgen, die sich zum Thema in der Zeitung finden, wird der Impetus sehr deutlich. Für die richtige Lehre, die da heißt (1) Erhaltung der Gutenberg-Galaxis – die gar nicht bedroht ist – und (2) Übertragung von analogen Vorstellungen auf eine in grundsätzlichen Struktureigenschaften vollkommen differenten digitalen Medienwelt – was freilich holprig verglichen so funktioniert, als wollte man die Straßenverkehrsordnung eins zu eins in den Luftverkehr übertragen – darf man in der Qualitätspresse auch mal über die Strenge schlagen, alles was zum gewünschten Ziel führt herumbiegen und zusammenschustern und schließlich dem verhassten Open Access ein Heidelbergisches Stigma nach dem anderen aufdrücken. Wenn es denn nur für die richtige Stimmung sorgt. Als sonderlich nachhaltig über den Tag hinaus dürfte sich solch ein Vorgehen nicht erweisen. Aber kaputt geht dabei leider eben doch einiges.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6866 4
Gegen ist ohne Zukunft. Ein Leserbrief zur OA-Debatte in der FAZ http://weblog.ib.hu-berlin.de/p=6845/index.html http://weblog.ib.hu-berlin.de/p=6845/index.html#comments Wed, 29 Apr 2009 20:32:42 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6845 Für die Wissenschaftsverlage ist der Trend zum „open access“ vielleicht doch gar kein so großes Problem. Es spricht vieles dafür, dass vollständig im Internet vorliegende Texte trotzdem in Druckform gekauft werden, weil sich die Begeisterung, stundenlang zu lesen, offenbar in Grenzen hält. Dass sich die Verlage im Übrigen Gedanken machen müssen, wie sie mit dem [...]]]>

Für die Wissenschaftsverlage ist der Trend zum „open access“ vielleicht doch gar kein so großes Problem. Es spricht vieles dafür, dass vollständig im Internet vorliegende Texte trotzdem in Druckform gekauft werden, weil sich die Begeisterung, stundenlang zu lesen, offenbar in Grenzen hält. Dass sich die Verlage im Übrigen Gedanken machen müssen, wie sie mit dem und nicht gegen das Internet in Zukunft Geschäfte machen können, liegt gleichwohl auf der Hand.

Der vernünftigste Beitrag, den die Frankfurter Allgemeine derzeit zum Verhältnis von Open Access und Urheberrecht dieser Tage druckt, ist bezeichnenderweise ein Lesebrief (Ausgabe 30.04.2009, S.35). Der Münchener Kulturhistoriker Hubertus Kohle leuchtet so differenziert, wie es in dieser Form möglich ist, aus, welche Rolle Publizieren im Internet und nach einem Open Access-Modell spielt und vielleicht spielen wird und wäscht dabei dem Heidelberger Appell und seinen Hauptvertretern ein wenig den Kopf:

Man muss in der Tat den Mut haben, die Kultur von der Zukunft her zu denken und nicht immer die Bedingungen der Vergangenheit absolut zu setzen, die gerade dabei sind, radikal verändert zu werden. Und man muss willens sein, der Wirklichkeit ins Gesicht zu sehen, ob man sie mag oder nicht.

Blinde Zukunftseuphorie wäre sicher das andere Extrem. Ich bin mir aber sicher, dass Hubertus Kohle nicht darauf hinaus will. Ihm geht es, wie auch vielen anderen, deren Stimmen leider oft hinter schnellen und vordergründigen Zuspitzungen verloren gehen, um eine konstruktive Debatte zu dem, was sich gerade vollzieht und was perspektivisch an Entwicklung sinnvoll erscheint. Zur Frage allerdings, ob es gegen das geltende Recht verstößt, “wenn ein Geldgeber Auflagen für die Mittelverwendung formuliert”, kann er sich ja mal mit Volker Rieble unterhalten.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6845 1