IBI-Weblog » 2009 http://weblog.ib.hu-berlin.de Weblog am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin Wed, 28 Jun 2017 08:24:09 +0000 en hourly 1 http://wordpress.org/?v=3.0.4 Die BnF und Google: Das Thema der Woche http://weblog.ib.hu-berlin.de/p=7366/index.html http://weblog.ib.hu-berlin.de/p=7366/index.html#comments Wed, 19 Aug 2009 09:56:51 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7366 Thema des Tages, wenn nicht der Woche und zwar weltumspannend wird mit Sicherheit, dass Google nun auch mit Beständen der BnF seine Bestände an digitalisierten Büchern ausbauen wird. Es ist klar, dass es bei dieser “radikalen Wende” (FAZ) um mehr als eine Projektkooperation geht.  Im medial und auch manchen bibliothekarischen Kreisen gern ausgerufenen Kulturkampf Europas [...]]]>

Thema des Tages, wenn nicht der Woche und zwar weltumspannend wird mit Sicherheit, dass Google nun auch mit Beständen der BnF seine Bestände an digitalisierten Büchern ausbauen wird. Es ist klar, dass es bei dieser “radikalen Wende” (FAZ) um mehr als eine Projektkooperation geht.  Im medial und auch manchen bibliothekarischen Kreisen gern ausgerufenen Kulturkampf Europas kulturelles Erbe vs.  Google-Books ist das Entsetzen daher wohl recht groß. Eine üppige Diskussion entspinnt sich gerade La republique des livres-Blog. Und auch die Kommentarliste der Times, die Google bruises Gallic pride as national library does deal with search giant titelt, füllt sich so langsam. Für ambitionierte Diskursbeobachter steht nun vermutlich und endlich nach dem Abflauen der Urheberrechtsdebatte wieder eine aufregende Medienbeobachtungzeit mit glühenden Nachrichtenaggregatoren und sich überschlagenden Feuilletons an.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7366 1
Treffer! Versenkt!: Volker Gerhardts “bürokratischer Imperativ des Open Access” und die Schriftkultur http://weblog.ib.hu-berlin.de/p=7098/index.html http://weblog.ib.hu-berlin.de/p=7098/index.html#comments Wed, 10 Jun 2009 11:40:36 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7098 Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für [...]]]>

Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für die Schwerpunktausgabe der Zeitschrift Gegenworte (Heft 21) auf zeitungstaugliches Niveau zusammengekürzt. Damit muss man erst einmal auskommen, denn die Gegenworte sind noch nicht erschienen. Man traut aber der FAZ-Redaktion zu, dass sie sich im sinngemäßen Kürzen auskennt und bedankt sich für die vorgreifende Nachverwertung.

Der Artikel  mit der mächtig abgeschmackten Überschrift “Open Exzess: Die Folgen des Publizierzwangs” (Frankfurter Allgemeine Zeitung, 10.06.2009, Seite N5) zeigt sich am Ende leider auch wieder nur als dystopisch kolorierte Angst vor einem “Monopol” elektronischer Publikationsformen und davor als ein Hohelied auf die Verdienste der Verlagslandschaft für die Wissenschaft und die Gefahren der Zerstörung (sowohl als auch) durch das freie Publizieren im Netz.

Nun ist leider schon die Prämisse verkehrt, denn genauso wenig wie „das Internet“ als Feind des Intellektuellen und der Tageszeitung gibt es nur eine Form des „Open Access“. Statt rigorosem Publikationszwang werden diverse Schattierungen diskutiert und angewahnt und jemand, dem es an Argumentation gelegen ist, sollte wenigstens erklären, dass er mit einer übertriebenen Zuspitzung hantiert und nicht mit der Tatsächlichkeit der Sachlage. Die lautet: Es gibt momentan keinen Zwang zum Open Access. Und angesichts des Furors der Verlagslobby, einiger Heidelberger und mancher Wissenschaftler werden auch die Wissenschaftsorganisationen den Teufel tun und hier mehr als Freiwilligkeit verlangen. Bei konkreten Finanzierungsförderungen mag das anders aussehen. Aber das entspricht auch dem normalen Umgang mit Verlagen: Es gibt Bedingungen, die der Autor annehmen kann oder ablehnen.

Feindschaft zu den Verlagen sucht man in der Open-Access-Bewegung jedenfalls nicht. Sondern man unterbreitet ein Angebot, dass relativ neu, mitunter noch besser in die Rahmenbedingungen eingepasst werden muss, ansonsten aber durchaus seinen Zweck erfüllt.

Leider rufen Volker Gerhardt, der seinen Text eigentlich erfreulich moderat beginnt, und auch andere Beiträger zu der Debatte beim Leser ein wenig den Eindruck hervor, dass irgendeine dritte Macht versucht, der Wissenschaft eine Open-Access-Bürokratie aufzuzwingen, die wissenschaftliches Arbeiten, wie man es bisher kennt, nachhaltig beschädigen wird.

Open Access, woher er wirklich kommt

Dabei entfällt, dass Open Access eine Initiative aus der Wissenschaft heraus ist, die aus oft genannten, wohl bekannten und richtigen Gründen entstand – nämlich einerseits als Gegenreaktion zur so genannten Zeitschriftenkrise, die den Zugang zu wissenschaftlichen Publikationen durch das Monopol bestimmter wissenschaftsexterner Marktakteure kaum bis unbezahlbar machte und andererseits als Nutzung der zeitnahen und kostengünstigen technischen Möglichkeiten für die innerwissenschaftliche Kommunikation, die elektronischen Kommunikationsumgebungen nun einmal bieten.

Gleichwohl darf man sich nicht einbilden, mit dem Imperativ des Open Access der Wissenschaft etwas Gutes zu tun. Sie leidet schon lange genug unter der Verwechslung von Quantität mit Qualität, mit der das Rating an die Stelle der Urteilskraft tritt und die im Übrigen ein sicheres Indiz dafür ist, dass die Wissenschaft sich nicht mehr nach ihren eigenen Kriterien bewertet.

Dass das, was der Mensch so gern tut vom zu wenig ins zu viel kippt, ist eine Grunderfahrung nicht nur aus dem elektronischen Umfeld. Auch der Printmarkt überschüttet jeden leicht über engste disziplinäre Eingrenzungen hinaus Blickenden mit weitaus mehr Inhalten, als er vernünftig rezipieren kann. Das Klagelied: “Wer soll das alles lesen!” ist noch älter als “Wer soll das bezahlen!” Die Dokumentation hat mit den Abstract-Zeitschriften und ähnlichen Ansätzen vor weit mehr als hundert Jahren bereits Ausgleichsformen zur Komplexitätsreduktion entwickelt, die immer Perpetual Beta waren. Dies ist nun einmal der charakteristische Zug eines gesellschaftlichen Tätigkeitsfelds, das genuin nach Neuem strebt: Dynamik. Die Kommunikationswerkzeuge folgen immer mit einer gewissen Verzögerung dem tatsächlichen Geschehen. Es muss erst das Problem auftreten, bevor man die Lösung durchsetzen kann.

Im elektronischen Publizieren – denn eigentlich geht es Volker Gerhardt nicht nur um Open Access, sondern an sich um elektronisches Publizieren mit seinen Nebenwirkungen – ist dies genauso der Fall. Da diese Kommunikationsumgebungen mit so aussagearmen Kriterien wie Klick- und Downloadraten zunächst einmal exzellente quantitative Messmöglichkeiten bieten, greift jeder, der in der Lage ist, bewerten zu wollen oder zu müssen, zunächst beherzt zu. Wenn er dann aber schließlich darauf kommt, wie fehlgeleitet seine Schlussfolgerung aus einem rein mengenorientierten Ranking sein kann, wird er sich an die Entwicklung differenzierterer Ansätze machen. Es gibt durchaus rege Tätigkeit auf diesem Feld. Dass quantitative Evaluation wenig über die Güte von Wissenschaft aussagt ist mittlerweile ein Allgemeinplatz.

Eitel schreibt am meisten?

Warum hat Volker Gerhardt eigentlich so wenig Vertrauen in die Selbstregulierung der Wissenschaftsgemeinschaft?:

Jeder ist sein eigener Lektor, der dem Autor großzügig jede Eitelkeit durchgehen lässt. Mit der Verständlichkeit der Ausführungen hat er jedenfalls keine Probleme, schließlich hat er den Text ja selber verfasst. Von der Illusion umfangen, die Ablagerung im Netz sei schon die Aufnahme durch die wissenschaftliche Welt, verwechselt er die Produktion des Textes mit dessen Rezeption.

Glaubt er, dass seine Peers einen schlechten, im Netz abgelagerten Artikel seiner Feder unreflektiert rezipieren und applaudieren? Mit entsprechenden Diskussionsstrukturem im Web stände wohl eher schnell bei einem rezeptionsbasierten Post-Review-Verfahren an der entsprechenden Stelle: „Mir scheint, Sie sind ein eitler Geck/und schreibens nur zum eigenen Zweck“ – allerdings in der Etikette entsprechender Wissenschaftssprache. Traditionell reguliert die Wissenschaft, was sie für wissenschaftlich hält und nicht der Lektor im Verlag. Dieser markiert bestenfalls eine Schranke, die dafür sorgt, dass das Publizierte ins Verlagsprogramm passt. Er urteilt in erster Instanz nach Verkaufbarkeit, wobei Wissenschaftlichkeit bei wissenschaftlichen Verlag ein relevantes Kriterium ist. Zeitgeist aber auch. Der Abgelehnte geht im Regelfall einfach zu einem anderen Verlag und irgendwann wird sein Text doch gedruckt.

Fünf Stufen in die Versenkung

Wie dem auch im Print auch sei, für das Publizieren im Internet sieht Volker Gerhardt stufenweisen Schwund an Kultur und Kultiviertheit. Seine fünf „Sinkstufen“ zur Zersetzung der Schriftkultur sind allerdings nur der schematisierte Ausdruck, dass er sich eine Welt, in der der idealtypische Wissenschaftsverlag nicht mehr das tut, was man idealtypisch von ihm erwartet, nicht vorzustellen vermag.

Stufe 1: Kurz gesagt: Der Wissenschaftler stellt die Texte lieber selbst ins Netz und lässt die Verlage außen vor. Die dürfen ihn zwar noch drucken, erhalten aber keine Rechte – was eigentlich bedeutet: keine Exklusivrechte. Volker Gerhardt flüchtet sich an dieser Stelle in eine eher peinliche Polemik:

Zwar räumen sie den Verlagen die Möglichkeit zur Publikation der Ergebnisse ein, sind aber nicht bereit, ihnen auch Rechte zuzugestehen. Wie kämen sie auch dazu, wenn doch offensichtlich ist, dass die Verlage nur ihre Profite machen wollen? Unter Berufung auf den Konsens, der den Open Access so selbstverständlich macht, kann ein Wissenschaftler es doch nicht zulassen, dass sich ein Verlag an der Vermarktung von Ergebnissen bereichert, die unter Einsatz öffentlicher Mittel erzielt worden sind.

Derartig schlicht funktional ticken Wissenschaftler nicht. Es geht im Open Access nicht darum, den Verlagen ihre Leistung abzuerkennen oder sie zu beschädigen. Daher bestehen auch Embargo-Szenarien, die den Verlagen einen bestimmten Zeitraum geben, einen Titel sogar exklusiv zu vermarkten. Nur danach, wenn die Restauflage in der Backlist verschwindet oder remittiert wird, versteht man nicht, warum der Text nicht auch frei zugänglich im Netz stehen darf. Das Ziel eines Open Access-Ansatzes ist an dieser Stelle mehr ein Ausbalancieren der Interessen der Wissenschaft und der Verlage und nicht, letzteren die Existenzgrundlage zu nehmen. Selbst bei Pre-Prints ist die Verlagspublikation –sofern der Verlag seine Arbeit (gut) macht – eben nicht identisch mit dem E-Produkt. Das erklärt sich schon rein aus der Materialität des Druckwerks und schließt im Idealfall das Lektorat mit ein. Der Verlag publiziert in solch einem Szenario mit der ersten Auflage die zweite verbesserte und überarbeitete Ausgabe eines Textes.

Es ist unverständlich, warum diejenigen, die sich damit am besten auskennen, grundsätzlich annehmen, niemand würde eine solche Optimierungs- oder Veredelungsleistung honorieren und doch das Buch kaufen, obschon es denn Inhalt frei online gibt. Aus anderen Bereichen – z.B. der DRM–Diskussion – kennt man das Prinzip, dass Anbieter ihren Kunden grundsätzlich als Gefahr und Feind bewerten. Die Verlage begeben sich momentan oft in eine ähnliche Richtung und werden sicher von ihrem Misstrauensgrundsatz nicht profitieren. Sie vergessen gern, dass man sie nie für die Inhalte selbst bezahlte, sondern nur dafür, dass sie diesen eine rezeptionsadäquate Form gaben. Oder, weil sie der einzige Weg waren, um die Inhalte überhaupt zur Kenntnis nehmen zu können. Der zweite Punkt verschwindet zugegeben mit Open Access und trägt damit der Verfasstheit immaterieller Güter wie der wissenschaftlichen Information konsequent Rechnung. Der erste Punkt bleibt, gerade im elektronischen Umfeld, hoch relevant.

Die zweite Stufe betrifft das Wegfallen der Bibliotheken als Käufer von Büchern:

Die zweite Sinkstufe besteht darin, dass die Verlage keine Möglichkeit mehr sehen, Texte herauszubringen, die ihnen noch nicht einmal mehr die Bibliotheken abkaufen, weil ja ohnehin alles kostenlos im Netz zu haben ist.

Es wurde schon vermehrt darauf hingewiesen, dass im Bibliotheksetat ein übergroßer Anteil in die objektiv überteuerten Zeitschriftenpakete einige Monopolverlage gehen, was sich negativ auf die Monographieetats auswirkt. Gerade hier müssten die mittelständischen Wissenschaftsverlage Open Access befürworten, da dadurch wieder Geld für ihre Produkte frei werden könnte. Internetpublikationen erweisen sich für die argumentativ ausgerichteten Disziplinen nicht als zwingend vorteilhaft. Wenn die Wissenschaftler als Bibliotheksbenutzer also einen entsprechenden Bedarf artikulieren und als mündige Nutzer auftreten, die nicht alles hinnehmen, was ihnen die Sparvorhaben eines Berliner Senats aufdrängen möchten, dann werden sie auch mit längerer Perspektive das Printprodukt ins Freihandregal bekommen, das sie möchten. In der Bibliothekswelt predigt man jedenfalls andauernd, wie wichtig Nutzerorientierung ist. Man wird das gedruckte nicht gegen den Willen der Wissenschaftler aus dem Bestand nehmen. Dass die Einrichtungen Dienstleister für die Wissenschaft sind, ist weitgehend Konsens. Dass Bibliothekare bislang als Sinnenmenschen selbst zumeist Bücher bevorzugen, ist auch bekannt.

Ein anderer Punkt ist das grundsätzliche Vorurteil, Netzpublikationen seien per se von minderer Qualität, denn sie basieren „auf der dilettantischen Textbearbeitung durch die Editoren.” Wer sagt denn, dass nicht inner- und außeruniversitär Raum für professionelle Edition auch von Netz- und OA-Dokumenten ist? Wieso sollen ausschließlich die traditionellen Verlage entsprechende Kompetenzen aufweisen? Wenn die Verlage clever sind, dann orientieren sie sich verstärkt auf dieses Feld und entwickeln ansprechende und hochwertige Formen für die netzpublizierten Inhalte. Fast niemand erfreut sich daran, Inhalte auf Quellcodeniveau oder im Rohschnitt zu lesen. Warum sollte man längerfristig daran Geschmack entwickeln?

Entsprechend redundant ist dritte „Sinkstufe“. Volker Gerhardt vermisst bei Netzpublikationen die “kundige Bearbeitung durch professionelle Lektoren und Produzenten”. So etwas ist für ihn im Open Access scheinbar ausgeschlossen, denn die Wissenschaftler selbst bekommen nur die elementaren Forschungsvoraussetzungen. Allerdings sind spätestens seit dem DTP Wissenschaftler nicht selten ihre eigenen Setzer und Korrekturleser. Nicht, weil sie es wollen, sondern weil manche Verlage so wenig von der „kundigen Bearbeitung durch professionelle Lektoren und Produzenten“ halten, dass sie diese lieber einsparen und die Devise pflegen: „Formatier selbst oder publizier eben nicht.“ In den Bibliotheken finden sich durchaus nicht wenige Publikationen, bei denen „eine sinnfällige Gestalt, eine brauchbare Oberfläche und eine solide Tiefenstruktur“ für die Verlage bei weitem nicht so wichtig waren, wie ein Relevanz verkündender Titel und ein entsprechend tüchtiger Preis.

Bei den Open Access-Verfahren bleibt die Zusatzbelastung des Wissenschaftlers natürlich gleich. Aber auf die schwarzen Schafe unter den Wissenschaftsverlagen ist er immerhin nicht mehr angewiesen. Das Schema der professionelleVerlag hier, der dilettantische Wissenschaftler da ist so nicht haltbar. Zudem kann man sich durchaus vorstellen, dass den Wissenschaftlern z.B. in Bibliotheken Fachleute mit dem Zuschnitt der Unterstützung im Publikationsprozess zur Seite stehen oder gegebenenfalls die Publikationsvorbereitung übernehmen. Nicht zuletzt erweist sich der Universitätsverlag, der in Deutschland eine eher geringe Tradition hat, als Möglichkeit, eine Qualitätskontrolle zu etablieren. Volker Gerhardt zeigt sich weitaus pessimistischer:

Die zuständigen Forscher werden kaum mehr als Arbeitsgrundlagen zur Verfügung stellen. Von Büchern, die man wenigstens mit Hilfe eines i-books lesen möchte, kann keine Rede mehr sein. Die Pflege der Websites ist damit noch gar nicht berührt.

Die Pflege der Websites wird doch eigentlich weitgehend sauber geleistet? Das Apple-Product-Placement wirkt dagegen etwas zu aufgesetzt. Wenn sogar das E-Book vergehen wird, dann doch lieber auf dem Kindle

Die vierte Sinkstufe bietet in der Aussage nichts substantiell anderes, als die vorhergehenden bereits enthielten. Die Ergänzung liegt darin, dass es seiner Rechnung nach billiger ist, die Bücher von Verlagen zu kaufen, als die Wissenschaftler mit dem „Sachverstand in den Verlagen“ auf eine Kompetenzstufe zu heben. Da aber im Open-Access-Kontext die ganze Vermarktungsmaschinerie entfällt, also das kaufmännische Element, spart man wieder etwas ein.

Gerechter war diese Finanzierung durch den Nutzer allemal. Doch das ist dann bereits Vergangenheit, die sich nicht zurückholen lässt, weil die Etats der Wissenschaft mit Sicherheit nicht ausreichen, um alles das zu finanzieren, was derzeit noch die Verlage bieten.

Auch hier sollte sich Volker Gerhardt einmal mit den Kollegen von der Universitätsbibliothek kurzschließen und erfragen, wie gerecht eigentlich die Preisgestaltung bei den großen STM-Verlagen ist, der die Bibliotheken und indirekt die Wissenschaftler folgen müssen.

Die Stufe Fünf entspricht dem Verlust des kulturellen Erbes. Denn ohne gedruckte Originale, so das Argument, sind die digitalen Daten verloren, wenn sie verloren gehen. Von LOCKSS oder vergleichbaren Ansätzen hat Volker Gerhardt womöglich noch nichts gehört. Das muss er auch nicht unbedingt. Aber er könnte sich durchaus denken, dass diejenigen, die sich permanent und professionell mit Fragen des elektronischen Publizierens befassen, auch die Fragen der Langzeitarchivierung von digitalen Inhalten in ihrem Wahrnehmungs- und Entwicklungsradius berücksichtigen.

Fazit

Eigentlich ist der Niedergang der Kultur, den Volker Gerhardt hier ausmalt, ein Niedergang des Verlagswesens, wie wir es kennen. So weit so schlimm. Die Frage ist, ob er überhaupt eintritt. Die Bandbreite möglicher Entwicklungen umfasst durchaus positive Szenarien, die auch Verlagen eine Rolle selbst in Open-Access-Kontexten zugestehen.

Was weitaus stärker erstaunt, ist, wie sehr hier die selbstregulierende Funktion des Kommunikationssystems Wissenschaft unterschätzt wird. Die Wissenschaftsgeschichte zeigt, dass es immer um ein Ausbalancieren zwischen dem Machbaren, dem Wünschbaren und dem Zweckmäßigen. Letzteres setzt sich für eine Weile durch, unterliegt aber permanenter Modifikation durch die anderen beiden Einflussgrößen. Eine mediale Grundform besetzte bisher immer ein bestimmtes Zeitfenster und einen bestimmten disziplinären Wirkungsrahmen als dominante Größe. Dann verlor es an Bedeutung. Das kulturelle Erbe hat dabei bisher weniger durch Medienwechsel als durch Ignoranz Schaden genommen. Mangelnde Sensibilität ist in jeder Hinsicht ein Problem. Das „Monopol“ elektronischer Medien ist genauso wenig zu begrüßen, wie das Monopol des Papiers. Noch im 19. Jahrhundert galt das Schreiben dem Reden in der Wissenschaft als nachgeordnet. Vielleicht ist es im 21. Jahrhundert so, dass die in elektronischen Umgebungen möglichen Echtzeitkommunikationen über Plattformen, die wir bisher kaum kennen, zu einer Rückkehr der Oralität in verschriftlicher Form auch in der Wissenschaft führen. Die Kritik, denn der Peer direkt an der richtigen Textstelle im Pre-Print einfügt und auf den der Autor dann wieder eingeht, sind eine sinnvolle Variante für einen unmittelbaren und lebendigen Diskurs. Nachträglich lesen muss man das eigentlich nur, wenn die Debatte wieder zu dem Punkt zurückkehrt. Man könnte es, denn es ist sauber dokumentiert. Was im Idealfall am Ende steht und bleibt, ist das geschriebene Wort. In einer erweiterten, nicht versunkenen Schriftkultur.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7098 13
Der Heidelberger Appell, abgepellt von Stevan Harnad http://weblog.ib.hu-berlin.de/p=6906/index.html http://weblog.ib.hu-berlin.de/p=6906/index.html#comments Wed, 06 May 2009 15:42:51 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6906 The Humanities are more book-intensive than other disciplines, but insofar as their journal articles are concerned, they are no different: their authors write them (and give them away) for usage and impact, not royalty income. Stevan Harnad hat Joachim Güntners NZZ-Artikel Der Kampf ums Urheberrecht hat viele Schauplätze vom vergangenen Samstag gelesen, erkennt diesem einen [...]]]>

The Humanities are more book-intensive than other disciplines, but insofar as their journal articles are concerned, they are no different: their authors write them (and give them away) for usage and impact, not royalty income.

Stevan Harnad hat Joachim Güntners NZZ-Artikel Der Kampf ums Urheberrecht hat viele Schauplätze vom vergangenen Samstag gelesen, erkennt diesem einen gewissen Richtigstellungseffekt zu,  schüttelt nachvollziehbarerweise den Kopf über den Heidelberger Appell und informiert kurz die internationale OA-Öffentlichkeit über die aktuellen Vorgänge in Deutschland: Heidelberg Humanities Hocus Pocus.
Damit diese weiß, was hierzulande getextet wird, analysiert er obendrein die Heidelberger Erklärung anhand einer Übersetzung ins Englische Absatz für Absatz: Heidelberg Appeal Peeled

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6906 4
Na klar stimmt das, ich hab’s aus der FAZ! Der Mittwoch als Tag des Urheberrechtsstreits. http://weblog.ib.hu-berlin.de/p=6866/index.html http://weblog.ib.hu-berlin.de/p=6866/index.html#comments Tue, 05 May 2009 23:50:15 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6866 Sollte die Universität ihre Vorstellung durchsetzen können, würden ihre Forscher keine Bücher mehr veröffentlichen. Macht dieses Beispiel Schule, so läuft das auf eine Verabschiedung der geisteswissenschaftlichen Forschung von der Buchproduktion und tendenziell auf eine Abschaffung des wissenschaftlichen Buches und des geisteswissenschaftlichen Verlagswesens hinaus. Die Frankfurter Allgemeine Zeitung fährt in ihrer heutigen Ausgabe eine wahre Armada [...]]]>

Sollte die Universität ihre Vorstellung durchsetzen können, würden ihre Forscher keine Bücher mehr veröffentlichen. Macht dieses Beispiel Schule, so läuft das auf eine Verabschiedung der geisteswissenschaftlichen Forschung von der Buchproduktion und tendenziell auf eine Abschaffung des wissenschaftlichen Buches und des geisteswissenschaftlichen Verlagswesens hinaus.

Die Frankfurter Allgemeine Zeitung fährt in ihrer heutigen Ausgabe eine wahre Armada an Beiträgen zum Thema Urheberrecht und digitale Medien und generell gegen den Open Access auf. Wirklich überzeugen kann sie dabei aber nicht. Drei Lektüreeindrücke:

1. Open Access und die totale Kontrolle – mit Michael Hagner

Der mal berühmten, mal berüchtigten Open Access-Idee widmet der Zürcher Wissenschaftshistoriker Michael Hagner einen satten Dreispalter (Open access als Traum der Verwaltungen. Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N5, online), und die Bildredaktion stellt ihm einen schönen schiefen Bücherturm ins Zentrum. Er lobt die deutsche Situation, wie sie Volker Rieble sieht (vgl. auch hier), und schimpft ob des Zwanges, den die ETH mutmaßlich per Arbeitsvertrag auch auf die Geisteswissenschaftler dahingehend ausübt, dass sie ein Nutzungs- und Verwertungsrecht für “sämtliche im Rahmen des Arbeitsverhältnisses erstellten Werke, Erfindungen und Computerprogramme” von ihren Mitarbeitern einfordert.

Man versteht schnell, dass dies so manchen Wissenschaftler tief im Kern seines Selbstverständnisses trifft und muss damit auch als Freund des Open Access-Gedankens nicht unbedingt einverstanden sein.

Dennoch fragt man sich, ob der Sturm, den man hier zusammenbraut, der tatsächlichen Praxis oder nicht eher einem Quirlen im Wasserglas entspricht. Welche Sanktionsmöglichkeiten bleiben eigentlich der Universität, wenn ein Geisteswissenschaftler eben doch selbst erst zum Verlag geht, diesem viel Arbeit macht und nicht daran denkt, seinen Text der Universität zu schenken? Wird sie ihn abmahnen? Fristlos entlassen? Wird sie ihre Wissenschaftler davonjagen und die Fakultäten der renitenten OA-Verweigerer auflösen?

Wahrscheinlicher ist, dass diese Geschichte gar nicht so heiß gegessen wird, wie man sie der Öffentlichkeit aufbrüht. Es wäre schön, wenn die ETH sich einmal offen dazu äußerte und Michael Hagner plus Kollegen versichern würde, dass sie auch zukünftig mit einer Monographie, “die am Abend, an den Wochenenden, in der vorlesungsfreien Zeit und vielleicht sogar im Forschungsfreisemester, das einem die Universität gewährt hat, entsteht”, zu einem mittelständischen Wissenschaftsverlag ziehen dürfen. Dann wäre das Kartenhaus der Kampfdebatte aus Heidelberg und anderswo ziemlich schnell seiner Standfestigkeit beraubt, denn man baut, so weit zu sehen ist, nahezu ausschließlich auf den Sand dieser zugegeben sehr unglücklichen Formulierung.

Das Zitationsproblem, das Hagner sieht, wenn er das Manuskript auf den Server legt, ist dagegen am Ende womöglich ein nicht ganz so riesiges:

“Sollen zwei Fassungen publiziert werden, eine vorläufige auf dem Universitätsserver und eine definitive als Buch im Verlag? Das wäre absurd, denn nach welcher sollte dann zitiert werden?”

Eine digitale Editionsphilologie wäre doch auch sehr spannend. Zitiert wird in praxi natürlich die der jeweils der Argumentation zugrunde gelegten Variante.

Eine zeitgemäße Wissenschaft ist sich nun mal ihrer Vorläufigkeit bewusst und wenn sich Open Review als offene Diskursform etabliert, gewöhnt man sich sicher schnell daran, auch mal den Rohschliff zu lesen, zumal wenn es sich bei den Zutaten der Verlage nur um “Sichtung, Lektorat, Umbruch, Satz” handelt. Inhaltlich sollte sich dann eigentlich nicht mehr viel zwischen digitalem Manuskript und Druckausgabe verschieben.

Die Monographie bleibt natürlich selbstredend als zentrale Rezeptions- und Referenzversion solange die Wissenschaftsgemeinschaft dies möchte. Das System der Wissenschaftskommunikation ist traditionell weitgehend selbst organisierend und daran kann auch eine einzelne Universitätsverwaltung wenig drehen. Sollte die Monographie innerhalb der Gemeinschaft als das optimale Kommunikationsmedium akzeptiert bleiben, wird es sie auch geben. Entwickeln sich Kommunikationsformen, die besser geeignet sind, scheint es eigentlich widersinnig, gegen diese anzufechten. Anzugehen wären also hier für den konservativen Vertreter einer Disziplin im (langsamen) Wandel eher die Vertreter der eigenen Zunft, die von der heiligen Kuh des gedruckten Buches abfallen und lieber in anderer Form publizieren. Nur muss die Wissenschaft dies unter sich aushandeln und nicht nach übergreifender Regulierung rufen. Soviel Selbstvertrauen in die Fähigkeit zur Selbstorganisation der Wissenschaftsgemeinschaft setzt man doch eigentlich voraus.

Obendrein wird – so einfach ist das – bei entsprechend moderater Preisgestaltung niemand Lust haben, sich ein Lehrbuch zur Wissenschaftsgeschichte raubauszudrucken. Oder am Bildschirm lesen.

Wenn die Verlage also wirklich derart formal qualitativ hochwertige Monographien herstellen, sollten sie keine elektronische Version fürchten. Sie tun es anscheinend dennoch und Michael Hagner gleich mit, denn erwartungsgemäß geht es in seinem Text auch wieder nicht ohne dem schlimmstmöglichen Fall: Den Dolchstoß, zu dem die Universität ausholt, um das grundlegende Kommunikationsmedium der Geisteswissenschaften plant, also das Buch, auszulöschen. Denn es ist der verbliebene Dorn im Auge einer, so erscheint es in der vorliegender Argumentation, nach totaler Kontrolle strebenden Verwaltung, eine letzte Bastion freier Wissenschaft.

Die Universitäten werden dafür in der Beweisführung in ihrer potentiellen Schurkigkeit bzw. Indifferenz gegenüber dem Medium Buch mit den renditewilden Großverlagen Wiley, Elsevier oder Springer “die den Heidelberger Appell nicht unterzeichnet haben” (oha! Welch Zeichen!) in eine Ecke geschoben. Und über allem steht als Mahnung der Albtraum der aktuellen französischen Wissenschaftspolitik.

Dass “H-Faktor”-Versessenheit aber nicht zwangsläufig etwas mit Open Access zu tun hat und Open Access auch nicht unbedingt etwas mit der Gleichmacherei von Publikationen auf einem “Leviathanschen Server”, also mit totaler Kontrolle der Wissenschaft durch die Universitätsverwaltung, sollte man vielleicht doch deutlicher herausstellen. Michael Hagner lässt sich mit seinem ziemlich nach Versöhnung formulierten Einstieg die Möglichkeit zwar offen, schlägt dann aber bald perjorativ im Volker-Rieble-Stil (OA ist gut für den qualitativen Bodensatz: “Es ließe sich viel Papier sparen.”, vgl. hier) zu und überspitzt das Gesamtbild derart, dass der unkundige Leser meint, auf den Schultern des Open Access ritte der Beelzebub der Knechtung freier Wissenschaft einher – “keine Überraschungen und Exzentrizitäten mehr möglich”? Hier lässt sich problemlos die Brücke wohl eher nach Bologna schlagen (vgl. auch den Beitrag von Pirmin Stekeler-Weithofer auf der selben Seite), das in der Lehre vormacht, wie man es in der Forschung nicht machen sollte und von da vielleicht zum McKinseyanismus, der in der Wissenschaftspolitik unglücklicherweise als Leitstern und Irrlicht zugleich aufging. Die freie Wissenschaft kämpft gegen eine die totale Kontrolle anstrebende Verwaltung – so die Essenz des Textes. Soweit so gut. Open Access aber zum Werkzeug dieser Verwaltung bei der Durchsetzung ihres vermeintlichen Kontrollwahns abzustempeln, verfehlt das Ziel komplett. Gerade um einer Überregulierung von Wissenschaft vorzubeugen, sollte man eher den Open Access-Gedanken als Form alternativer, offener Publikationsformen stützen. Das Weihwasser, das hier versprüht wird, trifft eigentlich irgendwie die Falschen.

2. Open Access und die Überfischung der Wissenschaft – mit Jürgen Kaube

Jürgen Kaube setzt das Feuerwerk eindringlicher Untergangsbilder gleich neben Michael Hagners Albtraum der totalen Verwaltung fort und führt anlässlich der Darmstadt-Download-Debatte den nicht schlüssigen Vergleich zwischen offenen digitalen Lesegründen und der Überfischung der Weltmeere an(“Ein immergrüner wissenschaftlicher Weidegrund”, Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N5). Digitale Dokumente haben nun mal – man kann es nicht oft genug betonen – die Eigenschaft, sich nicht abzunutzen, auch wenn sie 1000 Mal kopiert und gelesen werden. Die “wissenschaftliche Allmende” lässt sich nicht auf den blanken Stein abgrasen, sondern bleibt strukturell immergrün. Auch mit Standesdünkel gegen die “copy and paste”-Praxis gespickt wird solche Argumentation nicht richtiger.

Wenn der Verlag Eugen Ulmer sich gegen eine zeitgemäße elektronische Nutzung seiner E-Books ausspricht, empfiehlt sich wohl eher, auf elektronische Publikationen ganz zu verzichten, als hier mühsam mit irgendeinem unsinnigen DRM-System herumzubasteln. Vom hohen Ross des Qualitätsjournalismus-Labels herunter die Rezeptionspraxis (bzw. die “sinngemäße Benutzung eines Lehrbuches”) als Argumentationsmaßstab anzulegen, wirkt dagegen unangenehm überheblich. In der Tat ist die Aufgabe der Bibliotheken in einem freien Wissenschaftssystem eben keine erzieherische, indem sie den Nutzern vorschreibt, wie sie Texte zu lesen haben. Bibliotheken sammeln, erschließen Inhalte und bieten den Zugang an. Nicht mehr und nicht weniger. Was der Nutzer mit den ihm zur Verfügung stehenden Quellen anfängt, ist ihm weitesgehend selbst überlassen. Ein freier wissenschaftlich Arbeitender würde sich vermutlich auch ausdrücklich dagegen verwehren, dass die Bibliothek ihm sagt, was er wie zu rezipieren und zu verarbeiten hat.

Wenn man so will, geht es tatsächlich um eine “Verbreitung von Datensätzen”. Ob Professor Schulze und sein Verlag und Jürgen Kaube damit nun glücklich sind oder nicht, liegt nicht im Zuständigkeitsbereich der Bibliotheken. Nochmal: Wenn der Verleger Matthias Ulmer mit elektronischen Büchern sein Geschäft machen möchte, muss er sich auch mit den Besonderheiten des Mediums auseinandersetzen. Der beste digitale Kopierschutz ist bislang die Print-only-Ausgabe. Und Jürgen Kaube sollte man bei der Gelegenheit vielleicht auch noch einmal mitteilen, dass bei weitem nicht alle Bibliothekare Verfechter der “freien Zugänglichkeit” sind. Solche Schubladereien sollten in einer distinguierten Zeitung wie der FAZ eigentlich keinen Platz finden.

3. Open Access und Kompetenzeinbußen – mit Stefan Weber

Das „Google-Copy-Paste-Syndrom“ treibt aber nicht nur Jürgen Kaube, sondern – und zwar schon eine ganze Weile und hauptberuflich – auch den Salzburger Netzplagiatorenjäger Stefan Weber um. Die FAZ räumt ihm ganz passend zu ihrem Schwerpunkt ebenfalls viel Platz ein, um seine üblichen Überlegungen ein weiteres Mal zu präsentieren (Na klar stimmt das, ich hab’s aus dem Netz! Frankfurter Allgemeine Zeitung vom 06.05.2009 Seite N3). Auch hier dominiert Endzeit, denn

“Der Matthäus-Effekt des Netzes könnte weiter dazu führen, dass Qualität und Innovation systematisch untergehen. Open Access und die Google-Buchsuche sind Schritte zur Abschaffung der Druckkultur. Offenbar kollabiert damit auch deren Referenzkultur. Irgendwann könnten dann auch die Texte selbst, so wie wir sie derzeit noch kennen, obsolet werden.”

Man beachte den wegkippenden und wiederkehrenden Konjunktiv. So ganz festlegen möchte sich nun mal niemand gern. Aber wenn, dann ist Open Access schuld, denn es führt, da “alle neuen Texte digital und gratis verfügbar” sind, zum Aussterben – so der eigenwillige Schluß – wissenschaftsgrundierender Kompetenzen wie “quellenkritische[s] Rezipieren, Verstehen, Interpretieren und Einordnen”. Selbstverständlich lernt sich wissenschaftliches Arbeiten nicht von allein. Schon gar nicht in so gestreuten Informations- und Kommunikationsräumen wie dem WWW.

Es gibt aber sicher keinen ernstzunehmenden “Open-Access-Befürworter”, der von derartigen autodidaktischen Effekten ausgeht und eine methodische Grundausbildung im Studium durch bloßes Bereitstellen von digitalen Dokumenten ersetzt sehen mag. Die beiden Schuhe passen also nicht so recht zusammen, aber, so glaubt man wohl, lassen sich dadurch passend machen, dass man permanent alles zusammenrührt und auf das Unliebsame Geißel und Bedrohung und dann dick drunter Es ist fünf vor zwölf! schreibt. Andererseits könnte man auch anstatt der allgemeinen Verdammnis die Option in Betracht ziehen, Diskursregeln für digitale Räume zu elaborieren. Es ist durchaus sinnvoll zu überlegen, wie man Quellenintegrität und Vertrauenswürdigkeit in elektronischen Symbolzusammenhängen hinterlegt. Dazu existiert ernsthafte Forschung, nur schafft diese es selten in das Feuilleton, zu dem man die heutige Ausgabe der geisteswissenschaftlichen Sektion der FAZ zählen muss.

Alarmismus statt solider Abwägung der verschiedenen Gesichtspunkte erscheint hier als rhetorisches Mittel der Wahl zur Einflußnahme, denn bei nahezu allen Beiträgen, die sich zum Thema in der Zeitung finden, wird der Impetus sehr deutlich. Für die richtige Lehre, die da heißt (1) Erhaltung der Gutenberg-Galaxis – die gar nicht bedroht ist – und (2) Übertragung von analogen Vorstellungen auf eine in grundsätzlichen Struktureigenschaften vollkommen differenten digitalen Medienwelt – was freilich holprig verglichen so funktioniert, als wollte man die Straßenverkehrsordnung eins zu eins in den Luftverkehr übertragen – darf man in der Qualitätspresse auch mal über die Strenge schlagen, alles was zum gewünschten Ziel führt herumbiegen und zusammenschustern und schließlich dem verhassten Open Access ein Heidelbergisches Stigma nach dem anderen aufdrücken. Wenn es denn nur für die richtige Stimmung sorgt. Als sonderlich nachhaltig über den Tag hinaus dürfte sich solch ein Vorgehen nicht erweisen. Aber kaputt geht dabei leider eben doch einiges.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6866 4
Aufklärungsarbeit: Matthias Spielkamp und Florian Cramer in der FR zum Thema “Open Access” http://weblog.ib.hu-berlin.de/p=6789/index.html http://weblog.ib.hu-berlin.de/p=6789/index.html#comments Tue, 21 Apr 2009 08:56:38 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6789 Vielleicht ist all das nur ein Missverständnis. Doch da Reuß und Jochum auf ihm, aller sachlichen Entgegnungen zum Trotz, beharren und sogar YouTube und Musik-Tauschbörsen ins Spiel bringen, wird man den Verdacht nicht los, dass Gelehrte und Schriftsteller hier ein diffuses allgemeines Unbehagen am Internet artikulieren sowie ihre Panik, von der Medienentwicklung überrollt zu werden. [...]]]>

Vielleicht ist all das nur ein Missverständnis. Doch da Reuß und Jochum auf ihm, aller sachlichen Entgegnungen zum Trotz, beharren und sogar YouTube und Musik-Tauschbörsen ins Spiel bringen, wird man den Verdacht nicht los, dass Gelehrte und Schriftsteller hier ein diffuses allgemeines Unbehagen am Internet artikulieren sowie ihre Panik, von der Medienentwicklung überrollt zu werden.

In der heutigen Ausgabe der Frankfurter Rundschau analysieren Matthias Spielkamp und Florian Cramer den Heidelberger Appell als Ausdruck der Furcht einer kulturellen Elite vor dem für diese schwer durchschaubaren Phänomen Internet und nehmen sich dankenswerterweise noch einmal die Zeit, den Unterzeichnern wie den durch Artikel von Uwe Jochum und Roland Reuß in der selben Zeitung womöglich sehr irritierten Lesern der Frankfurter Rundschau die Grundzüge des “Open Access”-Ansatzes ruhig und verständlich zu erklären: Die Autoren werden gestärkt!

Nachtrag:

Joachim Müller-Jung hat für die Frankfurter Allgemeine Zeitung den Brief des Heidelberger Appells an die Bundeskanzlerin gelesen und festgestellt, dass Roland Reuß die argumentativ so unsinnige wie oft gegeißelte Gleichsetzung von Google-Books und Open Access mittlerweile etwas differenzierter sieht. Als Feindbild bleibt aber Letzteres prominent:

Was „Open access“ angeht, spricht Reuß nun nicht mehr von einer „grundgesetzwidrigen“ Beschneidung der Forscher- und Autorenfreiheit, sondern vom „Gift“ der Nötigung insbesondere für Geisteswissenschaftler und mittelständische Verlage. Indem die Forschungsorganisationen die Autoren zwängen, ihre nicht auf schnelle Verwertung hin angelegten Editionen, Handbücher und Monographien über kurz oder lang zur kostenfreien Veröffentlichung im Internet anzubieten, würden Forschungsfreiheit und hochqualifizierte Arbeitsplätze gefährdet. (Müller-Jung, Joachim (2009): Freiheitssache Geist. Appell: Was Autoren von der Bundeskanzlerin erwarten. In: Frankfurter Allgemeine Zeitung, 21.04.2009, S. 27.)

Der editionsphilologische Ansatz Reuß’ findet dagegen heute in der Süddeutschen Zeitung Auswertung und Entgegnung:

Der ideale Partner der textgenetischen Methode ist nicht das Buch, sondern das Internet. Voraussetzung dafür ist allerdings, dass die digitale Integraledition der Manuskriptbestände, … , von ausgewiesenen Philologen erstellt wird.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6789 1
Auf dem Ap[p]ellplatz: Die Urheber rufen zur Rettung der Zukunft. http://weblog.ib.hu-berlin.de/p=6736/index.html http://weblog.ib.hu-berlin.de/p=6736/index.html#comments Tue, 24 Mar 2009 10:51:33 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6736 Es ist immer bedauerlich, wenn eine auf Viertel- und Halbwissen beruhende Rhetorik, die beispielsweise Google Books und Open Access pauschal in einen Topf wirft und zu einer Sache verquirlt, die Debatte dominiert. Das kann man jedoch noch ausblenden. Problematischer wird es aber, wenn das Ganze in Aktionismus umschlägt und zu einem Aufruf “für Publikationsfreiheit und [...]]]>

Es ist immer bedauerlich, wenn eine auf Viertel- und Halbwissen beruhende Rhetorik, die beispielsweise Google Books und Open Access pauschal in einen Topf wirft und zu einer Sache verquirlt, die Debatte dominiert. Das kann man jedoch noch ausblenden. Problematischer wird es aber, wenn das Ganze in Aktionismus umschlägt und zu einem Aufruf “für Publikationsfreiheit und die Wahrung der Urheberrechte” führt, der die Diskussion dann gleich durch eine Sturmlauf der Behauptungen überrennt und sowohl Freiheit wie auch Zukunft in akuter Gefahr wähnt:

Jeder Zwang, jede Nötigung zur Publikation in einer bestimmten Form ist [...] inakzeptabel …

Jeder, der publiziert wird dem zustimmen. Wenn die Freiheit von Literatur, Kunst und Wissenschaft Verfassungsgut aber  ist, dann ist sie ja auch durch die Verfassung geschützt. Wenn dieser Schutz nicht erfolgt, ist zweifellos die Politik am Zug. Aber muss man, weil ein Balken knirscht, gleich das ganze Haus niederbrennen wollen?

Scrollt man die Liste der Unterzeichner durch, die überwiegend aus dem Verlagswesen und den buchorientierten Wissenschaftskulturen stammen, merkt man, wohin das Dauerfeuer mit dem Mythos, die Verlage müssten von der Musikindustrie und deren Fehlern lernen, führt. Es ist kaum anzunehmen, dass Daniel Kehlmann zum Prince wird und sein nächstes Buch frei zum Download anbietet und dem Berliner Kurier beilegt. Dazu ist die kulturelle Distinktion der Branche, die jetzt die Barrikaden errichtet, schlicht zu hoch. Der weit verbreitete Irrtum, das Kapitel eines Buches sei einem Musiktitel gleich, erzeugt jedoch diskursiven Druck und mündet aktuell in einer unbestimmten Furcht bzw. darin, dass Autoren und Verlage ganz offensichtlich das Vertrauen in ihr Produkt und Lebensmittel – das gedruckte Buch – sowie in die Leserschaft und Kunden verloren haben.  Denn die Schlacht, die hier eigentlich geschlagen wird, ist die analog ausgerichteter Eliten, welche das Vertrauen in sich selber verlieren, gegen eine zukunftseuphorische Digitalkultur. Das die Welt ein besserer Ort ist, weil alle Bücher und Forschungsergebnisse permanent und überall online gelesen werden können ist eine genauso unsinnige Vorstellung, wie, dass ein starres Beharren auf dem Status Quo des Publikationswesens gegen die technischen Möglichkeiten rigoros zu verteidigen sei. Darum geht es auch nicht. Was wir beobachten, sind Verteilungskämpfe um Deutungs- und Markthoheiten, an deren Ende hoffentlich ein sinnvoller Kompromiß steht. Bedauerlicherweise verläuft sich der Diskurs zu oft in platter Ideologie und verzichtet auf das differenzierte Argument. Letztlich ist dies aber normal, wenn es an Distanz zur Sache und damit an Unterscheidungsvermögen mangelt.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6736 4
Neues aus dem Feuerland: Die FAZ sieht auf der Buchmesse das Buch untergehen http://weblog.ib.hu-berlin.de/p=6701/index.html http://weblog.ib.hu-berlin.de/p=6701/index.html#comments Sun, 15 Mar 2009 21:58:21 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6701 Die Frankfurter Allgemeine Zeitung zieht als Erkenntnis aus der diesjährigen Buchmesse, die einen Rekordzulauf aufwies, die Bilanz, dass das Bücherland abgebrannt sei. So wird einerseits ein Durchschlagen der Krise befürchtet und andererseits ein Durchschlagen der Digitalisierung, wobei man nie so richtig weiß, ob das Feuilleton tatsächlich versteht, was das Wort bedeutet: Vor allem die jungen [...]]]>

Die Frankfurter Allgemeine Zeitung zieht als Erkenntnis aus der diesjährigen Buchmesse, die einen Rekordzulauf aufwies, die Bilanz, dass das Bücherland abgebrannt sei. So wird einerseits ein Durchschlagen der Krise befürchtet und andererseits ein Durchschlagen der Digitalisierung, wobei man nie so richtig weiß, ob das Feuilleton tatsächlich versteht, was das Wort bedeutet:

Vor allem die jungen Leser, die zu Tausenden in Kostümen schriller Comicfiguren durch die Messehallen strömen, scharen sich um die Stände mit den elektronischen Lesegeräten. Die junge, mobile Gesellschaft sei ihre Zielgruppe, sagen die Hersteller. Wer oft unterwegs sei, im Zug, in der S-Bahn oder im Urlaub, brauche künftig keine schweren Taschen voller Bücher mehr mitzuschleppen, sondern nur den kleinen Reader, der Speicherplatz hat für Hunderte E-Books.

Das Argument des Hamstertransporters also: Rechnet man pro Buch einen Tag Lektüre, kann sich jeder Cosplay-Fan nun locker ein Jahrespensum auf dem Schulweg im ÖPNV mitnehmen. Auf dem Laptop habe ich schon seit einigen Jahren einige hundert PDF-Texte – die Wissenschaft ist vom digitalen Publizieren ja längst durchdrungen. Da ist kein Reader nötig:

Am E-Book, das ist nach Leipzig klar, führt kein Weg mehr vorbei. Bald werden alle Bücher, ob wissenschaftliche Werke, Sachbücher, Anthologien oder Romane, online verfügbar sein. Und diese verspätete digitale Revolution wird die Branche gehörig durchschütteln.

Das mag sein. Aber wie gesagt: gerade die Wissenschaftskommunikation zählt zu den Early Adoptern elektronischer Texte. Das man die Bücher nun auch als Druckvorlagen-PDF oder als E-Pub ausliefert, scheint keine besondere Neuerung zu sein. Da ist schon der Bruch in der Medienrezeption, den Michael Giesecke gestern im Interview in der Süddeutschen Zeitung (Ausgabe Nr. 61/2009, S. 19)  kurz beschwor, relevanter:

“Die Buch- und Industriekultur hat die technisierten Medien und das standardisierte, symbolische Wissen, meist das verschriftete prämiert, Deren derzeitige Entwertung eröffnet die Chancen, alternativen Kommunikationsmöglichkeiten, vor allem den leiblichen Medien, wieder mehr Platz einzuräumen.”

Der Cosplay-Trend schlägt genau in diese Kerbe. Im digitalen Umfeld lässt sich dagegen eine Aufwertung kommunikativer Akte gegenüber der Rezeption sehen. Letztere findet natürlich statt, aber gerade bei der jüngeren Weise dahingehend interaktiv, dass die Inhalte unmittelbar kommentiert, bewertet und geteilt werden. Ob diese Zielgruppe ausgerechnet auf einen abgeschlossenen Reader wartet, bezweifle nicht nur ich, sondern auch der Medienforscher Giesecke, der trocken bemerkt:

“Ich denke, dass das E-Book nicht viele Menschen brauchen werden.”

Wissenschaft funktioniert ohnehin als Wechselwirkung aus Lesen und Schreiben und wenn ich Digitaltexte lese, dann brauche ich kein Zusatzgerät neben dem Rechner.

Und ob sich die Verleger dann tatsächlich, wie Sandra Kegel für die FAZ behauptet, von einem Mitglied des Chaos Computer Clubs in Furcht unterrichten lassen, bleibt ebenfalls fraglich:

Das Fürchten lehrt die Verleger auf der Messe ein junger Mann mit Pferdeschwanz. Der Vertreter des Chaos Computer Clubs verbreitet Ansichten, die die Branche herausfordern, etwa wenn er angriffslustig in Frage stellt, dass man fürs Schreiben überhaupt entlohnt werden müsse, das könne ebenso gut der Selbstverwirklichung dienen. Die klassischen Vertriebswege von Büchern, davon ist er überzeugt, werden bald nicht mehr existieren. Die Verlage müssten sich der Tatsache stellen, dass es das Netz gibt. „Wer nicht möchte, dass er digitalisiert wird“, so der Mann vom Club, „existiert bald nicht mehr.“

Das Schreiben und Schreiben durchaus verschiedene Tätigkeiten sein können und nicht jedes Blogpost literarisches Höchstniveau erreichen möchte und kann, dass also Qualität durchaus und nach wie vor einen Preis haben wird, da sie nicht alltäglich und beliebig erzeugbar ist, ignoriert der Mann aus der Computerecke. Gute Literatur ist immer zuerst Selbstverwirklichung. Schlechte meist auch. Dies steht aber in keinem Zusammenhang mit der Möglichkeit ein verkaufbares Buchprodukt als Rahmen drumzubinden. Denn Literatur ist auch Arbeit und Selbstverwirklichung zahlt keine Miete. Die Frage ist also eher, woher die Entlohnung für die Schriftsteller bekommt. Oder anders: In Deutschland betreiben unzählige Menschen aktiv den Fußballsport. Und dennoch gibt es welche, dafür Geld bekommen und andere nicht. Deprofessionalisierung ist sehr selten eine sinnvolle Option. Das letzte Argument kann man aber auch im Kontext des Textes anders herum lesen: Der digitale Text gleich welcher Qualität ist beliebig reproduzierbar und die Verlage wissen es, wenn sie digitalisieren. Der beste Kopierschutz für sie wäre eigentlich die Nichtdigitalisierung.

Dass die Buchstadt Leipzig kein Verlagsmittelpunkt mehr ist, kann man aber nur schwer dem E-Book anrechnen, das sich – nachdem bereits analog in Frankfurt im Herbst Ähnliches verbreitet wurde – nun in Leipzig “erstmals für den breiten Markt materialisiert”. Auch nicht primär dem Internet. Sondern vielmehr einem Zwang und/oder Willen, auch im Verlagsgeschäft breit zu rationalisieren. Einen ideellen Standort in einer alten Tradition zu bewahren, ist für den wirtschaftlich denkenden Verleger nunmal kein Kernanliegen. Man sollte nun also vielleicht fragen, ob zwanzig Jahre nachdem die Verlagskulturen von Ost und West ihrer politischen Funktion weithin enthoben wurden, nun womöglich eine neue Generation von Verlegern die Landschaft bestimmt, die mehr die Bilanz als die kulturelle Rolle im Auge hat.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6701 0
Je schlechter, desto lesender. Meint ein Neujahrskommentar in der taz http://weblog.ib.hu-berlin.de/p=6417/index.html http://weblog.ib.hu-berlin.de/p=6417/index.html#comments Thu, 01 Jan 2009 18:31:24 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6417 “Denn die Bevölkerung von Ländern, denen es wirtschaftlich schlecht geht, wird oft geradezu biblioman, sie hält sich an den Texten fest, egal ob auf dem E-Book-Reader, dem iPhone oder auf Papier gelesen. Arme Völker kaufen ihren Kindern Kinderbücher, wenn dann noch Geld übrig ist, kaufen sie Bücher für Erwachsene, wenn nichts mehr da ist, stürmen [...]]]>

“Denn die Bevölkerung von Ländern, denen es wirtschaftlich schlecht geht, wird oft geradezu biblioman, sie hält sich an den Texten fest, egal ob auf dem E-Book-Reader, dem iPhone oder auf Papier gelesen. Arme Völker kaufen ihren Kindern Kinderbücher, wenn dann noch Geld übrig ist, kaufen sie Bücher für Erwachsene, wenn nichts mehr da ist, stürmen sie die Bibliotheken.”

Meint jedenfalls Jörg Sundermeier vom Berliner Verbrecherverlag und sagt für 2009 ein Jahr des Lesens voraus. Mehr als die Zeitung von gestern ist heute nach erwartungsgemäß langer Nacht noch nicht machbar gewesen, aber selbstverständlich stimmen wir hoffnungsfroh in das Loblied auf die Lektüre ein, allerdings in puncto “Manie” unter psychohygienischem Vorbehalt und mit dem leise klingenden Verdacht, dass der Verleger sich im Bibliothekswesen “armer Völker”, zu dem das bundesrepublikanisch-deutsche auch bei Verschärfung des wirtschaftlichen Abschwungs im Vergleich bestimmt nicht so schnell zählen wird, kaum allzu kundig gemacht hat.

Obendrein erkennt, wer sich mal mit der Bedürfnispyramide beschäftigt hat, dass es als Begleitmusik zum Verarmen gewichtigere Melodien selbst als die edle Tätigkeit des Lesens gibt. Gehaltvollere, zugegeben, kaum. Andererseits wirkt die Annahme, dass “das Mittelmaß, unwichtige Romane und Erzählungen, die der Kritik und dem Publikum so lange für “wichtig”, “imposant” und “überragend” gelten, wie man es sich leisten kann, über schlecht Nachgemachtes und Überflüssiges zu schwadronieren”, nun keine Chance mehr haben werde, weil das Verständnis der beschädigten Welt nach dem Ende der Überzeugungskraft in der großen Erzählung des globalen Finanzkapitalismus und die korrespondierenden Rückkopplungen auf die unmittelbare Lebenswirklichkeit des Einzelnen, Schlagkräftigeres erfordert, doch reichlich naiv neben den real existierenden Bestsellererfahrungen auch mäßiger weltwirtschaftlicher Zeiten. Wir prüfen mal in einem Jahr nach, wie sehr der in diesen Aperitif für ein Jahr des Qualitätstextes getröpfelte Wermut 2009 durchschmeckt. Die Glosse zum Thema gibt es in der taz: 2009, Jahr des Lesens.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6417 0