IBI-Weblog » elektronisches Publizieren http://weblog.ib.hu-berlin.de Weblog am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin Wed, 28 Jun 2017 08:24:09 +0000 en hourly 1 http://wordpress.org/?v=3.0.4 Open Access Week an der Humboldt-Universität: Termine http://weblog.ib.hu-berlin.de/p=8321/index.html http://weblog.ib.hu-berlin.de/p=8321/index.html#comments Thu, 30 Sep 2010 21:06:08 +0000 Maxi http://weblog.ib.hu-berlin.de/?p=8321 Auch in diesem Jahr beteiligt sich die Humboldt-Universität an der internationalen Open Access Week (18. bis 24. Oktober 2010) mit mehreren Aktionen, die gemeinsam durch den Computer- und Medienservice (Arbeitsgruppe Elektronisches Publizieren) und das Institut für Bibliotheks- und Informationswissenschaft getragen werden. Im Rahmen der “edoc roadschow” findet am Dienstag, dem 19. Oktober, um 15 Uhr [...]]]>

Auch in diesem Jahr beteiligt sich die Humboldt-Universität an der internationalen Open Access Week (18. bis 24. Oktober 2010) mit mehreren Aktionen, die gemeinsam durch den Computer- und Medienservice (Arbeitsgruppe Elektronisches Publizieren) und das Institut für Bibliotheks- und Informationswissenschaft getragen werden.

Im Rahmen der “edoc roadschow” findet am Dienstag, dem 19. Oktober, um 15 Uhr eine Informationsveranstaltung am Institut für Europäische Ethnologie in der Mohrenstraße 41 in Berlin-Mitte statt. Darin geht es unter anderem um Dienste, die der edoc-Server im Bereich des elektronischen Publizierens bereithält. Eingeladen sind interessierte HU-Angehörige – natürlich auch außerhalb des Instituts für Ethnologie.

Am Mittwoch, dem 20. Oktober, bietet die Aktionsgruppe aus CMS und IBI in der Zeit von 10 bis 13 Uhr eine “Open-Access-Sprechstunde” im Foyer des Hauptgebäudes (im Seitenflügel bei der Studienabteilung) der Humboldt-Universität, Unter den Linden 6, ebenfalls in der Berliner Mitte, an. Dort wird an einem Infostand über Open Access und die Möglichkeiten des elektronischen Publizierens an der Humboldt-Universität informiert.

Während der gesamten Open Access Week läuft auf mehreren öffentlichen Bildschirmen in Gebäuden der HU ein kurzes Video, das die wesentlichen Fragen rund um Open Access auf spielerische Art beantwortet.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=8321 0
Treffer! Versenkt!: Volker Gerhardts “bürokratischer Imperativ des Open Access” und die Schriftkultur http://weblog.ib.hu-berlin.de/p=7098/index.html http://weblog.ib.hu-berlin.de/p=7098/index.html#comments Wed, 10 Jun 2009 11:40:36 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7098 Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für [...]]]>

Steter Tropfen höhlt den Stein, sagt man sich wohl bei der FAZ. Besonders wenn es um den unsinnigen Kreuzzug gegen das Open-Access-Prinzip bzw.: den Open-Access-Imperativ geht. Heute schreibt mit dem Philosophen Volker Gerhardt durchaus einmal jemand, von dem man solides Argumentieren erwarten darf, allerdings nicht exklusiv für die FAZ, denn diese hat seinen Beitrag für die Schwerpunktausgabe der Zeitschrift Gegenworte (Heft 21) auf zeitungstaugliches Niveau zusammengekürzt. Damit muss man erst einmal auskommen, denn die Gegenworte sind noch nicht erschienen. Man traut aber der FAZ-Redaktion zu, dass sie sich im sinngemäßen Kürzen auskennt und bedankt sich für die vorgreifende Nachverwertung.

Der Artikel  mit der mächtig abgeschmackten Überschrift “Open Exzess: Die Folgen des Publizierzwangs” (Frankfurter Allgemeine Zeitung, 10.06.2009, Seite N5) zeigt sich am Ende leider auch wieder nur als dystopisch kolorierte Angst vor einem “Monopol” elektronischer Publikationsformen und davor als ein Hohelied auf die Verdienste der Verlagslandschaft für die Wissenschaft und die Gefahren der Zerstörung (sowohl als auch) durch das freie Publizieren im Netz.

Nun ist leider schon die Prämisse verkehrt, denn genauso wenig wie „das Internet“ als Feind des Intellektuellen und der Tageszeitung gibt es nur eine Form des „Open Access“. Statt rigorosem Publikationszwang werden diverse Schattierungen diskutiert und angewahnt und jemand, dem es an Argumentation gelegen ist, sollte wenigstens erklären, dass er mit einer übertriebenen Zuspitzung hantiert und nicht mit der Tatsächlichkeit der Sachlage. Die lautet: Es gibt momentan keinen Zwang zum Open Access. Und angesichts des Furors der Verlagslobby, einiger Heidelberger und mancher Wissenschaftler werden auch die Wissenschaftsorganisationen den Teufel tun und hier mehr als Freiwilligkeit verlangen. Bei konkreten Finanzierungsförderungen mag das anders aussehen. Aber das entspricht auch dem normalen Umgang mit Verlagen: Es gibt Bedingungen, die der Autor annehmen kann oder ablehnen.

Feindschaft zu den Verlagen sucht man in der Open-Access-Bewegung jedenfalls nicht. Sondern man unterbreitet ein Angebot, dass relativ neu, mitunter noch besser in die Rahmenbedingungen eingepasst werden muss, ansonsten aber durchaus seinen Zweck erfüllt.

Leider rufen Volker Gerhardt, der seinen Text eigentlich erfreulich moderat beginnt, und auch andere Beiträger zu der Debatte beim Leser ein wenig den Eindruck hervor, dass irgendeine dritte Macht versucht, der Wissenschaft eine Open-Access-Bürokratie aufzuzwingen, die wissenschaftliches Arbeiten, wie man es bisher kennt, nachhaltig beschädigen wird.

Open Access, woher er wirklich kommt

Dabei entfällt, dass Open Access eine Initiative aus der Wissenschaft heraus ist, die aus oft genannten, wohl bekannten und richtigen Gründen entstand – nämlich einerseits als Gegenreaktion zur so genannten Zeitschriftenkrise, die den Zugang zu wissenschaftlichen Publikationen durch das Monopol bestimmter wissenschaftsexterner Marktakteure kaum bis unbezahlbar machte und andererseits als Nutzung der zeitnahen und kostengünstigen technischen Möglichkeiten für die innerwissenschaftliche Kommunikation, die elektronischen Kommunikationsumgebungen nun einmal bieten.

Gleichwohl darf man sich nicht einbilden, mit dem Imperativ des Open Access der Wissenschaft etwas Gutes zu tun. Sie leidet schon lange genug unter der Verwechslung von Quantität mit Qualität, mit der das Rating an die Stelle der Urteilskraft tritt und die im Übrigen ein sicheres Indiz dafür ist, dass die Wissenschaft sich nicht mehr nach ihren eigenen Kriterien bewertet.

Dass das, was der Mensch so gern tut vom zu wenig ins zu viel kippt, ist eine Grunderfahrung nicht nur aus dem elektronischen Umfeld. Auch der Printmarkt überschüttet jeden leicht über engste disziplinäre Eingrenzungen hinaus Blickenden mit weitaus mehr Inhalten, als er vernünftig rezipieren kann. Das Klagelied: “Wer soll das alles lesen!” ist noch älter als “Wer soll das bezahlen!” Die Dokumentation hat mit den Abstract-Zeitschriften und ähnlichen Ansätzen vor weit mehr als hundert Jahren bereits Ausgleichsformen zur Komplexitätsreduktion entwickelt, die immer Perpetual Beta waren. Dies ist nun einmal der charakteristische Zug eines gesellschaftlichen Tätigkeitsfelds, das genuin nach Neuem strebt: Dynamik. Die Kommunikationswerkzeuge folgen immer mit einer gewissen Verzögerung dem tatsächlichen Geschehen. Es muss erst das Problem auftreten, bevor man die Lösung durchsetzen kann.

Im elektronischen Publizieren – denn eigentlich geht es Volker Gerhardt nicht nur um Open Access, sondern an sich um elektronisches Publizieren mit seinen Nebenwirkungen – ist dies genauso der Fall. Da diese Kommunikationsumgebungen mit so aussagearmen Kriterien wie Klick- und Downloadraten zunächst einmal exzellente quantitative Messmöglichkeiten bieten, greift jeder, der in der Lage ist, bewerten zu wollen oder zu müssen, zunächst beherzt zu. Wenn er dann aber schließlich darauf kommt, wie fehlgeleitet seine Schlussfolgerung aus einem rein mengenorientierten Ranking sein kann, wird er sich an die Entwicklung differenzierterer Ansätze machen. Es gibt durchaus rege Tätigkeit auf diesem Feld. Dass quantitative Evaluation wenig über die Güte von Wissenschaft aussagt ist mittlerweile ein Allgemeinplatz.

Eitel schreibt am meisten?

Warum hat Volker Gerhardt eigentlich so wenig Vertrauen in die Selbstregulierung der Wissenschaftsgemeinschaft?:

Jeder ist sein eigener Lektor, der dem Autor großzügig jede Eitelkeit durchgehen lässt. Mit der Verständlichkeit der Ausführungen hat er jedenfalls keine Probleme, schließlich hat er den Text ja selber verfasst. Von der Illusion umfangen, die Ablagerung im Netz sei schon die Aufnahme durch die wissenschaftliche Welt, verwechselt er die Produktion des Textes mit dessen Rezeption.

Glaubt er, dass seine Peers einen schlechten, im Netz abgelagerten Artikel seiner Feder unreflektiert rezipieren und applaudieren? Mit entsprechenden Diskussionsstrukturem im Web stände wohl eher schnell bei einem rezeptionsbasierten Post-Review-Verfahren an der entsprechenden Stelle: „Mir scheint, Sie sind ein eitler Geck/und schreibens nur zum eigenen Zweck“ – allerdings in der Etikette entsprechender Wissenschaftssprache. Traditionell reguliert die Wissenschaft, was sie für wissenschaftlich hält und nicht der Lektor im Verlag. Dieser markiert bestenfalls eine Schranke, die dafür sorgt, dass das Publizierte ins Verlagsprogramm passt. Er urteilt in erster Instanz nach Verkaufbarkeit, wobei Wissenschaftlichkeit bei wissenschaftlichen Verlag ein relevantes Kriterium ist. Zeitgeist aber auch. Der Abgelehnte geht im Regelfall einfach zu einem anderen Verlag und irgendwann wird sein Text doch gedruckt.

Fünf Stufen in die Versenkung

Wie dem auch im Print auch sei, für das Publizieren im Internet sieht Volker Gerhardt stufenweisen Schwund an Kultur und Kultiviertheit. Seine fünf „Sinkstufen“ zur Zersetzung der Schriftkultur sind allerdings nur der schematisierte Ausdruck, dass er sich eine Welt, in der der idealtypische Wissenschaftsverlag nicht mehr das tut, was man idealtypisch von ihm erwartet, nicht vorzustellen vermag.

Stufe 1: Kurz gesagt: Der Wissenschaftler stellt die Texte lieber selbst ins Netz und lässt die Verlage außen vor. Die dürfen ihn zwar noch drucken, erhalten aber keine Rechte – was eigentlich bedeutet: keine Exklusivrechte. Volker Gerhardt flüchtet sich an dieser Stelle in eine eher peinliche Polemik:

Zwar räumen sie den Verlagen die Möglichkeit zur Publikation der Ergebnisse ein, sind aber nicht bereit, ihnen auch Rechte zuzugestehen. Wie kämen sie auch dazu, wenn doch offensichtlich ist, dass die Verlage nur ihre Profite machen wollen? Unter Berufung auf den Konsens, der den Open Access so selbstverständlich macht, kann ein Wissenschaftler es doch nicht zulassen, dass sich ein Verlag an der Vermarktung von Ergebnissen bereichert, die unter Einsatz öffentlicher Mittel erzielt worden sind.

Derartig schlicht funktional ticken Wissenschaftler nicht. Es geht im Open Access nicht darum, den Verlagen ihre Leistung abzuerkennen oder sie zu beschädigen. Daher bestehen auch Embargo-Szenarien, die den Verlagen einen bestimmten Zeitraum geben, einen Titel sogar exklusiv zu vermarkten. Nur danach, wenn die Restauflage in der Backlist verschwindet oder remittiert wird, versteht man nicht, warum der Text nicht auch frei zugänglich im Netz stehen darf. Das Ziel eines Open Access-Ansatzes ist an dieser Stelle mehr ein Ausbalancieren der Interessen der Wissenschaft und der Verlage und nicht, letzteren die Existenzgrundlage zu nehmen. Selbst bei Pre-Prints ist die Verlagspublikation –sofern der Verlag seine Arbeit (gut) macht – eben nicht identisch mit dem E-Produkt. Das erklärt sich schon rein aus der Materialität des Druckwerks und schließt im Idealfall das Lektorat mit ein. Der Verlag publiziert in solch einem Szenario mit der ersten Auflage die zweite verbesserte und überarbeitete Ausgabe eines Textes.

Es ist unverständlich, warum diejenigen, die sich damit am besten auskennen, grundsätzlich annehmen, niemand würde eine solche Optimierungs- oder Veredelungsleistung honorieren und doch das Buch kaufen, obschon es denn Inhalt frei online gibt. Aus anderen Bereichen – z.B. der DRM–Diskussion – kennt man das Prinzip, dass Anbieter ihren Kunden grundsätzlich als Gefahr und Feind bewerten. Die Verlage begeben sich momentan oft in eine ähnliche Richtung und werden sicher von ihrem Misstrauensgrundsatz nicht profitieren. Sie vergessen gern, dass man sie nie für die Inhalte selbst bezahlte, sondern nur dafür, dass sie diesen eine rezeptionsadäquate Form gaben. Oder, weil sie der einzige Weg waren, um die Inhalte überhaupt zur Kenntnis nehmen zu können. Der zweite Punkt verschwindet zugegeben mit Open Access und trägt damit der Verfasstheit immaterieller Güter wie der wissenschaftlichen Information konsequent Rechnung. Der erste Punkt bleibt, gerade im elektronischen Umfeld, hoch relevant.

Die zweite Stufe betrifft das Wegfallen der Bibliotheken als Käufer von Büchern:

Die zweite Sinkstufe besteht darin, dass die Verlage keine Möglichkeit mehr sehen, Texte herauszubringen, die ihnen noch nicht einmal mehr die Bibliotheken abkaufen, weil ja ohnehin alles kostenlos im Netz zu haben ist.

Es wurde schon vermehrt darauf hingewiesen, dass im Bibliotheksetat ein übergroßer Anteil in die objektiv überteuerten Zeitschriftenpakete einige Monopolverlage gehen, was sich negativ auf die Monographieetats auswirkt. Gerade hier müssten die mittelständischen Wissenschaftsverlage Open Access befürworten, da dadurch wieder Geld für ihre Produkte frei werden könnte. Internetpublikationen erweisen sich für die argumentativ ausgerichteten Disziplinen nicht als zwingend vorteilhaft. Wenn die Wissenschaftler als Bibliotheksbenutzer also einen entsprechenden Bedarf artikulieren und als mündige Nutzer auftreten, die nicht alles hinnehmen, was ihnen die Sparvorhaben eines Berliner Senats aufdrängen möchten, dann werden sie auch mit längerer Perspektive das Printprodukt ins Freihandregal bekommen, das sie möchten. In der Bibliothekswelt predigt man jedenfalls andauernd, wie wichtig Nutzerorientierung ist. Man wird das gedruckte nicht gegen den Willen der Wissenschaftler aus dem Bestand nehmen. Dass die Einrichtungen Dienstleister für die Wissenschaft sind, ist weitgehend Konsens. Dass Bibliothekare bislang als Sinnenmenschen selbst zumeist Bücher bevorzugen, ist auch bekannt.

Ein anderer Punkt ist das grundsätzliche Vorurteil, Netzpublikationen seien per se von minderer Qualität, denn sie basieren „auf der dilettantischen Textbearbeitung durch die Editoren.” Wer sagt denn, dass nicht inner- und außeruniversitär Raum für professionelle Edition auch von Netz- und OA-Dokumenten ist? Wieso sollen ausschließlich die traditionellen Verlage entsprechende Kompetenzen aufweisen? Wenn die Verlage clever sind, dann orientieren sie sich verstärkt auf dieses Feld und entwickeln ansprechende und hochwertige Formen für die netzpublizierten Inhalte. Fast niemand erfreut sich daran, Inhalte auf Quellcodeniveau oder im Rohschnitt zu lesen. Warum sollte man längerfristig daran Geschmack entwickeln?

Entsprechend redundant ist dritte „Sinkstufe“. Volker Gerhardt vermisst bei Netzpublikationen die “kundige Bearbeitung durch professionelle Lektoren und Produzenten”. So etwas ist für ihn im Open Access scheinbar ausgeschlossen, denn die Wissenschaftler selbst bekommen nur die elementaren Forschungsvoraussetzungen. Allerdings sind spätestens seit dem DTP Wissenschaftler nicht selten ihre eigenen Setzer und Korrekturleser. Nicht, weil sie es wollen, sondern weil manche Verlage so wenig von der „kundigen Bearbeitung durch professionelle Lektoren und Produzenten“ halten, dass sie diese lieber einsparen und die Devise pflegen: „Formatier selbst oder publizier eben nicht.“ In den Bibliotheken finden sich durchaus nicht wenige Publikationen, bei denen „eine sinnfällige Gestalt, eine brauchbare Oberfläche und eine solide Tiefenstruktur“ für die Verlage bei weitem nicht so wichtig waren, wie ein Relevanz verkündender Titel und ein entsprechend tüchtiger Preis.

Bei den Open Access-Verfahren bleibt die Zusatzbelastung des Wissenschaftlers natürlich gleich. Aber auf die schwarzen Schafe unter den Wissenschaftsverlagen ist er immerhin nicht mehr angewiesen. Das Schema der professionelleVerlag hier, der dilettantische Wissenschaftler da ist so nicht haltbar. Zudem kann man sich durchaus vorstellen, dass den Wissenschaftlern z.B. in Bibliotheken Fachleute mit dem Zuschnitt der Unterstützung im Publikationsprozess zur Seite stehen oder gegebenenfalls die Publikationsvorbereitung übernehmen. Nicht zuletzt erweist sich der Universitätsverlag, der in Deutschland eine eher geringe Tradition hat, als Möglichkeit, eine Qualitätskontrolle zu etablieren. Volker Gerhardt zeigt sich weitaus pessimistischer:

Die zuständigen Forscher werden kaum mehr als Arbeitsgrundlagen zur Verfügung stellen. Von Büchern, die man wenigstens mit Hilfe eines i-books lesen möchte, kann keine Rede mehr sein. Die Pflege der Websites ist damit noch gar nicht berührt.

Die Pflege der Websites wird doch eigentlich weitgehend sauber geleistet? Das Apple-Product-Placement wirkt dagegen etwas zu aufgesetzt. Wenn sogar das E-Book vergehen wird, dann doch lieber auf dem Kindle

Die vierte Sinkstufe bietet in der Aussage nichts substantiell anderes, als die vorhergehenden bereits enthielten. Die Ergänzung liegt darin, dass es seiner Rechnung nach billiger ist, die Bücher von Verlagen zu kaufen, als die Wissenschaftler mit dem „Sachverstand in den Verlagen“ auf eine Kompetenzstufe zu heben. Da aber im Open-Access-Kontext die ganze Vermarktungsmaschinerie entfällt, also das kaufmännische Element, spart man wieder etwas ein.

Gerechter war diese Finanzierung durch den Nutzer allemal. Doch das ist dann bereits Vergangenheit, die sich nicht zurückholen lässt, weil die Etats der Wissenschaft mit Sicherheit nicht ausreichen, um alles das zu finanzieren, was derzeit noch die Verlage bieten.

Auch hier sollte sich Volker Gerhardt einmal mit den Kollegen von der Universitätsbibliothek kurzschließen und erfragen, wie gerecht eigentlich die Preisgestaltung bei den großen STM-Verlagen ist, der die Bibliotheken und indirekt die Wissenschaftler folgen müssen.

Die Stufe Fünf entspricht dem Verlust des kulturellen Erbes. Denn ohne gedruckte Originale, so das Argument, sind die digitalen Daten verloren, wenn sie verloren gehen. Von LOCKSS oder vergleichbaren Ansätzen hat Volker Gerhardt womöglich noch nichts gehört. Das muss er auch nicht unbedingt. Aber er könnte sich durchaus denken, dass diejenigen, die sich permanent und professionell mit Fragen des elektronischen Publizierens befassen, auch die Fragen der Langzeitarchivierung von digitalen Inhalten in ihrem Wahrnehmungs- und Entwicklungsradius berücksichtigen.

Fazit

Eigentlich ist der Niedergang der Kultur, den Volker Gerhardt hier ausmalt, ein Niedergang des Verlagswesens, wie wir es kennen. So weit so schlimm. Die Frage ist, ob er überhaupt eintritt. Die Bandbreite möglicher Entwicklungen umfasst durchaus positive Szenarien, die auch Verlagen eine Rolle selbst in Open-Access-Kontexten zugestehen.

Was weitaus stärker erstaunt, ist, wie sehr hier die selbstregulierende Funktion des Kommunikationssystems Wissenschaft unterschätzt wird. Die Wissenschaftsgeschichte zeigt, dass es immer um ein Ausbalancieren zwischen dem Machbaren, dem Wünschbaren und dem Zweckmäßigen. Letzteres setzt sich für eine Weile durch, unterliegt aber permanenter Modifikation durch die anderen beiden Einflussgrößen. Eine mediale Grundform besetzte bisher immer ein bestimmtes Zeitfenster und einen bestimmten disziplinären Wirkungsrahmen als dominante Größe. Dann verlor es an Bedeutung. Das kulturelle Erbe hat dabei bisher weniger durch Medienwechsel als durch Ignoranz Schaden genommen. Mangelnde Sensibilität ist in jeder Hinsicht ein Problem. Das „Monopol“ elektronischer Medien ist genauso wenig zu begrüßen, wie das Monopol des Papiers. Noch im 19. Jahrhundert galt das Schreiben dem Reden in der Wissenschaft als nachgeordnet. Vielleicht ist es im 21. Jahrhundert so, dass die in elektronischen Umgebungen möglichen Echtzeitkommunikationen über Plattformen, die wir bisher kaum kennen, zu einer Rückkehr der Oralität in verschriftlicher Form auch in der Wissenschaft führen. Die Kritik, denn der Peer direkt an der richtigen Textstelle im Pre-Print einfügt und auf den der Autor dann wieder eingeht, sind eine sinnvolle Variante für einen unmittelbaren und lebendigen Diskurs. Nachträglich lesen muss man das eigentlich nur, wenn die Debatte wieder zu dem Punkt zurückkehrt. Man könnte es, denn es ist sauber dokumentiert. Was im Idealfall am Ende steht und bleibt, ist das geschriebene Wort. In einer erweiterten, nicht versunkenen Schriftkultur.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7098 13
Das Buch ist ein Hammer. (Immer wieder) Mehr zur aktuellen Trenddebatte. http://weblog.ib.hu-berlin.de/p=6385/index.html http://weblog.ib.hu-berlin.de/p=6385/index.html#comments Mon, 08 Dec 2008 11:57:50 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6385 From Aldus Manutius until recently, book lovers have been the most passionate readers. Now they are mostly just the oldest readers. Thanks to digital data, there is a fateful choice to be made between serving lovers of the text and lovers of the page [...] Clay Shirky schreibt auf Boing Boing eine kurze Entgegnung zu [...]]]>

From Aldus Manutius until recently, book lovers have been the most passionate readers. Now they are mostly just the oldest readers. Thanks to digital data, there is a fateful choice to be made between serving lovers of the text and lovers of the page [...]

Clay Shirky schreibt auf Boing Boing eine kurze Entgegnung zu James Geicks Verteidigung des Mediums Buch in der New York Times (How to Publish Without Perishing) und so wie Shirky deutlich wird, dass die Zukunft dem Leser, nicht dem Bücherfreund gehört, wird mir deutlich, dass hier zwei völlig verschiedene Herangehensweisen an das Medium Text aufzeigen, die Shirky zu benennen versucht und dabei doch den Punkt verfehlt. Denn Geick hat natürlich recht wenn er schreibt:

As a technology, the book is like a hammer.  That is to say, it is perfect: a tool ideally suited to its task.

Laut Sprichwortschatz erscheint bekanntlich dem, dessen Werkzeug ein Hammer ist, jedes Problem wie ein Nagel. Entsprechend blickt jeder, der mit der hauptsächlich mit dem Buch arbeitet, durch die papierne Brille, wogegen jeder, der zum Web2.0 greift, die Welt als Aggregation von Hypertexten sieht. Letztere sind ideal an ihre Aufgabe angepasst, wie das eifrige Diskursgeschehen in der Blogosphäre zeigt. Der Hammer ist ideal auf den Nagel angepasst. Und das Buch im Idealfall vollkommen auf die Texte, die für dieses Medium verfasst und gesetzt wurden. Es sind aber andere Texte, als die des Web2.0 und die des Onlinejournalismus. Das PDF als Vorstufe eines Druckproduktes mag man als Bindeglied sehen, aber es ist sowohl als elektronische Variante wie auch als Ausdruck für die intendierte Rezeption nicht ideal.

Was meines Erachtens zu selten gesehen wird, ist, dass es sich um verschiedene Lektüreformen handelt, auf die die jeweiligen Medien zugeschnitten sind. Das bedeutet also, dass sich – sofern diese These tatsächlich stimmt – die jungen (und damit dynamischen, zukunftsgestaltenden, usw.) Leser ganz anderen Textformen – und nicht etwa einem alternativen und doch vergleichbaren Medium – zuwenden, als die altbackenen, (rückwärtgewandten, nur beim Sammeln wilde, usw.) Buchliebhaber. Eigentlich denken diejenigen, die im E-Book und E-Publishing nur die Fortsetzung Gutenbergs mit dem anderen Mittel der elektronischen Lettern sehen, nicht konsequent genug. Es ist nicht die Frage nach einer Technologie, sondern die nach einer Technologie und der zu ihr passenden Funktion, in diesem Fall “Texte” oder “Inhalte”.

Die Differenz in der Rezeption ist in ihrer Zuspitzung oft genug benannt: Die einen – und zwar die jungen und modernen – mögen das Sprunghafte, Komprimierte, Kurze und Prägnante, während die anderen – die ewig gestrigen und demnächst verschwindenden -  lieber im Zwang zur Lineratität, Ausführlichkeit, der herausgezögerten Neugier darüber schwelgen, was wohl auf der nächste Druckseite stehen wird.

Aber ist das, was sich hinter der Revolution des Medienverhaltens verbirgt womöglich nichts anderes als ein verbrämter Jugendwahn, ein Abgrenzungsdrang, den man dereinst mit Popmusik, anarchistischen Neigungen oder eigenartigen Frisuren auslebte? Die Alten bleiben jedenfalls ziemlich draußen, bei der StudiVZ-vermittelten Identitätsfindung und Kommunikation. Dafür bekommen sie ihren eigenen Plattformen, die genauso aussehen, nur anders heißen, und es möglich machen, sich auch später noch jung zu fühlen und Online-Beziehungen zu leben, als wäre man erst 16.

Da alles ein Markt ist und alles digital vernetzt, sind neben den allgemeinen Urmedien der schriftsprachlichen Kommunikation selbstverständlich auch Verlagsinhalte von diesem Wandel betroffen. Anders als bei der Briefkommunikation schält sich hier anscheinend noch eine – vielleicht auch an Standesgrenzen entlanglaufende – Bipolarität ein: Während die jungen am Ende Schotts Sammelsurium bookcrossen, stellen sich die Anderen ihre Suche nach einer verlorenen Zeit ins Regal, sich mit dem Gedanken tragend, vielleicht in 10 Jahren dasselbe Buch noch einmal zu lesen, dann aber ganz verändert.

Oder anders: Shirky sagt es nicht so, aber ich denke, wir haben auf der einen Seite den Idealtypus einer eher funktional-nüchtern geprägten Herangehensweise an Text und auf der anderen Seite einen Typus, der atmosphärischer orientiert ist.
Man kann vielleicht auch einmal diskutieren, ob sich die Unterschiede in den Wissenschaftskulturen, von denen einige schnelle und elektronische Darstellungs- und Distributionsformen reibungslos übernahmen, während andere nach wie vor einem vergleichsweise langsamen und analogen Stil die Treue zu halten versuchen, aus eben solchen Rezeptionspräferenzen ergeben.

Mir jedenfalls scheit es schon länger so zu sein, dass sich in den Argumentationslinien für die anstehende Hegemonie elektronischen Publizierens und digitale Kommunizieren eine rational-technische Perspektive als Dominante herausbildet, die man aus vergangenen Technikeuphorien (Elektrifizierung, Industrialisierung, Automobilisierung, Atomstrom, etc.)  kennt. Die Idee eines verlustarmen, sich permanent optimierenden Fortschreitens in eine bessere Zukunft (=Utopie) hat nach der Lebenspraxis endlich das Gebiet der Lesepraxis erreicht.

Wer sich an seinen Morus oder Bellamy erinnert, weiß allerdings, dass Utopien einerseits durch eine gewisse Rigidität und Alternativlosigkeit in ihrer Perfektion tendieren und andererseits sich am Ende, je mehr sie ihre Elemente sich in der Realität konkretisierten, als unterdimensionierte und naive Gebilde erwiesen.  Erstaunlicherweise fehlt Vertretern wie Shirky häufig in ihrer Zukunftslogik das Element, welches sich ohne viel Aufwand aus der Rückschau auf die Zeugnisse früherer Aufbruchsdiskurse zwangsläufig gewinnen lassen muss: eine gesunde Skepsis, die einkalkuliert, dass es nicht nur anders kommen könnte, als man es sich vorstellt, sondern mit an Sicherheit grenzender Wahrscheinlichkeit anders kommen wird. (Wer sich auf dem Buchmarkt umschaut, findet aber auch – und zwar massiv in print – in der facettenreichen Sparte der Beratungs- und Lebenshilfeliteratur die ideologische Untermauerung dieses Denkens: Die Welt ist ein schnelles Spiel und wer zaudert und zweifelt, verliert. Blink, Blink trifft Bling, Bling.)

Und es magelt den Stürmer und Dränglern der Digitalität in ihrer Unruhe unter dem Primat der ständigen Beweglichkeit und Spontaneität an der Fantasie, sich vorzustellen, das manchmal etwas einfach in dem Zustand gut ist, in dem es sich gerade befindet.
Woran es ebenfalls jedoch fehlt im Revier des digitalen Erweckungskapitalismus, ist die blaue Blume, d.h. das bestimmte Ziel, das man vor den Augen, bevor man sagen kann, wo man steht. Situativ fällt auch ein Krokodil Bauchentscheidungen (blink) und springt nach dem dicksten, erreichbaren Happen…

Der Unterschied zu den fernen Utopien der letzten Jahrhunderte liegt traurigerweise weitgehend darin, die Welt im Kern nahezu ausschließlich auf marktbegründete Effekte hin verbessern und verändern zu wollen und dies dann irgendwie ausgeschmückt zu begründen. Wenn es keine richtigen Argumente mehr gibt, holt man die dicke Keule Sachzwang heraus und dazu das Phrasenschwein, welches Binsenweisheiten wie “nur was sich ändert, bleibt” ausgräbt um sie als zu Trüffeln polierte Neuigkeiten zu verkaufen. Glücklicherweise ist dieser Nachteil auch gleich wieder der Vorteil, denn wenn der Markt bzw. seine Akteure sich anders entscheiden, dann pendelt sich alles wieder aus.

Meine These zum Tag: Solange sich Gedrucktes gut verkauft, wird es seine Zukunft haben. Wenn sich Elektronisches gut verkauft, auch dieses. Wenn sich beides gut verkauft, beides. So nüchtern kannn man es auch sehen. Schade nur um das, was in der Hysterie drumherum alles beschädigt wird.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6385 8
LIBREAS – Call for Papers zu “Elektronisches Publizieren und Geisteswissenschaften” http://weblog.ib.hu-berlin.de/p=6062/index.html http://weblog.ib.hu-berlin.de/p=6062/index.html#comments Mon, 13 Oct 2008 23:11:39 +0000 SandraL http://weblog.ib.hu-berlin.de/?p=6062 Rechtzeitig zum heute erstmalig stattfindenden Internationalen Open Access-Tag hat die LIBREAS-Redaktion den Call for Papers für die nächste Ausgabe von LIBREAS. Library Ideas mit dem Arbeitstitel “Elektronisches Publizieren und Geisteswissenschaften” fertiggestellt. Dabei beschäftigt sich die kommende Ausgabe jedoch nicht nur mit dem Stellenwert von Open Access in den Geisteswissenschaften. Vielmehr forscht sie nach den spezifischen [...]]]>

Rechtzeitig zum heute erstmalig stattfindenden Internationalen Open Access-Tag hat die LIBREAS-Redaktion den Call for Papers für die nächste Ausgabe von LIBREAS. Library Ideas mit dem Arbeitstitel “Elektronisches Publizieren und Geisteswissenschaften” fertiggestellt. Dabei beschäftigt sich die kommende Ausgabe jedoch nicht nur mit dem Stellenwert von Open Access in den Geisteswissenschaften. Vielmehr forscht sie nach den spezifischen Hintergründen der Wissenschaftskommunikation im geisteswissenschaftlichen Bereich und inwieweit der freie Zugang zu wissenschaftlicher Information überhaupt eine Rolle spielt. Welche Herausforderungen und Möglichkeiten gibt es für das elektronische Publizieren gerade im geisteswissenschaftlichen Sektor? Wie könnten Alternativen zur derzeitigen Form der Wissenschaftskommunikation dort aussehen?

Um die 14. Ausgabe von LIBREAS mit Inhalt und Leben zu füllen, seien alle Interessierten herzlich auf den Call for Papers (hier in englischer Sprache) hingewiesen und zum regen Meinungs- und Gedankenaustausch eingeladen. Senden Sie uns Ihre Manuskripte zum Thema und sorgen Sie so für eine kontroverse Diskussion und eine weitere spannende Ausgabe von LIBREAS! Der Redaktionsschluss ist Anfang Januar 2009.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6062 0
Der verengende Kanal der Online-Journale. Ein Beitrag in Science. http://weblog.ib.hu-berlin.de/p=5827/index.html http://weblog.ib.hu-berlin.de/p=5827/index.html#comments Fri, 18 Jul 2008 12:58:45 +0000 Ben http://weblog.ib.hu-berlin.de/?p=5827 Mit der Suche in elektronischen Datenbanken geht in der Wissenschaft das Browsing, besonders natürlich am Regal mit den gebundenen Zeitschriften, verloren. Damit verengt sich der Blickwinkel der Wissenschaft und bestätigt im Zitationsverhalten zusätzlich das berühmte “Rich get richer”. Dies meint jedenfalls der Soziologe James Evans in einem Beitrag (DOI: 10.1126/science.1150473) in der aktuellen Ausgabe von [...]]]>

Mit der Suche in elektronischen Datenbanken geht in der Wissenschaft das Browsing, besonders natürlich am Regal mit den gebundenen Zeitschriften, verloren. Damit verengt sich der Blickwinkel der Wissenschaft und bestätigt im Zitationsverhalten zusätzlich das berühmte “Rich get richer”. Dies meint jedenfalls der Soziologe James Evans in einem Beitrag (DOI: 10.1126/science.1150473) in der aktuellen Ausgabe von Science:

Online journals promise to serve more information to more dispersed audiences and are more efficiently searched and recalled. But because they are used differently than print—scientists and scholars tend to search electronically and follow hyperlinks rather than browse or peruse—electronically available journals may portend an ironic change for science. Using a database of 34 million articles, their citations (1945 to 2005), and online availability (1998 to 2005), I show that as more journal issues came online, the articles referenced tended to be more recent, fewer journals and articles were cited, and more of those citations were to fewer journals and articles. The forced browsing of print archives may have stretched scientists and scholars to anchor findings deeply into past and present scholarship. Searching online is more efficient and following hyperlinks quickly puts researchers in touch with prevailing opinion, but this may accelerate consensus and narrow the range of findings and ideas built upon.

Die Wissenschaftsredaktion von Wired hat das Thema im entsprechenden Themenblog aufgegriffen und zur Diskussion freigegeben. Um mich zum Artikel zu äußern, muss ich allerdings noch einmal in die Bibliothek fahren, um den Volltext zu lesen, daher zunächst nur dieser Hinweis.

P.S. Außerdem verweist der Wired-Blog auf das sehr schöne Cover einer etwas älteren Ausgabe von Science, das eine Arbeit des vermutlich “bestselling” Graffitikünstlers Banksy ziert.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=5827 1