IBI-Weblog » Digitalität http://weblog.ib.hu-berlin.de Weblog am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin Wed, 28 Jun 2017 08:24:09 +0000 en hourly 1 http://wordpress.org/?v=3.0.4 Volunteers für re:publica 13 gesucht! http://weblog.ib.hu-berlin.de/p=9692/index.html http://weblog.ib.hu-berlin.de/p=9692/index.html#comments Thu, 28 Mar 2013 11:07:21 +0000 Elena http://weblog.ib.hu-berlin.de/?p=9692 Mit dem Motto IN/SIDE/OUT wird am 6-8 Mai 2013 in Station Berlin die diesjährige re:publica stattfinden. Unter den Speakers sind diesmal auch Aktivisten aus der akademischen Welt dabei, mit den Themen wie Digitaldarwinismus (Wieso simulieren E-Books das Blättern von Papier?), Gute MOOCs – böse MOOCs? (Openness als Killerkriterium!) und natürlich eine Menge Data (Open Data [...]]]>

Mit dem Motto IN/SIDE/OUT wird am 6-8 Mai 2013 in Station Berlin die diesjährige re:publica stattfinden. Unter den Speakers sind diesmal auch Aktivisten aus der akademischen Welt dabei, mit den Themen wie Digitaldarwinismus (Wieso simulieren E-Books das Blättern von Papier?), Gute MOOCs – böse MOOCs? (Openness als Killerkriterium!) und natürlich eine Menge Data (Open Data – und was hat das mit mir zu tun?, Data in Concert: A sonification party you can dance to, Faszination Grundlagenforschung – Das Higgs, Big Data und die Teilchenphysik).
Für all dies werden noch Helfer gesucht:

In diesem Jahr gilt folgender Deal: du übernimmst eine Schicht von 8 Stunden vor, während oder nach der Veranstaltung und kannst die re:publica mindestens zwei Tage kostenfrei besuchen. An den Tagen, an denen du im Einsatz bist, ist für kostenlose Verpflegung gesorgt. Und als Teammitglied der re:publica bekommst du auch das offizielle re:publica 2013 T-Shirt.

Mehr Infos & Anmeldung direkt bei re:publica.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=9692 0
Wirtschaft und Gesellschaft? Eine Anmerkung zu Googles unabhängigem Forschungsinstitut aus Sicht der Bibliotheks- und Informationswissenschaft. http://weblog.ib.hu-berlin.de/p=8969/index.html http://weblog.ib.hu-berlin.de/p=8969/index.html#comments Wed, 13 Jul 2011 21:14:04 +0000 Ben http://weblog.ib.hu-berlin.de/?p=8969 “wer braucht jetzt noch ein Institut für Bibliotheks- und Informationswissenschaften?” fragt beinahe rührend eine unbekannte Solveig in ihrem Kommentar zu Alexanders kleinem Posting zum von Google finanzierten Unabhängige[n] Forschungsinstitut für Internet und Gesellschaft mit den Gesellschaftern Humboldt-Universität zu Berlin, Universität der Künste Berlin und Wissenschaftszentrum Berlin. Tatsächlich verfehlt die Frage aber den Punkt, denn soweit [...]]]>

“wer braucht jetzt noch ein Institut für Bibliotheks- und Informationswissenschaften?”

fragt beinahe rührend eine unbekannte Solveig in ihrem Kommentar zu Alexanders kleinem Posting zum von Google finanzierten Unabhängige[n] Forschungsinstitut für Internet und Gesellschaft mit den Gesellschaftern Humboldt-Universität zu Berlin, Universität der Künste Berlin und Wissenschaftszentrum Berlin. Tatsächlich verfehlt die Frage aber den Punkt, denn soweit sichtbar, wird sich dieses neue Institut doch noch viel sozialwissenschaftlicher auf das Themenfeld stürzen, als es das Institut in seiner Agenda aktuell macht. In den aktuellen Forschungsschwerpunkten Digitale Bibliotheken, Informationsmanagement, Wissensmanagement sowie Information Retrieval finden sich nur sporadisch Anschlusspunkte zu gesamtgesellschaftlichen Fragen, was man bedauern mag, aber nicht unbedingt aus dem Augenblick heraus ändern kann.

Das neugegründete Institut am traditionsreichen Bebelplatz stößt also in eine interdisziplinäre Lücke vor, an die das bibliotheks- und informationswissenschaftliche mit seiner Erkenntnisproduktion sicherlich andocken sollte (weit ist es ja nicht), dessen Aufgaben es aber höchstens dann in ähnlichem Umfangen übernehmen könnte, wenn auch ein ähnliches Fördervolumen in die Dorotheenstraße flösse.

Für die Humboldt-Universität übernimmt der Rechtswissenschaftler Ingolf Pernice die Untersuchung der Themengebiete “Rechtsphilosophie und Verfassungsrecht”, ohne dass in der Pressemitteilung die exakte Relation zum Überthema spezifiziert wird. Aber man muss nicht nur an das Google Book Search Settlement denken oder an Datenschutzprobleme bei Facebook, die sich vielleicht in ähnlicher Form oder auch ganz anders ebenso im real life sharing von Google+ wiederfinden, um zu sehen, dass der Bedarf einer regelorientierten und also rechtlichen Reflexion der Wechselwirkung zwischen Gesellschaft und digitalen Kommunikationsformen enorm ist. Geistiges Eigentum inklusive. Die Trubelei in der mit der zum neuen Institut ziemlich ähnlich klingenden Enquete-Kommission des deutschen Bundestages hat schon mal eine Untersuchungsagenda offenbart (vgl. auch hier).

Dennoch bleibt für Beobachter des Geschehens die Frage, wieso Google den Betriebsumsatz von sechs Konzernarbeitsstunden ausgerechnet in Deutschland in ein solches Institut steckt? Oder, wie es Frank Rieger am Donnerstag in der Frankfurter Allgemeinen Zeitung (Ist dieser soziale Blindenhund bissig?, FAZ vom 14.07.2011, S. 29) formuliert:

“Wozu benötigt [Google] ein neues Institut? Zur Erforschung von Fragen, die hausinterne Wissenschaftler durch einen analytischen Spaziergang in den eigenen Datenhalden beantworten könnten?”

Der zweite Aspekt wäre tatsächlich mal etwas für das IBI, dass gerade für solche Strukturanalysen eine grundlegende Kompetenz besitzt. Aber darum geht es Google nach Einschätzung des FAZ-Artikels nicht. Sondern, so der Beitrag, um eine kreative Variante der Teilhabe am öffentlichen Diskurs:

Google lernt in Amerika gerade schmerzlich, wie wichtig die langfristige Beeinflussung des politischen Meinungsbildes für die Erhaltung der eigenen Geschäftsmodelle ist. Der Konzern hat ein Machtpotential angesammelt, das intensive Rufe nach Regulierung, Beschränkung, Kontrolle lautwerden lässt. Dass Google sich nun aber anschickt, die akademische Seite der anstehenden europäischen Debatten über den Weg in die durchdigitalisierte Gesellschaft frühzeitig zu beeinflussen, kann nicht weiter verwundern.”

In der Tat. Und eigentlich müsste man genau deshalb auch die Google-unabhängige Forschung zu der digitalen Gesellschaft stärken, damit man ein zugleich alternativen wie auch Vergleichsrahmen hat, an dem man den Output des Instituts für Internet und Gesellschaft messen kann. Wo Frank Rieger der deutschen Forschungspolitik eine “schallende Ohrfeige” verpasst sieht, gilt es tatsächlich einen Missstand zu beheben:

Echte Forschung zu den Folgen und Auswirkungen von Computerisierung und Vernetzung findet an deutschen Universitäten traditionell nämlich nur ganz am Rande statt, getragen von einer vergleichsweise kleinen Zahl unterfinanzierter Wissenschaftler, die um ihre Lehrstühle hart kämpfen müssen, wenn es an die nächste Kürzungs- oder Umverteilungsrunde geht.”

Auch wenn die deutsche Wissenschaft punktuell etwas stärker zu diesem Thema aufgestellt ist, als es die Aussage vermuten lässt, fehlt tatsächlich eine systematische Annäherung an die Gemengelage relevanter Fragestellungen, von denen sich einige zwar in der Globalagenda der Bibliotheks- und Informationswissenschaft wiederfinden (z.B. Informationsethik, Informationsphilosophie, Technikfolgenabschätzung, Medienpluralismus und -nutzung, etc.), selbige aber aktuell bei den Schwerpunktsetzungen in den Lehr- und Forschungsplänen ein wenig kurz kommen.

Da jedoch eine Transformation der Disziplin hin zu einem die aktuell sehr dominanten technologischen und betriebswirtschaftlichen Gesichtspunkte vermehrt auch in Beziehung zu deren Wirkungen auf die Gesellschaft reflektierenden Fach eine zähe und  langwierige Angelegenheit darstellen dürfte, (vgl. dazu auch diese aktuelle Erhebung), müssen andere Akteure solche bleibenden Lücken schließen. Ohne interdisziplinären Dialog wird es nicht gehen. Gerade auch die Bibliotheks- und Informationswissenschaft und ihre Diskurse scheinen von einem im FAZ-Beitrag geäußerten Gedanken geprägt:

Die Belohnung durch mehr Sponsorengeld gibt es vor allem für die verlässliche Produktion von in der Wirtschaft reibungslos verwendbaren Absolventen und für das Beackern von möglichst anwendungsnahen Forschungsfeldern.”

Man kann ihr das schwer vorwerfen, denn letzlich sucht sie darin ihre Lebensversicherung. Wissenschaft anno 2011 ist ein Produkt, das verkaufbar gemacht werden muss. Sogar für das Freikämpfen von Nischen für ergebnisoffene oder gar kritische Forschung fehlen im Wissenschaftsalltag häufig einfach die Ressourcen.

Gerade das macht es Google so leicht, hier öffentlichkeitswirksam zu punkten. Für eine vergleichsweise fast vernachlässigbare Summe lässt sich Stifterkultur genau dieser Tönung (frei, offen) erfolgreich zu Image-Pflege auf den deutschen Wissenschaftsmarkt bringen. Dabei handelt es sich genauso um ein Produkt, nur um eines zweiter Ordnung: So wie das Unternehmen als Hegemon den Zugang zu digitalen Informationen überwacht und als freundlicher, selbstironisch auftretender Souverän auftritt, der seinen Strukturpaternalismus hinter fröhlichen Grafiken über dem Suchschlitz verbirgt, so wird es hier zum Geldgeber der Institution, die antizipiert die wissenschaftliche Deutungshoheit für die Auswirkungen des Digitalen auf die Gesellschaft übernimmt. Der vertrauenssuchende Leitspruch des don’t be evil wird durch das unabhängig ersetzt. Die Abhängigkeit bleibt natürlich bestehen.

Es wäre allerdings vollkommener Schmarrn, hinter Google eine Weltverschwörung und in der expliziert kantisch inspirierten Missionsleitlinie der Freiheit und Offenheit einen Rauchvorhang zu mutmaßen. Dazu ist das Unternehmen viel zu abgeklärt und smart. Auch die von Frank Rieger an der so genannten “creepy line” angeklammerte Vermutung, es ginge Google in der Perspektive um Ergebnisse für die marktgerechte Produktentwicklung (wie weit kann man in welchem Kulturkreis gehen), erscheint mir nur als Nebenaspekt.

Entscheidend ist in meinen Augen, dass wir als Bibliotheks- und Informationswissenschaft dort, wo es ums Digitale geht, zwangsläufig in einem sehr spärlich beleuchteten Raum operieren und nicht einmal für die Erkenntnis der Geschehnisse in der jüngeren Vergangenheit und Gegenwart genügend Leuchtkraft besitzen, um wirklich zu verstehen, was in ihm vorgeht, uns aber im gleichen Moment aktiv und mit allem, was wir haben in die Gestaltung von Dienstleistungen für die Zukunft stürzen.

Dieses Missverhältnis scheint mir des Problempudels Kern zu sein. Der soziale Blindenhund sitzt also in einer anderen Hütte, als Frank Rieger vermutet, hängt dort an kurzer Leine und wirkt etwas zahnlos. Und wie beim Google Book Settlement muss man dem Unternehmen fast dankbar sein, dass es mit einem wuchtigen Schritt auf einem Gebiet, auf dem es wenig zu verlieren hat, erneut auf eine Disproportionalität aufmerksam macht. Daher bleibt uns eigentlich nichts anderes, als die Gründung des Instituts für Internet und Gesellschaft vollauf zu begrüßen. Und sei es nur aus dem Grund, dass jemand von Mountain View aus in der Mitte Berlins einer Energiesparlampe angeknipst hat. Ich bin gespannt, was es hier in Zukunft noch zu sehen gibt.

P.S. Hoffentlich ist das unter dem Beitrag im FAZ-Feuilleton abgedruckte Gedicht La capelletta von Susanne Stephan nicht programmatisch zu verstehen:

“Das Portal fest verriegelt,

aber seitlich ein Fenster in Scherben. …”

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=8969 1
Sign your name across my Pad. Die New York Times berichtet über das e-Autogramm. http://weblog.ib.hu-berlin.de/p=8729/index.html http://weblog.ib.hu-berlin.de/p=8729/index.html#comments Fri, 15 Apr 2011 16:48:34 +0000 Ben http://weblog.ib.hu-berlin.de/?p=8729 Bei der medientheoretischen Diskussion über die jeweiligen Vor- und Nachteile von Digital und Druck fiel bislang häufig eine Facette unter den Büchertisch: die des signierten Werkes. Die Unterschrift des Autors auf dem Vorsatzblatt, nicht selten mühselig nach langer Lesung und noch längerem Stehen in der Schlange  erkämpft, machte das Exemplar mehr oder weniger (d.h. je [...]]]>

Bei der medientheoretischen Diskussion über die jeweiligen Vor- und Nachteile von Digital und Druck fiel bislang häufig eine Facette unter den Büchertisch: die des signierten Werkes. Die Unterschrift des Autors auf dem Vorsatzblatt, nicht selten mühselig nach langer Lesung und noch längerem Stehen in der Schlange  erkämpft, machte das Exemplar mehr oder weniger (d.h. je nach Widmung) zu einem außerordentlichen Einzelstück und hob es aus der Masse der restlichen Auflage für alle Zeiten heraus. Mit dem Aufkommen der filzstiftresistenten E-Books brachen für Autogrammjäger bittere Zeiten an, denn die untrennbare Verbindung von Werk und Urheberunterschrift war selbst dann nicht mehr herstellbar, wenn der Faserschreiber den Namen dem Display einschrieb.

Wie die New York Times berichtet, gibt es nun eine Lösung:

“Some readers have resorted to asking authors to sign the backs of their iPads and the cases of their Kindles. But the growing demand for more-elegant solutions has software and marketing companies scrambling to propel book signing into the digital age.”

Den Ausweg für digitale Autogrammstunden bietet eine kleine Anwendung namens Autography. Allerdings geht manchen das e-signing als digitale Emulation der Handschrift auf dem Schmutztitel noch am Zeitgeist vorbei:

““We’re struggling with the idea: is it about the autograph or is it about the takeaway that you met that person?” she said. In an age of “look at me!” status updates, she thinks it’s the latter.”

Und das bedeutet endgültig eine Lösung vom Buch (auch wenn man eine Autography-Bild in seine E-Book-Datei hineinladen kann). Statt dem legendären Tod des Autors (bzw. seinem Verblassen) hinter dem Text, erwächst der Autor zur prominenten Größe an sich:

“Bragging potential? Endless: Readers can post the personalized photo to their Facebook and Twitter accounts.”

Anstehen bzw. aufdringlich sein muss man freilich (je nach Ort, Ereignis und Prominenz) immer noch. Aber wahrscheinlich ist der Weg zur digitalen Autogrammkarte nach e-only-Kontakt nun nur noch sehr kurz. Ob dann allerdings noch die Aura, die dem materialisierten Namenszug als Fixierung einer realen Bewegung mit dem Mensch “Celebrity” innewohnt, überspringen kann, muss sich genauso erst noch zeigen, wie, ob sich perspektivisch gar eine Kultur digitaler Autographen entwickelt. Womöglich schreiben wir 2014 sogar unsere Urlaubsgrüße wieder per Hand ins digitale Blaue.

Alles weitere zur Gegenwart des digitalen Autogramms gibt es in der New York Times: Would You Sign My Kindle?

Autogramm Jason Lutes

So stellt sich Graphic Novelist Jason Lutes eine Bibliothekarin vor und mit einer oder zwei Handvoll Federstrichen dar. Hätte er 2008 bereits Autography benutzt, wäre die nachträgliche Digitalisierung gar nicht notwendig gewesen. Ein simpler Screenshot des entsprechenden Facebook-Profils und schon hätten wir's gehabt.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=8729 0
Der digitale Lesestrudel: Diese Woche lohnt die APUZ-Lektüre http://weblog.ib.hu-berlin.de/p=7527/index.html http://weblog.ib.hu-berlin.de/p=7527/index.html#comments Tue, 13 Oct 2009 20:02:21 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7527 Wird das Urheberrecht als “Nervengerüst des Informationszeitalters” also aus seiner zentralen Stellung in der Regelung informationeller Handlungsrechte verdrängt oder von privaten Arrangements überlagert, wie manche meinen? Neue Formen der Wissensorganisation wie die Creative-Commons-Lizenz, das Open-Source-Modell in der Softwareentwicklung oder an Open Access orientierte Publikationsformen in der Wissenschaft sprechen für diese These. Für die aktuelle Ausgabe [...]]]>

Wird das Urheberrecht als “Nervengerüst des Informationszeitalters” also aus seiner zentralen Stellung in der Regelung informationeller Handlungsrechte verdrängt oder von privaten Arrangements überlagert, wie manche meinen? Neue Formen der Wissensorganisation wie die Creative-Commons-Lizenz, das Open-Source-Modell in der Softwareentwicklung oder an Open Access orientierte Publikationsformen in der Wissenschaft sprechen für diese These.

Für die aktuelle Ausgabe von Aus Politik und Zeitgeschichte (und nicht nur dafür) lohnt diese Woche die Ausgabe des einen Euros, den die Zeitung Das Parlament im Einzelverkauf kostet. Denn in ihr geht es um die Zukunft des Buches und während dieser Tage im SPIEGEL und auch an anderer Stelle nicht unbedingt sonderlich fundierte Artikel zum Thema E-Book und P-Book und sterbende Buchmärkte erscheinen – seit Jahren bester Indikator für die beginnende Buchmesse – finden sich in APUZ 42-43/2009 durchaus lesenswerte Reflexionen mit etwas mehr Tiefgang und Fundament. Für diejenigen, die sich alltäglich aus der fachlichen und/oder fachwissenschaftlichen Perspektive mit den Aspekten Digitalisierung und Veränderung des Leseverhaltens sowie dem Google Book Settlement und Urheberrechtsproblemen befassen, bleibt das Heft zwar immer noch weitgehend im Oberflächenwasser. Einsteiger in die Thematik sowie die allgemeine Öffentlichkeit sollten mit der Ausgabe aber trotz leichter Unschärfen an der einen oder anderen Stelle einen recht guten Überblick erhalten.

So verwendet die Politikwissenschaftlerin Jeanette Hofmann in der Überschrift zu ihrem Beitrag Zukunft der digitalen Bibliothek den Begriff der “Digitalen Bibliothek” nun nicht unbedingt so, wie ihn die Bibliothekswissenschaft diskutiert. Sie bietet aber einen vergleichsweise sehr aktuellen und verständlichen Überblick über Anlass, Hintergründe und Diskussion des Google Book Settlement und benennt wichtige Probleme. Die Bibliotheken selbst spielen nur am Rande zum Thema passend eine Rolle, beispielsweise wenn sie das Problem der Metadaten bei der Google Book Search kurz erwähnt und Geoff Nunbergs berühmten Metadata Trainwreck Text zitiert.

Auch die Überlegungen des Germanisten Albrecht Hausmann zur Zukunft der Gutenberg-Galaxis kann man durchaus mal durchsehen. Eine so interessante wie eigentlich naheliegende Aussage des Textes lautet, dass es in der Debatte um das gedruckte Buch und seine Bedrohung durch die Digitalität gar nicht um das Medium geht, sondern um das “mit dem Verlagssystem verbundene ökonomische Prinzip, das auf der Finanzierung von Publikationen durch Kapitalgeber beruht. ” Andererseits darf man natürlich auch nicht vergessen, dass anspruchsvollere Netzpublikationen durchaus etwas kosten können, sei es über Programmier- und Infrastrukturaufwand oder einfach auch die Arbeit, die die Erstellung der Inhalte dann doch erfordert. Nicht ganz überzeugend ist Hausmanns Sicht auf das Nutzerverhalten: Er sieht hier m.E. mehr Zweckrationalität als tatsächlich vorliegt, wenn er schreibt:

“Wie der mittelalterliche Schreiber selektiv abschreibt, weil er Material und Zeit sparen will, so lädt der moderne Internetnutzer nur das aus dem Netz auf die Festplatte seines PCs der auf seinen MP3-Player, was er wirklich braucht – und spart damit Speicherplatz und Zeit. “

Wenn etwas erfahrungsgemäß im Lifestyle-Programm der Generation iPod keine Berücksichtigung mehr findet, dann ist es die Frage nach dem Speicherplatz, denn der reicht im Normalfall für mehr Musik, als man in der Lebensdauer des Geräts überhaupt durchhören kann. Und für die These, dass die Nutzung der digitalen Inhalte des Internets Zeit spart, wird man in der Nutzergruppe wohl kaum einen Gewährsmann finden. Eher könnte man von einer Verdichtung des Medienkonsums sprechen.

Weiterhin recht gut zu lesen ist der Beitrag des NZZ-Kulturkorrespondenten Joachim Güntner, der dem Buchmarkt im Strudel des Digitalen beim Rotieren zusieht und den Bogen vom Thema E-Book über das Thema Open Access bis zum Thema “flexibler Mensch dank Reader” spannt, also auch die soziologische Komponente im Technischen sieht. Seine These: Mit elektronischen Büchern geht der Distinktionswert der Privatbibliothek verloren. Buchinhalte werden wie andere Informationen funktional verstanden – ihre physische Repräsentation wird als Ballast empfunden, den zu minimieren die Lesegeräte versprechen.

Nicht sonderlich lesenswert ist dagegen der Beitrag des Hirnforschers Ernst Pöppel, der sich und uns fragt: Was geschieht beim Lesen? Für das Lesen seines Textes heißt die Antwort: eine Verwunderung stellt sich ein. Das liegt weniger an der interessanten These, dass das Lesen das Gehirn nicht etwa ge- sondern missbraucht, weswegen Lesekompetenz und Lesen als Kulturtechnik falsch bis überbewertet werden. Sondern daran, dass der Wahrheitsgehalt des an sich sehr interessanten Gedankens entgegen dem Versprechen des Eingangsparagraphs weder “beherzt” noch überzeugend verteidigt wird. Es wird schlicht nicht deutlich, worin der Zugewinn in der normativen Aufladung der Debatte liegt, die die Formulierung “Missbrauch” nun einmal mit sich bringt. Dass er den Leib-Seele-Dualismus ablehnt ist in erster Linie ein philosophisches Problem und seine Interpretation, dass die Schriftlichkeit an diesem schuld sei, womöglich sogar eine legitime. Aber gerade die Tatsache, dass man gegen Descartes Unterscheidung anschreiben und -lesen kann, zeigt, dass das Gehirn auch in der Schrift geschmeidig genug ist, eine Transzendenz des Problems anzuregen. Ob dies ohne Schriftlichkeit gelänge, ist eine andere Frage. Laut Ernst Pöppel bestünde dann aber das Problem wohl gar nicht. Was wenigstens die, die sich in Schrift und Lektüre pudelwohl fühlen, bedauern würden.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7527 3
Lebensjahre Einsamkeit? Der Tagesspiegel sinniert über den Menschen und sein Wissen im Internet. http://weblog.ib.hu-berlin.de/p=7273/index.html http://weblog.ib.hu-berlin.de/p=7273/index.html#comments Tue, 14 Jul 2009 08:25:07 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7273 Früher pilgerten wir zu Bibliotheken und Archiven, den Lagerstätten für Wissenswertes. In Sälen und Hallen, still wie Kirchen, raschelten die Seiten, es roch nach Papier, man beugte sich über gebundene Konvolute oder lose Dokumente und kramte in alphabetisch sortierten Zettelkästen, sogenannten Katalogen. Seit Gutenberg den Druck der Lettern erfand, gibt es Bücher, und je mehr [...]]]>

Früher pilgerten wir zu Bibliotheken und Archiven, den Lagerstätten für Wissenswertes. In Sälen und Hallen, still wie Kirchen, raschelten die Seiten, es roch nach Papier, man beugte sich über gebundene Konvolute oder lose Dokumente und kramte in alphabetisch sortierten Zettelkästen, sogenannten Katalogen. Seit Gutenberg den Druck der Lettern erfand, gibt es Bücher, und je mehr es gab, desto häufiger wurden sie gesammelt und sortiert.

In der heutigen Ausgabe des Tagesspiegels unternimmt Caroline Fetscher eine recht umgreifende Betrachtung dessen, was sich mit dem Internet in unseren Wissenspraxen ändert. Die Einsamkeit der Bibliotheksarbeitsplätze tauschen die Nutzer gegen eine andere, “wenn ihnen ein virtueller Megakontinent aus Daten zur Verfügung steht und sie mehr Lebenszeit vor dem Bildschirm verbringen als in der Auseinandersetzung mit Kollegen, Studenten, Patienten”. Die Autorin bezieht sich in ihrem Artikel sowohl auf Walter Benjamin wie auch Stevan Harnad und schließt mit dem gesamtgesellschaftlichen Fazit, dass die Technik uns zwar u.a. hilft, den Prozess der Zivilisation fruchtbar voranzutreiben, am Ende aber doch nur Werkzeug bleibt. Für “die höhere Reife” sorgt sie jedenfalls nicht von selbst. Den Volltext gibt es hier: Gigabytes statt Gutenberg

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7273 1
Die Freiheit im Digitalen: Ein Text zum Open Access im Freitag. http://weblog.ib.hu-berlin.de/p=6984/index.html http://weblog.ib.hu-berlin.de/p=6984/index.html#comments Wed, 20 May 2009 10:20:48 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6984 Es wird nicht viel Wasser den Fluss hinabfließen, bis Open Access auch in den Geisteswissenschaften weltweit zum Standard wissenschaftlichen Publizierens wird – ganz ohne „technokratische Machtergreifung“ und äußeren Zwang. Ich als Altertumswissenschaftler brauche schon heute gedruckte Bücher und Open Access – und Verlage mit im Boot, die mir beides ermöglichen. Hier sind wir wieder im [...]]]>

Es wird nicht viel Wasser den Fluss hinabfließen, bis Open Access auch in den Geisteswissenschaften weltweit zum Standard wissenschaftlichen Publizierens wird – ganz ohne „technokratische Machtergreifung“ und äußeren Zwang. Ich als Altertumswissenschaftler brauche schon heute gedruckte Bücher und Open Access – und Verlage mit im Boot, die mir beides ermöglichen.

Hier sind wir wieder im freien Prognostizieren. Joachim Losehand rechnet heute im Freitag seine Rezeptionspraxis hoch und es ist natürlich schwer, ihm nicht Recht zu geben. (Losehand, Joachim: Der Zwang zur Freiheit. In: Freitag online. 20.05.2009 05:00) Allerdings muss man nicht unbedingt mit dem Revoutionsvokabular mitstürmen, das er – nicht unpassend zur aktuellen Linie des Wochenblattes – benutzt, wenn er zum Jubiläum die Bedeutung des Mauerfall mit dem anderen Jubiläum der Erfindung des WWW (“eine viel größere und bedeutsamere Revolution”) zusammenspielt. Die Koinzidenz ist verführerisch, aber das gegeneinander Aufwägen ist ein Schritt zuviel und am Ende klingt das Freiheitslied, das hier aufgespielt, etwas zu einfach komponiert: Alles frei, alles besser und ein paar Ewiggestrige vom Politbüro der Deutungshoheit (Andrew Keen, Marek Lieberberg, Susanne Gaschke, Thomas Schmid und man kann aus der heutigen ZEIT auch noch Adam Soboczynski ergänzen) “fürchten um die Integrität ihrer Werke, ihre Souveränität als Urheber, um die Existenz der traditionellen Verlage, oder gleich um den Erhalt der literarischen und wissenschaftlichen Kultur”. Dabei steht doch eine neue, bessere Kultur erst ins Haus: “In dem Wunsch, die Wissenschaftler zur Publikation unter den Regeln von Open Access zu verpflichten, drückt sich nicht ein Ruf nach Enteignung aus, sondern die Stimme der Freiheit.”

So ganz simpel rollen die Würfel dann aber doch nicht zum Sechserpasch für alle. Die wissenschaftssoziologische Erfahrung zeigt, dass es neben dem idealistischen Ziel, der Menschheit vermittels Bekanntgabe von Erkenntnis etwas mehr oder weniger Gutes zu tun, in der Wissenschaft auch andere, ganz auf das eigene Dasein des Wissenschaftlers bezogene Motivationen vorliegen: Der Aufbau von Reputation. Open Access, so meine These, gelingt dann und dort, wo es dafür einen Beitrag leisten kann. Dann setzt es sich auf diesem Markt konkurrierender Publikationsformen durch.

Die Debatte, die um diesen Reibungspunkt geführt wird, lässt sich nämlich nicht nur als freiheitsgetriebener Durchsetzungswillen von progressiven Eingesperrten gegen rückständige Sachwalter der alten Zeit sehen, sondern ist durchaus insgesamt auch als Wettbewerb bis Machtkampf zu lesen: Wo es den einen mittels einer technischen Innovation darum geht, sich selbst – ganz wertfrei gemeint – zu profilieren und sich eine möglichst breite Existenzgrundlage zu sichern, die rhetorisch mit Deutungsanspruch für das, was morgen sein soll (und wird), also einem Zukunftsversprechen, verkauft wird, fühlen sich die anderen zwangsläufig in ihrer Position und ihrem Daseinsentwurf gefährdet. “Du musst dein Leben ändern” – der Imperativ auf dem Gemeinplatz schwingt mit (bzw. im Freitag: „Man kann nicht zweimal in denselben Fluss steigen“).

“Der vom gebundenen Buch befreite Text gilt ihnen, da scheinbar unkontrolliert und dem kritischen Auge des Verlages entzogen, für qualitativ minderwertig.”

Das stimmt natürlich nicht, denn wer in die Buchhandlungen geht und an den Regalen entlang schaut, sieht nicht unbedingt nur Werke, die Zeugnis eines besonders kritischen Verlagsauges geben. Aber es kann verkauft werden und es wird verkauft. Das vermeintliche Kriterium einer qualitativen Wertigkeit als Scheidelinie zwischen gedruckt und elektronisch wurde spätestens mit dem Einstieg der Verlage ins elektronische Publizieren überholt. Und kontrolliert wird der Text für die meisten Nutzer auch: Über die Zugangsprovider, die sich aus Marktgründen hüten, dies willkürlich zu tun. Dennoch: Wenn Vodafone die Funkmasten abschaltet, hat es sich auch mit dem freien digital Lifestyle. Die Kontrollinstanz ist nur eine andere. Wir sind aber nicht ausgebrochen, schon gar nicht aus dem Marktprinzip, denn nach wie vor verdient man mit uns Geld: wir sehen Anzeigen bei jeder Suchanfrage – d.h. wir zahlen mit unserer Aufmerksamkeit – und wir überweisen monatlich eine mittlere zweistellige Summe an die Zugangsprovider. Wir bezahlen also in gewisser Weise nach wie vor, um Inhalte zu rezipieren. Das ist auch notwendig, denn die Serverparks, auf denen wir unser digitales Leben einlagern und vollziehen, müssen am Laufen gehalten werden.

Jenseits dieser für den Freitag-Autor “einzigen Barrieren” und doch hochrelevanten Hürden des Zugangs bietet die Digitalität eine unendliche und vielfältig nutzbare Abbildungsfläche für symbolischen Ausdruck. Das Medienwandelargument ist dabei der Drehpunkt. Für Joachim Losehand ist das Aufkommen der digitalen Produktion, Distribution und Rezeption in ihrer Wirksamkeit mit dem Aufkommen der Schrift als Ergänzung zur Oralität vergleichbar. Ich (und vermutlich nicht nur ich) habe an anderer Stelle die Überlegung geäußert, dass besonders in Medienformen wie den Sozialen Netzwerken oder Twitter und auch vielen Weblogs, eigentlich eine Verschriftlichung des Gesprächs stattfindet. Die in den Jahrhundert elaborierten Kriterien der Schriftkultur werden dabei übergangen. Kurz: Man schreibt, was man sonst sagen würde und oft, wie man es sagen würde. Es wird der reine Kommunikationsakt dokumentiert, ohne den Willen, Aussagen im Sinn und in der Form dessen, was wir uns unter Geschriebenem vorstellen, zu fixieren. Die Rahmentechnologie des Speicherns und Durchsuchbarmachen hebt dabei die unmittelbare Vergänglichkeit des Gesprochenen auf, nivelliert technisch die Bedeutung der Äußerung. Das geschriebene Gesprochene und das Geschriebene klassischer Art gelten vor dem Suchroboter gleichermaßen. Wir zeichnen dadurch einen größeren Ausschnitt unseres Erlebens digital auf. Daraus erwächst eine ungeheure Komplexität, vor der verständlicherweise die, deren traditionelle Funktion es ist, das Geschehen der Welt zu deuten, erschrecken, weil es sie hoffnungslos überfordert.

Wer versucht, die Äußerungen zu einem Themengebiet – z.B. Open Access – im Netz mittels der zur Verfügung stehenden Technologien (RSS-Feeds) zeitnah mitzuverfolgen, kann sich in der Kommunikationsphäre im Minutentakt mit neuen Nachrichten konfrontieren, die zu lesen, zu verstehen und einzuordnen sind. Praktisch und sachgerecht leistbar ist es nicht. Auch in einer dematerialisierten, beschränkungsfreien Kommunikationswelt bleibt die Materie die Grenze, nämlich die der Körperlichkeit des Rezipienten. Die knappe Ressource in digitalen Lebenswelten ist nicht Geld, sondern Aufmerksamkeit. Hier gibt es sicher auch generationale Verschiebungen, ich bezweifle jedoch, dass die Wahrnehmung diesbezüglich unbegrenzt optimierbar ist. Letztlich zeigt sich der Nutzer (oder der Informationsrezipient) als ambivalente Größe: Auf ihn sind alle Entwicklungen und Erwartungen, ob totale Befreiung oder der Absatz von Büchern, projiziert, nur bleibt er trotz aller Nutzerbefragungen und Verhaltensanalysen eine Black Box, an der die Deutungseliten von gestern, heute und morgen ihre Vorstellungen von Welt ausprobieren.  Die wirkliche Freiheit in der Digitalität würde die Möglichkeit beinhalten, sich dieser auch zu verweigern und nicht wenige tun es in der Tat, manche sogar aus ökonomischen Gründen, da ihnen ein Internetzugang auch mit billigster Flatrate noch zu teuer scheint. Darin liegt auch ein Unschärfe im Text Joachim Loshands und vieler anderer, die ihre eigene Erfahrungswelt (hier: Buch und Web werden parallel genutzt) als Maßstab anlegen. Sie – und ich eingeschlossen – repräsentieren immer einen bestimmten informationellen Verhaltenstypus, der sich aufgrund seiner Webaffinität viel und permanent äußert und daher im Diskurs überproportional präsent ist. Dass die Hochrechnung der eigenen Rolle aber dann versagt, wo die Rollenmuster nicht gelten, wird oft vergessen. Joachim Losehand schreibt für und über den idealtypischen Freitag-Leser. Andere, durchaus legitime Weltsichten bleiben dabei allerdings naturgemäß außen vor. Und auch die begrenzte Perspektive ist oft allein quantitativ schon zuviel zum Lesen, Bewerten und bei Bedarf zum Kommentieren.

Jenseits der abgegrenzten, bekannten und durchschauten Fachcommunity ist es noch ungleich schwerer, Indikatoren für die Einschätzung der Relevanz von Äußerungen zu finden. Besonders wenn als Zugang nur die Volltextsuche bleibt. Da benötigt man viel Zeit zur Diskurssichtung und Tiefenlektüre. Folgerichtig versucht man die Darstellung zu optimieren und arbeitet an semantischen Technologien, die den Menschen bei der Relevanzbewertung unterstützen. Praktisch Wirksames findet sich momentan dabei leider noch nicht. Man ist in digitalen Umgebung bewusster denn je in dem klassischen Dilemma, immer zwischen zuviel und zu wenig zu stehen. Und noch mehr zu wollen. Bzw. wollen zu müssen: Es gibt weitaus zuviel Material, um mit traditionellen Methoden wissenschaftsgerecht, d.h. systematisch und annähernd umfassend, hindurchzusteigen. Das Gefühl, was einen angesichts der Regalkilometer in den Bibliotheksmagazin umfing, diese Empfindung immer am Bruchteil des Bruchteils eines Bruchteils herumzuarbeiten, stellt sich auch und manchmal besonders im dematerialisierten Zustand der Texte ebenfalls ein. Andererseits geht es aber auch darum, möglichst noch viel mehr digital verfügbar zu haben. Googles quasi-utopische Leitvorstellung, das Wissen der Welt an einer Stelle zu bündeln, ist dafür die prominenteste Variante.

Es gilt aber auch für die Wissenschaft und nicht zuletzt unter dem ökonomischen Zwang, die Investition in ein Repository auch vor dem Unterhaltsträger legitmieren zu können. Unbestritten meist dem Willen zur Verbesserung der Wissenschaftskommunikation nachgeordnet. Die allseits dahinterstehende Annahme lautet, dass es, wenn alles (in Zeichenform repräsentierte) Wissen der Welt in gleichen oder vergleichbaren Datenmodellen vorliegt, möglich wird, dies mit der entsprechenden Technologie viel effizienter nutzen zu können.

Die idealistischen Vertreter dieser – mitunter nur implizit mitschwingenden – Auffassung, gehen davon aus, dass sie mit dadurch die Welt verbessern. Die pragmatischen Vertreter erwarten neue Geschäftsmodelle. Die derzeit Etablierten sehen sich bedroht und versuchen entweder den Widerstand oder die Anpassung.

Aber wahrscheinlich ist es für alle tatsächlich wie am 9. November am Übergang an der Bornholmer Straße: Niemand weiß so recht, was passiert, nur alle spüren, dass etwas passiert und hoffen, dass es für sie gut ausgeht. Was aber eigentlich geschieht, erkennt man dann erst wieder in der Rückschau aus der Distanz.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6984 9
Über “Piraten”: Warum Verlage mit den E-Books Sorgen haben. http://weblog.ib.hu-berlin.de/p=6957/index.html http://weblog.ib.hu-berlin.de/p=6957/index.html#comments Tue, 12 May 2009 19:54:11 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6957 Until recently, publishers believed books were relatively safe from piracy because it was so labor-intensive to scan each page to convert a book to a digital file. What’s more, reading books on the computer was relatively unappealing compared with a printed version. Now, with publishers producing more digital editions, it is potentially easier for hackers [...]]]>

Until recently, publishers believed books were relatively safe from piracy because it was so labor-intensive to scan each page to convert a book to a digital file. What’s more, reading books on the computer was relatively unappealing compared with a printed version.

Now, with publishers producing more digital editions, it is potentially easier for hackers to copy files. And the growing popularity of electronic reading devices like the Kindle from Amazon or the Reader from Sony make it easier to read in digital form. Many of the unauthorized editions are uploaded as PDFs, which can be easily e-mailed to a Kindle or the Sony device.

In der New York Times liest man heute von einem wachsenden Interesse am Herauf- und Herunterladen von digitalen Buchinhalten, die vor allem eine Ursache haben: die Verfügbarkeit digitaler Ausgaben. Sicherlich spielen die E-Book-Lesegeräte eine Rolle. Sie sind aber nicht zwangsläufig das Ausgabegerät. Vielmehr ist jeder Computer, auf dem man PDF-Dateien ansehen kann, zur Wiedergabe von elektronischen Büchern geeignet. Vielleicht haben die Verlage wirklich den Fehler gemacht und den Kopierschutz “Print only” in Erwartung der Eroberung des digitalen Buchmarktes zu früh aufgegeben. Der Musikindustrie ist bekanntlich das Unglück passiert, mit der Einführung der CD als Format gleichzeitig die Digitalisierung ihre Inhalte vorweggenommen zu haben, was dann mit den CD-ROM-Laufwerken, dem Internet und schließlich der Erfindung des mp3-Standards überraschende Folgewirkungen hatte.

Analog dazu erweisen sich der Flachbettscanner als Einlesevorrichtung, der Bildschirm als Wiedergabegerät und der Drucker als Kopierwerkzeug für Buchinhalte bis heute als für das Raubkopieren denkbar umständlich. Ein im Standardformat PDF als Bild erfassten Text präsentiert sich obendrein aufgrund der Dateigröße in Relation zur Rezpetionsfreude im Normalfall als unattraktiv und recht sperrig für ein Filesharing im größeren Umfang. Dadurch, dass man sich jetzt mit den populärsten Titeln auf den E-Book-Markt wirft, schafft man hier verlagsseitig ungünstigerweise Abhilfe. Das relativiert den dabei vollzogenen Rechtsverstoß beim Raubkopieren natürlich in keiner Weise. Es vernachlässigt aber die Rahmenbedingungen in unglaublichem Umfang.

Es ist fast, als zöge man sechsspurige Autobahnen staufrei bis zum letzten Horizont durchs Land und gäbe zugleich jungen Männern der testosteronstarken Jahrgänge Sportwagen, um ihnen dann mit Tempo 30 und der Hoffnung, sie würden sich daran halten, entgegenzutreten. Da diese aber die Neigung haben, eine solche symbolische (und willkürliche) Begrenzung im Rausch des Fahrvergnügens zu ignorieren (Motto: “Ein Stoppschild bremst mich nicht.”), baut man alle paar Meter Bremshindernisse auf die schnurgerade Fahrbahn, legt die 911er höher und drosselt die Motorleistung. Und überwacht das alles auch noch mit Radar. Die Maut will man dennoch. Es wäre nicht ganz unerwartet, wenn sich die Burschen dann doch lieber wieder zum Fahrradrennen auf dem staubigen Feldweg sammeln. Ohne Helm. Der Unterschied zum Internet ist klar: Da teert dann sofort jemand eine Parallelrennstrecke, legt die Autos verbotenerweise wieder tiefer und entdrosselt die Maschine. Denn den Spaß, der als so verlockend ausgegeben wurde, lässt man sich nicht nehmen.

Vergleich beseite: Es gibt keine sinnvolle technische Lösung, digitale Inhalte vor einer qualitätsverlustfreien Vervielfältigung zu schützen und sie dennoch nutzbar und damit verkaufbar zu halten. Das weiß auch der Random House-Eigner Bertelsmann und zwar besonders, weil er im Musikgeschäft schon gehörig Erfahrungen sammeln durfte. Das Versagen des Digital Rights Management im Musikbereich hätte eigentlich Hinweis genug sein können, dass man Geschäftsmodelle der Analogwelt nicht ins Digitale übernehmen kann, sondern neue Ideen notwendig sind. Die Verlage tun es – wenn auch vergleichsweise zögerlich – trotzdem.

Man  hätte sich aber auch Zeit zum Überlegen lassen können, denn abgesehen vom Kindle-Entwickler und -Anbieter Amazon war die Etablierung von E-Book-Readern für die meisten Akteure von nachgeordneter Relevanz. Der, der die Innovation wagt, wagt natürlich viel, aber er muss nicht unbedingt gewinnen. Die Vorstellung, lieber  jetzt und hier mit einer neuen Generation von E-Book-Technologie auch einen neuen Markt zu erschließen als den Zug möglicherweise abfahren zu sehen und nicht aufgesprungen zu sein, hat wohl das Gefahren- und Kostenbewusstsein etwas eingetrübt. Der Leser (also der Kunde), bleibt das unbekannte Wesen.

Wie wenig überhaupt erst verstanden ist, wie der Einfluss der Digitalität auf das Verhalten der Menschen wirkt und zurück, zeigt Frankreichs aktueller Versuch namens “Loi Hadopi”, Raubkopien durch die Abkopplung von Nutzern vom Netz verhindern zu wollen. Der so grammatikalisch fragwürdige wie naheliegende Kalauer “Dreimal darfst Du Piraten! (mehr hier)” ist bedauerlicherweise nicht tiefer anzusiedeln, als in diesem Kontext von einem “Genozid an der Kultur” zu sprechen, wie es laut heutiger FAZ-Ausgabe ein Befürworter des Hadopi tut. Ein Génocide culturel setzt, so kann man leicht im Internet nachlesen, laut Definition bestimmten Gründe vorausaus, die politisch, militärisch, religiös, ideologisch oder ethnisch motiviert sind. Das Raubkopieren für einen subjektiv preisgünstigen Kulturgenuß – alles andere führt für die Kulturvermarkter ohnehin zu keinem Verlust, denn wer nicht genießen will, würde auch nicht kaufen – fällt also nicht darunter. Vielleicht gibt es ein paar Wahnwitzige, die nur Musik aus dem Rechtepool von Universal Music filesharen, um das Unternehmen gezielt zu zerstören. Das ist aber a) höchst unwahrscheinlich und b) nicht sonderlich erfolgversprechend. Der französische Vorstoß (besser:Rückstoß) wirkt jedenfalls genauso anachronistisch und am Thema vorbei, wie Stephen Kings herablassende Einschätzung seiner illegalen Leser im Artikel der New York Times:

“The question is, how much time and energy do I want to spend chasing these guys,” Stephen King wrote in an e-mail message. “And to what end? My sense is that most of them live in basements floored with carpeting remnants, living on Funions and discount beer.”

Es ist erstaunlich, wie sich ein Schriftsteller sein Publikum vorstellt. Sollte es aber gar nicht sein Publikum, sondern nur eine Nerd-Kohorte, die Bücher des Sammelns und Tauschens willens auf ihren Kellersevern lagert, dann erscheint wenig wahrscheinlich, dass dieses Publikum einen Titel tatsächlich kaufen würde. Der wirkliche Schaden dürfte also auch hier eher gering sein.

Dass die “most frequently uploaded books” gleichzeitig auch die ” huge best sellers” darstellern, verweist dagegen auf eine gewisse Parallelität der Nutzung. Sie verkaufen sich immerhin doch. Vielleicht hat der Schriftsteller Cory Doctorow, der für seine Bücher eine Art Open Access-Verfahren praktiziert, das Web besser verstanden, als nicht wenige der zumeist sehr aggressiv pessimistischen Experten aus den in puncto Geschäftsmodell oft nicht sonderlich kreativen Kreativindustrien, die ihre Kunden potentiell kriminalisieren und dennoch natürlich mit ihnen ins Geschäft kommen wollen. Cory Doctorow stellt seine Titel, z.B. sein Buch Little Brother (“seven weeks on the New York Times children’s chapter books best-seller list “), frei zum Download in einer Vielzahl von Formaten zur Verfügung und glaubt fest daran, dass sich auf diesem Weg eine neues Publikum erschließen lässt. Das scheint dann wenigstens in diesem Fall in der Tat auch gern zur Druckausgabe zu greifen:

“I really feel like my problem isn’t piracy,” Mr. Doctorow said. “It’s obscurity.”

“Nicht sichtbar” zu sein steht in der Webgesellschaft vor “nicht verkaufen”. Die Leitwährung dort heißt nämlich: Aufmerksamkeit.

Den Artikel der New York Times gibt es hier: Print Books Are Target of Pirates on the Web. (Die Überschrift ist natürlich nicht ganz korrekt: Es gibt keine gedruckten Bücher im Web zu entern.)

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6957 0
“a little bit here, a little bit there”: Die Zukunft des Lesens und des Schreibens http://weblog.ib.hu-berlin.de/p=6794/index.html http://weblog.ib.hu-berlin.de/p=6794/index.html#comments Wed, 22 Apr 2009 09:01:03 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6794 In other words, an infinite bookstore at your fingertips is great news for book sales, and may be great news for the dissemination of knowledge, but not necessarily so great for that most finite of 21st-century resources: attention. Im Technikteil des Wall Street Journal findet sich ein sehr lesenswertes Essay Steven Johnsons, in dem er [...]]]>

In other words, an infinite bookstore at your fingertips is great news for book sales, and may be great news for the dissemination of knowledge, but not necessarily so great for that most finite of 21st-century resources: attention.

Im Technikteil des Wall Street Journal findet sich ein sehr lesenswertes Essay Steven Johnsons, in dem er ausgehend von seinen Kindle und Hypertexterfahrungen über die Veränderung des Schreibens und Lesens von Büchern reflektiert, die mit der Öffnung und Einbindung von Buchinhalten in digitale Netze einhergeht. Das Vorher – also die traditionelle Praxis der Lektüre -  ist die Vorstellung des Buches als geschlossener Wahrnehmungsraum:

Because they have been largely walled off from the world of hypertext, print books have remained a kind of game preserve for the endangered species of linear, deep-focus reading. Online, you can click happily from blog post to email thread to online New Yorker article — sampling, commenting and forwarding as you go. But when you sit down with an old-fashioned book in your hand, the medium works naturally against such distractions; it compels you to follow the thread, to stay engaged with a single narrative or argument.

Das Nachher ist ein von Spontankäufen (Amazon), Popularitätsrankings mit Textstellen als kleinster Einheit (Google) und Textsprüngen sowie einem Dauerdiskurs (Soziale Software) mit einer hohen Bedeutung von Zitationen (wiederum Google) gelenktes Leseverhalten:

Imagine every page of every book individually competing with every page of every other book that has ever been written, each of them commented on and indexed and ranked. The unity of the book will disperse into a multitude of pages and paragraphs vying for Google’s attention.

Man kann darüber, wie auch über andere Punkte selbstverständlich diskutieren und fragen, inwieweit es sich in solch einem Netz aus Passagen und Zitationen überhaupt noch anbietet, von “Büchern” zu sprechen, oder ob die Form “Buch” in Gestalt dessen, was aktuell noch erzeugt und zunehmend digitalisiert wird nicht als Form selbst verschwindet, während sich das fragmentarische, hypertextuelle und offene Schreiben zu einer eigenen, früher oder späteren dominierenden Medienform entwickelt, die auf die Bezeichnung “Buch” selbst als Metapher verzichtet. Gerade deshalb kann man den schönen Text aber einmal lesen und gerade die Folgen der Veränderung im Umgang mit dem, was man “Aufmerksamkeit” nennt, werden nicht nur Betriebspsychologen noch eine Weile beschäftigen: How the E-Book Will Change the Way We Read and Write.

(via New York Times’ Paper Cuts)

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6794 1
Kinokarte oder Topping? Bei Amazon.com diskutieren die Kindle-Kunden Rolle und Wert eines E-Books. http://weblog.ib.hu-berlin.de/p=6772/index.html http://weblog.ib.hu-berlin.de/p=6772/index.html#comments Mon, 13 Apr 2009 15:03:37 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6772 Kindle books are kinda like movie tickets. While you can re-read the book, you cannot: * donate it to a library * sell it to a used book store * sell it on Amazon’s Used Marketplace * trade it to a friend And, of course, the book *has no paper* so it *has no production [...]]]>

Kindle books are kinda like movie tickets. While you can re-read the book, you cannot:

* donate it to a library
* sell it to a used book store
* sell it on Amazon’s Used Marketplace
* trade it to a friend

And, of course, the book *has no paper* so it *has no production costs*.

Amazon.com sieht sich dieser Tage mit dem Phänomen des mündigen E-Book-Käufers konfrontiert. Ausgehend von den eingangs zitierten Überlegungen formiert sich eine Protestkultur gegen Kindle-Ausgaben, die preislich die $ 9,99-Marke überschreiten. Ihr Ausdrucksmittel ist – ganz den Kommunikationsformen des Web 2.0 entsprechend – ein Tag: 9 99 boycott. Verschärfend kommt dazu, dass Amazon mit den höher kalkulierten Preisen wohl ein Lockversprechen bricht, das da lautete, keine neuen Titel für den Kindel zu einem höheren als eben dem 9,99-Preis anzubieten.

Für die deutschen Verleger, die sich aktuell in den Markt werfen wollen, ist die Beobachtung dieser Entwicklung vielleicht keine verkehrte Schule, denn immerhin sollen die elektronischen Titel auch hierzulande nahe des Niveaus der Druckausgabe ausgepreist werden. Die Kindle-Community wählt explizit den Vergleich zwischen Hardcover- und Digitalausgabe und gelangt zu der Einsicht:

The price also acknowledged the obvious: a Kindle edition is less valuable than a hardcover; although you cannot pass along your Kindle edition to friends, you are at least paying a significant amount less than the hardcover price. Unfortunately, short-sighted publishers feel they are losing dollars instead of realizing that a $9.99 Kindle sale doesn’t usurp a hardcover sale.It is a brand new entity. A plus. Pure gravy.

Liest man bei Electronic Cottage und obendrein folgende für uns nicht unwesentliche Randnotiz:

I’ll wait for the paperback. Or get back into the library habit that I abandoned for my Kindle habit. I was irresistibly tempted by the lower prices of Kindle editions, I admit it.But I can change. Publishers, can you?

Bibliotheksnutzung als Druckmittel der Konsumenten zur Einflußnahme auf die Preisgestaltung. Das ist mal eine ganz neue Facette in der Debatte.

Weiteres auch beim O’Reilly TOC: Readers Boycotting Kindle Titles Priced Above $9.99

Nachtrag:

In der “Flashbook”-Ausgabe des aktuellen Börsenblatts kann man auf Seite 22 dann auch gleich die passenden Vorstellungen aus der deutschen Verlagsbranche lesen. Axel Nehen von Pearson Education Deutschland meint dort nämlich:

Wir sollten den Wert der Inhalte betonen und nicht den des Ausgabemediums. Wenn E-Books eine eigenständige “Form” sein sollen, dann werden sie sich für sich rechnen müssen. Es kann nicht sein, dass beim Kunden wegen der Lesegeräte der Eindruck erweckt wird, dass die Inhalte günstiger sein müssen. Daher bieten wir sowohl die gedruckte Variante als auch die E-Book-Variante zum selben Preis an. Denn letztlich wollen wir nicht jemanden zum Kauf eines Produktes drängen, das er eigentlich gar nicht haben möchte – nur weil es billiger ist.

So edel zeigt sich also das Gegenmodell zum Amazon-Kindle-Marketing (bzw. zu einem Großteil des Marketings in jeder Branche bis hin zur Abwrackprämie). Dass dies nicht jeder Kunde gleich sieht, sondern viele durchaus auch die Form als Zusatzaufwand des Verlages honorieren, zeigt die 9,99-Diskussion.

Konsumpsychologisch sinnvoller wäre es gewesen, zu behaupten, man senkte die Preise für die Hardcover-Ausgabe jetzt auf das E-Book-Niveau… Aber vielleicht kommt das ja auch irgendwann.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6772 4
Ach Duschanbe! Jimmy Wales zwischen den Stunden in der Bücherei und dem Backup seines Lebens http://weblog.ib.hu-berlin.de/p=6646/index.html http://weblog.ib.hu-berlin.de/p=6646/index.html#comments Wed, 04 Mar 2009 10:36:43 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6646 Wenn früher die Zeitungen über Tadschikistan berichtet haben – ich nenne das Land, weil ich darüber so gut wie gar nichts weiß -, dann musste man in die Bücherei gehen, um sich weitergehend mit diesem Staat beschäftigen zu können. Und wer hatte schon vor 40 Jahren die Zeit, zur Bücherei zu gehen, um sich dort [...]]]>

Wenn früher die Zeitungen über Tadschikistan berichtet haben – ich nenne das Land, weil ich darüber so gut wie gar nichts weiß -, dann musste man in die Bücherei gehen, um sich weitergehend mit diesem Staat beschäftigen zu können. Und wer hatte schon vor 40 Jahren die Zeit, zur Bücherei zu gehen, um sich dort ein Buch auszuleihen, in dem man dann stundenlang lesen musste. Heute geht das wesentlich schneller mit Wikipedia, Blogs und anderen neuen Foren.

Jimmy Wales verteigt das Internet in einem Interview im Kölner Stadt-Anzeiger mit dem Argument der Geschwindigkeit gegen den Vorwurf, es mache die Menschen oberflächlicher. Die “Bücherei” erscheint dabei durchaus als eine Art elitäre Institution für all die, die nichts Besseres zu tun haben, was gut zu dem Demokratisierungsparadigma, das die Vertreter der Web2.0-Medien gern vermitteln, passt. In gewisser Weise übersehen sie dabei, dass es durchaus möglich, sich die Rezeptionszeit und die Rezeptionspraxis anders organisieren. Zum Beispiel auch jenseits des Internets.

In seiner Antwort auf den Einwand, im Internet bekäme man “oft nur eine grobe Zusammenfassung mit den wichtigsten Daten und Fakten“, entkräftet Wales das Argument des Tempos selbst wieder, denn er formuliert als Voraussetzung für das Einordnen in einen Zusammenhang:

“Wenn man sich im Netz auskennt, findet man das, was man sucht.”

Offen bleibt, was er unter “auskennen” versteht. In der Regel basiert solch ein “Auskennen” auf einer gehörigen Portion dessen, was man als Informationskompetenz bezeichnet. Und die wiederum setzt stundenlange und vor allem in Hinblick auf die Dynamik des Mediums permanente Beschäftigung voraus.  Das Beispiel Tadschikistan ist ein relativ schlechtes, der entsprechende Wikipedia-Artikel selbst im Vergleich zum Fischer Weltalmanach eher schwach entwickelt daherkommt. Er gewinnt einzig durch die Hyperlink-Anbindung an externe Quellen. Da entdeckt man dann auch einen Hinweis auf Shirin Akiners Buch Tajikistan: Disintegration or Reconciliation? Wer aber soviel über das Land wissen möchte, muss wohl oder übel stundenlang lesen – selbst wenn er denn Volltext im WWW entdeckt.
Was also Wales übersieht, ist, dass die Kenntnis der Zusammenhänge prinzipiell stundenlanges Lesen (bzw. teilweise auch  Zuschauen oder Zuhören) erfordert. Abgesehen davon, dass es sowohl vor 40 Jahren wie auch – nach eigener Beobachtung – heute Menschen gab und gibt, die diese Zeit haben, stundenlang, manchmal tagelang ein Buch zu lesen, bleibt uns gar nichts anderes übrig, als uns die Zeit zu nehmen, sofern wir Zusammenhänge verstehen wollen. Ob Bildschirm oder Büchereibuch spielt da keine Rolle.

Dass wir viel mehr wissen können, weil die Wege zu den Texten kürzer werden, ist m.E. ein Mythos. Denn der Weg zwischen Text und Verstehen verändert sich auch durch Glasfaserverkabelung nicht. Allerdings bürstet uns die Transformation zum digitalen Kommunikator ein anderes, oft mehr als Stunden fressendes Problem auf:

Wann waren Sie zuletzt mal einen ganzen Tag offline?

WALES: Das war vor ein paar Monaten in China, nachdem mir der Computer gestohlen worden war. Ich war ein paar Tage in dem Land, in der Zeit war ich offline. Keine einfache Zeit für mich, ich konnte keine Emails schreiben, hatte keinen Zugriff auf meinen Kalender. Als ich zu Hause war, hat es Wochen gedauert, um mein Leben mit Back-ups zu rekonstruieren.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6646 1
Jenseits der Aufklärung: Robert Darnton betrachtet Google Books http://weblog.ib.hu-berlin.de/p=6507/index.html http://weblog.ib.hu-berlin.de/p=6507/index.html#comments Tue, 27 Jan 2009 14:27:18 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6507 Unfortunately, Google’s commitment to provide free access to its database on one terminal in every public library is hedged with restrictions: readers will not be able to print out any copyrighted text without paying a fee to the copyright holders (though Google has offered to pay them at the outset); and a single terminal will [...]]]>

Unfortunately, Google’s commitment to provide free access to its database on one terminal in every public library is hedged with restrictions: readers will not be able to print out any copyrighted text without paying a fee to the copyright holders (though Google has offered to pay them at the outset); and a single terminal will hardly satisfy the demand in large libraries. But Google’s generosity will be a boon to the small-town, Carnegie-library readers, who will have access to more books than are currently available in the New York Public Library. Google can make the Enlightenment dream come true.

Allerdings nicht zwangsläufig. In der New York Review of Books wirft Robert Darnton einen skeptischen Blick auf Google Books und dem was in diesem Rahmen der zwischen Google und den anderen beteiligten Akteuren geschlossenen Vereinbarung steht.
Erwartungsgemäß zeigt sich die übergroße Marktmacht von Google als potentiell sehr bedrohlich, wobei Darnton das Gefährdungsszenario vom Buchgeschäft auf die Wirkungen im Rahmen des Phänomens der Aufklärung an sich erweitert. Er ist Experte auf diesem historischen Feld und entsprechend ist es nachvollziehbar, dass er die Aufklärung als Faden nutzt, um seine Argumentation daran aufzureihen. Aber manchmal scheint sein Ansatz schon etwas sehr fokussiert.

Die Pole sind klar: a) der öffentliche Auftrag der Bibliotheken auch zur Digitalisierung, der sehr treffend beschrieben wird:

Libraries represent the public good. They are not businesses, but they must cover their costs. They need a business plan. Think of the old motto of Con Edison when it had to tear up New York’s streets in order to get at the infrastructure beneath them: “Dig we must.” Libraries say, “Digitize we must.” But not on any terms. We must do it in the interest of the public, and that means holding the digitizers responsible to the citizenry.

Da lässt sich wenig gegen sagen, außer vielleicht, dass es etwas holprig ist, den Werbeslogan eines kommerziellen Energieversorgers ausgerechtet als Vergleichsgröße für die im gleichem Zusammenhang herausgestellte öffentliche Funktion der Bibliothek heranzuziehen. Oder es ist nur das, was man in den USA unter anschaulichem Stil versteht. Hierzulande klänge es womöglich etwas unsinnig: ‘Denken Sie bei Bibliotheken doch einfach mal an E – wie einfach.’ Funktioniert immer, bleibt an Aussagekraft aber eher an der Oberfläche.

Und b): Google. Google erscheint zunächst einmal ebenfalls halbwegs offen. Wenn auch nicht öffentlich, so doch leicht zugänglich und nutzbar. Nur die Interessenlage unterscheidet sich maßgeblich und wird im Abkommen zwischen Google und den Verlegern deutlich festgelegt:

The district court judge will pronounce on the validity of the settlement, but that is primarily a matter of dividing profits, not of promoting the public interest.

Berechtigt ist dies allemal. Google ist ein Unternehmen und diesem vorzuwerfen, dass es sich wie eines verhält, wäre schlicht albern. Wichtiger ist die Frage, wie man sich als Bibliothek, als Nutzer, als Öffentlichkeit zu Google positioniert. Die Nutzer (und manche Bibliothek) erscheinen möglicherweise etwas verführt von der weiten Produktpalette, die Google momentan der Allgemeinheit gratis (bzw. für den Gegenwert ihrer Daten) zur Verfügung stellt. Daraus erwächst jedoch niemandem ein Anspruch auf ewig währende Manifestierung dieses Status’, der bevorzugt dem Motto “Don’t be evil” folgend als Dienst an der Menschheit interpretiert wird, letztlich aber nur ein spezifisches Geschäftsmodell darstellt. Wenn Google irgendwann die Währung, für die es Dienste herausgibt, zu ändern gedenkt, kann wohl niemand etwas einwenden.

Da dahinter eben kein öffentlicher Auftrag steht, sondern nun einmal ein kommerzielles Unternehmen mit den ihm typischen Interessen, ist das Gedankenspiel, was geschieht, wenn der Hebel im Geschäftsmodell umgelegt wird, zwar durchaus berechtigt, aber am Ende kein Grund für moralische Empörung. Man weiß, womit man es zu tun hat. Der Einfluss von Google ist unbestritten übermäßig groß, ebenso die damit verbundene Missbrauchsgefahr. Und bei einem Unternehmen mit einem Quasi-Monopol – Darnton schreibt von einem “monopoly of a new kind, not of railroads or steel but of access to information” -  lassen sich naturgemäß drastische Folgen ausdenken. Ein nachhaltiger Umgang liegt aber nicht in einem Teufel an die Wand malen und dem Ausschmücken und Katastrophenszenarien, sondern in der Entwicklung eines rechtlichen Rahmens für die Webwirtschaft, der die Grenzen des Machbaren möglichst präzise und menschenfreundlich definiert. Die digitale Gesellschaft muss sich noch ihre Regeln entwickeln. Das Abstecken eines Feindbilds erzeugt dagegen nur den Wind, in den man seine Beschwörungen spricht.

Deutlich wird in der Diskussion, wie schwer es auf allen Ebenen bleibt, die Frage, wie sich digitale Inhalte kommerziell nutzen lassen, angemessen zu begegnen. Die Regeln für Web und Webbusiness, mehr noch die Wahrnehmung des Ganzen, sind weitgehend analog am – jawohl – analogen Modell ausgerichtet. An den Punkten, an denen die Webwelt von der Realwelt abweicht (beliebige und qualitätsfreie Kopierbarkeit, Übertragungsgeschwindigkeit, Zugänglichkeit und bildschirmgebundene Darstellung von Inhalten) offenbart sich noch immer eine nicht geringe Hilflosigkeit im Umgang mit den Folgephänomenen.

Jeder digital repräsentierbare Medieninhalt, der also hauptsächlich über Seh- und Hörsinn rezipiert wird, erfährt im Netz eine Reduktion auf die akustischen und visuellen Eigenschaften und verliert seinen Objektcharakter. Digitale Inhalte sind nicht gegenständlich und können daher nicht wie Gegenstände veräußert werden. Das Eigentum am Objekt verschwindet. Es bleibt das bestimmten Eingrenzungen unterliegende Nutzungsrecht der Inhalte. Auch bei der Schallplatte erwirbt man nur den Tonträger, nicht das Lied darauf. Das darf man unter definierten und kreisrund aufgedruckten Bedingungen abspielen. Mehr nicht. Das erworbene Trägermedium kann man dagegen ungestraft zerkratzen und zerbrechen. Bei digitalen Inhalten entfällt letztere Möglichkeit und man hat buchstäblich nichts mehr in der Hand.

Hier dürfte der Kern des Problems liegen: Da man selbst nicht mehr entscheidet, ob man die Platte auflegt, sondern darauf angewiesen ist, dass der Anbieter den Stream freigibt und diesen laut Geschäftsbedingungen auch weitgehend verweigern kann, ohne dass dem Hörer große Handlungsmöglichkeiten bleiben, fühlt man sich etwas benachteiligt. Mehr noch: abhängig bis ausgeliefert. Es gibt bisher wenig Möglichkeiten, mit dieser Abhängigkeit befriedigend umzugehen: Entweder man verweigert sich ganz oder man lässt es affirmativ geschehen, dass die persönliche Playlist mit einer irgendwo befindlichen Datenbank automatisch synchronisiert wird.

Letzteres führt wiederum zu dem interessanten Geschehen, welches eigentlich spannender und dem Medium Web angemessener ist als die Digitalisierung von Büchern. Denn geht es bei Letzterem nur darum, das Analoge digital zu machen, bildet sich durch die automatisch Rückkopplung mit dem tatsächlichen Nutzungsverhalten ein Pool von Metadaten und Nutzungsdaten, der sich dynamisch und permanent verändert und in Kombination mit den so genannten nutzergenerierten Inhalten, die strukturell die eigentlich web-adäquaten darstellen, eine parallele, teilweise ergänzende, teilweise für sich stehende Medienkultur erzeugt.
Es mag vielleicht für Robert Darnton faszinierend sein “to view and download a digital copy of the 1871 first edition of Middlemarch that is in the collection of the Bodleian Library at Oxford”, aber er muss sich nicht wundern, wenn er nur einer und wenigen ist, der dies auch tatsächlich tut. Manch anderem reicht die Wordsworth-Taschenbuchausgabe zu 1,99 Pfund. Natürlich: Man möchte in der Möglichkeit wohnen. Über alle Bücher immer und überall verfügen zu können ist ein alter Traum. Ein alter wohlgemerkt, und ein Traum. Einer aus einer analogen Welt dazu, dem auch Google erklärtermaßen anhängt, vielleicht aus Überzeugung vielleicht um das Wissen darum, wie dieser bei den Zielgruppen verfängt, als Taktik.

Aber digitalisierte Erstausgaben werden auch perspektivisch sicher nicht das sein, was den Mittelpunkt des medialen Verhaltens im Web darstellt. Es ist nicht unwahrscheinlich, dass man außerhalb Googles dem Unternehmen “Google Books” mehr Relevanz zuschreibt, als Google es selbst tut. Denn Bücher sind stärker als Musik und Bewegtbild mit ihrem Trägermedium verbunden und entsprechend begrenzt: Im Gegensatz zur Schallplatte erfährt man ein Buch beim Lesen körperlich. Man mag dies als Nebensächlichkeit abtun, aber dass das Publikum immer wieder auf das haptische Element im Leseprozess eingeht, lässt durchaus Rückschlüsse zu, dass dieser Aspekt zentraler gelagert ist, als man gemeinhin annimmt. Der Verlust des Körperlichen wird erstaunlich intensiv als ein solcher empfunden. Obendrein ist er nicht notwendig. Es ist unwahrscheinlich, dass irgendjemand das gedruckte Buch abschaffen möchte. Manch ein Zeitungsverleger sieht vielleicht sein Blatt ertrinken und lässt die Kulturredaktion dasselbe auf die ganze Branche extrapolieren. Aber auch Buch und Zeitung unterscheiden sich gründlich. Nur lässt sich manch ein Verleger mit der Panik anstecken und glaubt jetzt ebenfalls, dass ein neues technisches Spielzeug namens Kindle die Masse vom Papier weglockt.

Wahrscheinlich geht es Google  nicht einmal um die Bücher selbst, sondern um einen Pool von Text, den Google möglichst exklusiv in der digitalen Form verarbeiten und vermitteln möchte. Wäre es rechtlich möglich, auch Filme und Musiktitel in gleicher Weise zu verwerten, Google würde es sicherlich ebenso angehen. Man steckt seine Claims und vom Win-Win überzeugt helfen Bibliotheken gern mit, dem weltgrößten Informationsdienstleister die Bestandslücken zu stopfen. Ob sie sich damit den Lesesaal leeren, bleibt abzuwarten. Denn wer die Erstausgabe von Middlemarch wirklich durchzuarbeiten plant, wird wohl doch in die Bibliothek gehen. Wer schnell mal durchblättern möchte, findet den reinen Text seit 1994 im Project Gutenberg und den Reprint, auf den auch Google Books für die Vollansicht zurückgreift, bei Amazon.

Um der tief verankerten Buchkultur zu entsprechen, simuliert man bei Google Books die Darstellung nach dem Seitenrhythmus und gibt – oft leider – das orginale Druckbild aus. Vielleicht auch – zum Glück – um zu kaschieren, dass selbst mit fortgeschrittenen OCR-Verfahren die Qualität der automatischen Texterfassung ihre Grenzen hat, was auf Middlemarch nicht zutrifft, da hier über das Partnerprogramm vermutlich direkt auf eine Textdatei zurückgegriffen werden konnte. Man kann diese  Simulation auch als Zugeständnis sehen, hinter dem als Erkenntnis steht, dass das Buch im Web ein Anachronismus bleibt. Das Web kennt und möchte andere Texte, nämlich die mit dem Hyper- davor, und man sollte vermutlich davon ausgehen, dass es auf Dauer stärker von diesen als von digitalisierten Klassikern dominiert wird.

Der Versuch, die Buchkultur im digitalen Maßstab nachzuformen erscheint vor diesem Hintergrund eher als Episode. Der weithin gefahrene Simulationsansatz der Medienindustrie ist entweder darin nachvollziehbar, dass man den Kunden an einer Stelle abholen möchte, die ihm bekannt ist. Oder darin, dass sich mit Web 2.0-Inhalten bislang kaum etwas verdienen lässt, wofür man sich in der Realwelt etwas kaufen kann. Man fühlt sich auf den Markt für E-Books gedrängt, denn Google scannt ohnehin alles, was im Bibliotheksmagazin steht, und daher hofft man nun, da man muss, mit demselben, was man druckt, digital einen neuen Markt zu erschließen.

Die Kommerzialisierung von digitalen Inhalten jenseits des – wie die Zeitungskrise zeigt – etwas unzuverlässigen Werbemodells dürfte das Kernproblem der Medienökonomie unserer Zeit sein und wer es löst, bekommt dann wohl den Wirtschaftsnobelpreis. Denn so sehr die Illusion, dass man mit dem Trägermedium auch den Inhalt erwirbt und dann die Sternstunden der Menschheit tatsächlich und nicht nur als Nutzungsrecht im Regal hat, den tatsächlichen Verhältnissen widerspricht, so gut konnte und kann man mit dieser Geld verdienen. Niemand käme auf die Idee, dass eine Fotokopie den gleichen Wert besitzt, der der Leinenausgabe mit Lesebändchen zugeschrieben wird. Dem Verlag geht es darum die Auflage zu verkaufen. Versucht er dasselbe mit dem beliebig gleichwertig reproduzierbaren E-Book, macht er sich eher lächerlich. Darnton vernachlässigt bei seiner Befürchtung, aus Google Books entstünde eventuell “an electronic supply service that could out-Amazon Amazon”, dass Amazon weitaus weniger Dateien als klassische Bücher verkauft (und obendrein noch ganz viele andere Dinge vom Fotoapparat bis zum Wollschal).

Für gescannte Texte könnte dagegen Google tatsächlich die Position am Lieferhahn besetzen. Als Frage bleibt, wie problematisch dies am Ende tatsächlich ist und wie überzogen sowohl das Extrem der freien Omniverfügbarkeit wie auch das der straffen Zugangskontrolle erscheint:

An enterprise on such a scale is bound to elicit reactions of the two kinds that I have been discussing: on the one hand, utopian enthusiasm; on the other, jeremiads about the danger of concentrating power to control access to information.

Für letzteres Szenario sieht Darnton auf dem Buchmarkt etwas aufblühen, was in der wissenschaftlichen Informationsversorgung allgemein als “Zeitschriftenkrise” bekannt ist und am Ende, so seine Überlegung, auf die Bibliotheken zurückfällt:

But there is no direct connection between supply and demand in the mechanism for the institutional licenses envisioned by the settlement. Students, faculty, and patrons of public libraries will not pay for the subscriptions. The payment will come from the libraries; and if the libraries fail to find enough money for the subscription renewals, they may arouse ferocious protests from readers who have become accustomed to Google’s service. In the face of the protests, the libraries probably will cut back on other services, including the acquisition of books, just as they did when publishers ratcheted up the price of periodicals.

In der Tat ist dies der für unseren Kontext vielleicht interessanteste Gedanke: Wie werden Öffentliche Bibliotheken, die elektronischen Inhalte subskribieren und nicht auf Datenträgern erwerben – man schmeckt es ein wenig mit der Debatte um die Onleihe vor – mit den daraus entstehenden Abhängigkeiten umgehen? Und welche Rolle können (sollten, werden) die Gegen- oder Ergänzungsangebote jenseits der Reichweite des formalen Publikationsgeschehens, wie sie oft den Wiki- und Blogosphären zugeschrieben werden, in solch digitalen Bibliotheksumgebungen spielen?

Schließlich  – man vergisst es häufig, wenn man sich täglich durch die Zukunftsfeuilletons zur Digitalität gräbt – erscheint sehr vielen Leuten und Freizeitlesern das Phänomen der Digitalisierung von Büchern einfach gründlich überbewertet. Sowohl dem Aufklärungsanspruch Robert Darntons wie auch dem Digitalisierungseuphorie mancher Vertreter der Bibliotheksbranche und einiger aus dem Verlagswesen bilden eher eine Elitendiskussion ab, die entweder vom Bedürfnis der Erschließung neuer Märkte oder einem etwas überzogenen Freiheits- und Aufklärungsgedanken getragen wird. Auf Letzteres trifft man gern bei den Euphorikern der Digital Boheme, die jedoch, wie es typisch für eine Avantgarde ist, in ihrer radikalen Digitalität und geographischen Enträumlichung nur einen kleinen, wenn auch lauten, Bruchteil der Bevölkerung selbst im Prenzlauer Berg stellen.

Der Bedarf, seine gesamte Lebenswelt in digitale Umgebungen zu verlagern, mag bei manchen Lebensstilen zum Leitmerkmal gehören. Wir, die wir mehr oder weniger professionell mit diesen Phänomenen zugange sind, müssen natürlich die richtigen Fragen stellen und dafür sensibel bleiben. Aber auch das Gespür dafür bewahren, dass es sich nicht bei jedem um die Idee umfassender Aufklärung oder um allgegenwärtigen Zugriff auf digitale Medieninhalte dreht.

Für sehr viele Menschen ist die Nutzung digitaler Information und auch von Google bestenfalls ein Alltagselement unter sehr vielen. Diese würden dann auch bei Darntons Frage

If Google makes available, at a reasonable price, the combined holdings of all the major US libraries, who would not applaud? Would we not prefer a world in which this immense corpus of digitized books is accessible, even at a high price, to one in which it did not exist?

eher mit den Schultern zucken als applaudieren und z.B. einfach mal verreisen. Oder das Auto waschen. Oder Gitarre spielen. Oder ein Brettspiel.

Robert Darnton: Google & the Future of Books. New York Review of Books:Volume 56, Number 2 · February 12, 2009

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6507 2
Das Ende des Datenträgers: Nach Blu-ray kommt nur das Netz. http://weblog.ib.hu-berlin.de/p=6423/index.html http://weblog.ib.hu-berlin.de/p=6423/index.html#comments Mon, 05 Jan 2009 13:35:34 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6423 Integrating the Internet may be a matter of survival for Blu-ray, because the Internet is shaping up to be its biggest rival. More services are popping up that let people download high-definition movies and shows directly to their televisions and home computers. Bei der diesjährigen Consumer Electronics Show in Las Vegas schwingt anscheinend zwischen den [...]]]>

Integrating the Internet may be a matter of survival for Blu-ray, because the Internet is shaping up to be its biggest rival. More services are popping up that let people download high-definition movies and shows directly to their televisions and home computers.

Bei der diesjährigen Consumer Electronics Show in Las Vegas schwingt anscheinend zwischen den Messeständen verstärkt die Frage durch den Raum, inwieweit physische Datenträger (und auch Speichermedien) gleich welcher Art überhaupt zukünftig noch eine Rolle spielen. (vgl. New York Times)
Ein allgegenwärtiges Datennetz, in dem sämtliche Inhalte bedarfsnah on demand und just in time auf entsprechende Empfangsgeräte übertragen werden können, ermöglicht den Nutzern immerhin maximale Flexibilität und den Anbietern maximale Kontrolle.

Insofern erscheint es fast so, als bliebe jeder Form von Bücher-, CD- oder DVD-Regal als Kernfunktion nur noch das raumgestalterische Element. Es ist nicht unwahrscheinlich, dass wir die ganze Diskussion um E-Books und Medieninhalte und auch Medienproduktion bislang gar nicht radikal genug gedacht haben. Dass es demnächst Digitalkameras geben wird, die die Fotos direkt mit GPS-Daten versehen zu Picasa oder Flickr schicken und nur noch einen internen Zwischenspeicher mitbringen, ist vermutlich keine besonders avantgardistische Fantasterei. Spannender ist dagegen die Frage, ob man in Zukunft überhaupt noch anders fotografieren kann.

Insofern könnten Überlegungen, wie E-Books oder auch Musikstücke zwischen Lesegerät, Server und womöglich lokalem Rechner gespeichert und synchronisiert werden, mehr oder weniger ins Irre laufen. Man trägt nicht mehr 1000 Bücher auf dem Reader durch die Welt, sondern immer alle, die überhaupt verfügbar sind bzw. nur das Lesegerät, welches sich je nach Stimmung über einen Server den gewünschten Titel temporär zieht. Und auch hier: Welche Alternativen der Medienrezeption lässt ein volldigitalisierter Medienmarkt auf Abruf noch zu?

Für Bibliotheken ist solch ein allumfassendes e-only-Szenario besonders einschneidend, da sie in diesem tatsächlich bestenfalls zugangsverwaltend tätig werden. Ihre Aufgabe als Ort kann es dann sein, gemütliche Räumlichkeiten anzubieten, in denen über entsprechende Endgeräte der Zugang zu bestimmten Inhalten subventioniert möglich ist, da die Bibliothek Lizenzen dazu hält. Lokale Medien und damit große Teile des klassischen Geschäftsganges spielen keinerlei Rolle mehr. Der Frage der Medienform wird endgültig eine nach dem Dateiformat, der Leihverkehr auf ein Onleihe-System reduziert, wobei der Hardware nur noch eine Terminalfunktion zukommt, und diese daher entsprechend schlicht und robust gestaltet werden kann, so dass man E-Books dann auch entgegen der Urangst vieler P-Buch-Freunde prima am Strand und vielleicht sogar unter Wasser lesen kann.

Keine dieser Überlegungen ist neu, aber da zunehmend deutlicher wird, wohin der Medienhase läuft, böte es sich an, mögliche Folgen von der Kontrollierbarkeit von Zugängen, der Protokollierbarkeit des individuellen Medienverhaltens bis hin zu den spezifischen Veränderungen bei der Produktion von Inhalten noch intensiver als bisher zu beleuchten.

Die mediale Ubiquität, so scheint es, führt zu einer permanenten Wechselwirkung von physischem und virtuellem Agieren. Bereits jetzt leben wir in einer dreigeteilten und intensiv wechselwirkenden Umwelt: neben der klassischen Korrelation von physischer und psychischer Wahrnehmung gesellt sich ein rein virtueller Handlungs- und irgendwie auch Lebensraum. Letzterer war jedoch bislang – vielleicht bis zur Entwicklung einer massenverfügbaren Mobilfunktechnologie – an lokalisierte Zugangspunkte gebunden und galt daher mehr als erweiternde Möglichkeit, denn als substantielles Element.
Der Pfeil der Entwicklung weist jedoch in Richtung einer permanenter Interaktionsmöglichkeit und damit vermutlich – Beispiel Mobiltelefonie – impliziten Nutzungsverpflichtung, bei der die Empfangsgeräte in einer Ausprägung elementar für ein soziales Leben sein werden, dass sie quasi Teil unser Physis und also in Anlehnung an McLuhan unverzichtbare technische Prothesen zur Weltwahrnehmung sein werden. Die virtuelle Zukunft besteht sicher nicht aus grobschlächtigen Avatare in Second Life, sondern aus virtuellen Repräsentationen unserer tatsächlichen Identität, die in andauernder Wechselwirkung mit der Körperlichkeit und Psyche stehen. Wer seinen Zugang zum Netz abschaltet, trennt einen substantiellen Teil seiner selbst von sich ab. Wohlgemerkt: Von sich, nicht vom virtuellen Netz an sich, denn dort bleibt man präsent und in gewisser Weise ansprechbar. Facebook registriert die an mich eingehenden Freundschaftsavancen, Nachrichten und dass ich auf Fotos ausgetaggt werde, auch ohne, dass ich eingeloggt bin. Automatische Erschließungsprozesse, die mit dem Semantic Web Bestandteil des virtuellen Informationsalltags werden, warten nicht auf Rückkopplung meinerseits, sondern verknüpfen mich, bzw. mein Repräsentationen im Web je nach informationellem Anliegen irgendeines Akteurs im Netzwerk.

Wünschenswert wäre es, wenn, dessen angesichtig, in irgendeiner Form und besonders natürlich in unserem Fach, eine Diskussion mit interdisziplinären Anschlussmöglichkeiten entwickeln ließe, die neben den Projekten zur technischen Realiserbarkeit und Realisierung derartiger Vorstellungen, die Frage in den Mittelpunkt rückt, inwiefern eine derartige Totalität der Digitalität mit bisher üblichen Lebensentwürfen und Vorstellungen von Gesellschaft, die den digital lifestyle nur bedingt berücksichtigen, so integrierbar sind, dass man die Reibungsverluste im Rahmen hält. Also inwieweit die digitale Medienwelt mit ihrem Präzisionsparadigma und Messbarkeit und Eindeutigkeit des Zeichens als Grundkonstanten mit den dem Menschen und seinem Handeln typischen Unschärfen und Abweichungen und daraus resultierenden Eigenheiten koordinierbar ist. Der Mensch ist per se einzigartig, inkommensurabel und begrenzt. Netzdigitalität, die auf dem Prinzip der reibungslosen Kopie beruht, Datengröße, -durchsatz und Zahl der Aufrufe exakt erfasst und sich jenseits spürbarer Materialität unbegrenzt ausdehnt, berücksichtigt dies bisher interessanterweise vorwiegend dadurch, dass sie diese menschlichen Eigenschaften zu simulieren versucht und scheitert besonders deutlich gerade auf dem Gebiet des Originals (Stichwort: Urheberrecht).

Auch diese Gedanken sind weißgott nicht neu und vielleicht gibt es auch schon die passenden Antworten. In der Bibliothekswissenschaft sind sie bisher jedoch kaum zu entdecken und daher scheint es mir durchaus legitim, in der Frühphase eines Jahres wie diesem, durchaus einmal auszuformulieren, was uns sicher das Jahr über intensiv beschäftigen sollte und hoffentlich wird. Wie immer sind Kommentare hochwillkommen.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6423 3
Informationsvergesellschaftung und die Rolle der Bibliotheken http://weblog.ib.hu-berlin.de/p=6393/index.html http://weblog.ib.hu-berlin.de/p=6393/index.html#comments Fri, 12 Dec 2008 16:59:20 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6393 Libraries will continue to play many of the roles they have always played: circulation of materials in all formats; a place to learn how to find and use information; a “community center” for socialization, programs and exhibitions; and a place to get special services around English as a second language, job preparation skills, etc. Crucially, [...]]]>

Libraries will continue to play many of the roles they have always played: circulation of materials in all formats; a place to learn how to find and use information; a “community center” for socialization, programs and exhibitions; and a place to get special services around English as a second language, job preparation skills, etc. Crucially, it will still be the only place for many people in the city where they will have free access to the Internet and skilled support to navigate it — in a world where more and more of their basic needs will be met through online services and facilities.

Die Leser der New York Times befragten Paul LeClerc erfreulich rege über alle möglichen, die New York Public Library betreffenden Aspekte und mittlerweile gibt es eine ganze Reihe von Antworten nachzulesen. Die oben zitierte bezieht sich auf die allgemein brodelnde Frage, wie sich die öffentliche Bibliothek innerhalb einer vom Internet dominierten Informationumwelt positioniert. Für Paul LeClerc – und nicht nur für ihn – ist der Aspekt des Zugangs zu Information offensichtlich nur eine Facette der Aufgaben einer zeitgemäß arbeitenden Einrichtung dieser Art.
Mindestens ergänzend relevant ist nämlich die der Vermittlung von Kompetenz mit dem Kanal “Internet” , der Informationsgesellschaft als Lebenspraxis und allem, was samt und sonders damit zusammenhängt.
Die Bibliothek wird also eindeutig nicht nur als Anlaufpunkt zum Abholen von Information verstanden, sondern als Bestandteil der Stadtgemeinschaft (community).

Denn sie vermittelt bei Bedarf und im Ideal was notwendig ist, um Information zur Not selbstbestimmt zusammen zu tragen, zu interpretieren und gegebenenfalls in neuen Kontexten sogar wieder zu publizieren. Die prosumierenden Autodidakten aus der Generation der Digital Natives mögen vielleicht meinen (oder man nimmt an, dass sie es meinen), ihne müsse derartige Unterstützung nicht gelten und haben mitunter damit sogar recht. Aber oft bleibt selbst eine eifrige Aktivität in Facebook und über Twitter letztlich trotzt aller Vielfalt der Kommunikationsmöglichkeiten eine Begrenzung der medialen Rezeptions-, Informations- und Ausdrucksmöglichkeiten. Und dass die Generation 2.0 derart gewieft und von Natur aus informationskompetent gestrickt ist, dass sie von Irritationen verschont bleibt bzw. jede Antwort im virtuellen Kommunikations-Universum entdeckt, ist angesichts der Komplexität und Dynamik der Zusammenhänge, um die es hier geht, unwahrscheinlich.

Wenn die Bibliothek geschickt ist, zeigt sie sich gerade an dieser Ecke des digitalen Alltags als kompetenter Anlaufpunkt. Zudem lässt sich ohne viel Aufheben auch eine andersherum wirkende Palette von möglichen Bezügen herstellen, sofern die Vertreter dieser “mobil und digital” geprägten Kohorten noch eine Beziehung zu der Stadtgemeinschaft halten möchten, in der sie trotz allem ab und an interagieren. Die Stadtbibliothek könnte in dieser Beziehung den Schnittpunkt zwischen der virtuellen und der realen Gemeinde markieren.

Die Bibliothek erweist sich demnach, etwas abstrahiert, potentiell als ein sehr spezifischer, im besten Fall öffentlicher (auch im politischen Sinn) und in der Grundintention eben nicht auf ein rein erlösorientiertes Geschäftsmodell ausgerichteter Erfahrungsraum sowie Ort der Identifikation und damit als ein allgemein nutzbarer und stabiler Rahmen für eine Orientierung in der Wahrnehmung und Deutung der Lebenswelt. Manchmal auch nur schlicht als einzige Zugangsmöglichkeit zu bestimmten Informationen.

Der Regelkreis von Wahrnehmung, Verarbeitung und Äußerung ist in einer hypertextuell geprägten Umwelt explizierter denn je und wenn die Web2.0-Bewegung eine Wirkung in Bibliotheken hat, dann ist es die Erkenntnis, dass sich die Institution Bibliothek mit pluralen und spontaneren kodifizierten Aussagen z. B. auch direkt aus den Notebooks ihrer konkreten Nutzer konfrontiert sieht. Funktional ergeben sich hieraus neue Anforderungen.

In den großen Bereich der Vermittlung von so genannter Informationskompetenz fällt nämlich neben der Absicherung des Zugreifens, Lesens und der Einordnung von Information die einsehbare und verschriftlichte Abbildung eben dieser Prozesse bzw. das Einspeisen von vielen neuen und nicht im Ordnungsraster der Quellenkunde des letzten Jahrhunderts tradierten Stimmen in die digitale Kommunikationssphäre, die in realweltlichen Zusammenhängen vermutlich niemals in dieser Form verschriftlicht sichtbar geworden wären.

Solches betrifft bei weitem nicht nur die Weblogs und Twitter-Feeds, sondern wird obendrein gleichfalls in einer Vielzahl von ausdrücklich aus der Subjektperspektive geschriebenen Verlagsprodukten sichtbar. Blogsprache dringt in die Tageszeitung genauso wie in die Erfahrungsbücher im Bestsellerregal der Buchhandlungen, wobei sich die erstere Form von der letzteren oft nur durch eine zusätzliche Aufbereitung auf einen konkreten Markt hin unterscheiden.

Die mediale Form ist – und war es eigentlich noch nie – kein Indikator für Relevanz und Qualität des Inhalts. Die Polyphonie der Textsorten und ihrer Vermischung wirbelt jedoch die Sphäre der verfügbaren Information kräftig durcheinander. Die Bibliothek wird und sollte sicher nicht den Anspruch eines allgemein gültigen Setzbeckens erheben. Ein Verständnis der Strukturen und Relationen der medialen Bedingungen sollte sie aber zu leisten versuchen, wobei die Aufgabe unserer Wissenschaft im Verbund mit anderen Informations-, Kultur- und Medienwissenschaften nicht zuletzt die ist, der Praxis in diesem Zusammenhang kompetent zuzuarbeiten. Manchmal wären schon Systematisierung und Synthese der Debatten ein hilfreicher Schritt.

Momentan gilt es nämlich ganz offensichtlich für die institutionell auf Sammlung, Erschließung und Vermittlung von (publizierten) Informationen zunächst einmal zu klären, wo “publiziert” seine Grenze findet bzw. wie sie sich generell zu den sogenannten Netzpublikationen positionieren. Dem Angebot professioneller Informationsdienstleistungen inklusive der Vermittlung von Nutzungskompetenzen geht eine solche Positionierung dringend voraus.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6393 0
Hyperakzeleration, neue Medien und was man darüber so denken kann http://weblog.ib.hu-berlin.de/p=6345/index.html http://weblog.ib.hu-berlin.de/p=6345/index.html#comments Wed, 03 Dec 2008 05:40:07 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6345 Zum “Wer drängt uns denn?” meines jüngsten Kommentars zur Medialisierungsfalle habe ich noch ein paar Fragen nachzureichen, die vielleicht ganz gut in die Debatte darüber, ob die um sich greifende Durchsetzung diverser Lebensbereiche mit digitalen Technologien und den damit verbundenen kommunikativen Mustern, nicht doch eine Technikfolgenabschätzung benötigt. Immerhin zwingt jetzt sogar das Feuilleton der Frankfurter [...]]]>

Zum “Wer drängt uns denn?” meines jüngsten Kommentars zur Medialisierungsfalle habe ich noch ein paar Fragen nachzureichen, die vielleicht ganz gut in die Debatte darüber, ob die um sich greifende Durchsetzung diverser Lebensbereiche mit digitalen Technologien und den damit verbundenen kommunikativen Mustern, nicht doch eine Technikfolgenabschätzung benötigt.

Immerhin zwingt jetzt sogar das Feuilleton der Frankfurter Allgemeinen Zeitung seine Mitarbeiter zum Blogschreiben, als ob es nicht so schon oft genug Probleme hat, die Seiten mit wertigen journalistischen Texten zu füllen.

Nach der denkbar kleinstkarierten Schelte, die Martin Ruff mit klappentextuellen Wittgenstein-Kenntnissen durchsetzt am Montag dem Deutschlandfunk zu dessen Sprachverfall auf der FAZ-Medienseite vorlegen durfte (“Der Deutschlandfunk funkt oft daneben”, Ausgabe 01.12.2008, Seite 38), kann man durchaus vom Glauben an den Qualitätsjournalismus abfallen. Sie wissen anscheinend gerade wirklich nicht, was sie tun. Macht nichts. Wenn ein FAZ-Medienbetrachter den DLF abschreibt, ist der noch lange nicht abgehört. Bei solcher Kritik gerät leicht in Vergessenheit, welch hohes Niveau die FAZ insgesamt immer noch auszeichnet. Sie bringt Thomas Bernhard im Vorabdruck, Interviews und samstags die Frankfurter Anthologie, manche Glosse kann sich lesen lassen, die Hintergrundberichte sind oft erhellend, der aktuellen Berichterstattung mangelt es weder an Ausführlichkeit noch an Spaltenplatz. So richtig überzeugend gelingt die Ruff-Analyse auf die FAZ bezogen leider nicht… Und ein Rudolf Stichweh hat auch nicht jeden Tag Zeit, um einen Beitrag für das Blatt zu schreiben.

Heute aber schon und zwar “über die gegenwärtigen Beziehungen zwischen den Natur-, den Geistes- und den Sozialwissenschaften” (Seite N7 – die Wissenschaftsbeilage ist aus gegebenem Anlass etwas dicker). Eigentlich schreibt aber auch er nicht für die FAZ, sondern diese nutzt eine Rede nach und zusätzlich schürft er auch nicht übermäßig tief. Immerhin entsteht der wertvolle Eindruck, dass es doch mitunter Beiträge gibt, die dem Medium Tageszeitung so angemessen sind, dass man gern länger (und offline) am Frühstückstisch sitzen bleibt. Bei der Gelegenheit kann man sich gleich mal als Nachschlag die Fragen, die ich hier aus der Augustausgabe (03/2008) der Zeitschrift Information Philosophie (S.44) notiere, zur Honigsemmel und zum Nachdenken vornehmen und sich in ein wildes Denken und gern auch – dafür ist die Kommentarfunktion gemacht – wildes Diskutieren stürzen.

Dort formuliert nämlich der Jenenser Soziologe Hartmut Rosa im Rahmen einer Diskussion zum Verhältnis von Anthropologie und Politischer Theorie im Anschluß an seine beschleungigungstheoretischen Überlegungen (Slippery Slope) einerseits seine Zweifel, dass wir durch wachsende Kommunikationsgeschwindigkeit und umgreifende -technologie körperlich Schaden nehmen:

“Ich rate [...] einer normativ interessierten politischen Theorie im Beschleunigungsdiskurs davon ab, nach anthropologischen Grenzen zu suchen.”

Der flexible Mensch schafft es kognitiv am Ende schon, so wie er auch das Fahrradgesicht ohne Gehirnerweichung überlebt hat. Andererseits meint Rosa zurecht, dass es wichtiger ist, darüber zu diskutieren, ob er diese Flexibilität auch möchte:

“Stattdessen sollte sie [die politische Theorie] danach fragen, ob wir als Subjekte höhere Geschwindigkeiten wollen können:
Was bedeutet etwa weitere soziale Beschleunigung für unsere Konzeption von Selbstbestimmung und Freiheit? Für unsere Leitwerte von Autonomie und Athentizität? Für unsere Chance, eine stabile Identität zu entwickeln und zu erhalten?
Letztlich führt das natürlich wieder auf die anthropologische Frage nach dem guten Leben zurück: Was sind die Bedingungen, unter denen Subjekte ein (nach ihren eigenen Kriterien) ‘gutes Leben’ führen können? Welche Bedingungen hindern sie daran, ihre Konzeptionen des gelingenden Lebens zu verfolgen und zu verwirklichen?”

Der Hyperakzeleration schreibt Rosa jedenfalls das Potential zu, eine der soziale Rahmenbedingungen zu sein, “die ein gutes Leben der Subjekte vereiteln”.

Digitale Medien treten bislang weitgehend als Beschleunigungsmedien in Erscheinung. D.h. ihre Vorzüge liegen in beschleunigenden Effekten.
Damit wird die Frage der Beschleunigung für alle, die mit Medien zu tun haben, also auch für Bibliotheken, relevant. Digitale Medien reichern tatsächlich an, zunächst einmal Masse. Sie sind demnach Häufungsmedien in Hinblick auf die Menge der Inhalte, die Möglichkeit, Inhalte zu publizieren, die Frequenz mit der Inhalte publiziert werden. Ist etwas möglich, so wird es sehr wahrscheinlich auch bis zu den Grenzen der Möglichkeit genutzt. Das kann man sich als eine Art informationelles Peter-Prinzip vorstellen. Unglücklicherweise – da fehlt uns das Semantic Web bisher mächtig – häufen Medien die qualitativen Aspekte des Ordnens und Erschließens selten in einem Umfang, der den Intellekt nennenswert von entsprechender Mühe entlastet. Eher gilt das Gegenteil. Lesen und Verstehen bleiben zeitaufwendige, manchmal schöne, manchmal lästige Begleiterscheinungen des informationellen Alltags. Der korrespondierende Aufwand ist generell wohl als steigend zu bewerten.

Selbstverständlich tragen die Digitalen Medien daran ihre Mitschuld. Sie sind nämlich zunächst einmal auf quantitatives Wachstum gerichtet. Sie dienen demnach als wertfreier Container für etwas Unbestimmtes, das alles Mögliche und vor allem sehr viel davon sein kann.

Eine normative Qualitätsdebatte lostreten zu wollen ist jedoch genauso unsinnig, wie die Suche nach den anthropologischen Geschwindigkeitsgrenzen. Jedoch kann man annehmen, dass bestimmte Beschleunigungen (6 G) und Geschwindigkeiten (Lichtgeschwindigkeit) physiologisch deutlich wirksam sind. Wie solche Zustände im Informationsaufkommen abbildbar sind, ist unglücklicherweise bisher wenig untersucht.

Dennoch ist die reine Eingrenzung der Betrachtung von Medien auf ihr Containerdasein auch wieder fruchtlos. Medien wirken zweifellos über das Aufbauen von Beziehungen, vielmehr erzeugen sie Beziehungen (Relationen) zwischen den Inhalten und den Medienrezipienten. Sie sind Kanäle und der Gedanke an das Sender-Kanal-Empfänger-Modell der Kommunikationstheorie positioniert sie schon richtig. Wenn wir über Medien und ihre Beschleunigung reden, betrachten wir also die spezifischen Qualitäten eines Kanals. Da auf digitaler Ebene das Rauschen – man kennt es noch vom x-fach Oversampling, neben der Taktfrequenz des PCs und der Wattzahl des Staubsaugers die Statuszahl technischer Alltagsgeräte in den frühen 1990ern – auf ein Minimum reduziert wird, gilt die Aufmerksamkeit vermutlich besser dem Durchsatz der Botschaften und zwar hinsichtlich Masse und Frequenz (und der Redundanz natürlich). Dass dieser bei digitalen Netzmedien tatsächlich bis zu einem das menschliche Wahrnehmungsvermögen überschreitenden Maß leicht realisierbar ist, weiß jeder, der mehr als zwei aktive Mailinglisten abonniert hat.

Das Zuviel des Guten ist also gut möglich, während das vordigitale Zeitalter am Zuwenig litt. Leider hat ein eher schlichtes, ein Prinzip im Stile des „Viel hilft viel“ zum Leitbild erhebendes, Verständnis der Kommunikationsökonomie dazu geführt, dass die anachronistische Vorstellung des Mangels uns auch dort leitet, wo derselbe besiegt scheint: Bei der Ernährung und bei der Kommunikation. Interessanterweise kann man viel essen und dennoch (qualitativ) mangelernährt sein.

Ich denke die These, um die ich hier gern eine Diskussion spinnen möchte, wird langsam deutlicher: Mediale Möglichkeiten nur quantitativ und unter dem Primat der Steigerung bzw. Optimierung zu denken, hat bestimmte Folgen, die eventuell dem, was man unter einem „guten Leben“ versteht, entgegenwirken. Konkret bedeutet dies, dass die schon vor Jahren beklagte Informationsüberlast, die allerdings oft nur ein Scheitern an der begrenzten Ressource Zeit ist, dem Individuum die Herausbildung stabiler Orientierungsparameter erschwert. In einer idealen Welt bliebe ausreichend Zeit, alles genau zu prüfen und dann zu entscheiden und zwar mit der Dauer, dass man am Ende doch irgendwann entscheiden muss. Die Ewigkeit dagegen zwänge zu nichts. Wer kann das schon wollen? Endlichkeit ist unsere größte Stärke, nur zeigt sie sich leider oft am Ende zu früh. Die Plage in einer semi-idealen Welt ist dagegen, dass man viel zu wenig Zeit hat, um genau geprüft zu entscheiden und daher freut man sich über den Boom der Intuition (wahlweise auch: des Bauchgefühls). Passt manchmal, nicht immer.

Da Zeit z.B. notwendig sind, um “Authentizität” und “Autonomie” als Basiselemente des „guten Lebens“ zu entwickeln, wird das mit den Netztechnologien verbundenen Heilsversprechen einer Befreiung durch Partizipations-, Vergleichs- und Entscheidungsmöglichkeiten tatsächlich nicht mehr eingelöst. Every weblog its reader? Stimmt im Netz nicht ganz. Every reader his weblog? Technisch ja, aber es will vielleicht nicht jeder, weil er beispielsweise schon mit dem Lesen der FAZ-Blogs beschäftigt ist…

Die Folgen der Intensität sieht man durchaus in Bereichen, die nur mittelbar von den Digitalmedien betroffen sind: die Option eines multiplexen Instant Messaging führt, wenn denn der Tipping Point erreicht ist, zu einem Sozialdruck, dem man sich beugen muss, um weiter an Kommunikationen bzw. dem Sozialleben teilhaben zu können. Wenn man älter wird oder die Freunde einfach so vom StudiVZ zum Facebook abwandern, muss man mit oder man bleibt buchstäblich zurück. Die Seiten mit den Sozialen Netzwerken, die obendrein das Bedürfnis nach Sozialität als Geschäftsmodell nutzen und entsprechende Interessenlagen pflegen, versprechen zwar, dass man dort schnell und unkompliziert neue Kontakte findet, sind aber erfahrungsgemäß oft bereits schlichtweg notwendig, um bestehende zu halten. Die Alternative wäre ein Ausstieg entweder mit und zu Gleichgesinnten (wenn man Glück hat) oder in die Isolation. Die technischen Möglichkeiten bleiben nicht Option, sondern sie werden Notwendigkeit. Alternativlos. Sachzwang. Dabei lässt sich der freie Mensch doch ungern von Sachen zwingen..

Nicht selten zwingen die Sachen gar nicht, sondern es ist eine unsichere Vorstellung, von dem, was die Sachen sollen und können und wann sie passen und wann nicht, die einen selbst den Zwang ausüben lässt.
Darin liegt der bittere Kern: Es wird kaum und mit wenig Nachhall reflektiert, was das, was verdrängt wird, an eigenen Qualitäten besitzt, und ob das eine, womöglich überholt scheinende, nicht in manchen Zusammenhängen zweckmäßiger wäre, als die Nachfolgeform. Unterschied wie Zusammenhang zwischen dem Folgen und den Folgen können sehr groß sein. Die Betrachtung der medialen und der damit verbundenen sozialen Beschleunigung wird in sehr vielen Diskursen im Medien- und auch im Bibliotheksbereich aus einer sehr eingeschränkten Perspektive geführt. Die Rechnung lautet streng und alternativlos ökonomistisch Mehr mit Weniger zu schaffen. Auch dies ist nicht unendlich steigerbar.
Was Kommunikationen angeht, gelingt es aber momentan auf einer quantitativen Ebene in digitalen Kommunikationsnetzen mit leichter Hand. Ich schreibe mit meinen Weblogs mehr Text denn je. Aber in welchem Verhältnis steht die Häufung zur Wirkung? Wann kippt die qualitative Vielfalt angesichts der Häufigkeit (und Redundanz) in Beliebigkeit?

In dem genannten ZEIT-Artikel zitiert die Autorin drei Verhaltens- und Konsumweisen des modernen, computergestützten Kapitalismus, wie sie Benjamin Barber nicht unbedingt sonderlich originell an einen allgemeinen Platz rückend bestimmt:

- leicht vor schwer,
- einfach vor komplex,
- schnell vor langsam.

Man kann noch viel vor wenig ergänzen. Es bleibt Unsinn. Denn man benötigt für das „gute Leben“ immer beides: leicht und schwer, einfach und komplex, schnell und langsam, viel und wenig. Dies zusammengeführt trifft dann genau das individuelle Maß dessen, was man gut verarbeiten, rezipieren, erleben, genießen, durchleiden kann. Every reader his book. In der Konsequenz ist auch das nur ein unerreichbares Shangri La der Informationsversorgung. Aber immerhin ein positives. Etwas angenehm anderes als: Es tut uns leid, aber wir müssen auch mit der Zeit gehen. … Die allzu leichte Externalisierung von Verantwortung sollte man vielleicht auch mal als Ordnungswidrigkeit bewerten, da sie die Ordnung des sozialen Gefüges deutlich und nachhaltig stört.

Was also in jeder Handlungsumgebung und damit in jeder Kommunikationsumgebung gewährleistet sein muss, ist die Option auszubalancieren, abzubremsen, die Komplexität zu erhöhen, das Schwierige einfach nachzulesen.
Aus diesem Grund ist jede Ausschließlichkeit abzulehnen. Wir müssen subjektiv entscheiden und umsetzen können was wir wollen. Die von Rosa angesprochenen höheren Geschwindigkeiten (höher im Vergleich zu was?) gibt es deshalb, weil alle mitspielen. Sie sind kaum Naturgesetz. Manchmal womöglich notwendig, für „Leitwerte von Autonomie und Authentizität“. Dann sollten wir sie wollen können. Wir sollten sie aber auch ablehnen können, wenn wir etwas anderes brauchen.

Vielleicht ist die Flexibilität, die die digitale Beschleunigungstechnologie verspricht, da wir mit ihr mehr bündeln können, mehr kommunizieren können, mehr speichern können, einfach nicht flexibel genug, weil sie es verbietet, ein Weniger mitzudenken, wenn es notwendig wird.

Und jetzt weg vom Küchentisch und ran ans Tagwerk…

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6345 0
Desaster-Stimmung. Die FAZ betrachtet das Problem der Langzeitarchivierung digitaler Daten. http://weblog.ib.hu-berlin.de/p=5800/index.html http://weblog.ib.hu-berlin.de/p=5800/index.html#comments Wed, 02 Jul 2008 09:26:58 +0000 Ben http://weblog.ib.hu-berlin.de/?p=5800 Man kann mühelos ein 300 Jahre altes Buch lesen, aber nicht mehr das 30 Jahre alte elektronische Manuskript auf einer 8-Zoll-Diskette. Da kann man als E-Book-Fan natürlich entgegnen, dass ein Großteil der Bücher, die man sich heute auf den Kindle lädt, in 300 Jahren vielleicht überhaupt nicht mehr relevant sein dürften. Und für alles andere [...]]]>

Man kann mühelos ein 300 Jahre altes Buch lesen, aber nicht mehr das 30 Jahre alte elektronische Manuskript auf einer 8-Zoll-Diskette.

Da kann man als E-Book-Fan natürlich entgegnen, dass ein Großteil der Bücher, die man sich heute auf den Kindle lädt, in 300 Jahren vielleicht überhaupt nicht mehr relevant sein dürften. Und für alles andere haben wir ja den Barbarastollen, in dem das Gedächtnis der Nation faßfrisch langzeiteingelagert wird.

Alle Anhänger des Mediums Buch klammern sich dagegen natürlich an den Strohhalm der vergleichsweise guten Beständigkeit und der Nutzungsmöglichkeit unabhängig von Akkulaufzeiten (tagsüber).
Der übliche Nachteil ist, dass man, wenn man in einem Alltag leben muss, in dem Datenmengen wie die des Buchbestandes der Library of Congress etwas mehr oder etwas weniger auch im Durchschnittshaushalt anfallen, für Aufbewahrung in Druckform auch entsprechend große Magazinbereiche bräuchte.  Das kann sich nicht jeder leisten. Eine oder zwei Terrabyte-Festplatten demnächst vermutlich schon.

Als problematisch bei der Mikroverfilmung digitaler Inhalte entpuppt sich obendrein folgendes:

Die Tücke digitaler Daten liegt darin, dass sich der Gehalt digitaler Dokumente nicht auf das reduzieren lässt, was man ausdrucken oder sich am Bildschirm anzeigen lassen kann. Man denke an multimediale oder interaktive Inhalte.

In Flash erstellte Inhalte sind damit wahrlich für den Moment. Saubere HTML- und XML-Strukturen kann man dagegen durchaus relativ stabil archivieren und migrieren.

Unter dem Gesichtspunkt der “Langzeitarchivierung”, also für die Ewigkeit, scheint der nicht allzu hyperstrukturierte, reine Text die optimale Form darzustellen. YouTube-Videos und Podcasts dagegen eher nicht. Dies sollte man bereits bei der Erstellung der Repräsentationsformen für Inhalte durchaus einmal im Hinterkopf beachten.

Aber vielleicht entwickelt sich in den nächsten Jahren auch etwas, womit heute noch niemand rechnet und das uns binnen kurzer Zeit über den Text von Michael Spehr gestern im Technik-Teil der Frankfurter Allgemeinen Zeitung so schmunzeln lässt, wie wir es heuer über Haushaltstipps im illustrierten Familienblatt “Die Gartenlaube” tun. Dieser Tage ist er allerdings noch ziemlich relevant: Das digitale Daten-Desaster.

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=5800 2