IBI-Weblog » NZZ http://weblog.ib.hu-berlin.de Weblog am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin Wed, 28 Jun 2017 08:24:09 +0000 en hourly 1 http://wordpress.org/?v=3.0.4 Books are for use. Die NZZ betrachtet das Urheberrecht im Anschluss an die Frankfurter Tagung und wagt eine interessante These http://weblog.ib.hu-berlin.de/p=7330/index.html http://weblog.ib.hu-berlin.de/p=7330/index.html#comments Tue, 21 Jul 2009 09:51:14 +0000 Ben http://weblog.ib.hu-berlin.de/?p=7330 Das angloamerikanische Copyright-Law und das kontinentale Urheberrecht unterscheiden sich massgeblich darin, dass das Copyright auf die Rechte der Verwerter abhebt, jedoch von den persönlichkeitsrechtlichen Belangen des Urhebers wenig weiss. Das Pathos der Rede vom «geistigen Eigentum», das die ideelle Beziehung zwischen Autor und Werk zu einer unveräusserlichen macht, ist dem US-Recht fremd. Dass es auch [...]]]>

Das angloamerikanische Copyright-Law und das kontinentale Urheberrecht unterscheiden sich massgeblich darin, dass das Copyright auf die Rechte der Verwerter abhebt, jedoch von den persönlichkeitsrechtlichen Belangen des Urhebers wenig weiss. Das Pathos der Rede vom «geistigen Eigentum», das die ideelle Beziehung zwischen Autor und Werk zu einer unveräusserlichen macht, ist dem US-Recht fremd. Dass es auch den Europäern fremder wird, daran arbeiten in Europa sowohl Internetpiraten wie auch «nutzerfreundliche» Richter, die erklären, von Diebstahl könne im Internet keine Rede sein, denn wer kopiere, nehme ja niemandem etwas weg.

Im Feuilleton der heutigen Ausgabe der Neuen Zürcher Zeitung erklärt Joachim Güntner im Anschluss an die Frankfurter Tagung von “Roland Reuss und seine[n] Kombattanten” [sic!] noch einmal, dass das Internet nun mal eine verschiedene Rechtsräume übergreifender Kommunikationssphäre ist. Zudem wertet er die Aussage der DFG, dass es keinen Publikationszwang gäbe, als Frucht der Proteste und hat damit in Bezug auf die Aussage selbst vielleicht sogar recht. Nur vom “Zurückrudern” der Deutschen Forschungsgemeinschaft kann man nicht wirklich sprechen, denn es lag gar kein Zwang vor. Auch nicht klar ist, ob er, wenn er etwas abwertend von “zu Copy-Shops mutierenden Bibliotheken” spricht, dies als Argument aus Frankfurt oder als allgemein wahrgenommene Entwicklung sieht.

Der wirklich interessante und bemerkenswerte Aspekt im Artikel ist aber die Vermutung, dass Google überhaupt nicht mit dem Ziel digitalisiert, in den Buchmarkt einzusteigen und es ihm mehr noch kaum um die konkreten Bücher und Buchinhalte selbst geht. Der Autor beruft sich vielmehr auf eine Aussage Auke Haagsmas von der ICOMP, mit dem er davon ausgeht, dass Google die Inhalte der Bücher als Korpus verwendet, um die Entwicklungen seiner “Semantic Web”-Funktionalitäten voranzutreiben:

Google füttere seine Server vor allem deshalb mit Weltliteratur, damit die Suchmaschine die Anfragen der Nutzer gleich übersetzen und ihnen dann Antworten aus vielen Sprachen der Welt liefern könne. Polyglott und zum komplexen Sinnverstehen fähig also soll die Maschine werden, Syntax und Semantik lernen für ihr Kerngeschäft, die Suchanfrage.

Wenn dies korrekt ist, dann würde die Bücher über Google Books ausschließlich als Bonus und Philantropie als Digitalisat angezeigt. Notwendig wäre es aber nicht und Google könnte sich entsprechend entspannt auch die Darstellung untersagen lassen, solange es nur weiter digitalisieren und all die Texte harvesten dürfte, die als Mittel zu einem höheren Zweck dienten. Was man wohl in Heidelberg zu der These sagen würde, dass die eigenen geistigen Leistungen schnöde zum Füttern einer digitalen Maschinerie dienen, der es gar nicht um die Inhalte geht, sondern darum, wie Zeichen und Zeichenketten miteinander in Beziehung stehen? Und was eine semantische Technologie wohl aus der Lyrik Paul Celans lernt? Im Resultat ständen jedenfalls noch ganz andere Celan-Provokationen.

Den Artikel der NZZ gibt es hier: Ist das Urheberrecht ein Papiertiger?

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=7330 1
Semantic Web=Searchwiki, meint die NZZ http://weblog.ib.hu-berlin.de/p=6343/index.html http://weblog.ib.hu-berlin.de/p=6343/index.html#comments Fri, 28 Nov 2008 09:00:33 +0000 Ben http://weblog.ib.hu-berlin.de/?p=6343 Doch auch ohne RDF/XML-OWL-GRDDL lässt sich ein Semantic Web realisieren; auch ohne dass Programmierer die Bedeutung einer Web-Ressource in maschinenlesbarer Form vollständig durchdekliniert haben, können Maschinen aus verschiedensten Quellen Metainformationen ernten. Mit einer kürzlich lancierten Dienstleistung namens Searchwiki offeriert der kalifornische Suchmaschinenbetreiber [Google] den Benutzern die Möglichkeit, die Suchresultate direkt zu manipulieren. Durch diese Eingriffe [...]]]>

Doch auch ohne RDF/XML-OWL-GRDDL lässt sich ein Semantic Web realisieren; auch ohne dass Programmierer die Bedeutung einer Web-Ressource in maschinenlesbarer Form vollständig durchdekliniert haben, können Maschinen aus verschiedensten Quellen Metainformationen ernten. Mit einer kürzlich lancierten Dienstleistung namens Searchwiki offeriert der kalifornische Suchmaschinenbetreiber [Google] den Benutzern die Möglichkeit, die Suchresultate direkt zu manipulieren. Durch diese Eingriffe erhält die Suchmaschine ein Feedback, das es ihr erlaubt, die Qualität der Suchresultate zu verbessern.

Die Neue Zürcher Zeitung ist heute unterwegs, um ihren Lesern das Funktionieren von Suchmaschinen auf schlichte Weise zu erklären. Ob allerdings Ausführungen wie die obige tatsächlich fundiert und sinnvoll zu diesem Zwecke sind – darüber lässt sich streiten genauso wie darüber, was man unter Semantic Web eigentlich versteht. Vielleicht wäre es zu diesem Thema hilfreich gewesen, nicht nur mit einem Google-Vertreter zu sprechen, sondern sich zusätzlich eine weitere Expertise zum Beispiel aus der Schweizer Informationswissenschaft einzuholen. Mehr hier: Auf der Suche nach der Suchmaschine der Zukunft und Das Internet jenseits von Google

]]>
http://weblog.ib.hu-berlin.de/?feed=rss2&p=6343 1