Google, was geht? Das Scenario Magazine berichtet aus dem Beta Lab.

Thomas Geuken, Psychologe vom Copenhagen Institute for Future Studies, das thematisch zwangsläufig vieles erforscht, was auch die Bibliotheks- und Informationswissenschaft umtreibt, fuhr für das institutseigene Scenario Magazine ins New Yorker Beta Lab Googles und hat dabei ein an Einblicken reiches Interview mit der im Unternehmen für Forschung und Entwicklung verantwortlichen Corinna Cortes geführt.

Beispielsweise zeigt bereits die Kernfrage, was denn die wissenschaftliche Herausforderung der Arbeit bei Google ist, deutliche Parallelen zu dem, was unsere Disziplin tut:

“[...] how to learn in an incomplete world and a digital universe full of dirty data (vast amounts of user-generated data of very poor quality; ed.). This is where the true challenge for Google lies – to provide users with relevant and valid knowledge on the basis of a large quantitative body of data,”

In gewisser Weise lebt hier das alte Ziel der Fédération Internationale de Documentation (FID) fort, nämlich

“the collection and storage, classification, dissemination and utilization of all types of information” (vgl. Gisela Ewert and Walther Umstätter: “Die Definition der Bibliothek,” in Bibliotheksdienst 33 (1999), S.961)

Sie wird nur um die explizite Ausrichtung auf das Verhältnis zwischen dem Nutzer mit seinem konkreten Informationsbedürfnis und dem ubiquitären Infoversum erfüllt von dirty data erweitert. Google erscheint also als eine Art FID des 21. Jahrhunderts und da das Geschäftsmodell zu stimmen scheint, wohl auch mit stabilerer Perspektive und unbestritten gesamtgesellschaftliche größerer Wirkung. Das Ziel wird nicht nur formuliert und als Utopie skizziert, sondern in den Labs direkt in mannigfaltiger Weise durchgetestet.

Eine Variante betrifft das, was man als Social Curating und/oder Human Sorting bezeichnen kann. Die Prozessierung digital erfasster sozialer Beziehungen ermöglicht eine starke Individualisierung des Retrievals und beruht nicht zuletzt auf der Idee umfassender Empfehlungssysteme: Was meine Peers relevant erscheint, könnte auch für mich von Interesse sein. Weblogs wie dieser sind eine Vorstufe, Facebook und Google+ der Stand der Zeit. Sind Datenmengen und Datennutzungsgeschichte (was oft zusammend fällt) umfassend genug ist, sind solche Verfahren auch relativ präzise und natürlich datenschutzrechtlich hoch problematisch.

Das Ziel Googles ist, so der Beitrag und so die Beobachtung um Google+, die Zusammenführung der klassischen algorithmisierten Prozessierung enormer Datenmengen mit der zusätzlichen sozusagen Gegenspiegelung des Datennutzungsverhaltens. So jedenfalls lese ich den Satz:

“Mankind’s ability to find qualitative bits of data and knowledge is, in other words, something that Google would like to use to make their own data even more valid.”

Cortes betont, dass die “guten Daten” der Nutzer perspektivisch die Hälfte des verarbeiteten Datenbestandes bei Google ausmachen sollen. Hier zeigt sich schön der Unterschied zum Facebook-Ansatz: Dienen dort die Inhalte zur digitalen Konstruktion und Abbildung sozialer Beziehungen, nutzt man bei Google soziale Interaktionen zur Konstruktion und Abbildung von Datenstrukturen und Relevanzen.

Wofür das Unternehmen diese Relationierung nutzen kann, zeigt der Abschnitt What do the users think? Was hier pragmatisch zum Filtern sozusagen der Gelben Seiten dargestellt wird, nämlich Nutzern aufgrund der Reviews eine wertende Sortierung (“service”, “price” and “staff”) von verfügbaren Dienstleistern anzubieten, ist auf nahezu alles anwendbar, was sich adressieren und mit maschinenlesbaren Eigenschaften markieren lässt.

Steht das Verfahren, können auch Einzelaussagen in Texten nach bestimmten Kriterien von der Crowd bewertet und relationiert werden. Für Anwendungen des Semantic Web in der Wissenschaftskommunikation z.B. im Sinne eines Post-Reviewings dürfte dies von erheblichem Belang sein. Auch hier – und das wäre dann eine Aufgabe für die Forschung des Instituts für Bibliotheks- und Informationswissenschaft – lassen sich die vergleichsweise “schmutzigen” (bzw. semantisch eher armen) Daten automatisierter Zitationsanalysen mit qualitativen Verfahren zur Diskursannotation koppeln. Die große Frage ist dabei, ob die Crowd der Wissenschaftsgemeinschaften sich auf so etwas einzulassen bereit ist.

Google forscht offensichtlich zunächst lieber auf anderen Gebieten, z.B. der so genannten Augmented Reality:

“Corinna Cortes takes out her Android phone and snaps a photo of a Sprite can on the table in front of us. In best science fiction style, a scanning line runs back and forth on the display, and voilà, the telephone tells us that it is a Sprite in front of us and provides a lot of information about the object.”

Weiterhin erfährt der Autor des Beitrags etwas über den Übersetzungsdienst und erhält einen kleinen Einblick in das Engagement des Unternehmens bei der Entwicklung von Robot Cars, das wenigstens die Sportwagenliebhaber nicht allzusehr begeistern dürfte.

Inwiefern der Allround-Kuratierungsdienst Google als großer Datenverarbeitungsbruder uns damit und auch mit den anderen Diensten auf einen digitalen Paternalismus zuführt, wird an anderer Stelle zu diskutieren sein. Der Mensch ist offensichtlich ein Optimierungstier und liebt Sicherheit und Überblick. Beides verspricht das Unternehmen. Thomas Geuken geht damit leider ziemlich unkritisch um. Aber das war wohl auch Ziel des kleinen Reports, der mit viel Sympathie für Google und Corinna Cortes sowie Liebe zum Detail geschrieben wurde:

“She wears sneakers even at work.”

Den Artikel aus dem Scenario Magazine kann man hier abrufen: What’s up Google, New York?

0 Responses to “Google, was geht? Das Scenario Magazine berichtet aus dem Beta Lab.”


  1. No Comments

Leave a Reply

You must login to post a comment.