Teamfähigkeit von Daten braucht Infrastruktur

Für mich ergab sich ein gewisser roter Faden auf dem Mannheimer Bibliothekartag unter dem Stichwort „Daten“. Nicht mehr nur in der Zusammensetzung ‚Meta-daten’ – die sind mittlerweile zur Selbstverständlichkeit geworden – sondern vor allem in den ersten Konkretisierungen von E-Science. Lange Zeit war man ja in der Bibliothekswelt dem Themenbereich E-Science und Grid-Technologie extrem abwartend begegnet, so konnte man in Mannheim an vielen Stellen, feststellen, dass die Nutzer Communities hier schon einige Schritte ohne uns gegangen sind und nun so langsam nach der klassischen Infrastruktur rufen, die sich um das Geschäftsmodell und die Langzeitarchivierung der Datensätze kümmern soll (data life cycle). Bezeichenderweise wurde den Bibliotheken dabei die Pflege der Metadaten bis zum Dublin Core Level zugestanden – „alles weitere ist Fachinformation“ (z.B. Georeferencing – „das machen wir“, so der Geowissenschaftler. Waren E-Science und „Digital Data Curation“ noch auf der vorletzten Bielefeld-Konferenz nur das nebulöse Schlagwort am Horizont, kommen jetzt schon erste Anwendungen in Bibliotheken zum Vorschein (TIB Hannover, ETH Zürich) und vor allem die Forderung der Wissenschaftler nach infrastruktureller (nachhaltiger) Unterstützung. (Session „Management von Forschungs- und Primärdaten“).

Aber auch in anderen Kontexten wurde von E-Science und sogar auch von Grid gesprochen: in der höchst professionell zusammengestellten Session von Heike Neuroth zur Interoperabilität von Metadaten, stand das Thema mehrfach im Hintergrund. Prägend bei Grid und E-Science ist ja der soziale und kooperative Aspekt von Informationsarbeit, der durch die neuen Technologien nur noch globalisiert forciert zum Tragen kommt. Die Entwicklung von „Weltdatenzentren“ sind das schlagende Beispiel der sich unabhängig von Bibliotheken ergebenden neuen Infrastruktur. Oder die vielfältig sprießenden Ontologien unterschiedlicher Fachdisziplinen.

In der von Emerald organisierten internationalen Session des Bibliothekartags „Shakers and Movers“ wurde ebenfalls von mehreren Sprechern darauf hingewiesen, dass sich der „Scope“ der Bibliotheken nicht nur von der lokalen Verräumlichung löst, sondern mittlerweile eben auch völlig andere Arten spezieller „Sammlungen“ beinhaltet – d.h. also auch von Datensätzen und nicht nur von DVDs oder Podcasts.

Besonders interessant war dann das Fazit der Metadaten Session: „Es mangelt an Dokumentation der Metadaten“ und „Metadaten müssen laufen lernen“. Das meint nicht nur die zunehmend globale Zusammenarbeit (Interoperabilität) von Metadaten, sondern bedeutet eben auch eine wesentliche Herausforderung an die klassische Dokumentation: die alten (oder auch neuen) Thesauri, Klassifikationen und anderen Erschließungsinstrumente, stehen nun unter gänzlich anderen Herausforderungen. Es kommt immer mehr darauf an, den Kontext von Erstellung und Nutzung/Nutzbarkeit von Informationsaufbereitungsinstrumenten zu beachten: die Dokumentation der eigenen Arbeit in der von RDF geforderten Stringenz und in einem expliziten Lebenszyklusmodell (digital data curation life cycle model). Meta-Daten lernen aber eben nur laufen, wenn sie mit ‚Laufwerkzeug’ ausgestattet sind. Dieses muss aber intellektuell (von Menschen) entwickelt werden. Daraus ergibt sich nunmehr die doppelte Forderung nach Finanzierung intellektueller Erschließung und Informationsinfrastruktur (früher: „Fachinformation“).