Tag Archives: data-librarian

BMBF Projekt erfolgreich abgeschlossen

Nach knapp drei Jahren mit wechselndem Personal und mehreren „Projektkindern“ kam diese Woche das BMBF FHprofUnt-Projekt „Datacreativity Tools for Innovation and Research“ zum erfolgreichen Abschluss. Wir haben mit wenigen Abstrichen das erreicht, was wir uns vorgenommen hatten. Zwar kommt es vielleicht nicht zu der konkreten Produktentwicklung, die der BMBF sich bei solchen Projekten wünscht, aber wir haben zumindest eine Patentanmeldung für unser Konzept zum „kreativen Ideenfinden in Datenbergen“ auf den Weg gebracht. (Übrigens eine interessante Erfahrung, so eine Patentanmeldung! (Vielen Dank an die Beteiligten.)

Kreativität durch Recherche von Nicht-Wissen

lautete das Motto des Abschlussworkshops des Projekts. Die Grundstruktur lässt sich folgendem Diagramm entnehmen:

DCT-prozessdiagramm

 

Eine Reihe von internationalen Publikationen erläutern unser Konzept (s. auf der Website), das neueren Kreativitätsforschungen folgt, und versucht, diese mit Datenrecherche zu verknüpfen. Der Kerngedanke ist dabei, dass neue Ideen vorwiegend durch Grenzüberschreitungen kommen, weshalb es uns wichtig war, in dem Interface Recherchemöglichkeiten ihn verschiedensten Daten- und Informationsquellen zu kombinieren.

Der ursprüngliche Ansatz ggf. durch Browsing in visualisierten Ontologiestrukturen zu stöbern und so Ideenfindung zu ermöglichen, scheiterte an der Komplexität der notwendigen Ontologien zu den zugrundeliegenden Datenquellen und an der Tatsache, dass uns die entsprechenden Experten zur Visualisierung und zu Fragen semantischer Technologien im Projekt fehlten. (Das Projekt war ja in meiner Zeit als Dekan an den Fachbereich geholt worden, mit dem Ziel, diesen Schwerpunkt des Fachbereichs auch mit Forschung zu unterlegen – das hat aber aus verschiedenen Gründen personell nicht geklappt.) Statt Onotologieentwicklung wurde nun Kreativitätsforschung und der Einsatz von Webservices und RDF Strukturen zum konzeptionellen Kern des Projektes.

Im Rahmen der Abschlussarbeiten des Projekte wurden auch noch mehrere Nutzungs- und Nutzertests durchgeführt, bei denen recht allgemein (und damit vielleicht nicht validierbar genug) herauskam, dass das System funktioniert.

Es bleibt vor allem den kompetenten Projektmitarbeitern Lars Müller und Thomas Wetzel für die disziplinierte und engagierte Projektarbeit zu danken und ihnen alles Gute zu wünschen! Es hat viel Spaß gemacht. Schade, dass Drittmittelprojekte immer so kurz finanziert sind, was könnte man nicht alles noch zusammen machen…

Dank für die anregende Zeit geht auch an die weiteren Projektbeteiligten, wie Judith Pfeffing (unsere SCRUM Masterin zu Anfang), an unsere stud. und wiss. Hilfskräfte Christoph Höwekamp, Christoph Szepanski und Björn Lindequist – ohne sie wären wir nie so weit gekommen. Und natürlich an unsere Kooperationspartner: Thomas Schrader (Charité/FH Brandenburg), Danilo Schmidt (Charité), Carsten Becker (GIB), Kawa Nazemi (FhG IGD) u.v.a.m. sowie nicht zuletzt an unsere Testprobanden und letztlich natürlich an die verschiedenen Projektträger des BMBF und unsere Hochschulverwaltung Frau Diana Deponte.

Semantic Web und Datenmanagement meets Verlagswelt

Konferenzbericht zur APE2012: „Academic Publishing Europe“

Semantic Web, Forschungsdaten & Co: nur Schnick-Schnack oder von Autor und Leser gewünscht in der wissenschaftlichen Publikation?
Oder: sind Content und Qualität wichtiger als neue Tools und automatisierte Services?

(PDF Fassung dieses Textes hier). Eine gekürzte Fassung dieses Beitrags ist erschienen in: PASSWORD, 03/2012 S. 8-9.

„Bells & whistles“ war eines der am meisten zu hörenden Idioms auf der APE2012 Konferenz, der „Academic Publishing Europe“ in Berlin im einladenden Leibniz-Saal der Akademie der Wissenschaften am Gendarmenmarkt am 24.-25. Januar 2012. Das Geklingel der „Techies“ war manchem Verleger etwas viel, aber die Begegnung der Welten wurde dennoch als bereichernd empfunden, ob von beiden Seiten kann man jedoch hinterfragen. Die eine Welt war die der klassischen akademischen Verlage, von denen auf Redner- und Teilnehmerliste kaum ein wichtiger Player fehlte. Die andere Welt kam für manche aus der Zukunft: Vertreter neuer Technologien und Werkzeuge der Daten-, Informations- und Dokumentverarbeitung von Semantic Web Konstrukteuren bis zu Repository Managern. Aber auch die traditionelle Informations- und Bibliotheksbranche war anwesend, so dass praktisch ein dreiseitiger Dialog stattfinden konnte, der neben der Zukunft der technologischen Entwicklung des wissenschaftlichen Arbeitens und Publizierens auch immer wieder um die Frage kreiste, ob der von vielen Bibliothekaren favorisierte grüne Weg oder der für die Verlagswelt lukrativere goldene des Open Access Modells eingeschlagen werden sollte.

Arnoud de Kemp eröffnet die Tagung

Arnoud de Kemp, der Initiator der Tagungsreihe, zog zum Abschluss denn auch die übergreifende positive Bilanz: Ziel dieser Art Tagung sei immer gewesen, die Verlagswelt mit der Informations- und Bibliothekswelt zusammenzubringen. Dies sei eindeutig gelungen, das Ziel erreicht, weshalb er vorschlug, die Konferenzreihe nun nach der siebten Auflage zu beenden. Nur der heftigen Gegenwehr des am Schluss der Tagung immer noch zahlreich anwesenden Publikums ist es zu verdanken, dass Arnoud de Kemp doch noch zur Folgekonferenz am gleichen Ort zum 29.-30. Januar 2013 einladen konnte.
Und dies zurecht: die Tagung wurde von den meisten Anwesenden als überragend qualitativ hochwertig eingeschätzt, als ein idealer Ort zum Netzwerken und zum Wissensaustausch, als Möglichkeit der Begegnung mit neuen und alten Ideen und Freunden. Mit Sicherheit haben sich viele der anwesenden dieses Datum notiert, nicht nur wegen des anregenden Conference Dinners.

Gleich zu Beginn konnte man Derk Haank (ehem. Elsevier seit einiger Zeit Springer) wiedersehen, der sich auch sichtlich freute, wieder mal vor den Kollegen zu sprechen. Launig wie man ihn kannte, machte er den Verlegern deutlich, welch eine erfolgreiche Branche sie vertreten: kaum eine andere hat, vor allem in Europa, weiterhin solche Gewinnzuwächse. Und die Lieferanten und Kunden werden kontinuierlich mehr: die Wissenschaft wächst weltweit in einem enormen Ausmaß. Die Frage allerdings, wie man dem ständigen Wissens- und Publikationszuwachs Herr werden könnte, stellte er nur, ohne sie zu beantworten. Im Gegenteil: nach dem Internet wird es keine weiteren technologischen Revolutionen mehr geben, so dass es an der Zeit ist, zu normaler verlegerischer Qualitätsarbeit zurückzukehren und auf technischen Schnickschnack zu verzichten. Er berichtete von seiner Zeit bei Elsevier (bis 1999) als einer Zeit der Angst und Aufregung, in der er nur unzufriedene Kunden erlebt hätte. Jetzt würde er nur noch zufriedenen Kunden begegnen. Auch Marktforschung könne diesen Trend belegen. Implizit führte er dies auf den zunehmend für den Endnutzer vereinfachten Zugang zu digitalen Publikationen z.B. unter Open Access oder Paket-Lizenzen zurück. Er persönlich sei ja nie gegen Open Access gewesen, das sei ja auch nicht des Teufels, vor allem die ,Golden Road‘. Nur sein damaliger Arbeitgeber hätte ihm eben verboten dafür zu sein… er sei jetzt dafür, weil er ja auch nicht ewig zu den Dinosauriern gehören wolle. Im übrigen sei ja wirklich der „Big Deal“ die beste Erfindung seit „geschnitten Brot“! („best invention since sliced bread“).

Mit dieser Keynote zur brillanten Zukunft des Verlagswesen war der Tenor und die Stimmung für die Tagung gesetzt, so dass selbst das mit Spannung erwartete Statement von Jean-Claude Burgelmann von der EU Kommission dem kaum noch etwas entgegen zu setzen hatte. Er zeichnete eine andere, ebenfalls brillante Zukunft, machte aber gleichzeitig mehrfach deutlich, dass es sich nicht um ein etwas Offizielles aus Brüssel handelte, sondern alles nur seine „private Meinung, nicht zur Veröffentlichung“ geeignet sei. Für ihn werden sich mit Science2.0 fantastische Möglichkeiten für die Wissenschaft ergeben, die sich im Moment noch kaum abschätzen lassen, aber mit Sicherheit viele Institutionen des Wissenschaftsbetriebs in ihren Grundfesten erschüttern und ein allgemeines Umdenken einleiten werden. Wir stehen seiner Meinung nach erst am Beginn eines umfassenden Wandlungsprozesses. Während das Internet Wissenschaft lediglich verhalf digital zu werden, wird sie jetzt (mit Web2.0) allgegenwärtig („ambient“). Der Trend des modus operandi der Wissenschaft gehe eindeutig zu öffentlichen Systemen, z.B. aufgrund der Tatsache, dass Publizieren als „self publishing“ so ungemein günstig geworden ist. Der Trend zur Öffentlichmachung des Wissens sei unumkehrbar, auch weil der Druck auf das Gesamtsystem der Wissenschaften von Seiten der Produktion wie der Nachfrage so explosionsartig wachse, Schnelle Lösungen drängen sich auf und lassen sich jetzt im Web realisieren. Er verwies zwar auf Schlagworte wie big data, crowd science, peer-to-peer-publication, distributed validation, zog aber eher den Schluss, dass Wissenschaftler neue Arten von Wissensmanagement-Kompetenzen benötigen, bis hin zu der Forderung, dass sich das in den Curricula der Bildungsinstitutionen niederschlagen müsse.

Nach dieser fulminanten Eröffnungssession wurden die gesetzten Argumente weiter vertieft. Mark Ware von Outsell bestätigte das optimistische Bild zur Wirtschaftssituation im Wissenschaftsverlagswesen, das Hank schon gezeichnet hatte: eine prosperierende „26 billion $ industry“ mit einigen monopolistischen Tendenzen zwar, aber eben mit einem „very long tail“. Die traditionellen STM Bereich hätten jedoch auf hohem Stand einen leichten Effektivrückgang erlebt und nun sei abzuwarten, welche Rolle die Forschungsförderinstitutionen einnehmen würden. Der Trend ginge zu größerer Internationalisierung des Marktes bei gleichzeitig steigender Bedeutung des Lokalen, was er an der steigenden Anzahl der in der Wissenschaft verwendeten Sprachen festmachte. Steigendes Wissenschaftsangebot bei gleichzeitig erhöhter Nachfrage erfordere jetzt mehr als nur den optimalen Zugang: neue Werkzeuge zur Bewältigung der Informationsflut seien notwendig.

Ähnliche Aussagen zur allgemeinen Marktentwicklung traf Nick Fowler von Elsevier. Er betonte die zunehmende Interdisziplinarität der Wissenschaft, ihre weitere Diversifizierung und Internationalisierung, die er gerade bei den aufstrebenden Volkswirtschaften wie China, Brasilien, Japan, und Süd-Korea festmachte. Vor allem aber sieht er eine weitergehende Tendenz zur Kommerzialisierung der Forschung, weil es sich als zunehmend schwierig für die Staaten erweist, Forschung öffentlich zu finanzieren. Hieraus ergeben sich neue Verantwortungen für Verlagswesen wie für Aggregatoren. Sie können im Wissenschaftsprozess weiterhin die Rolle der Moderatoren und Mittler spielen, indem sie gute Arbeit machen, die Zusammenarbeit zwischen Disziplinen fördern, die Datenintegration ermöglichen und vor allem weitreichende Analysetools bereitstellen, die die Wissenschaften und ihre Dynamik darstellen und managen helfen.

Nach den Überblicks- und Eingangsvorträgen wurde es zunehmend detaillierter, manchmal  sah es auch eher als Product Review aus, denn viele vor allem die Technik orientierten Redner stellten ein besonderes Projekt oder Produkt vor, auch wenn sie in ihrer Herleitung oft wichtige allgemeine Aussagen trafen.

So stellte Mark Bide von EDitEUR, das europaweite Projekt einer Multistakeholder Initiative des European Publishers Council vor: die Linked Content Coalition. Bezeichender Projekt-Titel ist „The answer to the machine is in the machine“, obwohl es vor allem darauf abzielt, Interoperabilitätsstandards zum Abgleich von Lizenzdaten auszuhandeln. Kim Zwollo von RightsDirect betonte die zunehmende Bedeutung der  Zweitverwertung von Rechten und machte auf Produkte des Copyright Clearance Centers aufmerksam. Das wachsende Interesse an den Dienstleistungen von RightsDirect sieht er vor allem im unternehmensinternen Bereich. Auf Nachfrage in der Diskussion erläuterte er, dass 80% der durchgeführten Transaktionen „non-value-transactions“ seien, wobei die werthaltigen zu 90% im Unternehmensbereich angesiedelt sind und dort Rechte für externe Nutzung regeln.

Von den Vertretern der Schnickschnack-Seite der Diskussion stellten Maurits van der Graaf und Eefke Smit vom Publishing Research Consortium eine sehr interessante und differenzierte Studie zum Content Mining von Artikeln unter dem etwas irreführenden Titel „Tracing Tacit Knowledge“ vor. In einer qualitativen Erhebung (N=29) konnten sie feststellen, dass die automatische Erschließung von Texten nach fast 30 Jahren Entwicklung noch immer nicht zur Marktreife gelangt ist, auch wenn mittlerweile die Technologie den schicken Namen „semantic content enrichment“ trägt. Die Nachfrage nach dynamisch erschließbarem Text ist zwar vorhanden, aber es bleibt weiterhin unklar, nach welchem Business Modell dies beim Kunden zu verwerten ist. Intern wird Content Mining jedoch schon bei der Hälfte der Verlage eingesetzt.

Peter Doorn vom niederländischen Datenarchiv DANS konnte von Erfahrungen berichten bei der Integration von Daten in Publikationen. Ganz entsprechend dem schon von Burgelmann erwähnten vierten Paradigma der Wissenschaften, der „data-driven-science“ gab Doorn das Credo aus: „Data is hot“. Eigentlich eine interessante Feststellung, wo doch Datenarchive gerade in den Sozialwissenschaften schon eine sehr lange Geschichte haben. Die Fragen und Methodenprobleme der Nachnutzung von Datensätzen sind seit Jahrzehnten die gleichen geblieben. Dennoch kann DANS auf 1800 erweiterte („enhanced“)  Veröffentlichungen verweisen, in denen der Zugriff auf Datensätze direkt eingebunden wurde.

Zu den neuen Formen der integrierten Publikation bezog schließlich auch Sven Fund (de Gruyter) Stellung. Für ihn ist die Herausforderung nicht der Schnickschnack „jahrzehntelang neuer“ Technologien (wie dem semantic content enrichment), sondern die komplexe Interdependenz von Technologie zu Geschäftsmodell, Workflow, Produkttyp und Absatzinstrumenten. Der Spruch der schwellenlosen Integration neuer Services erscheint ihm ebenfalls nicht als technologisches, sondern eher als Managementproblem: er sieht das Management dabei zu oft im „bug fixing mode“ – auf der Wanzenjagd der nachträglichen Problembehebung. Hier ist neues, prozessorientiertes Denken erforderlich. Das Hauptproblem des Wandels im Verlagswesen ist seiner Meinung nach der Verlagsmitarbeiter: es fehlen Kompetenzen im Führungs- und Kommunikationsbereich, in betriebswirtschaftlichem Know How und bei der Konfliktlösung. Trotz aller vorher verbreiteter Euphorie sieht er die Notwendigkeit zu einem fundamentalen Wandel der Verlagswirtschaft, z.B. weil sich auch Lohnerhöhungen in den Offshoring Ländern abzeichnen und weil sich die Art des Geschäfts von der reinen Lieferindustrie zur einer sehr viel stärkeren Nachfrageorientierung auch im Verlag ändert. Die Kunden sind Häppchen („snippet“) fixiert, der Wissenschaftsbetrieb wird sich insgesamt, also auch in den Geistes- und Sozialwissenschaften, dem naturwissenschaftlichen Publikationsmodell anpassen und die von der Informationswirtschaft schon lange beklagte Prozess der Disintermediation wird sich weiter beschleunigen. Aufgrund solcher großer Herausforderungen sollten man lieber auf technologische Experimente verzichten und die den Technologen überlassen.

Den Höhepunkt des ersten Tages bildete die „APE Lecture“ des Direktors des Max-Planck Albert-Einstein-Instituts Bernhard Schutz, der aus der Sicht eines reichen Forschungsinstituts darlegte, dass der goldene Weg des Open Access eine sinnvolle Zukunft ist. Alle Beteiligten – er prägte dabei einen neuen Gattungsbegriff: die RPSO‘s („Research Performing and Support Organisations“) – sollten für OA aufkommen. Es sei ja eine relativ geringe Summe von 1 bis max. 2% der Forschungskosten, die zu investieren es sich lohnen würde. Dass OA bisher noch nicht so gut funktioniere, liege ja nur daran, dass es „grüne“ Konkurrenz gäbe. Wenn alle sich an den goldenen Weg halten würden, wäre alles wunderbar. Das Problem der Verlagsindustrie sei die Abkoppelung von Einnahmequelle (Abonnements) und Kostentreiber (Artikeleinreichungen). In beiden Modellen würden die RSPO‘s sowieso die Kosten zahlen. Das Modell überzeugte zumindest die anwesenden Informationsfachleute eher weniger. Das Kerngeschäft des wissenschaftlichen Verlagswesen sah Schutz weiterhin in der Qualitätssicherung (im Peer Review), neue Geschäftsfelder jedoch im Bereich der Such- und Entdeckungsverfahren, die die neuen Technologien versprechen.

Das Podium der "Wake-Up-Session" am zweiten Tag

Diese Gegenüberstellung sollte eine „Wake-up Session“ zu Beginn des zweiten Tages unter dem Thema „Ist das Semantic Web tot?“ weiterführen. Das Podium war besetzt mit hochkarätigen Experten beider Welten. Richard Padley (Semantico) gab eine launige Einstimmung, indem er das Semantic Web mit dem Heiligen Gral verglich, bezweifelte, dass es irgendwo erfolgreich eingesetzt würde und deshalb wie der tote Papagei von Monty Python sei. Der wachmachende Vortrag kam wegen seiner Provokation gut im Publikum an – weniger bei den meisten anderen Podiumsteilnehmern. Stefan Gradmann (HU Berlin), Felix Sasaki (DFKI, W3C, FH Potsdam) und Denny Vandrevic (KIT Karlsruhe, Wikimedia) konnten eindringlich belegen, dass schon jetzt viel „Semantik“ im Netz vorhanden ist. Sasaki bot immer wieder das Gespräch an: nur im intensiven Austausch miteinander würden die Verleger verstehen, dass die neuen semantischen Technologien eben nicht nur Schnickschnack seien. Michael Dreusicke (PAUX Technologies) griff das Bild der Religion auf und verwies im Grunde auf das Gleiche, nämlich, dass das Semantic Web offensichtlich ein Marketing und Kommunikationsproblem habe. Der einzige Verleger in der Runde Sven Fund (de Gruyter) meinte am Schluss nur noch: „Jesus Christ, what are you talking about“. Seiner Meinung nach sei der Papagei wirklich tot und das ganze Semantic Web nur ein Geschäftsmodell für Standardisierer. Business liefe aber nicht über Standardisierung, sondern über Wettbewerb der Unterschiede. Auch die Diskussion mit dem Plenum zeigte eine Spaltung: die Verlagswelt war überaus skeptisch, fragte nach Kosten und Nutzen und beklagte sich, dass man nur ein Testwagenmodell angeboten bekäme und kein Fahrzeug mit dem man schon richtig fahren könne. Auch das Argument, dass schon viele ähnliche Standardisierungsversuche wie SGML oder TEI sehr lange gebraucht haben, um sich durchzusetzen, aber dennoch ihr eigentlicher Output immer noch ziemlich gering ist, wurde wieder einmal bemüht – von Geoffrey Bilder (CrossRef) .

Nach dieser spannenden, aber ergebnisoffenen Kontroverse kam es wieder zur Vorstellung von Einzelprojekten und Produkten. Teilweise wurden die aktuellen Weiterentwicklungen bekannter Initiativen vorgestellt – teilweise handelte es sich um Neues.

Daniel Mietchen (EvoMRI) zeigte live die Möglichkeiten einer Publikationsform innerhalb der Wikipedia und machte damit anschaulich, dass es sich bei Forschungsergebnissen nicht um lange Texte handeln muss, sondern dass sie auf diese Weise kondensiert in einzelnen, kurzen Aussagen im Wissenskorpus der Wikipedia sehr schnell Eingang und Gehör finden können, womit der Wissenschaft mehr geholfen sei als die erneute Steigerung der Publikationsflut mit langen diskursiven Artikeln. Interessant war die Frage aus dem Publikum, ob diese Art von Wissenschaft vielleicht nicht zu spielerisch sei?
Geoffrey Bilder (CrossRef) gab ein Update zu CrossMark und ORCID. Ersteres ist ein Angebot an Verlage zur Verfolgung von Neuauflagen und Weiterentwicklungen von Texten: ein Klick auf das CrossMark-Logo bei einer Referenz, zeigt dem Leser, dass es dazu neues gibt wie Errata, Kommentare oder gar einen Rückruf eines Produktes und führt ihn zur entsprechenden Webseite des Verlegers. ORCID („Open Research & Contributor Identification“), ein System, das im zweiten Quartal 2012 operativ sein soll, ermöglicht die Vergabe eindeutiger, lebenslanger ID-Nummern für Autoren. Als Bilder darauf hinwies, dass möglichst bald auch Studenten alle mit einer ORCID versehen werden sollten, wurde auf Twitter gewitzelt, dass man diese Nummer ja doch lieber gleich den Babies eintätowieren sollte.

Der vielleicht spritzigste und geistreichste Vortrag auf der APE2012 kam von Steve Pettifer (Universität Manchester), der darauf hinwies, dass der wissenschaftliche Publikationsmarkt einem Gefangenendilemma gleicht: Autoren und Verleger sind im wissenschaftlichen „publish or perish“ aufeinander angewiesen und können eben nicht wie Schutz am Abend vorher vertreten hatte, ihr Aussagensystem ohne eigene Verluste ändern: eine tödliche Umarmung. Er zeigte aber auch schließlich, dass die „Technik vs. Inhalt“ Debatte der Tagung viel fundamentaler ist als vermutet und machte an einer Reihe von Beispielen deutlich, dass Maschinen prinzipiell die Semantik von Sprache nicht verstehen können. Eine sehr alte Debatte, die es wert ist, wieder in Erinnerung gerufen zu werden und deren Lösung nicht in Sicht ist. Anhand von berühmten Publikationen der Wissenschaftsgeschichte demonstrierte er, dass vor allem die wesentlichen Erkenntnisse von Wissenschaft in ihren Texten nicht maschinell erfassbar sind. Das Produkt, das er kostenfrei anbietet (Utopia Documents), setzt daher eher an dem Punkt an, zentrale Elemente wie Grafiken oder Kommentarknotenpunkte zu Textstellen bequemer zur Verfügung zu stellen.

Stefan Geißler (TEMIS) konnte anschaulich und nachvollziehbar belegen, dass es sich bei den neuen semantischen Technologien nicht nur um Schnickschnack handelt. Die von ihm demonstrierten Anwendungen und kundenspezifischen Entwicklungen von semantischer Anreicherung von Dokumenten in spezifischen Unternehmenskontexten war beeindruckend. Auch in der Informations- und Verlagswirtschaft (Thomson, Springer etc.) wird die Technologie von TEMIS für spezifischen Kundenanforderungen bereits erfolgreich eingesetzt. Diese Art der Informationsextraktion erlaube, in großen Textvolumina zu navigieren wie in einer strukturierten Datenbank, womit belegt sei, dass semantische Technologien doch schon den eingangs der Tagung vermissten Reifegrad erreicht hätten: als „disruptive innovation“! In der Diskussion wurde nach dem Einsatz von standardisierten Metadaten gefragt (Sasaki) und verneint und von Verlegerseite kam die interessierte Rückfrage nach den Kosten, die mit 60-70 Arbeitstagen (+Lizenz für die Software!) als sehr erschwinglich vermittelt wurden.

Eine ganze und in sich homogene Session wurde dem Thema Datenintegration gewidmet. Hier gab es vor allem Updates zu Projekten, die in der Informationsbranche leidlich bekannt sind, aber vielleicht für die Verlagswirtschaft einen wichtigen Einblick in die Auswirkungen des vierten Paradigmas der datenorientierten Wissenschaft gaben. Tagungs-Quotenfrau Eefke Smit (STM, Amsterdam) gab einen anschaulichen Überblick über die Forschungsdatenmanagementszene in Europa und die ersten Ergebnisse der EU Initiative „Opportunities for Data Exchange“. Jan Brase (DataCite) berichtete über den Stand der DOI Vergabe für Datensätze und gab wichtige Hinweise für deren Nutzung und Integration in Publikationen. Die Datacite Association hat mittlerweile eine stabile Größe erreicht , um die Verbreitung und Verwertung des neuen Goldes im Wissenschaftsbetrieb sicherzustellen. Das bloße Zitieren von Zeitschriften-Artikeln ist „18. Jahrhundert – Stil“. Im 21. Jahrhundert zitiert man Daten. Michael Diepenbroek (Uni Bremen) konnte die zwanzig jährige fachbezogene Erfolgsgeschichte der Datenarchivierung in den Erd- und Umweltwissenschaften durch PANGAEA und MARUM demonstrieren und beispielsweise belegen, dass Publikationen, die Daten(zugänge) integriert haben, zu 35% öfter zitiert werden. Ein komplettes Modell zur verlagsseitigen Publikation von Daten analog dem Review Prozess für Artikel stellte Todd J. Vision mit Dryad vor. Ähnlich dem Lektor ergibt sich hier nun die Funktion des Datenkurators, so wie es in Datenarchiven nun schon häufig den Data Librarian gibt. Wichtig war der Hinweis, der sich in der Diskussion ergab, dass datenintegrierte Publikation wieder mehr vom PDF-Format weg und auf die Verlagswebsite hinführen könne, was wiederum mehr Nutzer auf diese ziehen würde. Das wäre schon ein „Schnickschnack“, der sich auszahlen könne.

Den Reigen der Vorträge schloss eine „Keynote aus den USA“ ab. Fred Dylla (AIP) gab einen spannenden Überblick über das letzte Jahr der Urheberrechtsdebatte für Forschung und Wissenschaften, die auf Anforderung des amerikanischen Präsidenten mühevoll zunächst zumindest so gelöst schien, dass die Kontrahenten, Verleger und Bibliothekare, wieder mehr miteinander kommunizierten. Er warf der Verlagsseite allgemein ziemlich vehement ein Marketing und PR Problem vor. Verleger hätten es im letzten Jahrzehnt nicht vermocht, der Bibliothekswelt wie auch der Politik deutlich genug zu vermitteln, was verlegerische Qualitätsarbeit bedeute. Im Laufe des letzten Jahres hatte es das OSTP („Office of Science and Technology Policy“) des Weißen Hauses geschafft einen Stakeholder Dialog anzuregen, der Win-Win-Projekte ab 2013 initiieren sollte. Kurz vor Ende des letzten Jahres wurde jedoch vom Kongress der Research Works Act (HR 3699 (RWA)) eingebracht, der die erreichten Diskussionskompromisse im Hinblick auf die Öffnung des Zugangs von Forschungsergebnissen wieder stark einschränken will und damit vor allem wieder das Klima vergiftet. Vor dem Hintergrund der STOPA/PIPA Debatte in den letzten Wochen, machte sich eine Ahnung bei den europäischen Zuhörern breit, wie kompliziert und langwierig die politische Entscheidungsfindung auch auf der anderen Seite des Teiches ist. Erstaunliches Fazit von Dylla war: wir Verleger haben da ein ziemliches Kommunikationsproblem, aber lasst uns dennoch kooperieren auf einem weniger politischen Feld: dem der Open Data!

Das von Sven Fund geleitete Abschlusspanel konnte die Positionen, die sich auf der Tagung gezeigt hatten nicht wirklich klären. Einer der Panelisten sagte ehrlich, dass er gar nicht auf der Tagung gewesen sei und deshalb nichts darüber sagen könne, die anderen bezogen nicht Stellung zu den Fragen nach der Religiosität des debattierten Schnickschnack. Sabine Graumann (TNS Infratest), die sich fragte warum sie auf dem Panel war, gestand aber, dass sie viel gelernt hatte in den zwei Tagen, z.B. dass Verleger Open Access mögen. Sie betonte vor allem die Qualitätssicherungsrolle der Verleger, machte aber auch erneut aufmerksam auf den enormen ROI, der bei Infrastruktureinrichtungen immer wieder nachzuweisen ist, wie sie es unlängst bei der TIB tun konnte. Heinz Weinheimer (Springer) formulierte noch einmal deutlich, was sicher die Quintessenz der Tagung für viele der anwesenden Verleger war: lieber (noch?) nicht in RDF investieren und stattdessen wieder auf die Kernkompetenzen und das Alltagsgeschäft konzentrieren: mit den Autoren arbeiten, den Inhalt anreichern und Zugang zum Wissen verschaffen. Ein „noch positiveres“ Fazit zog schließlich aus dem Publikum sogar Frank Sander (MPDL), der den Verlegern riet, Open Access (gold) als Chance zu sehen: es ermögliche mehr persönlichen Kontakt und Service mit Autoren und Lesern. Endlich könnte man doch die Bibliotheken los werden!

Wie dienlich diese Schlussstatements für den notwendigen Dialog zwischen Technologen, Infrastrukturen, Verlegern und ihren Kunden, den Wissenschaftlern, waren, sei zunächst dahin gestellt. Auf jeden Fall belegte die Konferenz wie wichtig der Kommunikation und Austausch ist – zwischen immer mehr Stakeholdern.

Die Tagung ist per Video von River TV mitgeschnitten worden, die Tagungsbeiträge werden auf der Website der Tagung (www.ape2012.eu) bzw. in der Zeitschrift „Information Services & Use“ veröffentlicht, in der auch ein ausführlicher Bericht erscheinen wird.

Die Tagung wurde auch einigermaßen intensiv „betwittert“ – wenn auch ohne Twitterwall: #APE2012.

Hugo E. Martin berichtete live in seinem Blog hemartin.blogspot.com vom ersten Tag und vom zweiten Tag.

 

Reuß: das Buch fördert kritische Reflektion zu Tage

Prof. Dr. Roland Reuß am 11.1.12 in Potsdam

Roland Reuß in der Druckerei Rüss in Potsdam

Der mit Spannung erwartete Vortragsabend mit Roland Reuß in der Reihe „Das Buch im Digitalen Zeitalter“ hat alle Erwartungen erfüllt. Der streitbare Literatur-wissenschaftler und Medienkritiker lieferte frei und ohne Powerpoint Untermalung ein Feuerwerk seiner Argumente für einen qualitätsbezogenen Wissenschafts- und Medienumgang. Sein Vortrag war nicht nur eindimensional auf den angekündigten Titel „Das Buch als Individuum“ ausgerichtet. Man hätte hier reichlich Reflektionen zu Buchgeschichte, Philologie oder Typographie erwarten können. Vielmehr belegte Reuß viele seiner auch aus der breiteren Presse bekannten Thesen mit sehr persönlichen, anschaulichen Beispielen, so dass es auch kritischen Zuhörern schwer fiel zu kontern. Der Vortrag bewies somit eine seiner zentralen Thesen durch sich selbst: das Buch in seiner (haptischen und analogen) Materialisierung fördert kritische Reflektion zu Tage, und zwar im Zusammenhang mit seiner Produktion und seiner Rezeption. Beim Verfassen eines Buches gibt es den Zeitpunkt ab dem die Publikation „gilt“ und nicht mehr aus der Welt geschafft werden kann und die Rezeption eines Buches (bzw. hier: eines Vortrags) erfordert, oder zumindest: ermöglicht, die konzentrierte Hinwendung auf die Gedanken des anderen. Die Materialisierung des Gedankens in der analogen Welt – und sei es die der persönlchen Begegnung mit dem Autor – hat andere Qualitäten als das Digitale und Vernetzte. Mit dem Digitalen, so Reuß, ist es wie mit anderen Drogen: irgendwann ist man es leid. Oder wie mit Masern: die gehen vorbei. Die Geschwindigkeit des Produzierens und Konsumierens in der aktuellen Digitalen Gesellschaft behindert zumindest die Konzentrationsfähigkeit und reduziert damit die kritische Urteilskraft.

Begrüßung durch den Hausherrn, Christian Rüss

In diesem Zusammenhang beklagte er auch eine Immunisierung gegenüber Kritik bei der Reflektion über das Neue, die mit eben jenem Verlust von Urteilskraft einhergehe. Er sieht deshalb seine Interventionen als eminent politisch und bezogen auf die uralte Kernfrage: „wie erhöht man den Bildungsstand einer Gesellschaft?“. Er las hierzu aus dem Buch von John Ruskin „Sesam und Lilien“, der 1864 schon forderte, für die Slums in Manchester „Schatzkammern des Königs“ (=Bibliotheken) zu errichten um den Bildungsstand zum Wohle der Volkswirtschaft zu heben.  Reuß betonte immer wieder, dass er sich nicht als konservativ verstehe. Er verweist dabei auf seine intensive und langjährige Zusammenarbeit mit dem Stroemfeld Verlag / Roter Stern, beklagt aber: „Linke können nicht um die Ecke denken“ und verstehen nicht die Vorgehensweisen und Positionen der Großkonzerne gerade im Medienbereich. Seine Kritik am Internet fasst er provokativ zusammen: es ist für Leute, die Materialität haben wollen, aber nicht kriegen können, er nennt es deshalb pornographisch – die quantitaitiv große Verbreitung von Pornographie im Internet als Beleg dafür nennend. Zusätzlich verleitet die neue Technologie mit seiner unendlichen Perfektibilität dazu, nie einen Abschluss zu finden. Das Analoge, als Verkörperungdes Gedankens zwingt zu einer verantwortlichen Repräsentation dessen, „was gilt“. Es zwingt zu Autorschaft durch seine Stabilität und Referenzierbarkeit. „Zitieren Sie mal aus einem eBook!“ Der Open Access Gedanke der freien Zugänglichkeit von Publikationen im Netz sei nicht neu („ein Märchen“): dies haben Bibliotheken immer schon geboten. Warum nun zur „weltweiten Befreiungsbewegung“ die Verfügbarmachung von schlecht digitalisierten Handschriften ohne kritischen Editionsapparat, der das Verständnis alter Kulturproduktionen überhaupt erst ermöglicht, gehöre, sei nicht nachvollziehbar. „Was soll der Onlinezugriff auf eine unleserliche Handschrift von Hölderlin in Ghana?“

Karen Falke (Leiterin des Informationszentrums Informationswissenschaft und der Hochschulbibliothek) führt in den Vortragsabend ein

Es ist eben einfacher, schnelle Quantität zu produzieren als bildungsrelevante mühevolle Qualität. Dies diene eher im Grunde den Großkonzernen des Verlagswesens bzw. der Politik (in Gestalt der DFG). Er bezeichnet die Open Access Bewegung deshalb als den Versuch der „Abkoppelung der schreibenden Intelligenz vom Verlagssystem“. Die staatliche subventionierte Publikationsmaschine in Form von Repositories, Publikationszuschüssen und der Verpflichtung von Autoren für die Publikation zu zahlen, sieht er im Gegensatz zur Verwertung durch die Nachfrage der Leser und der darauf bezogenen privaten Investition eines Verlegers in die Kreativität von Autoren als tendenziell forschungsfeindlich und totalitär. Wissenschaft sei in erster Linie intrinsisch motiviert und ließe sich nicht über Publikationsquoten und Repository-Eintragspflichten der Universität steuern. Als typischer Geisteswissenschaftler verortet er die meiste wissenschaftliche Erkenntnisproduktion in der Freizeit des Wissenschaftlers – der ja sowieso schon eine Arbeitszeit von 80 Wochenstunden habe. Hier staatlich zu regeln und auf die kreativitätsfördernde Atmosphäre der verlegerischen Betreung und Förderung verzichten zu wollen, sei außerordentlich gefährlich. Jeder Prof könne seine Amtspflichten allein mit Lehr- und Verwaltungsaufgaben auf die ’normalen‘ 40 Wochenstunden reduzieren.

Aufmerksame Zuhörer

Zur weiteren Erklärung der aktuellen Situation stellte Reuß die Rede von der Gutenberg Galaxis in Frage: der eigentliche Wandel in den Medien sei nicht durch Gutenbergs typographische Mechanisierung der Schrift erfolgt, sondern durch den Wechsel von der Papyrusrolle zum Kodex, der den besseren Zugriff auf das Wissen bzw. vor allem die Stablisierung seiner Referenzierbarkeit ermöglichte. Die aktuelle Entwicklung sei deshalb eine „Rolle rückwärts“ (mit Verweis auf den EDV-Begriff des ‚volume‚ für Festplatte). „Wie enthemmt baden die Leute in Vagheit“ in Zeiten des Digitalen und der Vernetzung. Auch das Gerät, mit dem heutzutage gearbeitet werde, der vernetzte Computer, sei eine unglückliche Verschmelzung von Schreib-, Vergnügungs- und Einkaufsmaschine und fördere damit nicht die inhaltliche Konzentration auf den Gedanken. Bücher brauchen Zeit und Aufmerksamkeit: das ‚Ping‘ der ständig eintreffenden oder gerade nicht eintreffenden E-Mail lenke nur ab. Jede Hypertextseite verführe zum Öffnen der Links wie ein Adventskalender, der mit seinen Türchen neugierug macht, und damit zum Verlust des roten Fadens des Gedankens. Reuß ging dabei nicht soweit wie andere Internetkritiker, die behaupten, das menschliche Denken, ja das Gehirn würde sich deshalb zurückentwickeln, sondern blieb bei der Beschreibung dieser alltäglichen Erfahrung, die jeder macht.

Materialisierte Bücher als Anschaungsmaterial

Gegen Ende des Vortrag gab es noch einige explizite Kritiken an der aktuellen, oft unstrukturierten und wenig qualitativen Digitalisierungspraxis im deutschen Bibliothekswesen. Er bezog sich dabei auch auf den publizierten Vortrag von Frau Schneider-Kempf in der gleichen Vortragsreihe und löste damit eine Reihe von Fragen und Kritiken der anwesenden Bibliothekare und anderer Fachkollegen aus. In der Diskussion wurden dann die unterschiedlichen Positionen von produktionsorientierter Wissenschaft und eher rezeptionsorientierter Informationsinfrastruktur deutlich. Reuß wurde vorgehalten, dass er die neuen Möglichkeiten des Suchens und schnellen Zugriffs auf Informationen und Medien sowie die neuen Möglichkeiten des Digitalen Arbeitens unterschätze. Dem konnte er entgegenhalten, dass er in seinen kritischen Editionen und anderen Publikationen schon sehr früh digital gearbeitet („Kennen Sie noch Ventura Publisher?“) und stets, wenn möglich, hybrid (mit CD) publiziert hat. Er warb dann erneut für die Position des kreativen Wissenschaftlers und einen qualitätshaltigeren Bildungsbegriff, der mehr Langsamkeit und materialisierte Verantwortung auf allen Seiten brauche. Sein zentrales Beispiel war dabei das Argument, dass es wohl aufgrund der beschleunigten Entwicklung der Gesellschaft und der Volkswirtschaft seit mindestens 20 Jahren keine umfassende Theorie der Wirtschaft mehr gäbe, die die aktuelle Wirtschaftslage erklären könne. Mir persönlich wurde auch in der Vorbereitung u.a. klar, dass wir noch viel genauer auf die Entwcklungen des Medienwandels schauen und auch auf die Positionen der jeweiligen Diskutanten dazu hören müssen. So ist Roland Reuß mit Sicherheit nur zu verstehen, wenn man seine (auch sehr persönlich vorgetragenen) Erfahrungen als Herausgeber großer kritischer Editionen, zuletzt die Brandenburg-Ausgabe der Werke von Kleist, nachvollziehen kann. Ich selbst war eine Zeit lang intensiv beteiligt an der ersten großen Ausgabe der Werke von Montesquieu und fühlte mich in die Zeiten meiner wissenschaftlichen Anfänge als Philologe versetzt. Reuß selbst schreibt aber auch, wie wichtig für den Philologen, dem Freund der Rede [und der Vernunft], die Arbeit mit dem Originalmaterial in den Archiven ist (vgl. dazu seine überaus lesenswerten Notizen zum Grundriss der Textkritik). Hier schließt sich ein wichtiger Kreis zu den Informationswissenschaften als Basis für wissenschaftliche Arbeit: in den Informationsinfrastrukturen (wie dem Archiv) aber eben auch mit einem ‚kritischen‘ Ansatz ähnlich seiner Textkritik (hier dann information criticism oder Informationsbewertung). Ich kann aber auch gut verstehen, dass Naturwissenschaftler bisher die Positionen von Reuß nicht nachvollziehen können…. es sei denn, der Bibliothekswissenschaft gelingt es, die analoge Funktion von Datensätzen als „Dokument“ für diese Seite der zwei Wissenschafts-Welten darzulegen. Wir arbeiten daran (vgl. das jüngst erschienene Handbuch Forschungsdatenmanagement).

Diskussion bei Rotwein

Es war in der Tat ein anregender, und sicher für die Informations-wissenschaften in Potsdam wichtiger Abend. Beim abschließenden Gespräch in kleinen Runden herrschten die Kommentare vor, dass mittlerweile die Vortragsreihe ein repräsentatives und spannendes Bild auf den Wandel im Digitalen Zeitalter biete. Der Wunsch nach einer Fortsetzung – z.B. als Podiumsdiskussion aller Referenten – wurde schon jetzt laut. Den informationswissenschaftlichen Aufhänger der Vortragsreihe „Das Buch als Riff in den Netzwerkströmen?“ aufgreifend gab es schließlich sogar eine korrekte und anschauliche Darstellung in der heutigen Presse (Potsdamer Neueste Nachrichten, 13.1.2012, S. 20) mit dem Titel und Fazit:

Das Buch wird bleiben! Doch nicht als Riff, sondern als Leuchtturm!

Handbuch Forschungsdatenmanagement erschienen

Coverbild FDMMit etwas Verzögerung wegen meines Unfalls nun endlich erschienen:

Das Handbuch Forschungsdatenmanagement behandelt disziplinübergreifend zentrale Aspekte des Forschungsdatenmanagements aus informationswissenschaftlicher und  anwendungsbezogener Perspektive.  Zahlreiche ausgewiesene Expertinnen und Experten haben mit Beiträgen zu ihren Spezialgebieten mitgewirkt. Das Handbuch Forschungsdatenmanagement ist konzipiert als Leitfaden für das Selbststudium sowie zur Unterstützung der Aus- und Weiterbildung auf dem aktuellen Stand der Diskussion. Es richtet sich insbesondere an Einsteiger im Forschungsdatenmanagement, aber gleichermaßen auch an wissenschaftliche Datenkuratoren, IT-Administratoren und Informationswissenschaftler, die ihre Aufgaben im Forschungsdatenmanagement nicht mehr nur einzelfall- oder disziplinorientiert, sondern in Hinblick auf die Arbeit in und an Forschungsdateninfrastrukturen wahrnehmen wollen.

Das Handbuch ist als Printversion erschienen und steht zusätzlich über den OPUS-Server der FH Potsdam unter einer CC-Lizenz online zur Verfügung. Auf der Seite “Inhaltsverzeichnis” der bucheigenen Website: http://www.forschungsdatenmanagement.de/ sind die Kapitel direkt über die URNs velinkt.

Handbuch Forschungsdatenmanagement
Herausgegeben von Stephan Büttner, Hans-Christoph Hobohm, Lars Müller. Bad Honnef : Bock + Herchen, 2011.
ISBN 978-3-88347-283-6 ;  Preis:  24,90 Eur[D]

Vortrag im Innovationskolleg der Fachhochschule Potsdam

Innovation und Volition. DIKW in der Klimadiskussion: können Daten Verhalten ändern?

Das Thema hört sich zunächst obskur an. Mein Weg im und in das Innovationskolleg „Stadt-Klima-Potsdam“ der Fachhochschule Potsdam ist hier auch nicht immer gradlinig. Mein urspünglicher Ansatz betonte die sozialräumliche Komponente des Wissens in der Stadt: Orte und Flüsse des Wissens in der Stadt. Aber meine aktuell laufenden und teilweise auch erst kürzlich bewilligten Forschungsprojekte haben der Diskussion dann einen etwas anderen Drive gegeben: z.B. in Richtung Innovations und Kreativitätsforschung. Aber auch bekanntes taucht wieder auf: wen wunderts: DIKW – hier in der Fassung meines Beitrags im Lexikon der Bibliotheks- und Informationswissenschaft. (Grafik von mir als Versuch einer Neufassung, da kannte ich aber die Fassung von Donald Clark noch nicht.) Auch die Anregungen und Diskurse im Kolloquium und in den Interflex-Lehrveranstaltungen haben zu Ergebnissen geführt, die auch für mich unerwartet waren.

Das Kolloquien-Thema des Innovationskollegs war schließlich „Verhaltensänderung angesichts des Klimawandels„. Der Ablauf der Vorträge war im Wintersemester: Hermann Voesgen (Kulturarbeit) zur Projektgesellschaft, Jutta Bott (Sozialwesen) zu Verhaltensänderungen aus soziopsychologischer Sicht und Frank Heidmann (Interface Design) über persuasive Computing. Den möglichen Beitrag der Informationswissenschaften lotete mein Vortrag aus. Dass sich zu den drei anderen Disziplinen große Überschneidungen ergeben, ist nicht nur dem Thema „Klima+Verhalten“ geschuldet, sondern zeigt auch die Fruchtbarkeit des interdisziplinären Ansatzes des Innovationskollegsmodell der Hochschule.

Auch für die anderen Projekte am Fachbereich COPAL, Datacreativity Tools und Semantische und visuelle Technologien erwies sich die Beteiligung am Innovationskolleg als fruchtbar. Die Vorträge sollen bis zum kommenden Sommersemester in einer Broschüre vertextlicht erscheinen. (Bitte schauen Sie sich die Vortragsfolien im Fullscreen-Modus an, damit Sie die Vortragsnotizen lesen können, da die Bilder oft nicht selbst erklärend sind.)