Semantic Web und Datenmanagement meets Verlagswelt

Konferenzbericht zur APE2012: „Academic Publishing Europe“

Semantic Web, Forschungsdaten & Co: nur Schnick-Schnack oder von Autor und Leser gewünscht in der wissenschaftlichen Publikation?
Oder: sind Content und Qualität wichtiger als neue Tools und automatisierte Services?

(PDF Fassung dieses Textes hier). Eine gekürzte Fassung dieses Beitrags ist erschienen in: PASSWORD, 03/2012 S. 8-9.

„Bells & whistles“ war eines der am meisten zu hörenden Idioms auf der APE2012 Konferenz, der „Academic Publishing Europe“ in Berlin im einladenden Leibniz-Saal der Akademie der Wissenschaften am Gendarmenmarkt am 24.-25. Januar 2012. Das Geklingel der „Techies“ war manchem Verleger etwas viel, aber die Begegnung der Welten wurde dennoch als bereichernd empfunden, ob von beiden Seiten kann man jedoch hinterfragen. Die eine Welt war die der klassischen akademischen Verlage, von denen auf Redner- und Teilnehmerliste kaum ein wichtiger Player fehlte. Die andere Welt kam für manche aus der Zukunft: Vertreter neuer Technologien und Werkzeuge der Daten-, Informations- und Dokumentverarbeitung von Semantic Web Konstrukteuren bis zu Repository Managern. Aber auch die traditionelle Informations- und Bibliotheksbranche war anwesend, so dass praktisch ein dreiseitiger Dialog stattfinden konnte, der neben der Zukunft der technologischen Entwicklung des wissenschaftlichen Arbeitens und Publizierens auch immer wieder um die Frage kreiste, ob der von vielen Bibliothekaren favorisierte grüne Weg oder der für die Verlagswelt lukrativere goldene des Open Access Modells eingeschlagen werden sollte.

Arnoud de Kemp eröffnet die Tagung

Arnoud de Kemp, der Initiator der Tagungsreihe, zog zum Abschluss denn auch die übergreifende positive Bilanz: Ziel dieser Art Tagung sei immer gewesen, die Verlagswelt mit der Informations- und Bibliothekswelt zusammenzubringen. Dies sei eindeutig gelungen, das Ziel erreicht, weshalb er vorschlug, die Konferenzreihe nun nach der siebten Auflage zu beenden. Nur der heftigen Gegenwehr des am Schluss der Tagung immer noch zahlreich anwesenden Publikums ist es zu verdanken, dass Arnoud de Kemp doch noch zur Folgekonferenz am gleichen Ort zum 29.-30. Januar 2013 einladen konnte.
Und dies zurecht: die Tagung wurde von den meisten Anwesenden als überragend qualitativ hochwertig eingeschätzt, als ein idealer Ort zum Netzwerken und zum Wissensaustausch, als Möglichkeit der Begegnung mit neuen und alten Ideen und Freunden. Mit Sicherheit haben sich viele der anwesenden dieses Datum notiert, nicht nur wegen des anregenden Conference Dinners.

Gleich zu Beginn konnte man Derk Haank (ehem. Elsevier seit einiger Zeit Springer) wiedersehen, der sich auch sichtlich freute, wieder mal vor den Kollegen zu sprechen. Launig wie man ihn kannte, machte er den Verlegern deutlich, welch eine erfolgreiche Branche sie vertreten: kaum eine andere hat, vor allem in Europa, weiterhin solche Gewinnzuwächse. Und die Lieferanten und Kunden werden kontinuierlich mehr: die Wissenschaft wächst weltweit in einem enormen Ausmaß. Die Frage allerdings, wie man dem ständigen Wissens- und Publikationszuwachs Herr werden könnte, stellte er nur, ohne sie zu beantworten. Im Gegenteil: nach dem Internet wird es keine weiteren technologischen Revolutionen mehr geben, so dass es an der Zeit ist, zu normaler verlegerischer Qualitätsarbeit zurückzukehren und auf technischen Schnickschnack zu verzichten. Er berichtete von seiner Zeit bei Elsevier (bis 1999) als einer Zeit der Angst und Aufregung, in der er nur unzufriedene Kunden erlebt hätte. Jetzt würde er nur noch zufriedenen Kunden begegnen. Auch Marktforschung könne diesen Trend belegen. Implizit führte er dies auf den zunehmend für den Endnutzer vereinfachten Zugang zu digitalen Publikationen z.B. unter Open Access oder Paket-Lizenzen zurück. Er persönlich sei ja nie gegen Open Access gewesen, das sei ja auch nicht des Teufels, vor allem die ,Golden Road‘. Nur sein damaliger Arbeitgeber hätte ihm eben verboten dafür zu sein… er sei jetzt dafür, weil er ja auch nicht ewig zu den Dinosauriern gehören wolle. Im übrigen sei ja wirklich der „Big Deal“ die beste Erfindung seit „geschnitten Brot“! („best invention since sliced bread“).

Mit dieser Keynote zur brillanten Zukunft des Verlagswesen war der Tenor und die Stimmung für die Tagung gesetzt, so dass selbst das mit Spannung erwartete Statement von Jean-Claude Burgelmann von der EU Kommission dem kaum noch etwas entgegen zu setzen hatte. Er zeichnete eine andere, ebenfalls brillante Zukunft, machte aber gleichzeitig mehrfach deutlich, dass es sich nicht um ein etwas Offizielles aus Brüssel handelte, sondern alles nur seine „private Meinung, nicht zur Veröffentlichung“ geeignet sei. Für ihn werden sich mit Science2.0 fantastische Möglichkeiten für die Wissenschaft ergeben, die sich im Moment noch kaum abschätzen lassen, aber mit Sicherheit viele Institutionen des Wissenschaftsbetriebs in ihren Grundfesten erschüttern und ein allgemeines Umdenken einleiten werden. Wir stehen seiner Meinung nach erst am Beginn eines umfassenden Wandlungsprozesses. Während das Internet Wissenschaft lediglich verhalf digital zu werden, wird sie jetzt (mit Web2.0) allgegenwärtig („ambient“). Der Trend des modus operandi der Wissenschaft gehe eindeutig zu öffentlichen Systemen, z.B. aufgrund der Tatsache, dass Publizieren als „self publishing“ so ungemein günstig geworden ist. Der Trend zur Öffentlichmachung des Wissens sei unumkehrbar, auch weil der Druck auf das Gesamtsystem der Wissenschaften von Seiten der Produktion wie der Nachfrage so explosionsartig wachse, Schnelle Lösungen drängen sich auf und lassen sich jetzt im Web realisieren. Er verwies zwar auf Schlagworte wie big data, crowd science, peer-to-peer-publication, distributed validation, zog aber eher den Schluss, dass Wissenschaftler neue Arten von Wissensmanagement-Kompetenzen benötigen, bis hin zu der Forderung, dass sich das in den Curricula der Bildungsinstitutionen niederschlagen müsse.

Nach dieser fulminanten Eröffnungssession wurden die gesetzten Argumente weiter vertieft. Mark Ware von Outsell bestätigte das optimistische Bild zur Wirtschaftssituation im Wissenschaftsverlagswesen, das Hank schon gezeichnet hatte: eine prosperierende „26 billion $ industry“ mit einigen monopolistischen Tendenzen zwar, aber eben mit einem „very long tail“. Die traditionellen STM Bereich hätten jedoch auf hohem Stand einen leichten Effektivrückgang erlebt und nun sei abzuwarten, welche Rolle die Forschungsförderinstitutionen einnehmen würden. Der Trend ginge zu größerer Internationalisierung des Marktes bei gleichzeitig steigender Bedeutung des Lokalen, was er an der steigenden Anzahl der in der Wissenschaft verwendeten Sprachen festmachte. Steigendes Wissenschaftsangebot bei gleichzeitig erhöhter Nachfrage erfordere jetzt mehr als nur den optimalen Zugang: neue Werkzeuge zur Bewältigung der Informationsflut seien notwendig.

Ähnliche Aussagen zur allgemeinen Marktentwicklung traf Nick Fowler von Elsevier. Er betonte die zunehmende Interdisziplinarität der Wissenschaft, ihre weitere Diversifizierung und Internationalisierung, die er gerade bei den aufstrebenden Volkswirtschaften wie China, Brasilien, Japan, und Süd-Korea festmachte. Vor allem aber sieht er eine weitergehende Tendenz zur Kommerzialisierung der Forschung, weil es sich als zunehmend schwierig für die Staaten erweist, Forschung öffentlich zu finanzieren. Hieraus ergeben sich neue Verantwortungen für Verlagswesen wie für Aggregatoren. Sie können im Wissenschaftsprozess weiterhin die Rolle der Moderatoren und Mittler spielen, indem sie gute Arbeit machen, die Zusammenarbeit zwischen Disziplinen fördern, die Datenintegration ermöglichen und vor allem weitreichende Analysetools bereitstellen, die die Wissenschaften und ihre Dynamik darstellen und managen helfen.

Nach den Überblicks- und Eingangsvorträgen wurde es zunehmend detaillierter, manchmal  sah es auch eher als Product Review aus, denn viele vor allem die Technik orientierten Redner stellten ein besonderes Projekt oder Produkt vor, auch wenn sie in ihrer Herleitung oft wichtige allgemeine Aussagen trafen.

So stellte Mark Bide von EDitEUR, das europaweite Projekt einer Multistakeholder Initiative des European Publishers Council vor: die Linked Content Coalition. Bezeichender Projekt-Titel ist „The answer to the machine is in the machine“, obwohl es vor allem darauf abzielt, Interoperabilitätsstandards zum Abgleich von Lizenzdaten auszuhandeln. Kim Zwollo von RightsDirect betonte die zunehmende Bedeutung der  Zweitverwertung von Rechten und machte auf Produkte des Copyright Clearance Centers aufmerksam. Das wachsende Interesse an den Dienstleistungen von RightsDirect sieht er vor allem im unternehmensinternen Bereich. Auf Nachfrage in der Diskussion erläuterte er, dass 80% der durchgeführten Transaktionen „non-value-transactions“ seien, wobei die werthaltigen zu 90% im Unternehmensbereich angesiedelt sind und dort Rechte für externe Nutzung regeln.

Von den Vertretern der Schnickschnack-Seite der Diskussion stellten Maurits van der Graaf und Eefke Smit vom Publishing Research Consortium eine sehr interessante und differenzierte Studie zum Content Mining von Artikeln unter dem etwas irreführenden Titel „Tracing Tacit Knowledge“ vor. In einer qualitativen Erhebung (N=29) konnten sie feststellen, dass die automatische Erschließung von Texten nach fast 30 Jahren Entwicklung noch immer nicht zur Marktreife gelangt ist, auch wenn mittlerweile die Technologie den schicken Namen „semantic content enrichment“ trägt. Die Nachfrage nach dynamisch erschließbarem Text ist zwar vorhanden, aber es bleibt weiterhin unklar, nach welchem Business Modell dies beim Kunden zu verwerten ist. Intern wird Content Mining jedoch schon bei der Hälfte der Verlage eingesetzt.

Peter Doorn vom niederländischen Datenarchiv DANS konnte von Erfahrungen berichten bei der Integration von Daten in Publikationen. Ganz entsprechend dem schon von Burgelmann erwähnten vierten Paradigma der Wissenschaften, der „data-driven-science“ gab Doorn das Credo aus: „Data is hot“. Eigentlich eine interessante Feststellung, wo doch Datenarchive gerade in den Sozialwissenschaften schon eine sehr lange Geschichte haben. Die Fragen und Methodenprobleme der Nachnutzung von Datensätzen sind seit Jahrzehnten die gleichen geblieben. Dennoch kann DANS auf 1800 erweiterte („enhanced“)  Veröffentlichungen verweisen, in denen der Zugriff auf Datensätze direkt eingebunden wurde.

Zu den neuen Formen der integrierten Publikation bezog schließlich auch Sven Fund (de Gruyter) Stellung. Für ihn ist die Herausforderung nicht der Schnickschnack „jahrzehntelang neuer“ Technologien (wie dem semantic content enrichment), sondern die komplexe Interdependenz von Technologie zu Geschäftsmodell, Workflow, Produkttyp und Absatzinstrumenten. Der Spruch der schwellenlosen Integration neuer Services erscheint ihm ebenfalls nicht als technologisches, sondern eher als Managementproblem: er sieht das Management dabei zu oft im „bug fixing mode“ – auf der Wanzenjagd der nachträglichen Problembehebung. Hier ist neues, prozessorientiertes Denken erforderlich. Das Hauptproblem des Wandels im Verlagswesen ist seiner Meinung nach der Verlagsmitarbeiter: es fehlen Kompetenzen im Führungs- und Kommunikationsbereich, in betriebswirtschaftlichem Know How und bei der Konfliktlösung. Trotz aller vorher verbreiteter Euphorie sieht er die Notwendigkeit zu einem fundamentalen Wandel der Verlagswirtschaft, z.B. weil sich auch Lohnerhöhungen in den Offshoring Ländern abzeichnen und weil sich die Art des Geschäfts von der reinen Lieferindustrie zur einer sehr viel stärkeren Nachfrageorientierung auch im Verlag ändert. Die Kunden sind Häppchen („snippet“) fixiert, der Wissenschaftsbetrieb wird sich insgesamt, also auch in den Geistes- und Sozialwissenschaften, dem naturwissenschaftlichen Publikationsmodell anpassen und die von der Informationswirtschaft schon lange beklagte Prozess der Disintermediation wird sich weiter beschleunigen. Aufgrund solcher großer Herausforderungen sollten man lieber auf technologische Experimente verzichten und die den Technologen überlassen.

Den Höhepunkt des ersten Tages bildete die „APE Lecture“ des Direktors des Max-Planck Albert-Einstein-Instituts Bernhard Schutz, der aus der Sicht eines reichen Forschungsinstituts darlegte, dass der goldene Weg des Open Access eine sinnvolle Zukunft ist. Alle Beteiligten – er prägte dabei einen neuen Gattungsbegriff: die RPSO‘s („Research Performing and Support Organisations“) – sollten für OA aufkommen. Es sei ja eine relativ geringe Summe von 1 bis max. 2% der Forschungskosten, die zu investieren es sich lohnen würde. Dass OA bisher noch nicht so gut funktioniere, liege ja nur daran, dass es „grüne“ Konkurrenz gäbe. Wenn alle sich an den goldenen Weg halten würden, wäre alles wunderbar. Das Problem der Verlagsindustrie sei die Abkoppelung von Einnahmequelle (Abonnements) und Kostentreiber (Artikeleinreichungen). In beiden Modellen würden die RSPO‘s sowieso die Kosten zahlen. Das Modell überzeugte zumindest die anwesenden Informationsfachleute eher weniger. Das Kerngeschäft des wissenschaftlichen Verlagswesen sah Schutz weiterhin in der Qualitätssicherung (im Peer Review), neue Geschäftsfelder jedoch im Bereich der Such- und Entdeckungsverfahren, die die neuen Technologien versprechen.

Das Podium der "Wake-Up-Session" am zweiten Tag

Diese Gegenüberstellung sollte eine „Wake-up Session“ zu Beginn des zweiten Tages unter dem Thema „Ist das Semantic Web tot?“ weiterführen. Das Podium war besetzt mit hochkarätigen Experten beider Welten. Richard Padley (Semantico) gab eine launige Einstimmung, indem er das Semantic Web mit dem Heiligen Gral verglich, bezweifelte, dass es irgendwo erfolgreich eingesetzt würde und deshalb wie der tote Papagei von Monty Python sei. Der wachmachende Vortrag kam wegen seiner Provokation gut im Publikum an – weniger bei den meisten anderen Podiumsteilnehmern. Stefan Gradmann (HU Berlin), Felix Sasaki (DFKI, W3C, FH Potsdam) und Denny Vandrevic (KIT Karlsruhe, Wikimedia) konnten eindringlich belegen, dass schon jetzt viel „Semantik“ im Netz vorhanden ist. Sasaki bot immer wieder das Gespräch an: nur im intensiven Austausch miteinander würden die Verleger verstehen, dass die neuen semantischen Technologien eben nicht nur Schnickschnack seien. Michael Dreusicke (PAUX Technologies) griff das Bild der Religion auf und verwies im Grunde auf das Gleiche, nämlich, dass das Semantic Web offensichtlich ein Marketing und Kommunikationsproblem habe. Der einzige Verleger in der Runde Sven Fund (de Gruyter) meinte am Schluss nur noch: „Jesus Christ, what are you talking about“. Seiner Meinung nach sei der Papagei wirklich tot und das ganze Semantic Web nur ein Geschäftsmodell für Standardisierer. Business liefe aber nicht über Standardisierung, sondern über Wettbewerb der Unterschiede. Auch die Diskussion mit dem Plenum zeigte eine Spaltung: die Verlagswelt war überaus skeptisch, fragte nach Kosten und Nutzen und beklagte sich, dass man nur ein Testwagenmodell angeboten bekäme und kein Fahrzeug mit dem man schon richtig fahren könne. Auch das Argument, dass schon viele ähnliche Standardisierungsversuche wie SGML oder TEI sehr lange gebraucht haben, um sich durchzusetzen, aber dennoch ihr eigentlicher Output immer noch ziemlich gering ist, wurde wieder einmal bemüht – von Geoffrey Bilder (CrossRef) .

Nach dieser spannenden, aber ergebnisoffenen Kontroverse kam es wieder zur Vorstellung von Einzelprojekten und Produkten. Teilweise wurden die aktuellen Weiterentwicklungen bekannter Initiativen vorgestellt – teilweise handelte es sich um Neues.

Daniel Mietchen (EvoMRI) zeigte live die Möglichkeiten einer Publikationsform innerhalb der Wikipedia und machte damit anschaulich, dass es sich bei Forschungsergebnissen nicht um lange Texte handeln muss, sondern dass sie auf diese Weise kondensiert in einzelnen, kurzen Aussagen im Wissenskorpus der Wikipedia sehr schnell Eingang und Gehör finden können, womit der Wissenschaft mehr geholfen sei als die erneute Steigerung der Publikationsflut mit langen diskursiven Artikeln. Interessant war die Frage aus dem Publikum, ob diese Art von Wissenschaft vielleicht nicht zu spielerisch sei?
Geoffrey Bilder (CrossRef) gab ein Update zu CrossMark und ORCID. Ersteres ist ein Angebot an Verlage zur Verfolgung von Neuauflagen und Weiterentwicklungen von Texten: ein Klick auf das CrossMark-Logo bei einer Referenz, zeigt dem Leser, dass es dazu neues gibt wie Errata, Kommentare oder gar einen Rückruf eines Produktes und führt ihn zur entsprechenden Webseite des Verlegers. ORCID („Open Research & Contributor Identification“), ein System, das im zweiten Quartal 2012 operativ sein soll, ermöglicht die Vergabe eindeutiger, lebenslanger ID-Nummern für Autoren. Als Bilder darauf hinwies, dass möglichst bald auch Studenten alle mit einer ORCID versehen werden sollten, wurde auf Twitter gewitzelt, dass man diese Nummer ja doch lieber gleich den Babies eintätowieren sollte.

Der vielleicht spritzigste und geistreichste Vortrag auf der APE2012 kam von Steve Pettifer (Universität Manchester), der darauf hinwies, dass der wissenschaftliche Publikationsmarkt einem Gefangenendilemma gleicht: Autoren und Verleger sind im wissenschaftlichen „publish or perish“ aufeinander angewiesen und können eben nicht wie Schutz am Abend vorher vertreten hatte, ihr Aussagensystem ohne eigene Verluste ändern: eine tödliche Umarmung. Er zeigte aber auch schließlich, dass die „Technik vs. Inhalt“ Debatte der Tagung viel fundamentaler ist als vermutet und machte an einer Reihe von Beispielen deutlich, dass Maschinen prinzipiell die Semantik von Sprache nicht verstehen können. Eine sehr alte Debatte, die es wert ist, wieder in Erinnerung gerufen zu werden und deren Lösung nicht in Sicht ist. Anhand von berühmten Publikationen der Wissenschaftsgeschichte demonstrierte er, dass vor allem die wesentlichen Erkenntnisse von Wissenschaft in ihren Texten nicht maschinell erfassbar sind. Das Produkt, das er kostenfrei anbietet (Utopia Documents), setzt daher eher an dem Punkt an, zentrale Elemente wie Grafiken oder Kommentarknotenpunkte zu Textstellen bequemer zur Verfügung zu stellen.

Stefan Geißler (TEMIS) konnte anschaulich und nachvollziehbar belegen, dass es sich bei den neuen semantischen Technologien nicht nur um Schnickschnack handelt. Die von ihm demonstrierten Anwendungen und kundenspezifischen Entwicklungen von semantischer Anreicherung von Dokumenten in spezifischen Unternehmenskontexten war beeindruckend. Auch in der Informations- und Verlagswirtschaft (Thomson, Springer etc.) wird die Technologie von TEMIS für spezifischen Kundenanforderungen bereits erfolgreich eingesetzt. Diese Art der Informationsextraktion erlaube, in großen Textvolumina zu navigieren wie in einer strukturierten Datenbank, womit belegt sei, dass semantische Technologien doch schon den eingangs der Tagung vermissten Reifegrad erreicht hätten: als „disruptive innovation“! In der Diskussion wurde nach dem Einsatz von standardisierten Metadaten gefragt (Sasaki) und verneint und von Verlegerseite kam die interessierte Rückfrage nach den Kosten, die mit 60-70 Arbeitstagen (+Lizenz für die Software!) als sehr erschwinglich vermittelt wurden.

Eine ganze und in sich homogene Session wurde dem Thema Datenintegration gewidmet. Hier gab es vor allem Updates zu Projekten, die in der Informationsbranche leidlich bekannt sind, aber vielleicht für die Verlagswirtschaft einen wichtigen Einblick in die Auswirkungen des vierten Paradigmas der datenorientierten Wissenschaft gaben. Tagungs-Quotenfrau Eefke Smit (STM, Amsterdam) gab einen anschaulichen Überblick über die Forschungsdatenmanagementszene in Europa und die ersten Ergebnisse der EU Initiative „Opportunities for Data Exchange“. Jan Brase (DataCite) berichtete über den Stand der DOI Vergabe für Datensätze und gab wichtige Hinweise für deren Nutzung und Integration in Publikationen. Die Datacite Association hat mittlerweile eine stabile Größe erreicht , um die Verbreitung und Verwertung des neuen Goldes im Wissenschaftsbetrieb sicherzustellen. Das bloße Zitieren von Zeitschriften-Artikeln ist „18. Jahrhundert – Stil“. Im 21. Jahrhundert zitiert man Daten. Michael Diepenbroek (Uni Bremen) konnte die zwanzig jährige fachbezogene Erfolgsgeschichte der Datenarchivierung in den Erd- und Umweltwissenschaften durch PANGAEA und MARUM demonstrieren und beispielsweise belegen, dass Publikationen, die Daten(zugänge) integriert haben, zu 35% öfter zitiert werden. Ein komplettes Modell zur verlagsseitigen Publikation von Daten analog dem Review Prozess für Artikel stellte Todd J. Vision mit Dryad vor. Ähnlich dem Lektor ergibt sich hier nun die Funktion des Datenkurators, so wie es in Datenarchiven nun schon häufig den Data Librarian gibt. Wichtig war der Hinweis, der sich in der Diskussion ergab, dass datenintegrierte Publikation wieder mehr vom PDF-Format weg und auf die Verlagswebsite hinführen könne, was wiederum mehr Nutzer auf diese ziehen würde. Das wäre schon ein „Schnickschnack“, der sich auszahlen könne.

Den Reigen der Vorträge schloss eine „Keynote aus den USA“ ab. Fred Dylla (AIP) gab einen spannenden Überblick über das letzte Jahr der Urheberrechtsdebatte für Forschung und Wissenschaften, die auf Anforderung des amerikanischen Präsidenten mühevoll zunächst zumindest so gelöst schien, dass die Kontrahenten, Verleger und Bibliothekare, wieder mehr miteinander kommunizierten. Er warf der Verlagsseite allgemein ziemlich vehement ein Marketing und PR Problem vor. Verleger hätten es im letzten Jahrzehnt nicht vermocht, der Bibliothekswelt wie auch der Politik deutlich genug zu vermitteln, was verlegerische Qualitätsarbeit bedeute. Im Laufe des letzten Jahres hatte es das OSTP („Office of Science and Technology Policy“) des Weißen Hauses geschafft einen Stakeholder Dialog anzuregen, der Win-Win-Projekte ab 2013 initiieren sollte. Kurz vor Ende des letzten Jahres wurde jedoch vom Kongress der Research Works Act (HR 3699 (RWA)) eingebracht, der die erreichten Diskussionskompromisse im Hinblick auf die Öffnung des Zugangs von Forschungsergebnissen wieder stark einschränken will und damit vor allem wieder das Klima vergiftet. Vor dem Hintergrund der STOPA/PIPA Debatte in den letzten Wochen, machte sich eine Ahnung bei den europäischen Zuhörern breit, wie kompliziert und langwierig die politische Entscheidungsfindung auch auf der anderen Seite des Teiches ist. Erstaunliches Fazit von Dylla war: wir Verleger haben da ein ziemliches Kommunikationsproblem, aber lasst uns dennoch kooperieren auf einem weniger politischen Feld: dem der Open Data!

Das von Sven Fund geleitete Abschlusspanel konnte die Positionen, die sich auf der Tagung gezeigt hatten nicht wirklich klären. Einer der Panelisten sagte ehrlich, dass er gar nicht auf der Tagung gewesen sei und deshalb nichts darüber sagen könne, die anderen bezogen nicht Stellung zu den Fragen nach der Religiosität des debattierten Schnickschnack. Sabine Graumann (TNS Infratest), die sich fragte warum sie auf dem Panel war, gestand aber, dass sie viel gelernt hatte in den zwei Tagen, z.B. dass Verleger Open Access mögen. Sie betonte vor allem die Qualitätssicherungsrolle der Verleger, machte aber auch erneut aufmerksam auf den enormen ROI, der bei Infrastruktureinrichtungen immer wieder nachzuweisen ist, wie sie es unlängst bei der TIB tun konnte. Heinz Weinheimer (Springer) formulierte noch einmal deutlich, was sicher die Quintessenz der Tagung für viele der anwesenden Verleger war: lieber (noch?) nicht in RDF investieren und stattdessen wieder auf die Kernkompetenzen und das Alltagsgeschäft konzentrieren: mit den Autoren arbeiten, den Inhalt anreichern und Zugang zum Wissen verschaffen. Ein „noch positiveres“ Fazit zog schließlich aus dem Publikum sogar Frank Sander (MPDL), der den Verlegern riet, Open Access (gold) als Chance zu sehen: es ermögliche mehr persönlichen Kontakt und Service mit Autoren und Lesern. Endlich könnte man doch die Bibliotheken los werden!

Wie dienlich diese Schlussstatements für den notwendigen Dialog zwischen Technologen, Infrastrukturen, Verlegern und ihren Kunden, den Wissenschaftlern, waren, sei zunächst dahin gestellt. Auf jeden Fall belegte die Konferenz wie wichtig der Kommunikation und Austausch ist – zwischen immer mehr Stakeholdern.

Die Tagung ist per Video von River TV mitgeschnitten worden, die Tagungsbeiträge werden auf der Website der Tagung (www.ape2012.eu) bzw. in der Zeitschrift „Information Services & Use“ veröffentlicht, in der auch ein ausführlicher Bericht erscheinen wird.

Die Tagung wurde auch einigermaßen intensiv „betwittert“ – wenn auch ohne Twitterwall: #APE2012.

Hugo E. Martin berichtete live in seinem Blog hemartin.blogspot.com vom ersten Tag und vom zweiten Tag.

 

1 thought on “Semantic Web und Datenmanagement meets Verlagswelt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *