Willkommen zu einer interessanten Nicht-ganz-Diskussion über wissenschaftliches Publizieren

Markus Pössel

Mit Diskussionsrunden ist das so eine Sache. Zu Beginn der Diskussionsrunde des Heidelberg Laureate Forum zum Thema wissenschaftliches Publizieren sah es so aus, als hätten die Organisatoren die Diskussionspartner recht einseitig zusammengestellt. Gerard Meijer (Direktor des Fritz-Haber-Instituts der Max-Planck-Gesellschaft in Berlin) brachte das Thema Open Access auf den Tisch, das nach wie vor ein zentrales Problem beim wissenschaftlichen Publizieren ist: Sollte wissenschaftliche Forschung, die aus Steuergeldern finanziert wird, nicht allen zugänglich sein? Insbesondere: Nicht hinter den Paywalls (kommerzieller) Verlage versteckt? Aber warum hatten die Organisatoren bei der Diskussion dieses Themas dann nicht wenigestens einen Teilnehmer eingeladen, der die Verlage vertrat?

Eine Frage des Framings

Letztlich war ich da ein Opfer irreführenden Framings geworden. Die Organisatoren, so erfuhr ich später, hatten die Diskussion gerade nicht um die Open-Access-Frage kreisen lassen wollen. Stattdessen sollte es um die Ansprüche der Wissenschaft an zukünftige Publikationspraktiken gehen. Mit dieser Information nahm ich die Debatte dann rückblickend deutlich anders wahr als während des direkten Zuhörens. Ich beschränke mich hier entsprechend auf diejenigen Teile der Debatte, die nichts mit Open Access zu tun hatten – mit einer subjektiven Auswahl an Themen, die angesprochen wurden.

Was sollen wir überhaupt veröffentlichen? Wer an dieser Stelle nur an Fachartikel denkt, denkt nicht weit genug. Gabriele von Voigt (die auf eine vielseitige Karriere sowohl in der Wissenschaft als auch in der Industrie zurückblicken kann; heute Professorin für Computational Health Informatics an der Universität Hannover) erweiterte die Diskussion flugs auf wissenschaftliche Daten (und die damit verbundenen Metadaten). Details dazu findet man auf der FAIR-Website – und ich bin auf alle Fälle aus astronomischer Sicht sehr dafür: Ja, ich möchte, dass die wissenschaftlichen Daten, die mich interessieren, findbar sind, das “F” in “FAIR”, mit geeigneten Metadaten, die in durchsuchbaren Ressourcen aufgelistet sind. Ich möchte, dass sie, “A”, accessible, über ein einfaches Protokoll zugänglich sind. Ich möchte, dass die Daten “I” sind, interoperabel. Als Astronom habe ich mich daran gewöhnt, dass Bilddaten beispielsweise im Standard-FITS-Format vorliegen, aber solche Standardformate sind offenbar noch nicht in allen Wissenschaftsbereichen gängig. Und sie sollten “R”, reusable, also wiederverwendbar sein. Das setzt insbesondere adäquate Dokumentation voraus.

Julie Williamson von der University of Glasgow ging mit dem “Was” noch einen Schritt weiter: Wir müssen auch Artefakte erhalten. Klingt sinnvoll: Wenn es beispielsweise um die Hardwareentwicklung geht, müssen wir mehr als nur die Publikationen und Beschreibungen bewahren, sondern beispielsweise auch Prototypen.

Die Schere zwischen Einreichungs- und Gutachterzahlen

Williamson sprach noch einen weiteren wichtigen Punkt an. Klaus Hulek, Chefredakteur des “Zentralblattes der Mathematik” (eine kommentierte Datenbank von Mathematikpapieren, auf die Wissenschaftler anderer Bereiche neidisch sind), hatte im Open-Access-Teil der Debatte die veränderte Rolle der Verlage beschrieben: weniger zur Verbreitung würden sie gebraucht (jetzt, da das Internet die Verbreitung so viel einfacher gemacht hat), sondern immer mehr für die Qualitätskontrolle. Aber, wie Williamson betonte, sei die Zahl der Einreichungen neuer Fachartikel um 10% pro Jahr gestiegen, während die Zahl der potenziellen Gutachter*innen nur um 2% wachse. Wir haben ein Problem.

Williamsons Lösungsvorschlag: Wir sollten weniger, aber dafür bessere Artikel veröffentlichen. Das bedeutet allerdings auch, alternative Kriterien dafür zu finden, wie man wissenschaftliche Leistungen etwa bei der Vergabe von Jobs bewertet. Derzeit geht ja vielfach auch die Zahl der Artikel, bzw. der Artikel mit Erstautorenschaft, in die Bewertung ein. (Fields-Medaillist Efim Zelmanov sagte pessimistisch vorher, dass die großen Universitäten selbst dann, wenn man die üblichen Indizes und Wertungsalgorithmen ändern würde, noch einen Weg finden würden, das System zu überlisten. Joseph Konstan von der University of Minnesota, Co-Vorsitzender des Publications Board der Association for Computing Machinery, wies seinerseits darauf hin, anstatt auf Algorithmen sollten sich Institute doch besser auf die eigenen Experten verlassen.)

Wie Meijer anmerkte: Die Deutsche Forschungsgemeinschaft (DFG) hat ihre Regeln vor einiger Zeit geändert, um beim Trend zu möglichst vielen Veröffentlichungen gegenzusteuern. Seitdem dürfen Wissenschaftler*innen in bestimmten Teilen eines DFG-Antrags nur noch ihre fünf besten Artikel (der letzten Jahre) auflisten. Ein Prozess, der Wissenschaftler*innen belohnt, die weniger, aber bessere Arbeiten veröffentlichen und diejenigen benachteiligt, die Quantität auf Kosten der Qualität anstreben. Ein paar weitere Informationen hat die DFG anschließend hier via Twitter geliefert:

…anscheinend geht die Praxis auf 2010 zurück!

War diese Veranstaltung, die ich in diesem Blogbeitrag sowohl vom Inhalt als auch von der Form her abzubilden versucht habe, eine Diskussionsrunde? Wahrscheinlich nicht im engeren Sinne des Wortes. Es war definitiv interessant, aber eher eine Art Brainstorming-Sitzung. Echte, konstruktive Podiumsdiskussionen sind vermutlich schwieriger umzusetzen als man meinen könnte.

Der Beitrag Willkommen zu einer interessanten Nicht-ganz-Diskussion über wissenschaftliches Publizieren erschien zuerst auf Heidelberg Laureate Forum.