oa books

Publizieren in der Wissenschaft

Kategorie: Peer Review

Gründung der AG Open Media Studies

Interesse an Open Science, Open Access oder Open Educational Resources in der Medienwissenschaft? Kommt zum Gründungstreffen der AG Open Media Studies!

Das Treffen findet statt am 28.09., 14-15.30 Uhr, auf der GfM-Jahrestagung in Siegen.

Bei Interesse an einer Mitarbeit oder an einer Aufnahme in den eMail-Verteiler bitte eine kurze Nachricht schreiben.

 


AG Open Media Studies

Open Science zielt darauf ab, möglichst Viele an der Produktion und Distribution von Wissen teilhaben zu lassen. Forschung, Lehre und Publikationen sollen möglichst transparent und offen durchgeführt werden, um Wissenschaft nachhaltig und inklusiv zu gestalten. Rechercheergebnisse müssen nachvollziehbar und nachprüfbar sein, damit sie anschlussfähig und nachnutzbar sind. Dafür gilt es, auch die Arbeitsprozesse selbst zugänglich zu machen. Open Science legt den Fokus auf kollaborative und kooperative Arbeitsformen. Je nach Disziplin und Forschungsprojekt kann dies sehr unterschiedliche Formen annehmen.

Ziel der 2018 gegründeten AG Open Media Studies ist es, die Medienwissenschaft für Open Science zu sensibilisieren und Arbeitsprozesse transparenter zu machen. Dafür gilt es, sich mit wissenschaftlichen Praktiken, Methoden und Ansätzen in der eigenen Disziplin kritisch auseinanderzusetzen und Best-Practice-Beispiele zu erarbeiten. Openness soll dabei sowohl als Chance als auch Herausforderung diskutiert werden. Im Kern medienwissenschaftlich ausgerichtet schließt die AG an transdisziplinäre theoretische wie wissenschaftspolitische Debatten um Offenheit und Zugang in der Wissenschaft an. Durch öffentliche Beiträge in Medien und auf Konferenzen sowie das Ausrichten von Fachtagungen und Workshops soll eine sichtbare Positionierung der deutschsprachigen Medienwissenschaft in diesem Feld erfolgen.

Zu den Schwerpunktthemen zählen (s. auch Open-Media-Studies-Blog)
Open Access
Peer Review
Wissenschaftskommunikation
Citizen Science
Forschungsdatenmanagement
Open Educational Resources
Gender und Technologie
Urheberrecht
Chancen und Herausforderungen durch Digitalität und Datafizierung
(z.B. digitale Methoden)

Gründungsmitglieder
Dr. Sarah-Mai Dang, Wissenschaftliche Mitarbeiterin, Institut für Medienwissenschaft, Philipps-Universität Marburg
Dr. Adelheid Heftberger, Referatsleiterin Filmbenutzung, Das Bundesarchiv
Simon David Hirsbrunner, Wissenschaftlicher Mitarbeiter, DFG GRK Locating Media, Universität Siegen
Dr. Alena Strohmaier, Wissenschaftliche Koordinatorin, Zentrum für Nah- und Mitteloststudien, Philipps-Universität Marburg
Dr. Thomas Waitz, Senior Scientist und Studienprogrammleiter, Institut für Theater-, Film- und Medienwissenschaft, Universität Wien

 

Zenodo, SocArXiv oder GitHub? Preprints in den Geisteswissenschaften

In der Regel dauert es in der Wissenschaft Monate, wenn nicht Jahre, bis dass ein Artikel oder Bucheintrag veröffentlicht wird – selbst wenn der Text längst verfasst ist und den Herausgeber:innen vorliegt. Um eine zügige Veröffentlichung und Diskussion dennoch zu ermöglichen, gibt es Preprint-Server, über die Wissenschaftler:innen Manuskripte bereits vor der offiziellen Veröffentlichung zugänglich machen können (s. mein Post zu Peer Review).

In den Natur- und mittlerweile auch in den Sozialwissenschaften gibt es von der Community anerkannte Preprint-Server. In den Geisteswissenschaften steht immer noch keine dezidierte Möglichkeit zur ‚Vorveröffentlichung‘ zur Verfügung. So habe ich als Film- und Medienwissenschaftlerin erst einmal recherchieren müssen, welche adäquate Form es gibt, um nun selbst zum ersten Mal einen Artikel frühestmöglich zur Diskussion zu stellen.

Früher Zugang durch Preprint
Es handelt sich um einen Beitrag zu digitalen Werkzeugen und Methoden in der Filmgeschichtsschreibung, deren Potentiale und Herausforderungen für die Film- und Medienwissenschaft ich am Beispiel der feministischen Filmgeschichte erläutere. Da Projekte und Ansätze in den Digital Humanities derzeit stark diskutiert werden, ist es mir in diesem Fall ein besonders dringendes Anliegen, frühzeitiges und vielseitiges Feedback zu meinem Beitrag zu bekommen.

Der Artikel ist bereits eingereicht und soll am 1. Juni 2018, also in acht(!) Monaten bei MEDIENwissenschaft Rezensionen | Reviews  erscheinen. In Absprache mit der Redaktion (Danke!) habe ich mich entschieden, den ersten Entwurf vorab zu veröffentlichen. Was in den Naturwissenschaften gang und gäbe ist, stellt in den Geisteswissenschaften nach wie vor eine Besonderheit dar. Kommerzielle Plattformen wie ResearchGate oder Academia.edu werden zwar genutzt, doch in der Regel um im Nachhinein Artikel verfügbar zu machen. Leser:innen müssen sich registrieren, um die Texte herunterzuladen. Zudem sind die AGB undurchsichtig und die rechtliche Lage ist oftmals ungeklärt. Nicht zuletzt bleibt die Veröffentlichung an die Produktionsabläufe der Verlage gebunden. Außerdem können Dokumente oder ganze Accounts beliebig gelöscht oder erstellt werden. Eine nachhaltige Nutzung kann somit nicht gewährleistet werden. Die Prozesshaftigkeit von Wissenschaft spiegeln Preprint-Server weitaus besser wider. Gilt es, sich für eine offenere Wissenschaft einzusetzen und seine Publikationen sowohl zugänglicher als auch nachnutzbarer zu machen, ist dies meines Erachtens die bessere Wahl.

Relevante Kriterien für Preprints
Doch wo sollen Geisteswissenschaftler:innen ihre Preprints veröffentlichen? Und was sollen Preprint-Server eigentlich leisten?

Meiner Meinung nach sind folgende Kriterien relevant:
Sichtbarkeit durch Auffindbarkeit: durch passende Verschlagwortung, SEO, DOI (Digital Object Identifier), permanente URL
Zugänglichkeit: durch nutzer:innenfreundliches Interface, Download-Option ohne Registrierung
Nachnutzbarkeit: durch variable Lizenzierung und Zitiermöglichkeit (über DOI, permanente URL)
Nachhaltigkeit: durch permanente URL, standardisierte Metadaten, Langzeitarchivierung über Speicherverfahren wie LOCKSS  oder CLOCKSS sowie nicht beliebig löschbare Dokumente
Anerkennung in der Community: durch verbreitete Nutzung, transparente Verfahren, produktive Beiträge
Transparenz: durch Offenlegung des Source Codes, der AGB, der Finanzierung bzw. des Geschäftsmodells

Nach Gesprächen mit Kolleg:innen aus der Open Science-Community (Danke, Fellows und Aktivist:innen von „Freies Wissen“!) habe ich mir die Plattformen SocArXiv, Zenodo und GitHub näher angesehen. Schlussendlich habe ich mich entschieden, meinen Artikel als Preprint bei Zenodo hochzuladen („Digital Tools & Big Data: Zu gegenwärtigen Herausforderungen für die Film- und Medienwissenschaft am Beispiel der feministischen Filmgeschichtsschreibung“). Ausschlaggebend war die größere, wenn auch vergleichsweise geringe, Bekanntheit unter Wissenschaftler:innen in der Medienwissenschaft in Deutschland.

Mögliche Preprint-Server
1) Zenodo, https://zenodo.org/
Zenodo ist eine vom CERN 2013 ins Leben gerufene Plattform, die jedoch ausdrücklich sowohl Natur- als auch Humanwissenschaften willkommen heißt. Die Nutzung ist für Autor:innen sowie für Leser:innen kostenlos. Finanziert wird die Plattform u.a. durch die Initiative der europäische Kommission OpenAIRE.

Zenodo bietet
◦ Verschlagwortung
◦ automatische DOI
◦ variable Lizenzierung, auch ohne Creative Commons
◦ eine Community-Umgebung für Kollaborationen und Austausch
◦ verschiedene Dateiformate
◦ verschiedene Genres (z.B. Textpublikationen, Präsentationen, Videos, Poster, Bilder)
◦ ein eigenes Repositorium bzw. Gruppe
◦ Verknüpfung mit ORCID
◦ Verknüpfung mit GitHub
◦ schnellen Import von Artikeln in Literaturdatenbanken

Die Plattform ist open source basiert (GitHub). Die Nutzungsrechte bleiben bei den Urherber:innen. Auch deutschsprachige Artikel sind auf Zenodo zu finden. Unter „Medien“ sind 70 Einträge gelistet. „Medienwissenschaft“ bringt allerdings keine Suchergebnisse hervor. Dafür gibt es Beiträge zur Geisteswissenschaft, z.B. zur Bedeutung von Open Access, https://zenodo.org/record/50598). Zenodo ist einfach zu bedienen. Zudem sind die einmal hochgeladenen Dokumente oder Dateien nicht beliebig löschbar, sodass eine nachhaltige Archivierung und Nutzung gewährleistet wird.

2) SocArXivhttps://osf.io/preprints/socarxiv
In die engere Auswahl ist auch SocArXiv gekommen. SocArXiv ist mit dem Gründungsjahr 2011 ebenfalls ein relativ junger PrePrint-Server. Verstärkte Aufmerksamkeit hat er in der Diskussion um die Plattform SSRN (Social Science Research Network) bekomment, als diese 2016 von Elsevier (s. mein Blog-Post) aufgekauft wurde. Angesiedelt ist die Plattform an der University of Maryland (UMD).

SocArXiv bietet
◦ Suche nach Schlagworten und Disziplinen
◦ permanente URL
◦ automatische DOI (Digital Object Identifier) ist in Planung
◦ variable Lizenzierung (CC-O oder CC-BY)
◦ Indexierung über Google Scholar
◦ Teilen über Twitter, fb, LinkedIn und eMail
◦ Download-Statistiken
◦ Verknüpfung mit ORCID

Auch bei SocArXiv bleiben die Nutzungsrechte bei den Urherber:innen. Während bei Zenodo Daten über GitHub archiviert und verknüpft werden können, kooperiert SocArXiv mit OSF (Open Science Framework), über das man über Hintergrund und Kontext des Artikels mittels zusätzlichem Material und weiteren Daten informieren kann. SocArXiv verpricht, dass sie sich anders als SSRN nicht an Elsevier verkaufen würden. Reichweite und Netzwerk scheinen mir auch bei SocArXiv inzwischen recht groß, auch in den Humanwissenschaften. Doch da kaum deutsche Text auf der Plattform zu finden sind, habe ich Zenodo den Vorrang gegeben.

3) GitHub, https://github.com/
GitHub war mir bisher nur als Hosting-Plattform für Software, insbesondere im open source-Bereich, bekannt. Doch es ist ebenso möglich, Textdateien über GitHub verfügbar machen, nicht nur Codes. Dennoch scheinen mir SocArXiv und Zenodo für Preprint-Zwecke eindeutig geeigneter, zumal es über Zenodo möglich ist, seine Daten auf GitHub-Account zu verlinken.

4) eigene Website
Den Preprint-Artikel über die persönliche Website oder die Institutsseite zugänglich zu machen, erlaubt zwar eine unmittelbare Verknüpfung mit dem eigenen Profil, doch Auffindbarkeit und Nachhaltigkeit sind nicht gewährleistet.

Feedback willkommen!
Es stellt natürlich ein Risiko dar, ‚unfertige‘ Produkte für die Community oder gar die Öffentlichkeit freizugeben. Man stellt sich einer unbekannten Leser:innenschaft und macht sich leichter angreifbar. Dennoch freue ich mich auch über kritisches Feedback zum Text sowie über allgemeine Kommentare, Vorschläge oder eigene Erfahrungsberichte zu Preprint-Servern – nicht nur in der Film- und Medienwissenschaft.

Transparenz statt Ruhm und Ehre? Nachwuchswissenschaftler:innen zu Risiken und Chancen von Open Science

Open Science – von Open Access über Open Educational Resources, Open Data und Open Peer Review bis hin zu Citizen Science – soll die Verbreitung und Nachnutzung von sowie den Zugang zu Wissen erleichtern. Ziel von Open Science ist es, Forschung transparenter und nachhaltiger zu machen und somit die Qualität von wissenschaftlicher Arbeit zu verbessern. Wie Open Science im akademischen Alltag aussehen kann, haben Stipendiat:innen des von Wikimedia Deutschland in Kooperation mit dem Stifterverband 2016 gegründeten Fellow-Programms Freies Wissen am 10. März auf der Abschlussveranstaltung „Wissen offen gestalten – Open Science in der Praxis“ in Berlin diskutiert.

Open Science ist vielfältig
Open Science wird von Fach zu Fach unterschiedlich praktiziert, die Ansätze sind vielfältig. Dies verdeutlichte der einleitende Film, in dem alle zehn Stipendiat:innen ihre Forschungsprojekte in 90-Sekündern präsentierten. So geht es dem Neurobiologen Benjamin Paffhausen etwa um das Teilen von Wissen zwecks Herstellung wissenschaftlicher Geräte zur Beobachtung von Honigbienen. Der Rechtswissenschaftler Hanjo Hamann wiederum veröffentlicht im Dienste der deutschen Justizgeschichte Dokumente, aus denen hervorgeht, welche Richter:innen welche Fälle bearbeitet haben. Die Wissenschaftssoziologin Klara-Aylin Wenten befasst sich mit MakerSpaces, partizipativen Werkstätten. Und die Filmhistorikerin Adelheid Heftberger, Mitgründerin des Open Access-Journals Apparatus, versucht beispielsweise ihre Kolleg:innen von alternativen, offenen Publikationsformaten zu überzeugen.

Die „Botschafter:innen des Freien Wissens“ setzen sich sowohl theoretisch als auch praktisch mit Open Science auseinander. Mit welchen fachspezifischen Problemen die Nachwuchswissenschaftler:innen dabei konfrontiert werden, zeigte die anschließende Podiumsdiskussion. Moderiert von Christina Riesenweber, Open Access-Beauftragte der Freien Universität Berlin, erörterten die Fellows Marion Goller, Juristin, Ruben C. Arslan, Psychologe, und Mirjam Braßler, Erziehungswissenschaftlerin, die Chancen und Schwierigkeiten von Open Science.

Das Recht erschwert freies Wissen
Jurist:innen seien Teil des Problems, konstatierte Goller. Das Bewusstsein für Open Science sei unter ihren Kolleg:innen noch nicht weit verbreitet, da die Quellen, die Gesetzestexte, ohnehin zur freien Verfügung stünden. Außerdem arbeiteten nur wenige Jurist:innen als Wissenschaftler:innen. Darüber hinaus profitierten sie von „closed access“, wenn ihre Lehrbücher in Veranstaltungen vorausgesetzt würden.[1]

Das derzeitige Recht erschwert nach Goller den Zugriff auf Wissen. Denn Vieles sei verboten. Sie bedauert, dass das US-amerikanische Prinzip des Fair Use in Deutschland nicht gilt und fordert eine harte Wissenschaftsschranke auf europäischer Ebene. Goller forscht zu Urheberrecht und freien Lizenzen und setzt sich für die Abschaffung von Patenten ein.

Wenn es um die Offenlegung von Daten und um die Nachnutzung von urheberrechtlich geschütztem Material geht, herrscht immer noch große Rechtsunsicherheit. Auch aus diesem Grund zögern Wissenschaftler:innen, ihre Forschungsergebnisse im Internet kostenfrei zugänglich zu machen. Zudem bedeutet Open Science einen erheblichen Mehraufwand, der noch nicht honoriert wird. Über diese Punkte waren sich die Podiumsgäste einig. Gar von Zeitverschwendung sei dann die Rede, berichtete Arslan.

Open Science ist riskant, aber effektiv
Open Science stellt nach wie vor nicht nur eine ungewöhnliche Praxis dar, sondern auch ein Risiko für die eigene Karriere. Erstens fehlt Wissenschaftler:innen die Zeit, die sie für die Aufbereitung von Forschungsergebnissen für die Allgemeinheit aufwenden, für weitere Publikationen. Zweitens haben Open Access-Veröffentlichungen noch nicht denselben Stellenwert wie auf herkömmliche Weise verfügbare Artikel in Fachzeitschriften oder Monographien, die gedruckt und bei traditionellen Verlagen erscheinen. Auch wenn es nach Riesenweber keine Korrelation zwischen Open Access und Qualität gibt, leiden frei zugängliche Publikationen unter dem „Impact Factor“, nach dem sich die Reputation einer Zeitschrift bemisst. Dazu kommen die hohen Gebühren, die Verlage von Autor:innen verlangen, um Publikationen open access zu stellen. Drittens machen sich Wissenschaftler:innen durch die Offenlegung von Experimenten und Forschungsprozessen angreifbar. So setze man etwa mit einer Präregistrierung, der öffentlichen Festsetzung von geplanten Studien, Ruhm und Ehre aufs Spiel, erklärte Arslan. Eine für ein stimmiges Erscheinungsbild sorgende Nachjustierung von Methoden, Daten und Forschungsfragen werde dadurch nämlich unmöglich. Obwohl diese Praxis zu einem Mangel an belastbaren Ergebnissen führt, ist sie wohl durchaus üblich. Arslan selbst sucht unter anderem über eine open source Fragebogensoftware der „Replizierbarkeitskrise“ in der Psychologie entgegenzuwirken. Er forscht zu romantischen Präferenzen und Beziehungsdynamiken.

Risiken muss jede Pionier:innengeneration eingehen. Doch letztendlich gilt es, einfach weiterzumachen, um andere von den Vorteilen offener Forschungspraktiken zu überzeugen und Open Science als Standard in der Wissenschaft zu etablieren. Dies war Konsens auf dem Podium. Dabei sei nicht nur an den Idealismus der Community zu appellieren, sondern durchaus auch an eigennützige Motive, findet Arslan. Denn mit Open Science verbänden sich auch viele persönliche Vorteile. So werde man durch transparenteres Arbeiten sowohl sichtbarer als auch glaubhafter. Und von Preprints profitierten alle.

Um einen Austausch auch über die eigene Disziplin hinaus zu ermöglichen, muss man nicht unbedingt den Weg über Publikationen gehen. Auch Plattformen, Blogs und Diskussionsforen fördern das kollaborative Arbeiten. Nicht nur in der Forschung, sondern ebenso in der Lehre. Davon ist auch Braßler überzeugt. Sie untersucht, inwiefern Open Educational Resources die persönliche Entwicklung von Studierenden beeinflussen und erstellt Handlungsempfehlungen, um Lehrmaterial transdisziplinär zugänglich zu machen. Meist lande es nämlich in der Schublade.

Fördermaßnahmen statt Open Burnout
Fazit der Podiumsdiskussion, die sich am Ende für Fragen und Kommentare aus dem Publikum öffnete, war, dass man an mehreren Punkten gleichzeitig ansetzen und einen grundsätzlichen Bewusstseinswandel nicht nur in der Wissenschaftskultur herbeiführen müsse. Dieser beginne bereits damit, sich von der Vorstellung von Wissen als Eigentum zu lösen. Sogenannte „shadow libraries“ wie SciHub könnten das Problem nicht lösen. Neben Verlagskonzernen ziehen profitorientierte Plattformen wie ResearchGate oder Academia.edu ihren Nutzen aus der mangelnden Offenheit. Politiker:innen müssten begreifen, dass Menschen nicht nur aus ökonomischen Gründen handeln und dass ein vereinfachter Wissensaustausch erheblich zur Innovationssteigerung beitrüge. Intransparenz, wie etwa in der Medizin, halte den Fortschritt auf. Deshalb bedürfe es mehr Anreize von politischer Seite für Wissenschaftler:innen, Open Science zu betreiben, zum Beispiel entsprechende Auswahlkriterien in Berufungsverfahren oder Fördermaßnahmen wie Deputatsreduktion. Schließlich wolle man kein Open Burnout.

 


1
 Als die Universität Konstanz ihre Angehörigen zu Open Access qua Satzung verpflichten wollte, klagten Konstanzer Jurist:innen dagegen mit dem Hinweis auf das Grundrecht der Wissenschaftsfreiheit.

Peer Review in Zeiten von Open Access

Mit der zunehmenden Verbreitung von Open Access stellt sich die Frage nach der Rolle klassischer Peer Review neu. Denn digitale Veröffentlichungspraktiken erlauben alternative Verfahren wissenschaftlicher Qualitätssicherung.

Über die Schwachstellen von Peer Review (subjektiv, willkürlich, undurchsichtig, langsam, ineffizient) wird viel diskutiert. Doch nach wie vor stellt Peer Review – die offizielle Begutachtung von Texten durch renommierte Wissenschaftlerinnen – eine anerkannte Praxis dar. Peer reviewed Artikel oder Bücher gelten als hochwertiger im Vergleich zu Texten, die auch ohne formelle Freigabe ihren Weg in die Öffentlichkeit finden. Zunehmend gilt die Kategorie auch in den Geisteswissenschaften als ein Gütesiegel, das auf keiner Publikationsliste fehlen sollte.

Doch gibt es tatsächlich Unterschiede zwischen offiziell begutachteten Texten und jenen, die schlichtweg eine Herausgeberin begeistern oder gar von der Autorin eigenständig veröffentlicht werden? Wie sinnvoll ist Peer Review im digitalen Zeitalter, wo es de facto keine physische Platzbeschränkung mehr für Texte gibt? Wie hat Open Access die Bewertung von Texten verändert?

Die Aussagekraft von Gutachten
Peer Reviewer dienen als Gatekeeper. Gutachterinnen sollen dafür sorgen, dass nur Texte, die wissenschaftlichen Standards (Originalität, Schlüssigkeit, Nachprüfbarkeit) genügen, publiziert werden. Damit soll die Qualität von Forschung gewährleistet werden.

Welche Kriterien wirklich maßgebend für die Gutachten sind, ist allerdings nicht immer ersichtlich. Im besten Fall erhält man von Reviewern konstruktives Feedback und der Text gewinnt an Prägnanz, die Argumentation an Schlagkraft. Im schlimmsten Fall nutzen Gutachterinnen ihre Position, um unliebsame Theorien, also ihre Konkurrenz auszubremsen. Originelle Arbeiten bleiben dann im Dunkeln, die Forschung stagniert (s. auch „Does Science Advance One Funeral at a Time?“).

Nicht von der Hand zu weisen ist jedenfalls, dass die individuelle Prädisposition einer jeden Gutachterin immer eine Rolle spielt im Begutachtungsprozess. Dies ist umso wichtiger zu bedenken, wenn nur eine einzige Person über die Veröffentlichung entscheidet. Neben objektiven Kriterien bestimmen in der Regel allgemeine, oftmals unbewusste Vorurteile gegenüber der Autorin (etwa aufgrund des Namens, der Reputation, des Herkunftslandes oder des Geschlechts) die Entscheidung. Wie aussagekräftig ist also das Prädikat „peer reviewed“?

Unterschiedliche Standards und Verfahren
Peer Review ist nicht gleich Peer Review. Die Begutachtungsverfahren können sich nicht nur von Verlag zu Verlag unterscheiden, sondern auch von Zeitschrift zu Zeitschrift. So werden manchmal nur ein einziges Gutachten, manchmal zwei oder mehr eingeholt. Manche Peer Review-Verfahren sind „single blind“, d.h. die Gutachterin kennt den Namen der Autorin, die Autorin aber nicht jenen der Gutachterin; manche Verfahren gehen „double blind“ von statten, d.h. beide, Gutachterin und Autorin, bleiben anonym. Um Transparenz in die unterschiedlichen Verfahren zu bringen und sie vergleichbar zu machen, führt die OAPEN Library die jeweilige Vorgehensweise der an ihrer Plattform beteiligten Verlage auf.

Anonymität vs. Fairness
Die Anonymität der Reviewer soll unabhängige, faire und freimütige Gutachten ermöglichen. Doch zu welch unausgegorenen Äußerungen einseitige Anonymität verleiten kann, kennt man nur zu gut von den Kommentarspalten im Internet. Wie das Feedback von Reviewern mitunter aussehen kann, ist auf dem recht unterhaltsamen Tumblr-Blog „Shit my Reviewers Say“ zu lesen.

Dreht man den Spieß um und anonymisiert allein die Autorin, wie es Martin Paul Eve, Mitgründer der Open Library of Humanities, in einem Gedankenspiel demonstriert, wird Vorurteilen Einhalt geboten und zudem konstruktives Feedback gefördert, da die Gutachterin mit ihrem Namen einstehen muss. Außerdem wird so die – meist unbezahlte – Gutachterinnentätigkeit gewürdigt (um die Würdigung von Peer Review geht es auch in der diesjährigen, gerade stattfindenden Peer Review Week). Gleichzeitig steigt der Druck auf die Reviewerin, einwandfreie und damit eher konservative Arbeiten freizugeben, um der Kritik der Kolleginnen vorzubeugen. Auch so können also Veröffentlichungen progressiver Forschung verhindert werden.

Grundsätzlich ist anzuzweifeln, ob man innerhalb einer kleineren, überschaubaren Disziplin Anonymität überhaupt gewährleisten kann oder ob nicht Thema und Position des eingereichten Textes bzw. des Feedbacks ohnehin auf die Identität der Autorin bzw. der Gutachterin hinweisen.

Einen Leitfaden für Gutachterinnen, wie ein verantwortlicher Peer Review-Prozess so oder so aussehen sollte, hat das Committee on Publication Ethics (COPE) erstellt.

Transparenz durch Open Peer Review
Um dem undurchsichtigen Verhältnis zwischen Gutachterin und Autorin entgegenzuwirken, gibt es mittlerweile mehr und mehr Formen der Open Peer Review. Dabei werden beispielsweise die Gutachten mitveröffentlicht, wie etwa im digitalen Video Essay-Journal [in]Transition. Dadurch wird das Feedback als wichtiges Instrument in der Entstehung wissenschaftlicher Texte gewürdigt. Doch da die auf der Website zu sehenden Arbeiten bereits für veröffentlichungswürdig befunden wurden, fallen die Gutachten entsprechend positiv und wenig kritisch aus. Warum ein eingereichter Text nicht publiziert wird, erfährt allein die Autorin. Wie bei der traditionellen Peer Review werden die Gutachten vor der Veröffentlichung erstellt (pre-publication review).

Eine nachträgliche Form der Open Peer Review (post-publication review) stellen Kommentare dar – eine Praxis, die etwa das Content Management-System von MediaCommons Press (s. z.B. Open Review. A Study of Contexts and Practices) oder das Annotationsprogramm Hypothes.is (s. auch diese Website) unterstützen. Arbeiten können mittels Kommentarfunktion noch lange nach Erscheinen öffentlich diskutiert werden. Dadurch wird der Tatsache Rechnung getragen, dass Wissenschaft kollaborativ funktioniert, dass Publikationen immer nur ein Zwischenergebnis eines langwierigen Arbeitsprozesses darstellen können und dass Forschung niemals abgeschlossen ist. Der Gebrauch der Kommentarfunktion hält sich bei wissenschaftlichen Texten im Gegensatz zu Nachrichtenportalen allerdings in Grenzen. Die Hemmungen, seinen Senf zu einem Text öffentlich – und vor allem schriftlich – dazuzugeben, scheinen unter Akademikerinnen (noch) zu groß.

Inoffizielle Qualitätssicherung
Dafür ermöglichen inoffizielle Feedbackrunden (ob mündlich oder schriftlich) einen produktiven Austausch. Wichtige Texte werden nämlich ohnehin vorab von Kolleginnen gegengelesen und auf Konferenzen diskutiert und passieren mehrere Stufen der Überarbeitung bevor sie Autorinnen zur Veröffentlichung einreichen. Diesen crowdsourced Peer Review-Prozess, mit Hilfe dessen im Grunde alle Publikationen entstehen, öffentlich vonstatten gehen zu lassen, dafür setzt sich Kathleen Fitzpatrick ein, die 2009 einen ersten Versuch mit ihrem Buchprojekt Planned Obsolescence gestartet hat. Weitere Publikationen wie die oben genannte Studie zu Open Peer Review oder Jason Mittells Buch Complex TV. The Poetics of Contemporary Television Storytelling haben sich Fitzpatricks Experiment zum Vorbild genommen.

Crowd Review dank Preprint-Server
Preprint-Server – Onlineplattformen, auf denen Wissenschaftlerinnen ihre Texte schon vor der offiziellen Veröffentlichung hochladen können – sind der beste Beweis dafür, dass auch (noch) nicht formell begutachtete Texte längst als ernstzunehmende Publikationen gelten. Preprint-Server wie arXiv.org für Physik, Informatik und Mathematik oder das leider in Verruf geratene Social Science Research Network (SSRN) für Wirtschaftswissenschaft und Jura sind für viele Wissenschaftlerinnen nicht mehr wegzudenken; die sich im Aufbau befindende Plattform SocArXiv für Sozialwissenschaften wächst stetig.

Zumindest aus wissenschaftlicher Sicht scheint der auf eine Veröffentlichung auf einem Preprint-Server in einer Zeitschrift folgende peer-reviewed Artikel an Bedeutung zu verlieren. „We now read papers, not journals“, konstatiert George Lozano in seinem Blogpost zum Impact Factor und der sinkenden Relevanz renommierter Zeitschriften. Preprint-Server erlauben der Community jedenfalls, Forschungsergebnisse lange vor dem Abschluss eines mehrmonatigen Peer Review-Verfahrens und der endgültigen – in der Regel gedruckten – Fassung zu lesen und zu evaluieren.

Qualität durch Open Access
Wenn mit der zunehmenden Verbreitung von Open Access und digitalen Publikationen Texte insgesamt leichter zugänglich sind und eher gelesen werden, ist anzunehmen, dass sich Autorinnen stärker denn je darum bemühen, gute Arbeiten zu präsentieren. Onlinepublikationen sorgen für mehr Transparenz und Vergleichbarkeit. Ein und derselbe Text lässt sich dann nicht mehr so leicht unter unterschiedlichen Titeln in verschiedenen Sammelbänden oder Zeitschriften unterbringen – was in Zukunft vielleicht die Bedeutung von Publikationslisten relativieren wird und auch die Kategorie „peer reviewed“.

Peer review „is ineffective…“

„largely a lottery, anti-innovatory, slow, expensive, wasteful of scientific time, inefficient, easily abused, prone to bias, unable to detect fraud and irrelevant“, erklärt Richard Smith, ehemaliger Redakteur des British Medical Journal in Stephen Currys Artikel „Peer review, preprints and the speed of science“ im Guardian.

© 2019 oa books

Theme von Anders NorénHoch ↑