Sarah-Mai Dang

Kategorie: Publizieren (Seite 1 von 2)

Forschung kommunzieren. Verlage, Repositorien, Open Acces.

[For an English version please refer to http://vad-ev.de/en/communicating-research/.]

Zum Publizieren von Dissertationen und anderen Texten in der Film- und Medienwissenschaft

Nach Jahren voller Mühe und Selbstzweifel, Inspiration und Gedankensprünge, Hochs und Tiefs endlich geschafft: die Dissertation ist abgegeben, die Disputation erfolgreich überstanden. Nun kommt die Frage, wo und wie das große Werk publizieren?

Da ich selbst vor einigen Jahren, im Sommer 2014, vor dieser Frage stand und mich seitdem mit den Publikationsbedingungen in der Wissenschaft theoretisch und praktisch auseinandersetze, möchte ich in diesem Blogpost die für mich wichtigsten Erkenntnisse zusammenfassen. Nicht zuletzt, da mich immer wieder Anfragen zu dieser Thematik erreichen und es meines Wissens dafür keine zentrale Anlaufstelle für Film- und Medienwissenschaftler_innen gibt.

Vor dem Hintergrund der Diskussionen um Open Access möchte ich im Folgenden darlegen, welche Punkte es bei einer Publikation zu berücksichtigen gilt. Diese Übersicht soll vorrangig als erster Aufschlag für eine Handreichung dienen. Der Text richtet sich insbesondere an Wissenschaftler_innen, deren Dissertation kurz vor dem Abschluss steht, sowie an alle Anderen, die sich mit den Rahmenbedingungen wissenschaftlichen Publizierens vertraut machen möchten. Jeder einzelne Aspekt ist recht komplex und wird an verschiedenen Orten intensiv und kontrovers diskutiert (s. auch Quellen). Dieser Text ist daher in erster Linie als Anstoß zur Auseinandersetzung mit den wissenschaftlichen Publikationsbedingungen zu sehen. Erfahrungsberichte, Ergänzungen, Fragen und Kommentare sind sehr willkommen!

Wieso, weshalb, warum?

Geht es um die Frage, wie und wo einen Text veröffentlichen, ist es sinnvoll sich vorab zu fragen, welches Ziel man mit der Publikation verfolgt, welche Werte man als Wissenschaftler_in vertritt, wofür man sich einsetzen möchte, und wie die eigene Forschungs- und Lehrpraxis aussieht. Auf welche Quellen greife ich häufig und gerne zurück? Welche Formate sind den eigenen Anforderungen und Gewohnheiten dienlich? Welche Plattformen eignen sich für Recherchezwecke? Wo finden sich nützliche Lehrmaterialien?

Es ist sinnvoll, sich diese Fragen möglichst früh zu stellen, da die Auswahl des passenden Verlags für eine Buchpublikation recht zeitintensiv sein kann, möchte man verschiedene Optionen prüfen. Gleichzeitig benötigt es ein repräsentierbares Projekt, um ggf. in die Verhandlung mit einem Verlag bzw. den Herausgeber_innen einer Reihe zu treten. Von der ersten Anfrage bis zur offiziellen Veröffentlichung kann es rund 1-2 Jahre dauern. Ähnlich verhält es sich bei Zeitschriftenartikeln.

Die Qual der Wahl

Üblicherweise werden film- und medienwissenschaftliche Bücher und Artikel nach wie vor bei einem Verlag bzw. in einer Zeitschrift publiziert. Angesichts der Veröffentlichungs-, Verbreitungs- und Kommunikationsmöglichkeiten, die digitale Technologien heute bieten, ist allerdings zu fragen, welchen Mehrwert ein Verlag noch bieten kann. Wenn ich ein Textdokument problemlos online stellen und teilen, sprich veröffentlichen, kann, wozu noch den herkömmlichen Weg über eine Printpublikation oder eine Zeitschrift gehen? Zu dieser Diskussion soll der Blogpost insofern beitragen, als dass er verschiedene Wege der Veröffentlichung vorstellt und näher beleuchtet.

Verlagspublikationen

Möchte man das Buch bei einem Verlag veröffentlichen, sind – ähnlich wie bei einem Zeitschriftartikel oder vielmehr grundsätzlich bei allen Texten – zahlreiche Aspekte bei der Auswahl des Erscheinungsorts und des Formats zu berücksichtigen: u.a. die eigene Positionierung (fachlich und wissenschaftspolitisch), die Reputation des Verlags bzw. der Zeitschrift, die Vertragsbedingungen und Nutzungsmöglichkeiten, sowie die Verbreitung und Zugänglichkeit.

Positionierung/Reputation

Zunächst – im besten Fall bereits mit Beginn des Dissertationsprojekts – ist zu überlegen, wie man sich mit der Publikation positionieren möchte und welcher fachliche, sprachliche, lokale Kontext dafür geeignet erscheint. Möchte ich mich international oder national aufstellen? An welche Fachgemeinschaft richtet sich die Publikation? Welche Diskurse möchte ich fortführen? Wo wird der Text am besten wahrgenommen? Welchen Vorteil verspricht der einzelne Verlag (z.B. Reputation, Reichweite, niedrige Eigenbeteiligung an den Produktionskosten (SW Druckkostenzuschuss), verhandelbare Vertragsbedingungen)?

Ist man noch nicht vertraut mit der akademischen Publikationslandschaft, empfiehlt es sich, das Gespräch mit Kommiliton_innen und Kolleg_innen zu suchen. Bei einer Dissertation wird manchmal auch bereits im Vorfeld mit den Betreuer:innen vereinbart, wo die Qualifikationsschrift als Buch erscheinen soll (beispielsweise in einer bestimmten Reihe).1

Hinsichtlich der Reputation eines Verlags oder einer Zeitschrift spielt neben der Qualität der Publikationen die Form des Peer Review eine Rolle (was mitunter Hand in Hand gehen mag). Die ideale Form der Qualitätssicherung durch Peer Review wird mit der zunehmenden Verbreitung von Open Access verstärkt diskutiert. Je nach Fachkultur unterscheiden sich die Begutachtungsverfahren erheblich. Neben offiziellen Standards gibt es zahlreiche Verfahren, die zwar nicht offiziell ausgewiesen, jedoch nichtdestoweniger etabliert und anerkannt sind. So erfolgt die Begutachtung von Publikationen in der deutschsprachigen Film- und Medienwissenschaft häufig durch das jeweilige Team an Herausgeber_innen anstatt durch externe, unabhängige Gutachter_innen.

Hat man einen Verlag in die engere Auswahl gefasst, ist zu klären, wie die Einreichung eines Buchvorschlags zu erfolgen hat. Manche Verlage verlangen das gesamte Manuskript, ggf. inkl. Gutachten, manche möchten vorab eine Zusammenfassung in Form eines Proposal inkl. Alleinstellungsmerkmalen bzw. Verkaufsargumenten (insb. internationale Verlage). Bei Zeitschriften ist in der Regel zunächst ein Abstract anlässlich eines Call for Papers (CfP) einzureichen, bevor der vollständige Artikel folgt.

Vertragsbedingungen und Nutzungsmöglichkeiten

Neben den inhaltlichen Aspekten sind die Rahmenbedingungen der Veröffentlichung zu klären. Unter anderem ist dabei auf die Auflagenhöhe und den Kaufpreis eines Buches zu achten sowie auf die Anzahl der Eigenexemplare (normalerweise etwa 5  Stück) und nicht zuletzt auf die rechtlichen Regelungen. Ein Honorar ist u.a. aus rechtlichen Gründen (z.B. wenn das Forschungsprojekt über Drittmittel finanziert wurde) üblicherweise nicht vorgesehen, eine geringe Ausschüttung der Einnahmen höchstens bei internationalen Wissenschaftsverlagen zu erwarten.2

Durchschnittlichen rechnen Wissenschaftsverlage in Deutschland mit einem Verkauf von zwischen 150 bis 300 Exemplaren pro Titel in den ersten zwei Jahren. Entsprechend hoch (oder niedrig) ist die Erstauflage (bei der es normalerweise bleibt). Wenn es sich nicht gerade um ein Einführungswerk oder ein Handbuch handelt, sind die Bibliotheken die Hauptabnehmerinnen der Bücher. Die relativ hohen Verkaufspreise in Höhe von ca. 50–100 Euro (im englischsprachigen Raum teils noch höher) zahlen also selten Privatpersonen, sondern vor allem öffentliche und private Institutionen.3 Dies ist u.a. in der Diskussion um Open Access, Zugänglichkeit und Verbreitung zu berücksichtigen. Doch auch Bibliotheken verfügen nur über ein begrenztes Budget. Prinzipiell ist daher zu überlegen, welchen Preis man für ein wissenschaftliches Buch angemessen findet und inwiefern man bereit ist, Teil einer (zunehmenden?) Ökonomisierung der Wissenschaft zu sein, in der Forschungsergebnisse in erster Linie der Gewinnmaximierung und dem Wettbewerbsvorteil statt der Wissenserweiterung dienen.

Bevor man den Verlagsvertrag unterzeichnet, sollte man außerdem prüfen, wie die Nutzungsbedingungen geregelt sind. Das Urheberrecht ist nicht veräußerbar, es verbleibt bei den Autor_innen. Allerdings können die Nutzungs- und Verwertungsrechte an einem Text abgetreten werden, was Verlage und Zeitschriften üblicherweise verlangen, indem sie die Verträge mit entsprechenden Paragraphen ausstatten. Zu Marketingzwecken mag dies seine Berechtigung haben, doch sollten sich Autor_innen genau überlegen, welche Freiheiten sie sich in jedem Fall bewahren möchte (z.B. Übersetzungsrechte; Selbstarchivierung der Publikation über die eigene Website oder den Universitätsserver) und welche Rechte sie bereit sind zumindest teilweise abzutreten. Entsprechend sind Verträge auszuhandeln und etwa exklusive in nicht-exklusive Nutzungs- und Verwertungsrechte umzuwandeln.

Dank des Zweitverwertungsrecht können Autor_innen ihre Artikel, die größtenteils aus öffentlich finanzierter Forschung hervorgehen, seit 2014 unabhängig vom Verlagsvertrag nach zwölf Monaten zu nicht-kommerziellen Zwecken der Allgemeinheit zugänglich machen.

Grundsätzlich gilt, Verlagsverträge sind verhandelbar. Schließlich sollen sich die jeweiligen Parteien gut vertragen. Je mehr Wissenschaftler_innen sich ihrer Verhandlungsposition bewusst sind und entsprechende Forderungen formulieren, desto fairere Publikationsbedingungen lassen sich mittel- und langfristig auszuhandeln. Noch wird meiner Ansicht nach insbesondere Großverlagen eine zu große Handlungsmacht in der Vertragsgestaltung und damit Wissensdissemination eingeräumt und der eigene Spielraum unterschätzt.

Verbreitung und Zugang

Ist eine möglichst große Verbreitung der Publikation das Ziel, gilt es zu bedenken, dass ein hochpreisiges Buch aufgrund des prestigeträchtigen Verlags und dank der Bibliotheken mitunter eine größere Reichweite erlangen kann als ein Buch, das trotz eines günstigeren Kaufpreises nicht in den Bibliothekskatalog aufgenommen wird, etwa da Autor_in sowie Verlag unbekannt sind und/oder das Thema den verantwortlichen Wissenschaftler_innen und Bibliothekar_innen nicht relevant erscheint. Daher ist es sinnvoll zu recherchieren, welche Bücher und welche Zeitschriften über Bibliothekskataloge und andere Suchportale verfügbar sind. Doch da weder alle Menschen Zugang zu Bibliotheken noch zum Internet haben, ist die Frage nach der tatsächlichen Verbreitung nur begrenzt zu klären. Prinzipiell ist es m.E. jedoch erstrebenswert, zumindest potentiell einen möglichst großen Zugang zu seinen Forschungsergebnissen zu gewähren. Dazu zählen für mich die aktive Kommunikation von Forschung (Wissenschaftskommunikationund Open Access, der kostenfreie Zugang zu Publikationen.

Open Access

Inzwischen gibt es zahlreiche nationale und internationale Verlage und Zeitschriften in der Film- und Medienwissenschaft, die neben der Printpublikation eine Open-Access-Veröffentlichung anbieten. Eine Übersicht dazu bietet die Verzeichnisse Directory of Open Access journals und Directory of Open Access Books. Die meisten Verlage verlangen dafür eine Gebühr, eine sogenannte Article Processing Charge (APC). Die Publikationsgebühr für open access kann bei Büchern bis zu 15.000 US-Dollar betragen, bei Artikeln in Fachzeitschriften liegt sie bei etwa 2.500 US-Dollar. Für OA-Zeitschriftenartikel haben viele Universitäten extra Publikationsfonds eingerichtet. Für OA-Bücher existieren bislang noch kaum bis gar keine Förderungen (es sei denn, diese wurden bereits in einem Drittmittelantrag berücksichtigt) – im Gegensatz zum sogenannten Druckkostenzuschuss (in Höhe von ca. 2.500–8.000 Euro, je nach Verlag), der in Deutschland gewöhnlich für eine Buchproduktion, d.h. neben Tagungsbänden oder Handbüchern auch für die Veröffentlichung der Dissertation, an einen Verlag zu zahlen ist.4

Aus meiner Sicht ist es allerdings fraglich, ob solche hohen Summen für eine Open-Access-Publikation (und selbst für eine reguläre Buchpublikation) notwendig sind, um die Kosten von Produktion, Vertrieb und Marketing zu decken. Insbesondere, wenn Verlage durch das sogenannte double dipping doppelt an Open Access verdienen, also sowohl durch den Verkauf von Zeitschriftenabonnements und Printpublikationen als auch über die Gebühr für das Freischalten der kostenlosen Digitalausgabe. Dass auch die Herstellung kostenfreier Publikationen bezahlt werden muss, ist offensichtlich. Wie eine faire Finanzierung von Open Access konkret aussehen kann, sodass alle an der Publikation Beteiligten angemessen honoriert werden und die APC nicht zur Barriere für Autor:innen wird, erproben derzeit verschiedene Initiativen wie etwa Knowledge Unlatched oder Open LIbrary of Humanities (OLH).

Repositorien

Eine OA-Veröffentlichung ohne Publikationsgebühr erlauben Repositorien. Mittlerweile gibt es neben den Publikations- und Dissertationsservern der Universitäten, über die Studierende und Lehrende ihre Arbeiten kostenlos hochladen und kostenlos zugänglich machen dürfen, auch institutionen- und fachübergeordnete Repositorien, über die Texte kostenfrei zur Verfügung gestellt werden können (nicht zu verwechseln mit gewinnorientierten Portalen wie Academia.edu oder ResearchGate!). Die film- und medienwissenschaftlichen Repositorien media/rep/ und MediArXiv sind hier beispielsweise zu nennen, sowie die geisteswissenschaftliche Plattform Humanities Commons und das vom CERN ins Leben gerufene Zenodo.

Die über media/rep/ verfügbaren, vor allem deutsch-, aber auch englischsprachigen Inhalte (Zeitschriftenarchive, Aufsätze, Schriftenreihen, Bücher und Vorlesungen) werden von Fachvertreter:innen der Film- und Medienwissenschaft ausgewählt und in einem komplexen Verfahren zwecks dauerhafter Verfügbarkeit aufbereitet. MediArXiv hingegen fokusiert das selbständige Hochladen von Preprints und Postprints verschiedensprachiger, eher klassischer Publikationen auch aus angrenzenden Disziplinen. Humanities Commons fungiert in erster Linie als Netzwerk, und über Zenodo lassen sich verschiedenartigste Materialien wie etwa Präsentationen oder Bibliographien speichern.

Open-Access-Skeptiker_innen begründen ihre Vorbehalte oftmals mit einer fehlenden Qualitätssicherung und mangelnder Möglichkeit der Langzeitarchivierung. Dem ist entgegenzuhalten, dass Open Access erstens nicht mit digitalem Publizieren gleichzusetzen ist und schon gar nicht mit dem bloßen Hochladen irgendeines Dokuments über irgendeine Plattform. Digitale Publikationen können sehr unterschiedliche Formen annehmen ungeachtet des wissenschaftlichen Anspruchs oder des Umfelds. Mit Open Access sind dezidiert wissenschaftliche Arbeiten gemeint, die in entsprechende Infrastrukturen lokalisiert sind. Open Access sollte eigentlich auch die Möglichkeit der barrierefreien Nachnutzung erlauben, d.h. ohne technische, ökonomische oder rechtliche Einschränkungen.

Eine nachhaltige Verfügbarmachung kann verschiedene Formen annehmen ebenso wie Verfahren der Peer Review (s. auch die Blogbeiträge von Adelheid Heftberger sowie Maximilian Heimstädt und Leonhard Dobusch).

Auch diesbezüglich gilt es anhand der skizzierten Aspekte zu entscheiden, welcher Weg am geeignetsten erscheint, um sein mit der Veröffentlichung angestrebtes Ziel (Qualifizierung/Doktortitel, Reputationssteigierung/Profillierung, Berufbarkeit, Beförderung einer Diskussion, Etablierung eines neuen Themas/Forschungsfeldes etc.) zu erreichen.

One size doesn‘t fit all

Um herauszufinden, welcher Weg der Veröffentlichung für meine Dissertation am sinnvollsten ist, habe ich selbst meine Arbeit in drei Versionen und fünf verschiedenen Formaten zugänglich gemacht:

1)  als Qualifikationsschrift direkt über das Repositorium der Freien Universität Berlin
2)  eine überarbeitete, mit einer Creative-Commons-Lizenz versehene Fassung
◦ als responsive Website, die sich der jeweiligen Nutzungsoberfläche, dem Laptop, dem Smartphone oder dem Tablet, anpasst
◦ als bezahlbares Print-On-Demand-Buch (inkl. referenzierbarer ISBN) und
◦ kostenfreies PDF über media/rep und MediArXiv (inkl. referenzierbarer DOI), sowie
3)  in einer englischen Übersetzung traditionell über den Verlag Palgrave Macmillan

Dieses Unternehmen hat rund zwei Jahre in Anspruch genommen und jede Menge Energie, Nerven, Zeit und Geld gekostet. Währenddessen ist mir bewusst geworden, dass jedes Format auf unterschiedliche Anforderungen, Bedürfnisse und Gewohnheiten antwortet (s. Überblick): One size doesn‘t fit all!

Vor allem aber habe ich verstanden, dass Open Access nicht nur die kostenlose Verfügbarkeit von Texten bedeutet, sondern viel mehr: Publikationen müssen darüber hinaus verständlich, sichtbar und auffindbar, referenzierbar, (nach)nutzbar und ansprechend sein. Daher gehört neben der Veröffentlichung von Forschungsergebnissen immer auch deren Verbreitung und Vermittlung dazu. Die einzelne Publikation stellt in diesem Sinne nur einen Teil der Wissenskommunikation dar.

Ob ich solch ein aufwendiges Vorgehen 1:1 empfehlen kann, ist schwer zu sagen. Das Projekt soll vor allem weitere Wissenschaftler:innen dazu ermutigen, sich stärker mit den Publikationsbedingungen auseinanderzusetzen und im besten Fall ähnliche Experimente zu wagen.

Acknowledgements

Für eine intensive Lektüre der ersten Fassung, hilfreiche Anmerkungen und kritische Nachfragen danke ich sehr herzlich meinen Kolleginnen Laura Katharina Mücke und Katja Hettich.

Dieser Blogpost ist zuerst am 16. Oktober 2019 auf dem Open-Media-Studies-Blog erschienen.


 

1. Welche spezifischen Anforderungen an die Veröffentlichung der Dissertation am jeweiligen Institut gestellt werden, ist der entsprechenden Promotionsordnung zu entnehmen.

2. Über die Verwertungsgesellschaft Wort (VG Wort) können Urheber_innen Einnahmen geltend machen, die sich aus den Abgaben für den privaten und wissenschaftlichen Gebrauch von Werken ergeben. Die Rahmenbedingungen der Berechnung und Verteilung sind allerdings umstritten.

3. Die Kalkulation der Verkaufspreise und auch der Eigenbeteiligung an den Produktionskosten in Form des sog. Druckkostenzuschusses unterscheidet sich von Verlag zu Verlag deutlich. Die Geschäftsmodelle des wissenschafitchen Publikationssystems und die Frage nach einer fairen und effektiven Finanzierung würde mehr als einen weiteren Beitrag erfordern.

4. Wenn der Druckkostenzuschuss nicht bereits einkalkuliert ist, etwa im Antrag eines Drittmittelprojekts, bieten verschiedene Einrichtungen Förderungsfonds. Manche Wissenschaftler_innen zahlen den Betrag aus der eigenen Tasche.

5. Im September 2019 ist die von Guido Kirsten, Magali Trautmann, Philipp Blum und Laura Katharina Mücke durchgeführte Übersetzung von Roger Odins Kommunikationsräume. Einführung in die Semiopragmatik als hybride Open Access-Publikation auf ähnliche Weise über meine Website oabooks.de erschienen. Über dieses Publikationsprojekt werden die Übersetzer_innen und Herausgeber_innen in Kürze auf dem Blog berichten.

oabooks.de –> Open-Media-Studies-Blog

Der Open-Media-Studies-Blog | Zeitschrift für Medienwissenschaft ist nun online!

Um die Diskussion um Publikations-, Forschungs- und Lehrpraktiken in den Geisteswissenschaften einem größeren Kreis zu öffnen und stärker in der Medienwissenschaft zu verankern, habe ich im Frühjahr 2018 den Open-Media-Studies-Blog initiiert, den ich gemeinsam mit meiner Kollegin Alena Strohmaier kuratiere. Posts zu #openaccess, #openscience, #opendata, #digitalhumanities sind jederzeit willkommen!

Zu lesen sind die Beiträge des Open-Media-Studies-Blog auch auf dem sozial- und geisteswissenschaftlichen Metablog Hypotheses: https://mediastudies.hypotheses.org/.

Weiterhin werden Posts auch auf oabooks.de erscheinen.

Zenodo, SocArXiv oder GitHub? Preprints in den Geisteswissenschaften

In der Regel dauert es in der Wissenschaft Monate, wenn nicht Jahre, bis dass ein Artikel oder Bucheintrag veröffentlicht wird – selbst wenn der Text längst verfasst ist und den Herausgeber:innen vorliegt. Um eine zügige Veröffentlichung und Diskussion dennoch zu ermöglichen, gibt es Preprint-Server, über die Wissenschaftler:innen Manuskripte bereits vor der offiziellen Veröffentlichung zugänglich machen können (s. mein Post zu Peer Review).

In den Natur- und mittlerweile auch in den Sozialwissenschaften gibt es von der Community anerkannte Preprint-Server. In den Geisteswissenschaften steht immer noch keine dezidierte Möglichkeit zur ‚Vorveröffentlichung‘ zur Verfügung. So habe ich als Film- und Medienwissenschaftlerin erst einmal recherchieren müssen, welche adäquate Form es gibt, um nun selbst zum ersten Mal einen Artikel frühestmöglich zur Diskussion zu stellen.

Früher Zugang durch Preprint
Es handelt sich um einen Beitrag zu digitalen Werkzeugen und Methoden in der Filmgeschichtsschreibung, deren Potentiale und Herausforderungen für die Film- und Medienwissenschaft ich am Beispiel der feministischen Filmgeschichte erläutere. Da Projekte und Ansätze in den Digital Humanities derzeit stark diskutiert werden, ist es mir in diesem Fall ein besonders dringendes Anliegen, frühzeitiges und vielseitiges Feedback zu meinem Beitrag zu bekommen.

Der Artikel ist bereits eingereicht und soll am 1. Juni 2018, also in acht(!) Monaten bei MEDIENwissenschaft Rezensionen | Reviews  erscheinen. In Absprache mit der Redaktion (Danke!) habe ich mich entschieden, den ersten Entwurf vorab zu veröffentlichen. Was in den Naturwissenschaften gang und gäbe ist, stellt in den Geisteswissenschaften nach wie vor eine Besonderheit dar. Kommerzielle Plattformen wie ResearchGate oder Academia.edu werden zwar genutzt, doch in der Regel um im Nachhinein Artikel verfügbar zu machen. Leser:innen müssen sich registrieren, um die Texte herunterzuladen. Zudem sind die AGB undurchsichtig und die rechtliche Lage ist oftmals ungeklärt. Nicht zuletzt bleibt die Veröffentlichung an die Produktionsabläufe der Verlage gebunden. Außerdem können Dokumente oder ganze Accounts beliebig gelöscht oder erstellt werden. Eine nachhaltige Nutzung kann somit nicht gewährleistet werden. Die Prozesshaftigkeit von Wissenschaft spiegeln Preprint-Server weitaus besser wider. Gilt es, sich für eine offenere Wissenschaft einzusetzen und seine Publikationen sowohl zugänglicher als auch nachnutzbarer zu machen, ist dies meines Erachtens die bessere Wahl.

Relevante Kriterien für Preprints
Doch wo sollen Geisteswissenschaftler:innen ihre Preprints veröffentlichen? Und was sollen Preprint-Server eigentlich leisten?

Meiner Meinung nach sind folgende Kriterien relevant:
Sichtbarkeit durch Auffindbarkeit: durch passende Verschlagwortung, SEO, DOI (Digital Object Identifier), permanente URL
Zugänglichkeit: durch nutzer:innenfreundliches Interface, Download-Option ohne Registrierung
Nachnutzbarkeit: durch variable Lizenzierung und Zitiermöglichkeit (über DOI, permanente URL)
Nachhaltigkeit: durch permanente URL, standardisierte Metadaten, Langzeitarchivierung über Speicherverfahren wie LOCKSS  oder CLOCKSS sowie nicht beliebig löschbare Dokumente
Anerkennung in der Community: durch verbreitete Nutzung, transparente Verfahren, produktive Beiträge
Transparenz: durch Offenlegung des Source Codes, der AGB, der Finanzierung bzw. des Geschäftsmodells

Nach Gesprächen mit Kolleg:innen aus der Open Science-Community (Danke, Fellows und Aktivist:innen von „Freies Wissen“!) habe ich mir die Plattformen SocArXiv, Zenodo und GitHub näher angesehen. Schlussendlich habe ich mich entschieden, meinen Artikel als Preprint bei Zenodo hochzuladen („Digital Tools & Big Data: Zu gegenwärtigen Herausforderungen für die Film- und Medienwissenschaft am Beispiel der feministischen Filmgeschichtsschreibung“). Ausschlaggebend war die größere, wenn auch vergleichsweise geringe, Bekanntheit unter Wissenschaftler:innen in der Medienwissenschaft in Deutschland.

Mögliche Preprint-Server
1) Zenodo, https://zenodo.org/
Zenodo ist eine vom CERN 2013 ins Leben gerufene Plattform, die jedoch ausdrücklich sowohl Natur- als auch Humanwissenschaften willkommen heißt. Die Nutzung ist für Autor:innen sowie für Leser:innen kostenlos. Finanziert wird die Plattform u.a. durch die Initiative der europäische Kommission OpenAIRE.

Zenodo bietet
◦ Verschlagwortung
◦ automatische DOI
◦ variable Lizenzierung, auch ohne Creative Commons
◦ eine Community-Umgebung für Kollaborationen und Austausch
◦ verschiedene Dateiformate
◦ verschiedene Genres (z.B. Textpublikationen, Präsentationen, Videos, Poster, Bilder)
◦ ein eigenes Repositorium bzw. Gruppe
◦ Verknüpfung mit ORCID
◦ Verknüpfung mit GitHub
◦ schnellen Import von Artikeln in Literaturdatenbanken

Die Plattform ist open source basiert (GitHub). Die Nutzungsrechte bleiben bei den Urherber:innen. Auch deutschsprachige Artikel sind auf Zenodo zu finden. Unter „Medien“ sind 70 Einträge gelistet. „Medienwissenschaft“ bringt allerdings keine Suchergebnisse hervor. Dafür gibt es Beiträge zur Geisteswissenschaft, z.B. zur Bedeutung von Open Access, https://zenodo.org/record/50598). Zenodo ist einfach zu bedienen. Zudem sind die einmal hochgeladenen Dokumente oder Dateien nicht beliebig löschbar, sodass eine nachhaltige Archivierung und Nutzung gewährleistet wird.

2) SocArXivhttps://osf.io/preprints/socarxiv
In die engere Auswahl ist auch SocArXiv gekommen. SocArXiv ist mit dem Gründungsjahr 2011 ebenfalls ein relativ junger PrePrint-Server. Verstärkte Aufmerksamkeit hat er in der Diskussion um die Plattform SSRN (Social Science Research Network) bekomment, als diese 2016 von Elsevier (s. mein Blog-Post) aufgekauft wurde. Angesiedelt ist die Plattform an der University of Maryland (UMD).

SocArXiv bietet
◦ Suche nach Schlagworten und Disziplinen
◦ permanente URL
◦ automatische DOI (Digital Object Identifier) ist in Planung
◦ variable Lizenzierung (CC-O oder CC-BY)
◦ Indexierung über Google Scholar
◦ Teilen über Twitter, fb, LinkedIn und eMail
◦ Download-Statistiken
◦ Verknüpfung mit ORCID

Auch bei SocArXiv bleiben die Nutzungsrechte bei den Urherber:innen. Während bei Zenodo Daten über GitHub archiviert und verknüpft werden können, kooperiert SocArXiv mit OSF (Open Science Framework), über das man über Hintergrund und Kontext des Artikels mittels zusätzlichem Material und weiteren Daten informieren kann. SocArXiv verpricht, dass sie sich anders als SSRN nicht an Elsevier verkaufen würden. Reichweite und Netzwerk scheinen mir auch bei SocArXiv inzwischen recht groß, auch in den Humanwissenschaften. Doch da kaum deutsche Text auf der Plattform zu finden sind, habe ich Zenodo den Vorrang gegeben.

3) GitHub, https://github.com/
GitHub war mir bisher nur als Hosting-Plattform für Software, insbesondere im open source-Bereich, bekannt. Doch es ist ebenso möglich, Textdateien über GitHub verfügbar machen, nicht nur Codes. Dennoch scheinen mir SocArXiv und Zenodo für Preprint-Zwecke eindeutig geeigneter, zumal es über Zenodo möglich ist, seine Daten auf GitHub-Account zu verlinken.

4) eigene Website
Den Preprint-Artikel über die persönliche Website oder die Institutsseite zugänglich zu machen, erlaubt zwar eine unmittelbare Verknüpfung mit dem eigenen Profil, doch Auffindbarkeit und Nachhaltigkeit sind nicht gewährleistet.

Feedback willkommen!
Es stellt natürlich ein Risiko dar, ‚unfertige‘ Produkte für die Community oder gar die Öffentlichkeit freizugeben. Man stellt sich einer unbekannten Leser:innenschaft und macht sich leichter angreifbar. Dennoch freue ich mich auch über kritisches Feedback zum Text sowie über allgemeine Kommentare, Vorschläge oder eigene Erfahrungsberichte zu Preprint-Servern – nicht nur in der Film- und Medienwissenschaft.

 

Update (22. August 2019)
Seit diesem Jahr gibt es MediArXiv, ein offenes, internationales, mehrsprachiges, crowd-sourced Repositorium für die Medien-, Film- und Kommunikationswissenschaft (und angrenzende Disziplinen), dem ich als Mitglied des Steering Committee angehöre. MediArXiv fokussiert derzeit vor allem Publikationen, also Artikel, Buchkapitel und ganze Bücher, sowohl als Preprint als auch als Postprint.

Geht es um das Zugänglichmachen von Texten, ist MediArXiv zu empfehlen. Geht es jedoch um heterogeneres Material, z.B. um Präsentationen, oder um die Organisation einer themenspezifischen Community, ist Zenodo die geeignetere Anlaufstelle.

Des Weiteren gibt es für die deutschsprachige Medienwissenschaft das Repositorium media/rep, das in Kooperation mit Verlagen Publikationen sammelt und open access stellt.

Transparenz statt Ruhm und Ehre? Nachwuchswissenschaftler:innen zu Risiken und Chancen von Open Science

Open Science – von Open Access über Open Educational Resources, Open Data und Open Peer Review bis hin zu Citizen Science – soll die Verbreitung und Nachnutzung von sowie den Zugang zu Wissen erleichtern. Ziel von Open Science ist es, Forschung transparenter und nachhaltiger zu machen und somit die Qualität von wissenschaftlicher Arbeit zu verbessern. Wie Open Science im akademischen Alltag aussehen kann, haben Stipendiat:innen des von Wikimedia Deutschland in Kooperation mit dem Stifterverband 2016 gegründeten Fellow-Programms Freies Wissen [Verlinkung wurde aufgrund einer veränderten URL von der Red. entfernt] am 10. März auf der Abschlussveranstaltung „Wissen offen gestalten – Open Science in der Praxis“ in Berlin diskutiert.

Open Science ist vielfältig
Open Science wird von Fach zu Fach unterschiedlich praktiziert, die Ansätze sind vielfältig. Dies verdeutlichte der einleitende Film, in dem alle zehn Stipendiat:innen ihre Forschungsprojekte in 90-Sekündern präsentierten. So geht es dem Neurobiologen Benjamin Paffhausen etwa um das Teilen von Wissen zwecks Herstellung wissenschaftlicher Geräte zur Beobachtung von Honigbienen. Der Rechtswissenschaftler Hanjo Hamann wiederum veröffentlicht im Dienste der deutschen Justizgeschichte Dokumente, aus denen hervorgeht, welche Richter:innen welche Fälle bearbeitet haben. Die Wissenschaftssoziologin Klara-Aylin Wenten befasst sich mit MakerSpaces, partizipativen Werkstätten. Und die Filmhistorikerin Adelheid Heftberger, Mitgründerin des Open Access-Journals Apparatus, versucht beispielsweise ihre Kolleg:innen von alternativen, offenen Publikationsformaten zu überzeugen.

Die „Botschafter:innen des Freien Wissens“ setzen sich sowohl theoretisch als auch praktisch mit Open Science auseinander. Mit welchen fachspezifischen Problemen die Nachwuchswissenschaftler:innen dabei konfrontiert werden, zeigte die anschließende Podiumsdiskussion. Moderiert von Christina Riesenweber, Open Access-Beauftragte der Freien Universität Berlin, erörterten die Fellows Marion Goller, Juristin, Ruben C. Arslan, Psychologe, und Mirjam Braßler, Erziehungswissenschaftlerin, die Chancen und Schwierigkeiten von Open Science.

Das Recht erschwert freies Wissen
Jurist:innen seien Teil des Problems, konstatierte Goller. Das Bewusstsein für Open Science sei unter ihren Kolleg:innen noch nicht weit verbreitet, da die Quellen, die Gesetzestexte, ohnehin zur freien Verfügung stünden. Außerdem arbeiteten nur wenige Jurist:innen als Wissenschaftler:innen. Darüber hinaus profitierten sie von „closed access“, wenn ihre Lehrbücher in Veranstaltungen vorausgesetzt würden.1

Das derzeitige Recht erschwert nach Goller den Zugriff auf Wissen. Denn Vieles sei verboten. Sie bedauert, dass das US-amerikanische Prinzip des Fair Use in Deutschland nicht gilt und fordert eine harte Wissenschaftsschranke auf europäischer Ebene. Goller forscht zu Urheberrecht und freien Lizenzen und setzt sich für die Abschaffung von Patenten ein.

Wenn es um die Offenlegung von Daten und um die Nachnutzung von urheberrechtlich geschütztem Material geht, herrscht immer noch große Rechtsunsicherheit. Auch aus diesem Grund zögern Wissenschaftler:innen, ihre Forschungsergebnisse im Internet kostenfrei zugänglich zu machen. Zudem bedeutet Open Science einen erheblichen Mehraufwand, der noch nicht honoriert wird. Über diese Punkte waren sich die Podiumsgäste einig. Gar von Zeitverschwendung sei dann die Rede, berichtete Arslan.

Open Science ist riskant, aber effektiv
Open Science stellt nach wie vor nicht nur eine ungewöhnliche Praxis dar, sondern auch ein Risiko für die eigene Karriere. Erstens fehlt Wissenschaftler:innen die Zeit, die sie für die Aufbereitung von Forschungsergebnissen für die Allgemeinheit aufwenden, für weitere Publikationen. Zweitens haben Open Access-Veröffentlichungen noch nicht denselben Stellenwert wie auf herkömmliche Weise verfügbare Artikel in Fachzeitschriften oder Monographien, die gedruckt und bei traditionellen Verlagen erscheinen. Auch wenn es nach Riesenweber keine Korrelation zwischen Open Access und Qualität gibt, leiden frei zugängliche Publikationen unter dem „Impact Factor“, nach dem sich die Reputation einer Zeitschrift bemisst. Dazu kommen die hohen Gebühren, die Verlage von Autor:innen verlangen, um Publikationen open access zu stellen. Drittens machen sich Wissenschaftler:innen durch die Offenlegung von Experimenten und Forschungsprozessen angreifbar. So setze man etwa mit einer Präregistrierung, der öffentlichen Festsetzung von geplanten Studien, Ruhm und Ehre aufs Spiel, erklärte Arslan. Eine für ein stimmiges Erscheinungsbild sorgende Nachjustierung von Methoden, Daten und Forschungsfragen werde dadurch nämlich unmöglich. Obwohl diese Praxis zu einem Mangel an belastbaren Ergebnissen führt, ist sie wohl durchaus üblich. Arslan selbst sucht unter anderem über eine open source Fragebogensoftware der „Replizierbarkeitskrise“ in der Psychologie entgegenzuwirken. Er forscht zu romantischen Präferenzen und Beziehungsdynamiken.

Risiken muss jede Pionier:innengeneration eingehen. Doch letztendlich gilt es, einfach weiterzumachen, um andere von den Vorteilen offener Forschungspraktiken zu überzeugen und Open Science als Standard in der Wissenschaft zu etablieren. Dies war Konsens auf dem Podium. Dabei sei nicht nur an den Idealismus der Community zu appellieren, sondern durchaus auch an eigennützige Motive, findet Arslan. Denn mit Open Science verbänden sich auch viele persönliche Vorteile. So werde man durch transparenteres Arbeiten sowohl sichtbarer als auch glaubhafter. Und von Preprints profitierten alle.

Um einen Austausch auch über die eigene Disziplin hinaus zu ermöglichen, muss man nicht unbedingt den Weg über Publikationen gehen. Auch Plattformen, Blogs und Diskussionsforen fördern das kollaborative Arbeiten. Nicht nur in der Forschung, sondern ebenso in der Lehre. Davon ist auch Braßler überzeugt. Sie untersucht, inwiefern Open Educational Resources die persönliche Entwicklung von Studierenden beeinflussen und erstellt Handlungsempfehlungen, um Lehrmaterial transdisziplinär zugänglich zu machen. Meist lande es nämlich in der Schublade.

Fördermaßnahmen statt Open Burnout
Fazit der Podiumsdiskussion, die sich am Ende für Fragen und Kommentare aus dem Publikum öffnete, war, dass man an mehreren Punkten gleichzeitig ansetzen und einen grundsätzlichen Bewusstseinswandel nicht nur in der Wissenschaftskultur herbeiführen müsse. Dieser beginne bereits damit, sich von der Vorstellung von Wissen als Eigentum zu lösen. Sogenannte „shadow libraries“ wie SciHub könnten das Problem nicht lösen. Neben Verlagskonzernen ziehen profitorientierte Plattformen wie ResearchGate oder Academia.edu ihren Nutzen aus der mangelnden Offenheit. Politiker:innen müssten begreifen, dass Menschen nicht nur aus ökonomischen Gründen handeln und dass ein vereinfachter Wissensaustausch erheblich zur Innovationssteigerung beitrüge. Intransparenz, wie etwa in der Medizin, halte den Fortschritt auf. Deshalb bedürfe es mehr Anreize von politischer Seite für Wissenschaftler:innen, Open Science zu betreiben, zum Beispiel entsprechende Auswahlkriterien in Berufungsverfahren oder Fördermaßnahmen wie Deputatsreduktion. Schließlich wolle man kein Open Burnout.

 


1.
 Als die Universität Konstanz ihre Angehörigen zu Open Access qua Satzung verpflichten wollte, klagten Konstanzer Jurist:innen dagegen mit dem Hinweis auf das Grundrecht der Wissenschaftsfreiheit.

Zurück zum Kopierer? Wie die VG Wort den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen erschwert

Die Verwertungsgesellschaft Wort (VG Wort) soll die Interessen von Urheberinnen vertreten. Dazu gehören auch Autorinnen wissenschaftlicher Werke und damit Wissenschaftlerinnen. Doch der neue Rahmenvertrag, der zwischen der VG Wort und den Kultusministern der Länder abgeschlossen wurde und ab 2017 in Kraft treten soll, erschwert den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen.

Grundsätzlich haben Urheberinnen das ausschließliche Recht zur Vervielfältigung und zur Verbreitung ihrer Werke. Das deutsche Urheberrecht erlaubt aber Vervielfältigungen zum privaten oder wissenschaftlichen Gebrauch sowie den ungewerblichen Verleih. Für diese Nutzungen sind die Urheberinnen zu entschädigen. Da sie jedoch nicht jeden Gebrauch einzeln geltend machen können, werden pauschale Abgaben, z.B. für Kopiergeräte, an Verwertungsgesellschaften gezahlt. Für Schriftwerke übernimmt in Deutschland die VG Wort die Verwaltung dieser sogenannten Reprographieabgabe und Bibliothekstantieme.

Auch Universitäten zahlen für das Kopieren und die Nutzung von Texten. Seit Jahren wird allerdings diskutiert, wie eine „angemessene Vergütung“ für die Nutzung digitaler Kopien, etwa auf eLearning-Plattformen, aussehen soll. Darauf kann auch der neue Rahmenvertrag keine Antwort geben, denn er sieht ein aufwendiges Meldeverfahren vor, das sich in keinen wissenschaftlichen Alltag integrieren lässt. Das hat jüngst ein Pilotprojekt der Universität Osnabrück gezeigt.

Bisher haben Universitäten jährlich Pauschalbeträge für die „Öffentliche Zugänglichmachung von urheberrechtlich geschützten Werken für Unterricht und Forschung“ (§ 52a UrhG) an die VG Wort abgeführt. Ab 2017 sollen alle digitalen Texte einzeln erfasst und abgerechnet werden. Pro Seite und Seminarteilnehmerin bzw. Projektmitarbeiterin werden 0,8 Cent berechnet.

Textteile bis zu maximal 12% eines Werkes, insgesamt jedoch nicht mehr als 100 Seiten, sowie kürzere Texte mit maximal 25 Seiten dürfen online zugänglich gemacht werden. Seiten, die überwiegend Fotos oder Bilder zeigen, werden interessanterweise nicht mitgezählt.

Wissenschaftlerinnen müssen gewährleisten, dass die Textteile begrenzt zugänglich sind, der Zugang zum jeweiligen eLearning-Kurs also nur durch ein Passwort möglich ist. Nicht zugänglich machen darf man Digitalisate, wenn der Text durch die Rechteinhaberin selbst schon in digitaler Form angeboten wird. Dann ist diese Version zu verwenden, d.h. ggf. ist mit der jeweiligen Rechteinhaberin in Kontakt zu treten, um eine lizenzierte Kopie zu erwerben.

In Open Access-Zeitschriften und -Repositorien veröffentlichte Texte unterstehen einer Creative Commons-Lizenz, welche von vornherein und kostenlos ihre Vervielfältigung und Verbreitung erlaubt. Sie fallen daher nicht unter die Meldepflicht.

uebersicht_urhg52

Anne Fuhrmann-Siekmeyer, Universität Osnabrück, CC-BY-SA

Durch digitale Technologien können Forschungsergebnisse leichter zugänglich gemacht werden. Elearning-Plattformen sind dafür ein gutes Beispiel. Doch das geplante Verfahren verkompliziert die Nutzung wissenschaftlicher Texte. Es steht in einem krassen Widerspruch zu den Interessen von Wissenschaftlerinnen, die als Urheberinnen von der VG Wort eigentlich vertreten werden sollen. Sie sind für die digitalen Semesterapparate verantwortlich und haften ab 2017 persönlich für die Einhaltung der neuen Regelungen. Zur Rechtsunsicherheit kommt der bürokratische Mehraufwand[Verlinkung wurde aufgrund einer veränderten URL von der Red. entfernt], der in keinem Verhältnis zum Nutzen steht. Die geschätzten Verwaltungskosten würden ein Vierfaches der zu zahlenden Beträge ausmachen.

Aus diesen Gründen weigern sich Universitäten bundesweit, dem Rahmenvertrag beizutreten. So ist zu hoffen, dass der Vertrag so nicht umgesetzt werden kann und nochmals Nachverhandlungen stattfinden. Andernfalls würden digitale Texte wahrscheinlich durch Handapparate ersetzt werden und die Studierenden müssten wieder Schlange stehen am Kopierer.

Vielleicht greifen Wissenschaftlerinnen nun verstärkt auf Open Access-Publikationen zurück und beginnen endlich selbst, unter einer CC-BY-Lizenz zu veröffentlichen. Dann hätten die unliebsamen Neuregelungen am Ende doch noch einen Sinn.

Peer Review in Zeiten von Open Access

Mit der zunehmenden Verbreitung von Open Access stellt sich die Frage nach der Rolle klassischer Peer Review neu. Denn digitale Veröffentlichungspraktiken erlauben alternative Verfahren wissenschaftlicher Qualitätssicherung.

Über die Schwachstellen von Peer Review (subjektiv, willkürlich, undurchsichtig, langsam, ineffizient) wird viel diskutiert. Doch nach wie vor stellt Peer Review – die offizielle Begutachtung von Texten durch renommierte Wissenschaftlerinnen – eine anerkannte Praxis dar. Peer reviewed Artikel oder Bücher gelten als hochwertiger im Vergleich zu Texten, die auch ohne formelle Freigabe ihren Weg in die Öffentlichkeit finden. Zunehmend gilt die Kategorie auch in den Geisteswissenschaften als ein Gütesiegel, das auf keiner Publikationsliste fehlen sollte.

Doch gibt es tatsächlich Unterschiede zwischen offiziell begutachteten Texten und jenen, die schlichtweg eine Herausgeberin begeistern oder gar von der Autorin eigenständig veröffentlicht werden? Wie sinnvoll ist Peer Review im digitalen Zeitalter, wo es de facto keine physische Platzbeschränkung mehr für Texte gibt? Wie hat Open Access die Bewertung von Texten verändert?

Die Aussagekraft von Gutachten
Peer Reviewer dienen als Gatekeeper. Gutachterinnen sollen dafür sorgen, dass nur Texte, die wissenschaftlichen Standards (Originalität, Schlüssigkeit, Nachprüfbarkeit) genügen, publiziert werden. Damit soll die Qualität von Forschung gewährleistet werden.

Welche Kriterien wirklich maßgebend für die Gutachten sind, ist allerdings nicht immer ersichtlich. Im besten Fall erhält man von Reviewern konstruktives Feedback und der Text gewinnt an Prägnanz, die Argumentation an Schlagkraft. Im schlimmsten Fall nutzen Gutachterinnen ihre Position, um unliebsame Theorien, also ihre Konkurrenz auszubremsen. Originelle Arbeiten bleiben dann im Dunkeln, die Forschung stagniert (s. auch „Does Science Advance One Funeral at a Time?“).

Nicht von der Hand zu weisen ist jedenfalls, dass die individuelle Prädisposition einer jeden Gutachterin immer eine Rolle spielt im Begutachtungsprozess. Dies ist umso wichtiger zu bedenken, wenn nur eine einzige Person über die Veröffentlichung entscheidet. Neben objektiven Kriterien bestimmen in der Regel allgemeine, oftmals unbewusste Vorurteile gegenüber der Autorin (etwa aufgrund des Namens, der Reputation, des Herkunftslandes oder des Geschlechts) die Entscheidung. Wie aussagekräftig ist also das Prädikat „peer reviewed“?

Unterschiedliche Standards und Verfahren
Peer Review ist nicht gleich Peer Review. Die Begutachtungsverfahren können sich nicht nur von Verlag zu Verlag unterscheiden, sondern auch von Zeitschrift zu Zeitschrift. So werden manchmal nur ein einziges Gutachten, manchmal zwei oder mehr eingeholt. Manche Peer Review-Verfahren sind „single blind“, d.h. die Gutachterin kennt den Namen der Autorin, die Autorin aber nicht jenen der Gutachterin; manche Verfahren gehen „double blind“ von statten, d.h. beide, Gutachterin und Autorin, bleiben anonym. Um Transparenz in die unterschiedlichen Verfahren zu bringen und sie vergleichbar zu machen, führt die OAPEN Library die jeweilige Vorgehensweise der an ihrer Plattform beteiligten Verlage auf.

Anonymität vs. Fairness
Die Anonymität der Reviewer soll unabhängige, faire und freimütige Gutachten ermöglichen. Doch zu welch unausgegorenen Äußerungen einseitige Anonymität verleiten kann, kennt man nur zu gut von den Kommentarspalten im Internet. Wie das Feedback von Reviewern mitunter aussehen kann, ist auf dem recht unterhaltsamen Tumblr-Blog „Shit my Reviewers Say“ zu lesen.

Dreht man den Spieß um und anonymisiert allein die Autorin, wie es Martin Paul Eve, Mitgründer der Open Library of Humanities, in einem Gedankenspiel demonstriert, wird Vorurteilen Einhalt geboten und zudem konstruktives Feedback gefördert, da die Gutachterin mit ihrem Namen einstehen muss. Außerdem wird so die – meist unbezahlte – Gutachterinnentätigkeit gewürdigt (um die Würdigung von Peer Review geht es auch in der diesjährigen, gerade stattfindenden Peer Review Week). Gleichzeitig steigt der Druck auf die Reviewerin, einwandfreie und damit eher konservative Arbeiten freizugeben, um der Kritik der Kolleginnen vorzubeugen. Auch so können also Veröffentlichungen progressiver Forschung verhindert werden.

Grundsätzlich ist anzuzweifeln, ob man innerhalb einer kleineren, überschaubaren Disziplin Anonymität überhaupt gewährleisten kann oder ob nicht Thema und Position des eingereichten Textes bzw. des Feedbacks ohnehin auf die Identität der Autorin bzw. der Gutachterin hinweisen.

Einen Leitfaden für Gutachterinnen, wie ein verantwortlicher Peer Review-Prozess so oder so aussehen sollte, hat das Committee on Publication Ethics (COPE) erstellt.

Transparenz durch Open Peer Review
Um dem undurchsichtigen Verhältnis zwischen Gutachterin und Autorin entgegenzuwirken, gibt es mittlerweile mehr und mehr Formen der Open Peer Review. Dabei werden beispielsweise die Gutachten mitveröffentlicht, wie etwa im digitalen Video Essay-Journal [in]Transition. Dadurch wird das Feedback als wichtiges Instrument in der Entstehung wissenschaftlicher Texte gewürdigt. Doch da die auf der Website zu sehenden Arbeiten bereits für veröffentlichungswürdig befunden wurden, fallen die Gutachten entsprechend positiv und wenig kritisch aus. Warum ein eingereichter Text nicht publiziert wird, erfährt allein die Autorin. Wie bei der traditionellen Peer Review werden die Gutachten vor der Veröffentlichung erstellt (pre-publication review).

Eine nachträgliche Form der Open Peer Review (post-publication review) stellen Kommentare dar – eine Praxis, die etwa das Content Management-System von MediaCommons Press (s. z.B. Open Review. A Study of Contexts and Practices) oder das Annotationsprogramm Hypothes.is (s. auch diese Website) unterstützen. Arbeiten können mittels Kommentarfunktion noch lange nach Erscheinen öffentlich diskutiert werden. Dadurch wird der Tatsache Rechnung getragen, dass Wissenschaft kollaborativ funktioniert, dass Publikationen immer nur ein Zwischenergebnis eines langwierigen Arbeitsprozesses darstellen können und dass Forschung niemals abgeschlossen ist. Der Gebrauch der Kommentarfunktion hält sich bei wissenschaftlichen Texten im Gegensatz zu Nachrichtenportalen allerdings in Grenzen. Die Hemmungen, seinen Senf zu einem Text öffentlich – und vor allem schriftlich – dazuzugeben, scheinen unter Akademikerinnen (noch) zu groß.

Inoffizielle Qualitätssicherung
Dafür ermöglichen inoffizielle Feedbackrunden (ob mündlich oder schriftlich) einen produktiven Austausch. Wichtige Texte werden nämlich ohnehin vorab von Kolleginnen gegengelesen und auf Konferenzen diskutiert und passieren mehrere Stufen der Überarbeitung bevor sie Autorinnen zur Veröffentlichung einreichen. Diesen crowdsourced Peer Review-Prozess, mit Hilfe dessen im Grunde alle Publikationen entstehen, öffentlich vonstatten gehen zu lassen, dafür setzt sich Kathleen Fitzpatrick ein, die 2009 einen ersten Versuch mit ihrem Buchprojekt Planned Obsolescence gestartet hat. Weitere Publikationen wie die oben genannte Studie zu Open Peer Review oder Jason Mittells Buch Complex TV. The Poetics of Contemporary Television Storytelling haben sich Fitzpatricks Experiment zum Vorbild genommen.

Crowd Review dank Preprint-Server
Preprint-Server – Onlineplattformen, auf denen Wissenschaftlerinnen ihre Texte schon vor der offiziellen Veröffentlichung hochladen können – sind der beste Beweis dafür, dass auch (noch) nicht formell begutachtete Texte längst als ernstzunehmende Publikationen gelten. Preprint-Server wie arXiv.org für Physik, Informatik und Mathematik oder das leider in Verruf geratene Social Science Research Network (SSRN) für Wirtschaftswissenschaft und Jura sind für viele Wissenschaftlerinnen nicht mehr wegzudenken; die sich im Aufbau befindende Plattform SocArXiv für Sozialwissenschaften wächst stetig.

Zumindest aus wissenschaftlicher Sicht scheint der auf eine Veröffentlichung auf einem Preprint-Server in einer Zeitschrift folgende peer-reviewed Artikel an Bedeutung zu verlieren. „We now read papers, not journals“, konstatiert George Lozano in seinem Blogpost zum Impact Factor und der sinkenden Relevanz renommierter Zeitschriften. Preprint-Server erlauben der Community jedenfalls, Forschungsergebnisse lange vor dem Abschluss eines mehrmonatigen Peer Review-Verfahrens und der endgültigen – in der Regel gedruckten – Fassung zu lesen und zu evaluieren.

Qualität durch Open Access
Wenn mit der zunehmenden Verbreitung von Open Access und digitalen Publikationen Texte insgesamt leichter zugänglich sind und eher gelesen werden, ist anzunehmen, dass sich Autorinnen stärker denn je darum bemühen, gute Arbeiten zu präsentieren. Onlinepublikationen sorgen für mehr Transparenz und Vergleichbarkeit. Ein und derselbe Text lässt sich dann nicht mehr so leicht unter unterschiedlichen Titeln in verschiedenen Sammelbänden oder Zeitschriften unterbringen – was in Zukunft vielleicht die Bedeutung von Publikationslisten relativieren wird und auch die Kategorie „peer reviewed“.

Elsevier kauft Preprint-Server SSRN – und wird zum Datenkönig

Das Social Science Research Network (SSRN) ist eines der größten Open Access-Repositorien weltweit. Dass ausgerechnet Verlagsgigant Elsevier diese Plattform jetzt aufgekauft hat, verdeutlicht, dass „offenen“, „kostenfreien“, jedoch profitorientierten Plattformen wie Academia.edu oder ResearchGate mit größter Skepsis zu begegnen ist. Versprechen auf größtmögliche Sichtbarkeit von Forschungsergebnissen und uneingeschränkten Zugang zu wissenschaftlichen Arbeiten verdecken langfristige Ziele und Geschäftsmodelle der Unternehmen, die hinter den Plattformen stehen. Anders als Wissenschaftsverlage, die von den AutorInnen ein article processing charge (APC) verlangen, um Inhalte kostenfrei zugänglich zu machen und trotzdem daran zu verdienen, geht es privatwirtschaftlichen Publikationsplattformen um Daten. Es geht um Daten, die besagen, welche Artikel wo welchen Impact haben. Es geht um Nutzerprofile und Nutzerverhalten. Wie und zu welchem Zwecke diese Informationen genutzt werden (Werbung, Datenhandel, Überwachung) ist unklar. Genauso unklar ist, welche Daten überhaupt generiert werden und wie.

„Academia.edu has a parastical relationship to the public education system, in that these academics are labouring for it for free to help build its privately-owned for-profit platform by providing the aggregated input, data and attention value“, schreibt Gary Hall, Professor für Medienwissenschaft an der Coventry University, in seinem Post „Does Academia.edu Mean Open Access is Becoming Irrelevant?“. Und weiter: „We can thus see that posting on Academia.edu is not ethically and politically equivalent to making research available using an institutional open access repository at all.“ Kathleen Fitzpatrick, Medienwissenschaftlerin in den Digital Humanities, fügt in ihrem Post „Academia, Not Edu“ hinzu: „Everything what‘s wrong with Facebook is wrong with Academia.edu, at least just up under the surface, and so perhaps we should think twice before committing our professional lives to it“.

Es nichts Neues ist, dass auch wissenschaftliche Datenplattformen ein immer lukrativeres Geschäft versprechen. So kaufte Elsevier 2013 die Forschungsplattform Mendeley für einen Millionenbetrag im höheren zweistelligen Bereich von seinen drei deutschen Gründern ab. Kurz darauf forderte Elsevier in etwa 2.800 Abmahnungen die NutzerInnen des Konkurrenten Academia.edu auf, Artikel, die das Copyright verletzten, von der Plattform zu löschen.

Dennoch hat die Übernahme von SSRN durch Elsevier für große Verunsicherung und Aufregung gesorgt. „It’s like if Monsanto bought out your favorite organic farm co-op“, schreibt Cory Doctorow von Boing Boing. Eine der Hauptsorgen ist, was mit den Artikeln passiert, die auf SSRN gehostet werden. Was passiert etwa, wenn Elsevier den SSRN-Server zumacht, um Universitäten, die ihre Zeitschriftenabonnements von Elsevier aufgrund der enormen Preise und missliebigen Bezugsbedingungen gekündigt haben, dazu zwingen, ihre Kündigung zurückzuziehen, damit sie wieder Zugriff auf (ihre eigenen) Forschungsergebnisse haben?

Vielleicht geht es Elsevier auch darum, seine Monopolstellung gegenüber seiner Konkurrenten Springer und Wiley im wissenschaftlichen Zeitschriftenmarkt zu verteidigen. Doch was der eigentliche Gewinn ist: Daten. Wertvolle – für die NutzerInnen unbekannte, unzugängliche – Daten, die man –  wie den Impact Factor des Medienkonzerns Thomson Reuters – vermarkten kann. Christopher M. Kelty, Professor für Informationswissenschaft an der University of California, erklärt in seinem Beitrag „It’s the Data, Stupid. What Elsevier’s Purchase of SSRN also means“ auf savageminds.org:

SSRN represents better data about the impact of social science research than any single journal, or any publisher‘s data (even Elsevier, with its hundreds of social sciences journals), because it has been built on the good will, apparent neutrality, and level playing field of an open access repository. Until Tuesday May 17, it was not tied to any particular publishing conglomerate or metrics company, and so its data represented social science research with a fidelity to reality that is expensive and hard to otherwise achieve.

Doch bitte jetzt nicht in Schockstarre verfallen! Die Bedeutung dieser Daten – und damit der For-Profit-Plattformen – sinkt, wenn wir die Evaluation von wissenschaftlicher Arbeit anhand von quantitativen Kriterien an sich hinterfragen. Wenn wir die Aussagekraft von Impact Factor, Downloads und Publikationslisten kritisch prüfen. Wenn die Leistung von WissenschaftlerInnen stattdessen anhand von Qualität, Innovation und Engagement bewertet wird.

Es ist höchste Zeit, dass die verschiedenen Disziplinen Alternativen zu Plattformen wie Academia.edu und ResearchGate schaffen und ihre eigenen institutsübergreifenden Non-Profit-Repositorien à la ArXiv.org aufbauen, die durch Spenden, Mitgliedsbeiträge und Fördergelder langfristig finanziert werden. SSRN dient dafür ja jetzt leider nicht mehr als Beispiel…

„Was nichts kostet, ist nichts wert.“ Oder: Wie kann Open Access eigentlich finanziert werden?

Wenn Texte kostenfrei zur Verfügung gestellt werden, lassen sie sich nicht mehr verkaufen. Wie aber kann man dann die Produktion von Texten (das Denken, das Schreiben, das Lektorieren, das Korrigieren, die Formatierung, den Satz bzw. die Programmierung) und die Zugänglichkeit zu Texten, die bisher vor allem Bibliotheken gewährleisten, finanzieren?

Bei digitalen Texten halten sich die Kosten für die Bereitstellung im Rahmen. Dank WordPress muss man Websites nicht mehr aufwendig programmieren. Vorlagen kann man entsprechend anpassen, nachdem man sich in die Grundlagen von HTML und CSS reingefuchst hat. Selbst ohne jegliche Programmierkenntnisse kann man einen Blog oder eine persönliche Website aufsetzen. Und auch die Serverkosten sind überschaubar. Finanzieller und persönlicher Aufwand für die Schaffung einer digitalen Infrastruktur sind also überschaubar. Doch die Textproduktion ist nach wie vor ein aufwendiger und mühsamer Prozess, um den man nicht herumkommt. Und der will entlohnt werden. Doch wie, wenn man seine Texte am liebsten kostenfrei zur Verfügung stellen möchte, damit sie möglichst viele lesen können?

In den Geisteswissenschaften rechnen WissenschaftlerInnen ohnehin nicht damit, ein Honorar für ihre Texte zu bekommen. Denn die Texte selbst sind die Währung. Je länger die Publikationsliste, desto größer der Marktwert. Deshalb sind in Deutschland AutorInnen sogar bereit, einem Verlag zwischen 2.000 und 8.000 Euro (je nach Reputation des Verlags) zu bezahlen, damit dieser ihre Monographie veröffentlicht. Wenn ihre Publikation durch einen „Druckkostenzuschuss“ eines Drittmittelprojekts finanziert wird, dürfen sie selbst nichts an dem Buchverkauf verdienen. Eine entsprechende Honorar-Verzichtserklärung muss man dann unterschreiben. Bei einer durchschnittlichen Auflage von 300 Stück pro Dissertation (die man ja in Deutschland veröffentlichen muss, um seine Promotion abzuschließen) stellen die Druckkostenzuschüsse für die Verlage eine wichtige Einnahmequelle dar. Je niedriger der angesetzte Verkaufspreis des Buches ist (in der Regel zwischen 25 und 65 Euro), desto größer die Rolle des Druckkostenzuschusses in der Verlagskalkulation. Darüber hinaus können Verlage mit der Abnahme einer gewissen Menge an Büchern durch Bibliotheken rechnen. Verlage in den USA verkaufen zunächst die erste Auflage, die als Hardcover und damit zu einem höheren Preis von bis zu $100 erscheint, an Bibliotheken, bevor sie eine günstigere Paperback-Version (deren Preis allerdings nicht immer weit unter dem Hardcover-Preis liegt) herausbringen.

Mit diesen Ausführungen möchte ich keinesfalls Stimmung gegen Verlage machen, wie dies manche Open Access-Verfechter tun, sondern schlichtweg darauf aufmerksam machen, wie das wissenschaftliche Publikationswesen funktioniert. Denn gerade im digitalen Zeitalter, wo das Selbstpublizieren ein Kinderspiel geworden ist, gibt es für WissenschaftlerInnen viele Alternativen zum herkömmlichen Publikationssystem, die sie nutzen könnten, wenn sie wollten. Den meisten WissenschaftlerInnen, mit denen ich gesprochen habe, als ich einen digitalen Wissenschaftsverlag gründen wollte, liegt das gedruckte Buch jedoch so sehr am Herzen, dass sie in der digitalen Publikation vor allem eine Abwertung ihrer Arbeit sehen würden. Viele befürchten zudem, dass eine Veröffentlichung bei einem (noch) unbekannten Verlag ihrer Karriere schaden könnte. Vielleicht zu recht. Manche sind grundsätzlich gegen Open Access, da für sie der Grundsatz gilt „Was nichts kostet, ist nichts wert.“ Damit komme ich zum eigentlichen Thema dieses Posts: Wie lässt sich Open Access eigentlich finanzieren?

Wie bereits erwähnt, übernehmen bisher vor allem AutorInnen bzw. die sie fördernden Institutionen die Gebühr für den kostenfreien Zugang, die APC (article processing charge). So muss man zum Beispiel 2.150 Euro bezahlen, um einen Artikel in einer Zeitschrift der britischen Verlagsgruppe Taylor & Francis open access zu stellen und ca. 12.600 Euro, um seine Monographie beim geistes- und sozialwissenschaftlichen Verlag Routledge, der zu Taylor & Francis dazugehört, open access zu veröffentlichen. Das Ziel, diese Gebühren gerecht zu verteilen und nicht allein auf die AutorInnen abzuwälzen, haben sich Projekte wie Knowledge Unlatched und Luminos auf die Fahnen geschrieben. Bei Knowledge Unlatched teilen sich Bibliotheken (die ohnehin die Bücher kaufen würden) die von den Verlagen verlangte Open Access-Gebühr. Luminos, ein Projekt der University of California Press, möchte, dass alle, die von der Publikation profitieren (AutorInnen, Institutionen, Bibliotheken und Verlage) für die Produktion und Verbreitung aufkommen.

Dass auch die LeserInnen für den kostenfreien Zugang bezahlen, scheint ein zu großes Paradox. Doch warum sollen nicht tatsächlich alle, die Nutzen aus den Texten ziehen, dafür bezahlen (können)? Die Musikerin Amanda Palmer bringt es in ihrem TED-Talk „The Art of Asking“ auf den Punkt: „Don‘t make people pay. Let them.“ Nachdem ihr Label sie nicht länger unterstützen wollte, da sie ‚nur‘ 25.000 CDs verkaufte, hat sie für ihre nächste Plattenproduktion eine Crowdfunding-Kampagne gestartet. Diese Aktion brachte ihr $1.192.793 ein – von insgesamt fast 25.000 SpenderInnen. (Danke, Marion Goller, für diesen Hinweis.)

Neben Crowdfunding (wodurch inzwischen ganze Forschungsprojekte unterstützt werden sollen) hat das Internet weitere Finanzierungsmodelle hervorgebracht, die sich auch für die Produktion wissenschaftlicher Texte eignen könnten, z.B. maßgeschneiderte Werbung. Doch viele Menschen stehen Werbung prinzipiell skeptisch gegenüber. Zudem empfinden sie es als starke Beeinträchtigung des Lesegenusses (Stichwort Adblocker), der bei Online-Publikationen ja ohnehin gefährdet scheint. Werbung stellt also nicht die die beste Finanzierungsweise dar, wenn es um wissenschaftliche Texte geht. Da erscheint mir die Möglichkeit des Micropayments, der Bezahlung von Kleinstbeträgen, sinnvoller. Das Problem bei der Nutzung von Online-Inhalten ist meiner Meinung nach weniger die von KulturpessimistInnen verdammte „Umsonstkultur“, sondern der Mangel an unkomplizierten Bezahlmöglichkeiten (neben der durch das DRM eingeschränkten Nutzung versteht sich, doch das ist nicht Thema dieses Posts). Muss man immer wieder seine Kontaktdaten und Kreditkartennummer in Bezahlmasken eingeben, ist das nicht nur zeitaufwendig, sondern auch riskant und heikel. Vielleicht ist dies unter anderem der Grund, warum Matthew Butterick mit seiner tollen Website über Typographie (wie bereits in einem früheren Post erwähnt) trotz eines implementierten Zahlsystems nur 1 von 1000 LeserInnen dazu bringt, eine Überweisung vorzunehmen (ich habe trotzdem eine kleine Summe überwiesen, nicht weil ich musste, sondern weil der Autor mich darum gebeten hat, s. Amanda Palmer).

Der Journalistin Antje Schrupp wäre Werbung viel lieber als das Geld von LeserInnen, müsste sie von ihrem Blog „Aus Liebe zur Freiheit. Notizen zur Arbeit der sexuellen Differenz“ leben. Denn durch Werbung wäre sie freier beim Schreiben als wenn sie in der Schuld ihrer LeserInnen stünde. Letztendlich verdient sie ihren Lebensunterhalt allerdings durch das Vermitteln der Gedanken, die man kostenlos auf ihrem Blog lesen kann. So steigern Publikationen auch ihren Marktwert und damit die Nachfrage nach ihren (bezahlten) Vermittlungstätigkeiten (Vorträge, Podiumsdiskussionen etc.). Nicht zu vergessen sei allerdings die Aufmerksamkeit, die ihr die LeserInnen entgegenbrächten, in Form von Klicks und Kommentaren. Das Lesen sei ja ebenfalls eine Investition, gar ein Geschenk, weil freiwillig.

Um seiner Wertschätzung im Internet Ausdruck zu verleihen, gibt es neben Kommentaren und Verlinkungen, Retweets und Likes auch den Flattr-Button, über den man monatlich eine selbst festgelegte Spendensumme an verschiedene Projekte verteilen kann, und das Bezahlsystem PayPal, das eine relativ einfache Überweisung erlaubt. (Flattr-Gründer Peter Sunde will nun übrigens in Kooperation mit AdBlock Plus ein automatisches Spendensystem implementieren wie der Guardian berichtet.) Der Digitalverlag mikrotext setzt zum Beispiel – wie Zeitungen – aufs Abo, das wiederum bei Zeitschriften wie The Economist im Grunde als Flatrate funktioniert. Ich werde Flattr-Button und PayPal mal ausprobieren, insbesondere letzteres, damit man mein Print-on-demand-Buch einfacher erwerben kann. Selbstverständlich freue auch ich mich über die Wertschätzung meiner Arbeit – in welcher Form auch immer. Vielen Dank für Ihre Aufmerksamkeit.

« Ältere Beiträge

© 2023 oa books

Theme von Anders NorénHoch ↑