oa books

Publizieren in der Wissenschaft

Kategorie: Publizieren (Seite 1 von 2)

Making research accessible: reflections on my hybrid self-publishing project

Finally also available in English (and in a nutshell): the mission of my website

Poster presentation at NECS Post-Conference: Open Media Studies, Hilversum/NL, 30.06.2018

oabooks.de >> Open-Media-Studies-Blog

Der Open-Media-Studies-Blog | Zeitschrift für Medienwissenschaft ist nun online!

Um die Diskussion um Publikations-, Forschungs- und Lehrpraktiken in den Geisteswissenschaften einem größeren Kreis zu öffnen und stärker in der Medienwissenschaft zu verankern, habe ich mit Alena Strohmaier den Open-Media-Studies-Blog ins Leben gerufen. Posts zu #openaccess, #openscience, #opendata, #digitalhumanities sind jederzeit willkommen!

Weiterhin werden Posts auch auf oabooks.de erscheinen.

Zenodo, SocArXiv oder GitHub? Preprints in den Geisteswissenschaften

In der Regel dauert es in der Wissenschaft Monate, wenn nicht Jahre, bis dass ein Artikel oder Bucheintrag veröffentlicht wird – selbst wenn der Text längst verfasst ist und den Herausgeber:innen vorliegt. Um eine zügige Veröffentlichung und Diskussion dennoch zu ermöglichen, gibt es Preprint-Server, über die Wissenschaftler:innen Manuskripte bereits vor der offiziellen Veröffentlichung zugänglich machen können (s. mein Post zu Peer Review).

In den Natur- und mittlerweile auch in den Sozialwissenschaften gibt es von der Community anerkannte Preprint-Server. In den Geisteswissenschaften steht immer noch keine dezidierte Möglichkeit zur ‚Vorveröffentlichung‘ zur Verfügung. So habe ich als Film- und Medienwissenschaftlerin erst einmal recherchieren müssen, welche adäquate Form es gibt, um nun selbst zum ersten Mal einen Artikel frühestmöglich zur Diskussion zu stellen.

Früher Zugang durch Preprint
Es handelt sich um einen Beitrag zu digitalen Werkzeugen und Methoden in der Filmgeschichtsschreibung, deren Potentiale und Herausforderungen für die Film- und Medienwissenschaft ich am Beispiel der feministischen Filmgeschichte erläutere. Da Projekte und Ansätze in den Digital Humanities derzeit stark diskutiert werden, ist es mir in diesem Fall ein besonders dringendes Anliegen, frühzeitiges und vielseitiges Feedback zu meinem Beitrag zu bekommen.

Der Artikel ist bereits eingereicht und soll am 1. Juni 2018, also in acht(!) Monaten bei MEDIENwissenschaft Rezensionen | Reviews  erscheinen. In Absprache mit der Redaktion (Danke!) habe ich mich entschieden, den ersten Entwurf vorab zu veröffentlichen. Was in den Naturwissenschaften gang und gäbe ist, stellt in den Geisteswissenschaften nach wie vor eine Besonderheit dar. Kommerzielle Plattformen wie ResearchGate oder Academia.edu werden zwar genutzt, doch in der Regel um im Nachhinein Artikel verfügbar zu machen. Leser:innen müssen sich registrieren, um die Texte herunterzuladen. Zudem sind die AGB undurchsichtig und die rechtliche Lage ist oftmals ungeklärt. Nicht zuletzt bleibt die Veröffentlichung an die Produktionsabläufe der Verlage gebunden. Außerdem können Dokumente oder ganze Accounts beliebig gelöscht oder erstellt werden. Eine nachhaltige Nutzung kann somit nicht gewährleistet werden. Die Prozesshaftigkeit von Wissenschaft spiegeln Preprint-Server weitaus besser wider. Gilt es, sich für eine offenere Wissenschaft einzusetzen und seine Publikationen sowohl zugänglicher als auch nachnutzbarer zu machen, ist dies meines Erachtens die bessere Wahl.

Relevante Kriterien für Preprints
Doch wo sollen Geisteswissenschaftler:innen ihre Preprints veröffentlichen? Und was sollen Preprint-Server eigentlich leisten?

Meiner Meinung nach sind folgende Kriterien relevant:
Sichtbarkeit durch Auffindbarkeit: durch passende Verschlagwortung, SEO, DOI (Digital Object Identifier), permanente URL
Zugänglichkeit: durch nutzer:innenfreundliches Interface, Download-Option ohne Registrierung
Nachnutzbarkeit: durch variable Lizenzierung und Zitiermöglichkeit (über DOI, permanente URL)
Nachhaltigkeit: durch permanente URL, standardisierte Metadaten, Langzeitarchivierung über Speicherverfahren wie LOCKSS  oder CLOCKSS sowie nicht beliebig löschbare Dokumente
Anerkennung in der Community: durch verbreitete Nutzung, transparente Verfahren, produktive Beiträge
Transparenz: durch Offenlegung des Source Codes, der AGB, der Finanzierung bzw. des Geschäftsmodells

Nach Gesprächen mit Kolleg:innen aus der Open Science-Community (Danke, Fellows und Aktivist:innen von „Freies Wissen“!) habe ich mir die Plattformen SocArXiv, Zenodo und GitHub näher angesehen. Schlussendlich habe ich mich entschieden, meinen Artikel als Preprint bei Zenodo hochzuladen („Digital Tools & Big Data: Zu gegenwärtigen Herausforderungen für die Film- und Medienwissenschaft am Beispiel der feministischen Filmgeschichtsschreibung“). Ausschlaggebend war die größere, wenn auch vergleichsweise geringe, Bekanntheit unter Wissenschaftler:innen in der Medienwissenschaft in Deutschland.

Mögliche Preprint-Server
1) Zenodo, https://zenodo.org/
Zenodo ist eine vom CERN 2013 ins Leben gerufene Plattform, die jedoch ausdrücklich sowohl Natur- als auch Humanwissenschaften willkommen heißt. Die Nutzung ist für Autor:innen sowie für Leser:innen kostenlos. Finanziert wird die Plattform u.a. durch die Initiative der europäische Kommission OpenAIRE.

Zenodo bietet
◦ Verschlagwortung
◦ automatische DOI
◦ variable Lizenzierung, auch ohne Creative Commons
◦ eine Community-Umgebung für Kollaborationen und Austausch
◦ verschiedene Dateiformate
◦ verschiedene Genres (z.B. Textpublikationen, Präsentationen, Videos, Poster, Bilder)
◦ ein eigenes Repositorium bzw. Gruppe
◦ Verknüpfung mit ORCID
◦ Verknüpfung mit GitHub
◦ schnellen Import von Artikeln in Literaturdatenbanken

Die Plattform ist open source basiert (GitHub). Die Nutzungsrechte bleiben bei den Urherber:innen. Auch deutschsprachige Artikel sind auf Zenodo zu finden. Unter „Medien“ sind 70 Einträge gelistet. „Medienwissenschaft“ bringt allerdings keine Suchergebnisse hervor. Dafür gibt es Beiträge zur Geisteswissenschaft, z.B. zur Bedeutung von Open Access, https://zenodo.org/record/50598). Zenodo ist einfach zu bedienen. Zudem sind die einmal hochgeladenen Dokumente oder Dateien nicht beliebig löschbar, sodass eine nachhaltige Archivierung und Nutzung gewährleistet wird.

2) SocArXivhttps://osf.io/preprints/socarxiv
In die engere Auswahl ist auch SocArXiv gekommen. SocArXiv ist mit dem Gründungsjahr 2011 ebenfalls ein relativ junger PrePrint-Server. Verstärkte Aufmerksamkeit hat er in der Diskussion um die Plattform SSRN (Social Science Research Network) bekomment, als diese 2016 von Elsevier (s. mein Blog-Post) aufgekauft wurde. Angesiedelt ist die Plattform an der University of Maryland (UMD).

SocArXiv bietet
◦ Suche nach Schlagworten und Disziplinen
◦ permanente URL
◦ automatische DOI (Digital Object Identifier) ist in Planung
◦ variable Lizenzierung (CC-O oder CC-BY)
◦ Indexierung über Google Scholar
◦ Teilen über Twitter, fb, LinkedIn und eMail
◦ Download-Statistiken
◦ Verknüpfung mit ORCID

Auch bei SocArXiv bleiben die Nutzungsrechte bei den Urherber:innen. Während bei Zenodo Daten über GitHub archiviert und verknüpft werden können, kooperiert SocArXiv mit OSF (Open Science Framework), über das man über Hintergrund und Kontext des Artikels mittels zusätzlichem Material und weiteren Daten informieren kann. SocArXiv verpricht, dass sie sich anders als SSRN nicht an Elsevier verkaufen würden. Reichweite und Netzwerk scheinen mir auch bei SocArXiv inzwischen recht groß, auch in den Humanwissenschaften. Doch da kaum deutsche Text auf der Plattform zu finden sind, habe ich Zenodo den Vorrang gegeben.

3) GitHub, https://github.com/
GitHub war mir bisher nur als Hosting-Plattform für Software, insbesondere im open source-Bereich, bekannt. Doch es ist ebenso möglich, Textdateien über GitHub verfügbar machen, nicht nur Codes. Dennoch scheinen mir SocArXiv und Zenodo für Preprint-Zwecke eindeutig geeigneter, zumal es über Zenodo möglich ist, seine Daten auf GitHub-Account zu verlinken.

4) eigene Website
Den Preprint-Artikel über die persönliche Website oder die Institutsseite zugänglich zu machen, erlaubt zwar eine unmittelbare Verknüpfung mit dem eigenen Profil, doch Auffindbarkeit und Nachhaltigkeit sind nicht gewährleistet.

Feedback willkommen!
Es stellt natürlich ein Risiko dar, ‚unfertige‘ Produkte für die Community oder gar die Öffentlichkeit freizugeben. Man stellt sich einer unbekannten Leser:innenschaft und macht sich leichter angreifbar. Dennoch freue ich mich auch über kritisches Feedback zum Text sowie über allgemeine Kommentare, Vorschläge oder eigene Erfahrungsberichte zu Preprint-Servern – nicht nur in der Film- und Medienwissenschaft.

Transparenz statt Ruhm und Ehre? Nachwuchswissenschaftler:innen zu Risiken und Chancen von Open Science

Open Science – von Open Access über Open Educational Resources, Open Data und Open Peer Review bis hin zu Citizen Science – soll die Verbreitung und Nachnutzung von sowie den Zugang zu Wissen erleichtern. Ziel von Open Science ist es, Forschung transparenter und nachhaltiger zu machen und somit die Qualität von wissenschaftlicher Arbeit zu verbessern. Wie Open Science im akademischen Alltag aussehen kann, haben Stipendiat:innen des von Wikimedia Deutschland in Kooperation mit dem Stifterverband 2016 gegründeten Fellow-Programms Freies Wissen am 10. März auf der Abschlussveranstaltung „Wissen offen gestalten – Open Science in der Praxis“ in Berlin diskutiert.

Open Science ist vielfältig
Open Science wird von Fach zu Fach unterschiedlich praktiziert, die Ansätze sind vielfältig. Dies verdeutlichte der einleitende Film, in dem alle zehn Stipendiat:innen ihre Forschungsprojekte in 90-Sekündern präsentierten. So geht es dem Neurobiologen Benjamin Paffhausen etwa um das Teilen von Wissen zwecks Herstellung wissenschaftlicher Geräte zur Beobachtung von Honigbienen. Der Rechtswissenschaftler Hanjo Hamann wiederum veröffentlicht im Dienste der deutschen Justizgeschichte Dokumente, aus denen hervorgeht, welche Richter:innen welche Fälle bearbeitet haben. Die Wissenschaftssoziologin Klara-Aylin Wenten befasst sich mit MakerSpaces, partizipativen Werkstätten. Und die Filmhistorikerin Adelheid Heftberger, Mitgründerin des Open Access-Journals Apparatus, versucht beispielsweise ihre Kolleg:innen von alternativen, offenen Publikationsformaten zu überzeugen.

Die „Botschafter:innen des Freien Wissens“ setzen sich sowohl theoretisch als auch praktisch mit Open Science auseinander. Mit welchen fachspezifischen Problemen die Nachwuchswissenschaftler:innen dabei konfrontiert werden, zeigte die anschließende Podiumsdiskussion. Moderiert von Christina Riesenweber, Open Access-Beauftragte der Freien Universität Berlin, erörterten die Fellows Marion Goller, Juristin, Ruben C. Arslan, Psychologe, und Mirjam Braßler, Erziehungswissenschaftlerin, die Chancen und Schwierigkeiten von Open Science.

Das Recht erschwert freies Wissen
Jurist:innen seien Teil des Problems, konstatierte Goller. Das Bewusstsein für Open Science sei unter ihren Kolleg:innen noch nicht weit verbreitet, da die Quellen, die Gesetzestexte, ohnehin zur freien Verfügung stünden. Außerdem arbeiteten nur wenige Jurist:innen als Wissenschaftler:innen. Darüber hinaus profitierten sie von „closed access“, wenn ihre Lehrbücher in Veranstaltungen vorausgesetzt würden.[1]

Das derzeitige Recht erschwert nach Goller den Zugriff auf Wissen. Denn Vieles sei verboten. Sie bedauert, dass das US-amerikanische Prinzip des Fair Use in Deutschland nicht gilt und fordert eine harte Wissenschaftsschranke auf europäischer Ebene. Goller forscht zu Urheberrecht und freien Lizenzen und setzt sich für die Abschaffung von Patenten ein.

Wenn es um die Offenlegung von Daten und um die Nachnutzung von urheberrechtlich geschütztem Material geht, herrscht immer noch große Rechtsunsicherheit. Auch aus diesem Grund zögern Wissenschaftler:innen, ihre Forschungsergebnisse im Internet kostenfrei zugänglich zu machen. Zudem bedeutet Open Science einen erheblichen Mehraufwand, der noch nicht honoriert wird. Über diese Punkte waren sich die Podiumsgäste einig. Gar von Zeitverschwendung sei dann die Rede, berichtete Arslan.

Open Science ist riskant, aber effektiv
Open Science stellt nach wie vor nicht nur eine ungewöhnliche Praxis dar, sondern auch ein Risiko für die eigene Karriere. Erstens fehlt Wissenschaftler:innen die Zeit, die sie für die Aufbereitung von Forschungsergebnissen für die Allgemeinheit aufwenden, für weitere Publikationen. Zweitens haben Open Access-Veröffentlichungen noch nicht denselben Stellenwert wie auf herkömmliche Weise verfügbare Artikel in Fachzeitschriften oder Monographien, die gedruckt und bei traditionellen Verlagen erscheinen. Auch wenn es nach Riesenweber keine Korrelation zwischen Open Access und Qualität gibt, leiden frei zugängliche Publikationen unter dem „Impact Factor“, nach dem sich die Reputation einer Zeitschrift bemisst. Dazu kommen die hohen Gebühren, die Verlage von Autor:innen verlangen, um Publikationen open access zu stellen. Drittens machen sich Wissenschaftler:innen durch die Offenlegung von Experimenten und Forschungsprozessen angreifbar. So setze man etwa mit einer Präregistrierung, der öffentlichen Festsetzung von geplanten Studien, Ruhm und Ehre aufs Spiel, erklärte Arslan. Eine für ein stimmiges Erscheinungsbild sorgende Nachjustierung von Methoden, Daten und Forschungsfragen werde dadurch nämlich unmöglich. Obwohl diese Praxis zu einem Mangel an belastbaren Ergebnissen führt, ist sie wohl durchaus üblich. Arslan selbst sucht unter anderem über eine open source Fragebogensoftware der „Replizierbarkeitskrise“ in der Psychologie entgegenzuwirken. Er forscht zu romantischen Präferenzen und Beziehungsdynamiken.

Risiken muss jede Pionier:innengeneration eingehen. Doch letztendlich gilt es, einfach weiterzumachen, um andere von den Vorteilen offener Forschungspraktiken zu überzeugen und Open Science als Standard in der Wissenschaft zu etablieren. Dies war Konsens auf dem Podium. Dabei sei nicht nur an den Idealismus der Community zu appellieren, sondern durchaus auch an eigennützige Motive, findet Arslan. Denn mit Open Science verbänden sich auch viele persönliche Vorteile. So werde man durch transparenteres Arbeiten sowohl sichtbarer als auch glaubhafter. Und von Preprints profitierten alle.

Um einen Austausch auch über die eigene Disziplin hinaus zu ermöglichen, muss man nicht unbedingt den Weg über Publikationen gehen. Auch Plattformen, Blogs und Diskussionsforen fördern das kollaborative Arbeiten. Nicht nur in der Forschung, sondern ebenso in der Lehre. Davon ist auch Braßler überzeugt. Sie untersucht, inwiefern Open Educational Resources die persönliche Entwicklung von Studierenden beeinflussen und erstellt Handlungsempfehlungen, um Lehrmaterial transdisziplinär zugänglich zu machen. Meist lande es nämlich in der Schublade.

Fördermaßnahmen statt Open Burnout
Fazit der Podiumsdiskussion, die sich am Ende für Fragen und Kommentare aus dem Publikum öffnete, war, dass man an mehreren Punkten gleichzeitig ansetzen und einen grundsätzlichen Bewusstseinswandel nicht nur in der Wissenschaftskultur herbeiführen müsse. Dieser beginne bereits damit, sich von der Vorstellung von Wissen als Eigentum zu lösen. Sogenannte „shadow libraries“ wie SciHub könnten das Problem nicht lösen. Neben Verlagskonzernen ziehen profitorientierte Plattformen wie ResearchGate oder Academia.edu ihren Nutzen aus der mangelnden Offenheit. Politiker:innen müssten begreifen, dass Menschen nicht nur aus ökonomischen Gründen handeln und dass ein vereinfachter Wissensaustausch erheblich zur Innovationssteigerung beitrüge. Intransparenz, wie etwa in der Medizin, halte den Fortschritt auf. Deshalb bedürfe es mehr Anreize von politischer Seite für Wissenschaftler:innen, Open Science zu betreiben, zum Beispiel entsprechende Auswahlkriterien in Berufungsverfahren oder Fördermaßnahmen wie Deputatsreduktion. Schließlich wolle man kein Open Burnout.

 


1
 Als die Universität Konstanz ihre Angehörigen zu Open Access qua Satzung verpflichten wollte, klagten Konstanzer Jurist:innen dagegen mit dem Hinweis auf das Grundrecht der Wissenschaftsfreiheit.

Zurück zum Kopierer? Wie die VG Wort den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen erschwert

Die Verwertungsgesellschaft Wort (VG Wort) soll die Interessen von Urheberinnen vertreten. Dazu gehören auch Autorinnen wissenschaftlicher Werke und damit Wissenschaftlerinnen. Doch der neue Rahmenvertrag, der zwischen der VG Wort und den Kultusministern der Länder abgeschlossen wurde und ab 2017 in Kraft treten soll, erschwert den Zugang zu Wissen und die Arbeit von Wissenschaftlerinnen.

Grundsätzlich haben Urheberinnen das ausschließliche Recht zur Vervielfältigung und zur Verbreitung ihrer Werke. Das deutsche Urheberrecht erlaubt aber Vervielfältigungen zum privaten oder wissenschaftlichen Gebrauch sowie den ungewerblichen Verleih. Für diese Nutzungen sind die Urheberinnen zu entschädigen. Da sie jedoch nicht jeden Gebrauch einzeln geltend machen können, werden pauschale Abgaben, z.B. für Kopiergeräte, an Verwertungsgesellschaften gezahlt. Für Schriftwerke übernimmt in Deutschland die VG Wort die Verwaltung dieser sogenannten Reprographieabgabe und Bibliothekstantieme.

Auch Universitäten zahlen für das Kopieren und die Nutzung von Texten. Seit Jahren wird allerdings diskutiert, wie eine „angemessene Vergütung“ für die Nutzung digitaler Kopien, etwa auf eLearning-Plattformen, aussehen soll. Darauf kann auch der neue Rahmenvertrag keine Antwort geben, denn er sieht ein aufwendiges Meldeverfahren vor, das sich in keinen wissenschaftlichen Alltag integrieren lässt. Das hat jüngst ein Pilotprojekt der Universität Osnabrück gezeigt.

Bisher haben Universitäten jährlich Pauschalbeträge für die „Öffentliche Zugänglichmachung von urheberrechtlich geschützten Werken für Unterricht und Forschung“ (§ 52a UrhG) an die VG Wort abgeführt. Ab 2017 sollen alle digitalen Texte einzeln erfasst und abgerechnet werden. Pro Seite und Seminarteilnehmerin bzw. Projektmitarbeiterin werden 0,8 Cent berechnet.

Textteile bis zu maximal 12% eines Werkes, insgesamt jedoch nicht mehr als 100 Seiten, sowie kürzere Texte mit maximal 25 Seiten dürfen online zugänglich gemacht werden. Seiten, die überwiegend Fotos oder Bilder zeigen, werden interessanterweise nicht mitgezählt.

Wissenschaftlerinnen müssen gewährleisten, dass die Textteile begrenzt zugänglich sind, der Zugang zum jeweiligen eLearning-Kurs also nur durch ein Passwort möglich ist. Nicht zugänglich machen darf man Digitalisate, wenn der Text durch die Rechteinhaberin selbst schon in digitaler Form angeboten wird. Dann ist diese Version zu verwenden, d.h. ggf. ist mit der jeweiligen Rechteinhaberin in Kontakt zu treten, um eine lizenzierte Kopie zu erwerben.

In Open Access-Zeitschriften und -Repositorien veröffentlichte Texte unterstehen einer Creative Commons-Lizenz, welche von vornherein und kostenlos ihre Vervielfältigung und Verbreitung erlaubt. Sie fallen daher nicht unter die Meldepflicht.

uebersicht_urhg52

Anne Fuhrmann-Siekmeyer, Universität Osnabrück, CC-BY-SA

Durch digitale Technologien können Forschungsergebnisse leichter zugänglich gemacht werden. Elearning-Plattformen sind dafür ein gutes Beispiel. Doch das geplante Verfahren verkompliziert die Nutzung wissenschaftlicher Texte. Es steht in einem krassen Widerspruch zu den Interessen von Wissenschaftlerinnen, die als Urheberinnen von der VG Wort eigentlich vertreten werden sollen. Sie sind für die digitalen Semesterapparate verantwortlich und haften ab 2017 persönlich für die Einhaltung der neuen Regelungen. Zur Rechtsunsicherheit kommt der bürokratische Mehraufwand, der in keinem Verhältnis zum Nutzen steht. Die geschätzten Verwaltungskosten würden ein Vierfaches der zu zahlenden Beträge ausmachen.

Aus diesen Gründen weigern sich Universitäten bundesweit, dem Rahmenvertrag beizutreten. So ist zu hoffen, dass der Vertrag so nicht umgesetzt werden kann und nochmals Nachverhandlungen stattfinden. Andernfalls würden digitale Texte wahrscheinlich durch Handapparate ersetzt werden und die Studierenden müssten wieder Schlange stehen am Kopierer.

Vielleicht greifen Wissenschaftlerinnen nun verstärkt auf Open Access-Publikationen zurück und beginnen endlich selbst, unter einer CC-BY-Lizenz zu veröffentlichen. Dann hätten die unliebsamen Neuregelungen am Ende doch noch einen Sinn.

Peer Review in Zeiten von Open Access

Mit der zunehmenden Verbreitung von Open Access stellt sich die Frage nach der Rolle klassischer Peer Review neu. Denn digitale Veröffentlichungspraktiken erlauben alternative Verfahren wissenschaftlicher Qualitätssicherung.

Über die Schwachstellen von Peer Review (subjektiv, willkürlich, undurchsichtig, langsam, ineffizient) wird viel diskutiert. Doch nach wie vor stellt Peer Review – die offizielle Begutachtung von Texten durch renommierte Wissenschaftlerinnen – eine anerkannte Praxis dar. Peer reviewed Artikel oder Bücher gelten als hochwertiger im Vergleich zu Texten, die auch ohne formelle Freigabe ihren Weg in die Öffentlichkeit finden. Zunehmend gilt die Kategorie auch in den Geisteswissenschaften als ein Gütesiegel, das auf keiner Publikationsliste fehlen sollte.

Doch gibt es tatsächlich Unterschiede zwischen offiziell begutachteten Texten und jenen, die schlichtweg eine Herausgeberin begeistern oder gar von der Autorin eigenständig veröffentlicht werden? Wie sinnvoll ist Peer Review im digitalen Zeitalter, wo es de facto keine physische Platzbeschränkung mehr für Texte gibt? Wie hat Open Access die Bewertung von Texten verändert?

Die Aussagekraft von Gutachten
Peer Reviewer dienen als Gatekeeper. Gutachterinnen sollen dafür sorgen, dass nur Texte, die wissenschaftlichen Standards (Originalität, Schlüssigkeit, Nachprüfbarkeit) genügen, publiziert werden. Damit soll die Qualität von Forschung gewährleistet werden.

Welche Kriterien wirklich maßgebend für die Gutachten sind, ist allerdings nicht immer ersichtlich. Im besten Fall erhält man von Reviewern konstruktives Feedback und der Text gewinnt an Prägnanz, die Argumentation an Schlagkraft. Im schlimmsten Fall nutzen Gutachterinnen ihre Position, um unliebsame Theorien, also ihre Konkurrenz auszubremsen. Originelle Arbeiten bleiben dann im Dunkeln, die Forschung stagniert (s. auch „Does Science Advance One Funeral at a Time?“).

Nicht von der Hand zu weisen ist jedenfalls, dass die individuelle Prädisposition einer jeden Gutachterin immer eine Rolle spielt im Begutachtungsprozess. Dies ist umso wichtiger zu bedenken, wenn nur eine einzige Person über die Veröffentlichung entscheidet. Neben objektiven Kriterien bestimmen in der Regel allgemeine, oftmals unbewusste Vorurteile gegenüber der Autorin (etwa aufgrund des Namens, der Reputation, des Herkunftslandes oder des Geschlechts) die Entscheidung. Wie aussagekräftig ist also das Prädikat „peer reviewed“?

Unterschiedliche Standards und Verfahren
Peer Review ist nicht gleich Peer Review. Die Begutachtungsverfahren können sich nicht nur von Verlag zu Verlag unterscheiden, sondern auch von Zeitschrift zu Zeitschrift. So werden manchmal nur ein einziges Gutachten, manchmal zwei oder mehr eingeholt. Manche Peer Review-Verfahren sind „single blind“, d.h. die Gutachterin kennt den Namen der Autorin, die Autorin aber nicht jenen der Gutachterin; manche Verfahren gehen „double blind“ von statten, d.h. beide, Gutachterin und Autorin, bleiben anonym. Um Transparenz in die unterschiedlichen Verfahren zu bringen und sie vergleichbar zu machen, führt die OAPEN Library die jeweilige Vorgehensweise der an ihrer Plattform beteiligten Verlage auf.

Anonymität vs. Fairness
Die Anonymität der Reviewer soll unabhängige, faire und freimütige Gutachten ermöglichen. Doch zu welch unausgegorenen Äußerungen einseitige Anonymität verleiten kann, kennt man nur zu gut von den Kommentarspalten im Internet. Wie das Feedback von Reviewern mitunter aussehen kann, ist auf dem recht unterhaltsamen Tumblr-Blog „Shit my Reviewers Say“ zu lesen.

Dreht man den Spieß um und anonymisiert allein die Autorin, wie es Martin Paul Eve, Mitgründer der Open Library of Humanities, in einem Gedankenspiel demonstriert, wird Vorurteilen Einhalt geboten und zudem konstruktives Feedback gefördert, da die Gutachterin mit ihrem Namen einstehen muss. Außerdem wird so die – meist unbezahlte – Gutachterinnentätigkeit gewürdigt (um die Würdigung von Peer Review geht es auch in der diesjährigen, gerade stattfindenden Peer Review Week). Gleichzeitig steigt der Druck auf die Reviewerin, einwandfreie und damit eher konservative Arbeiten freizugeben, um der Kritik der Kolleginnen vorzubeugen. Auch so können also Veröffentlichungen progressiver Forschung verhindert werden.

Grundsätzlich ist anzuzweifeln, ob man innerhalb einer kleineren, überschaubaren Disziplin Anonymität überhaupt gewährleisten kann oder ob nicht Thema und Position des eingereichten Textes bzw. des Feedbacks ohnehin auf die Identität der Autorin bzw. der Gutachterin hinweisen.

Einen Leitfaden für Gutachterinnen, wie ein verantwortlicher Peer Review-Prozess so oder so aussehen sollte, hat das Committee on Publication Ethics (COPE) erstellt.

Transparenz durch Open Peer Review
Um dem undurchsichtigen Verhältnis zwischen Gutachterin und Autorin entgegenzuwirken, gibt es mittlerweile mehr und mehr Formen der Open Peer Review. Dabei werden beispielsweise die Gutachten mitveröffentlicht, wie etwa im digitalen Video Essay-Journal [in]Transition. Dadurch wird das Feedback als wichtiges Instrument in der Entstehung wissenschaftlicher Texte gewürdigt. Doch da die auf der Website zu sehenden Arbeiten bereits für veröffentlichungswürdig befunden wurden, fallen die Gutachten entsprechend positiv und wenig kritisch aus. Warum ein eingereichter Text nicht publiziert wird, erfährt allein die Autorin. Wie bei der traditionellen Peer Review werden die Gutachten vor der Veröffentlichung erstellt (pre-publication review).

Eine nachträgliche Form der Open Peer Review (post-publication review) stellen Kommentare dar – eine Praxis, die etwa das Content Management-System von MediaCommons Press (s. z.B. Open Review. A Study of Contexts and Practices) oder das Annotationsprogramm Hypothes.is (s. auch diese Website) unterstützen. Arbeiten können mittels Kommentarfunktion noch lange nach Erscheinen öffentlich diskutiert werden. Dadurch wird der Tatsache Rechnung getragen, dass Wissenschaft kollaborativ funktioniert, dass Publikationen immer nur ein Zwischenergebnis eines langwierigen Arbeitsprozesses darstellen können und dass Forschung niemals abgeschlossen ist. Der Gebrauch der Kommentarfunktion hält sich bei wissenschaftlichen Texten im Gegensatz zu Nachrichtenportalen allerdings in Grenzen. Die Hemmungen, seinen Senf zu einem Text öffentlich – und vor allem schriftlich – dazuzugeben, scheinen unter Akademikerinnen (noch) zu groß.

Inoffizielle Qualitätssicherung
Dafür ermöglichen inoffizielle Feedbackrunden (ob mündlich oder schriftlich) einen produktiven Austausch. Wichtige Texte werden nämlich ohnehin vorab von Kolleginnen gegengelesen und auf Konferenzen diskutiert und passieren mehrere Stufen der Überarbeitung bevor sie Autorinnen zur Veröffentlichung einreichen. Diesen crowdsourced Peer Review-Prozess, mit Hilfe dessen im Grunde alle Publikationen entstehen, öffentlich vonstatten gehen zu lassen, dafür setzt sich Kathleen Fitzpatrick ein, die 2009 einen ersten Versuch mit ihrem Buchprojekt Planned Obsolescence gestartet hat. Weitere Publikationen wie die oben genannte Studie zu Open Peer Review oder Jason Mittells Buch Complex TV. The Poetics of Contemporary Television Storytelling haben sich Fitzpatricks Experiment zum Vorbild genommen.

Crowd Review dank Preprint-Server
Preprint-Server – Onlineplattformen, auf denen Wissenschaftlerinnen ihre Texte schon vor der offiziellen Veröffentlichung hochladen können – sind der beste Beweis dafür, dass auch (noch) nicht formell begutachtete Texte längst als ernstzunehmende Publikationen gelten. Preprint-Server wie arXiv.org für Physik, Informatik und Mathematik oder das leider in Verruf geratene Social Science Research Network (SSRN) für Wirtschaftswissenschaft und Jura sind für viele Wissenschaftlerinnen nicht mehr wegzudenken; die sich im Aufbau befindende Plattform SocArXiv für Sozialwissenschaften wächst stetig.

Zumindest aus wissenschaftlicher Sicht scheint der auf eine Veröffentlichung auf einem Preprint-Server in einer Zeitschrift folgende peer-reviewed Artikel an Bedeutung zu verlieren. „We now read papers, not journals“, konstatiert George Lozano in seinem Blogpost zum Impact Factor und der sinkenden Relevanz renommierter Zeitschriften. Preprint-Server erlauben der Community jedenfalls, Forschungsergebnisse lange vor dem Abschluss eines mehrmonatigen Peer Review-Verfahrens und der endgültigen – in der Regel gedruckten – Fassung zu lesen und zu evaluieren.

Qualität durch Open Access
Wenn mit der zunehmenden Verbreitung von Open Access und digitalen Publikationen Texte insgesamt leichter zugänglich sind und eher gelesen werden, ist anzunehmen, dass sich Autorinnen stärker denn je darum bemühen, gute Arbeiten zu präsentieren. Onlinepublikationen sorgen für mehr Transparenz und Vergleichbarkeit. Ein und derselbe Text lässt sich dann nicht mehr so leicht unter unterschiedlichen Titeln in verschiedenen Sammelbänden oder Zeitschriften unterbringen – was in Zukunft vielleicht die Bedeutung von Publikationslisten relativieren wird und auch die Kategorie „peer reviewed“.

Elsevier kauft Preprint-Server SSRN – und wird zum Datenkönig

Das Social Science Research Network (SSRN) ist eines der größten Open Access-Repositorien weltweit. Dass ausgerechnet Verlagsgigant Elsevier diese Plattform jetzt aufgekauft hat, verdeutlicht, dass „offenen“, „kostenfreien“, jedoch profitorientierten Plattformen wie Academia.edu oder ResearchGate mit größter Skepsis zu begegnen ist. Versprechen auf größtmögliche Sichtbarkeit von Forschungsergebnissen und uneingeschränkten Zugang zu wissenschaftlichen Arbeiten verdecken langfristige Ziele und Geschäftsmodelle der Unternehmen, die hinter den Plattformen stehen. Anders als Wissenschaftsverlage, die von den AutorInnen ein article processing charge (APC) verlangen, um Inhalte kostenfrei zugänglich zu machen und trotzdem daran zu verdienen, geht es privatwirtschaftlichen Publikationsplattformen um Daten. Es geht um Daten, die besagen, welche Artikel wo welchen Impact haben. Es geht um Nutzerprofile und Nutzerverhalten. Wie und zu welchem Zwecke diese Informationen genutzt werden (Werbung, Datenhandel, Überwachung) ist unklar. Genauso unklar ist, welche Daten überhaupt generiert werden und wie.

„Academia.edu has a parastical relationship to the public education system, in that these academics are labouring for it for free to help build its privately-owned for-profit platform by providing the aggregated input, data and attention value“, schreibt Gary Hall, Professor für Medienwissenschaft an der Coventry University, in seinem Post „Does Academia.edu Mean Open Access is Becoming Irrelevant?“. Und weiter: „We can thus see that posting on Academia.edu is not ethically and politically equivalent to making research available using an institutional open access repository at all.“ Kathleen Fitzpatrick, Medienwissenschaftlerin in den Digital Humanities, fügt in ihrem Post „Academia, Not Edu“ hinzu: „Everything what‘s wrong with Facebook is wrong with Academia.edu, at least just up under the surface, and so perhaps we should think twice before committing our professional lives to it“.

Es nichts Neues ist, dass auch wissenschaftliche Datenplattformen ein immer lukrativeres Geschäft versprechen. So kaufte Elsevier 2013 die Forschungsplattform Mendeley für einen Millionenbetrag im höheren zweistelligen Bereich von seinen drei deutschen Gründern ab. Kurz darauf forderte Elsevier in etwa 2.800 Abmahnungen die NutzerInnen des Konkurrenten Academia.edu auf, Artikel, die das Copyright verletzten, von der Plattform zu löschen.

Dennoch hat die Übernahme von SSRN durch Elsevier für große Verunsicherung und Aufregung gesorgt. „It’s like if Monsanto bought out your favorite organic farm co-op“, schreibt Cory Doctorow von Boing Boing. Eine der Hauptsorgen ist, was mit den Artikeln passiert, die auf SSRN gehostet werden. Was passiert etwa, wenn Elsevier den SSRN-Server zumacht, um Universitäten, die ihre Zeitschriftenabonnements von Elsevier aufgrund der enormen Preise und missliebigen Bezugsbedingungen gekündigt haben, dazu zwingen, ihre Kündigung zurückzuziehen, damit sie wieder Zugriff auf (ihre eigenen) Forschungsergebnisse haben?

Vielleicht geht es Elsevier auch darum, seine Monopolstellung gegenüber seiner Konkurrenten Springer und Wiley im wissenschaftlichen Zeitschriftenmarkt zu verteidigen. Doch was der eigentliche Gewinn ist: Daten. Wertvolle – für die NutzerInnen unbekannte, unzugängliche – Daten, die man –  wie den Impact Factor des Medienkonzerns Thomson Reuters – vermarkten kann. Christopher M. Kelty, Professor für Informationswissenschaft an der University of California, erklärt in seinem Beitrag „It’s the Data, Stupid. What Elsevier’s Purchase of SSRN also means“ auf savageminds.org:

SSRN represents better data about the impact of social science research than any single journal, or any publisher‘s data (even Elsevier, with its hundreds of social sciences journals), because it has been built on the good will, apparent neutrality, and level playing field of an open access repository. Until Tuesday May 17, it was not tied to any particular publishing conglomerate or metrics company, and so its data represented social science research with a fidelity to reality that is expensive and hard to otherwise achieve.

Doch bitte jetzt nicht in Schockstarre verfallen! Die Bedeutung dieser Daten – und damit der For-Profit-Plattformen – sinkt, wenn wir die Evaluation von wissenschaftlicher Arbeit anhand von quantitativen Kriterien an sich hinterfragen. Wenn wir die Aussagekraft von Impact Factor, Downloads und Publikationslisten kritisch prüfen. Wenn die Leistung von WissenschaftlerInnen stattdessen anhand von Qualität, Innovation und Engagement bewertet wird.

Es ist höchste Zeit, dass die verschiedenen Disziplinen Alternativen zu Plattformen wie Academia.edu und ResearchGate schaffen und ihre eigenen institutsübergreifenden Non-Profit-Repositorien à la ArXiv.org aufbauen, die durch Spenden, Mitgliedsbeiträge und Fördergelder langfristig finanziert werden. SSRN dient dafür ja jetzt leider nicht mehr als Beispiel…

E-Book-Festival 2016

Bald ist es wieder soweit. Dann findet das E-Book-Festival 2016 statt. Zwei Tage rund ums eBook, mit Barcamp und Lesenacht.

Am 25./26. Juni 2016 in Berlin/Neukölln

„Was nichts kostet, ist nichts wert.“ Oder: Wie kann Open Access eigentlich finanziert werden?

Wenn Texte kostenfrei zur Verfügung gestellt werden, lassen sie sich nicht mehr verkaufen. Wie aber kann man dann die Produktion von Texten (das Denken, das Schreiben, das Lektorieren, das Korrigieren, die Formatierung, den Satz bzw. die Programmierung) und die Zugänglichkeit zu Texten, die bisher vor allem Bibliotheken gewährleisten, finanzieren?

Bei digitalen Texten halten sich die Kosten für die Bereitstellung im Rahmen. Dank WordPress muss man Websites nicht mehr aufwendig programmieren. Vorlagen kann man entsprechend anpassen, nachdem man sich in die Grundlagen von HTML und CSS reingefuchst hat. Selbst ohne jegliche Programmierkenntnisse kann man einen Blog oder eine persönliche Website aufsetzen. Und auch die Serverkosten sind überschaubar. Finanzieller und persönlicher Aufwand für die Schaffung einer digitalen Infrastruktur sind also überschaubar. Doch die Textproduktion ist nach wie vor ein aufwendiger und mühsamer Prozess, um den man nicht herumkommt. Und der will entlohnt werden. Doch wie, wenn man seine Texte am liebsten kostenfrei zur Verfügung stellen möchte, damit sie möglichst viele lesen können?

In den Geisteswissenschaften rechnen WissenschaftlerInnen ohnehin nicht damit, ein Honorar für ihre Texte zu bekommen. Denn die Texte selbst sind die Währung. Je länger die Publikationsliste, desto größer der Marktwert. Deshalb sind in Deutschland AutorInnen sogar bereit, einem Verlag zwischen 2.000 und 8.000 Euro (je nach Reputation des Verlags) zu bezahlen, damit dieser ihre Monographie veröffentlicht. Wenn ihre Publikation durch einen „Druckkostenzuschuss“ eines Drittmittelprojekts finanziert wird, dürfen sie selbst nichts an dem Buchverkauf verdienen. Eine entsprechende Honorar-Verzichtserklärung muss man dann unterschreiben. Bei einer durchschnittlichen Auflage von 300 Stück pro Dissertation (die man ja in Deutschland veröffentlichen muss, um seine Promotion abzuschließen) stellen die Druckkostenzuschüsse für die Verlage eine wichtige Einnahmequelle dar. Je niedriger der angesetzte Verkaufspreis des Buches ist (in der Regel zwischen 25 und 65 Euro), desto größer die Rolle des Druckkostenzuschusses in der Verlagskalkulation. Darüber hinaus können Verlage mit der Abnahme einer gewissen Menge an Büchern durch Bibliotheken rechnen. Verlage in den USA verkaufen zunächst die erste Auflage, die als Hardcover und damit zu einem höheren Preis von bis zu $100 erscheint, an Bibliotheken, bevor sie eine günstigere Paperback-Version (deren Preis allerdings nicht immer weit unter dem Hardcover-Preis liegt) herausbringen.

Mit diesen Ausführungen möchte ich keinesfalls Stimmung gegen Verlage machen, wie dies manche Open Access-Verfechter tun, sondern schlichtweg darauf aufmerksam machen, wie das wissenschaftliche Publikationswesen funktioniert. Denn gerade im digitalen Zeitalter, wo das Selbstpublizieren ein Kinderspiel geworden ist, gibt es für WissenschaftlerInnen viele Alternativen zum herkömmlichen Publikationssystem, die sie nutzen könnten, wenn sie wollten. Den meisten WissenschaftlerInnen, mit denen ich gesprochen habe, als ich einen digitalen Wissenschaftsverlag gründen wollte, liegt das gedruckte Buch jedoch so sehr am Herzen, dass sie in der digitalen Publikation vor allem eine Abwertung ihrer Arbeit sehen würden. Viele befürchten zudem, dass eine Veröffentlichung bei einem (noch) unbekannten Verlag ihrer Karriere schaden könnte. Vielleicht zu recht. Manche sind grundsätzlich gegen Open Access, da für sie der Grundsatz gilt „Was nichts kostet, ist nichts wert.“ Damit komme ich zum eigentlichen Thema dieses Posts: Wie lässt sich Open Access eigentlich finanzieren?

Wie bereits erwähnt, übernehmen bisher vor allem AutorInnen bzw. die sie fördernden Institutionen die Gebühr für den kostenfreien Zugang, die APC (article processing charge). So muss man zum Beispiel 2.150 Euro bezahlen, um einen Artikel in einer Zeitschrift der britischen Verlagsgruppe Taylor & Francis open access zu stellen und ca. 12.600 Euro, um seine Monographie beim geistes- und sozialwissenschaftlichen Verlag Routledge, der zu Taylor & Francis dazugehört, open access zu veröffentlichen. Das Ziel, diese Gebühren gerecht zu verteilen und nicht allein auf die AutorInnen abzuwälzen, haben sich Projekte wie Knowledge Unlatched und Luminos auf die Fahnen geschrieben. Bei Knowledge Unlatched teilen sich Bibliotheken (die ohnehin die Bücher kaufen würden) die von den Verlagen verlangte Open Access-Gebühr. Luminos, ein Projekt der University of California Press, möchte, dass alle, die von der Publikation profitieren (AutorInnen, Institutionen, Bibliotheken und Verlage) für die Produktion und Verbreitung aufkommen.

Dass auch die LeserInnen für den kostenfreien Zugang bezahlen, scheint ein zu großes Paradox. Doch warum sollen nicht tatsächlich alle, die Nutzen aus den Texten ziehen, dafür bezahlen (können)? Die Musikerin Amanda Palmer bringt es in ihrem TED-Talk „The Art of Asking“ auf den Punkt: „Don‘t make people pay. Let them.“ Nachdem ihr Label sie nicht länger unterstützen wollte, da sie ‚nur‘ 25.000 CDs verkaufte, hat sie für ihre nächste Plattenproduktion eine Crowdfunding-Kampagne gestartet. Diese Aktion brachte ihr $1.192.793 ein – von insgesamt fast 25.000 SpenderInnen. (Danke, Marion Goller, für diesen Hinweis.)

Neben Crowdfunding (wodurch inzwischen ganze Forschungsprojekte unterstützt werden sollen) hat das Internet weitere Finanzierungsmodelle hervorgebracht, die sich auch für die Produktion wissenschaftlicher Texte eignen könnten, z.B. maßgeschneiderte Werbung. Doch viele Menschen stehen Werbung prinzipiell skeptisch gegenüber. Zudem empfinden sie es als starke Beeinträchtigung des Lesegenusses (Stichwort Adblocker), der bei Online-Publikationen ja ohnehin gefährdet scheint. Werbung stellt also nicht die die beste Finanzierungsweise dar, wenn es um wissenschaftliche Texte geht. Da erscheint mir die Möglichkeit des Micropayments, der Bezahlung von Kleinstbeträgen, sinnvoller. Das Problem bei der Nutzung von Online-Inhalten ist meiner Meinung nach weniger die von KulturpessimistInnen verdammte „Umsonstkultur“, sondern der Mangel an unkomplizierten Bezahlmöglichkeiten (neben der durch das DRM eingeschränkten Nutzung versteht sich, doch das ist nicht Thema dieses Posts). Muss man immer wieder seine Kontaktdaten und Kreditkartennummer in Bezahlmasken eingeben, ist das nicht nur zeitaufwendig, sondern auch riskant und heikel. Vielleicht ist dies unter anderem der Grund, warum Matthew Butterick mit seiner tollen Website über Typographie (wie bereits in einem früheren Post erwähnt) trotz eines implementierten Zahlsystems nur 1 von 1000 LeserInnen dazu bringt, eine Überweisung vorzunehmen (ich habe trotzdem eine kleine Summe überwiesen, nicht weil ich musste, sondern weil der Autor mich darum gebeten hat, s. Amanda Palmer).

Der Journalistin Antje Schrupp wäre Werbung viel lieber als das Geld von LeserInnen, müsste sie von ihrem Blog „Aus Liebe zur Freiheit. Notizen zur Arbeit der sexuellen Differenz“ leben. Denn durch Werbung wäre sie freier beim Schreiben als wenn sie in der Schuld ihrer LeserInnen stünde. Letztendlich verdient sie ihren Lebensunterhalt allerdings durch das Vermitteln der Gedanken, die man kostenlos auf ihrem Blog lesen kann. So steigern Publikationen auch ihren Marktwert und damit die Nachfrage nach ihren (bezahlten) Vermittlungstätigkeiten (Vorträge, Podiumsdiskussionen etc.). Nicht zu vergessen sei allerdings die Aufmerksamkeit, die ihr die LeserInnen entgegenbrächten, in Form von Klicks und Kommentaren. Das Lesen sei ja ebenfalls eine Investition, gar ein Geschenk, weil freiwillig.

Um seiner Wertschätzung im Internet Ausdruck zu verleihen, gibt es neben Kommentaren und Verlinkungen, Retweets und Likes auch den Flattr-Button, über den man monatlich eine selbst festgelegte Spendensumme an verschiedene Projekte verteilen kann, und das Bezahlsystem PayPal, das eine relativ einfache Überweisung erlaubt. (Flattr-Gründer Peter Sunde will nun übrigens in Kooperation mit AdBlock Plus ein automatisches Spendensystem implementieren wie der Guardian berichtet.) Der Digitalverlag mikrotext setzt zum Beispiel – wie Zeitungen – aufs Abo, das wiederum bei Zeitschriften wie The Economist im Grunde als Flatrate funktioniert. Ich werde Flattr-Button und PayPal mal ausprobieren, insbesondere letzteres, damit man mein Print-on-demand-Buch einfacher erwerben kann. Selbstverständlich freue auch ich mich über die Wertschätzung meiner Arbeit – in welcher Form auch immer. Vielen Dank für Ihre Aufmerksamkeit.

DH Cinema Projects

„Digital Humanities“ ist ein schillernder Begriff und derzeit in aller Munde. Darunter fallen computergestütze Verfahren zur Aufarbeitung und Archivierung von Datensätzen oder zur Präsentation von Forschungsergebnissen ebenso wie die Analyse von digitalen Vorgängen und Objekten. Digital Humanities steht für neue Methoden und Theorien in den Geisteswissenschaften, wenn nicht gar für ein neues Fach, das sich auf Ansätze aus den Software Studies und den Science and Technology Studies stützt.

Wie Digital Humanities-Projekte in den Medienwissenschaften aussehen, haben Marina Hassapopoulou (NYU) und Anne Amanda Moore (Columbia) einer Liste zusammengetragen.

DH Cinema Projects

Die Liste ist Teil des übergeordneten Projektes Transformations I. Cinema & Media Studies Research Meets Digital Humanitites Tools, das sich mit der Frage auseinandersetzt, inwiefern Film- und Medienwissenschaften, die sich per se für neue Technologien (wie damals zum Beispiel dem Kino) interessieren, bereits vor der Entstehung des Begriffs genau das getan haben, was heute Digital Humanities heißt.

« Ältere Beiträge

© 2019 oa books

Theme von Anders NorénHoch ↑