Daten über Forschung und Wissenschaftler*innen sind aus dem wissenschaftlichen Publikationsprozess nicht mehr wegzudenken:
Wissenschaftler*innen erhalten bei der Literaturrecherche Empfehlungen für weitere Publikationen, die sie interessieren könnten, und Institutionen und Forscher*innen werden auf der Basis von Publikations- und Zitationsanalysen gerankt - dies sind nur zwei Beispiele für die aktuelle Nutzung von Daten im globalen akademischen Ökosystem. Der Ausschuss für wissenschaftliche Bibliotheks- und Informationssysteme der Deutschen Forschungsgemeinschaft (DFG) hat im Oktober 2021 ein Diskussionspapier herausgegeben, das sich kritisch mit den Gefahren auseinandersetzt, die entstehen, wenn solche Daten und Analysen in die Hände kommerzieller Anbieter wie Verlage und Analytikunternehmen gelangen. Die Wissenschaft braucht neue Formen intelligenter Technologie, um mit der immer größer werdenden Datenwelt zu arbeiten. Wie können Wissenschaftler*innen, akademische Einrichtungen und Verlage das richtige Gleichgewicht zwischen dem Schutz der Privatsphäre des Einzelnen, der akademischen Freiheit und der Nutzung innovativer, digitaler Technologien finden?
Das ECDF und Elsevier haben diese Frage zum Anlass genommen, eine offene Diskussionsreihe darüber zu veranstalten, wie sich die Digitalisierung auf den Wissenschaftsbetrieb auswirkt: ECDF und Elsevier Conversations on Science in the Digital Future. Das erste Gespräch mit dem Titel "Datenschutz im digitalen Zeitalter" fand am 22. November 2022 mit Prof. Dr. Max von Grafenstein, Professor für Digitale Selbstbestimmung am ECDF und der Universität der Künste Berlin, Dr. IJsbrand Jan Aalbersberg, Senior VP of Research Integrity bei Elsevier, und Prof. Dr. Wolfram Horstmann, Leiter der Niedersächsischen Staats- und Universitätsbibliothek Göttingen und Vorsitzender des Ausschusses für Wissenschaftliche Bibliotheks- und Informationssysteme (AWBI) der DFG, statt. Moderiert wurde die Veranstaltung von Journalistin Katharina Heckendorf.
"Was auch immer wir mit den Daten machen, wir müssen sicherstellen, dass wir die Daten nutzen, um die Forschung zu fördern, Wissenschaftler*innen bei Veröffentlichungen und in ihrer Karriere zu unterstützen. Für mich bedeutet das, dass alles, was wir in Bezug auf die Unterstützung forschender Organisationen tun, fair sein muss und dass wir uns wirklich um Vielfalt und Integration bemühen", sagt Aalbersberg in seinem Eröffnungsstatement. Dazu gehört für ihn auch, nicht mehr Daten von den Nutzern zu erheben, als für diese Unterstützung tatsächlich nötig sind: "Für das Senioritätsniveau eines Forschers ist es nicht notwendig, dass wir sein Geburtsdatum kennen, weil es überhaupt nichts mit dem Senioritätsniveau zu tun hat", fügt er hinzu. Seit 2016 bezeichnet sich Elsevier nicht mehr nur als Verleger, sondern auch als Informationsanalytik-Unternehmen. Laut Aalsbersberg ist dies auch darauf zurückzuführen, dass sich die Erwartungen akademischer Einrichtungen an Verlage wie Elsevier geändert haben: „Die Einrichtungen wollen analytische Informationen, sie wollen wissen, wie ihre akademische Einrichtung im Vergleich zu anderen akademischen Einrichtungen dasteht. Dafür müssen wir einige analytische Tools anbieten, um Vergleiche anzustellen".
Für Wolfram Horstmann, einen der Autoren des DFG-Papiers, kann das Sammeln solcher Daten für Wissenschaftler*innen nachteilig sein: Die gesammelten Nutzungsdaten könnten dazu verwendet werden, ein persönliches Profil zu erstellen oder Forschende in Richtung einer Zeitschrift desselben Verlags oder weg von einem bestimmten Thema zu lotsen. Für Horstmann ist vor allem die Sammlung von Verhaltensdaten problematisch: "Was wird gelesen, was wird angeklickt, was wird vergrößert haben, das sind sehr spezifische Daten über das Verhalten bei der Nutzung der Plattformen. Der Grund, warum Forscher sich unwohl dabei fühlen, gerade diese Daten zu teilen, ist, dass sie nicht qualitätsgeprüft sind und für das wissenschaftliche Informationssystem im Allgemeinen nicht relevant sind." Horstmann räumt ein, dass das DFG-Papier eine dystopische Zukunft gezeichnet hat, aber er war auch überrascht über die starke Reaktion von Verlagen wie Elsevier, die die Notwendigkeit einer Diskussion unterstreicht: "Diese Diskussion ist wichtig, weil dieses Thema strategische Bedeutung hat und die Entwicklung des gesamten Sektors beeinflussen wird". Eine seiner größten Sorgen sind die Nutzungsdaten von Forscherinnen und Forschern: Informationen, die nicht veröffentlicht werden, könnten dazu genutzt werden, das Verhalten zu beeinflussen.
Wie können Wissenschaftler*innen, akademische Einrichtungen und Verlage das richtige Gleichgewicht zwischen dem Schutz der Privatsphäre des Einzelnen, der akademischen Freiheit und der Nutzung innovativer, digitaler Technologien finden?
Max von Grafenstein befürchtet vor allem, dass die Nutzer die Kontrolle über ihre Nutzungsdaten und deren Verwendung verlieren könnten: Nutzungsdaten und persönliche Profile könnten für einen bestimmten Zweck erhoben werden, später aber für einen ganz anderen Zweck verwendet werden, oft auch von einem anderen Akteur. Er zieht einen Vergleich zum Fall des Verkaufs von Nutzungsdaten durch Facebook an Cambridge Analytica und die Beteiligung dieses Unternehmens am politischen Micro-Targeting. Was es zu vermeiden gelte, sei ein Machtgefälle zwischen Verlagen und einzelnen Wissenschaftler*innen, das letztere zwingen würde, ihre persönlichen Daten preiszugeben, um wissenschaftliche Arbeiten zu veröffentlichen: "Selbst wenn ich diese Daten preisgebe, möchte ich nicht, dass die Erkenntnisse darüber, wie ich Wissen generiere, an jemanden wie Trump weitergegeben werden, der Wissenschaftler*innen und ihre Forschung nicht sonderlich schätzt", sagte er und verwies auf das Beispiel Cambridge Analytica. Grafenstein sieht die Gefahr, dass Verlage so stark werden, dass sie die Art und Weise, wie Wissen produziert wird, prägen, weil sie entscheiden, welche Empfehlungen Wissenschaftler*innen erhalten. Dies würde dann dazu führen, dass die Rolle der Universitäten und Bibliotheken im Ökosystem der Forschung schwächer wird.
Aalbersberg stimmt zu, dass Literaturempfehlungen die Balance halten müssen zwischen der Unterstützung der Nutzenden bei ihrer Forschung, ohne sie in eine bestimmte Richtung zu lenken. Dies geschieht derzeit dadurch, dass transparent gemacht wird, dass die Empfehlungen auf dem basieren, was andere Anwender*innen in der Vergangenheit interessiert hat. Darüber hinaus könnte das Tracking es den Verlagen ermöglichen, die User nachträglich über zurückgezogene Artikel zu informieren, sofern die Erlaubnis dazu erteilt wurde. Aalbersberg fügte hinzu: "Es ist unsere Pflicht als Verleger, moderne Technologien zu nutzen, um die Wissenschaft und das Gesundheitswesen voranzubringen, und es wird von uns erwartet, dass wir moderne Technologien nutzen, um diese Dinge zu tun. Wir müssen jedoch sicherstellen, wie wir das tun, und wir müssen sicherstellen, dass es für Nutzer*innen klar ist, wie wir das tun, und dass Nutzende es abschalten können". Der letzte Punkt ist für Max von Grafenstein besonders wichtig: Es ist von entscheidender Bedeutung, dass das Tracking abgeschaltet werden kann, insbesondere für Forscher*innen in autoritären Regimen, wo die gesammelten Daten leicht in die falschen Hände geraten könnten.
Alle drei Experten sind sich einig, dass die Datenschutzgrundverordnung von den Unternehmen zu Recht verlangt, dass die Vorteile der Datenerhebung die Risiken eindeutig überwiegen müssen. Aalbersberg ist der Meinung, dass dies bei jedem Schritt des Erfassungsprozesses neu bewertet werden muss. Er betont, dass Elsevier die aktuelle Gesetzgebung einhält. Für Horstmann ist dies jedoch nicht immer ausreichend, da sich die Auslegung in vielen Szenarien in einer Grauzone befindet, nicht nur im Fall der Daten von Forschenden: "Nur weil etwas GDPR-konform ist, heißt das nicht zwangsläufig, dass es alle ethischen Standards erfüllt, die speziell die Wissenschaft an ein System stellen würde."
"Wie können Verlage und wissenschaftliche Einrichtungen weiterhin zusammenarbeiten, ohne dass die wissenschaftlichen Einrichtungen ein so starkes Machtungleichgewicht spüren wie jetzt?", fragte Katharina Heckendorf zum Abschluss der Diskussion. "Während es die Aufgabe der Industrie ist, Profit zu machen, ist es die Aufgabe der Wissenschaft, einem universellen Zweck zu dienen und Wissen zu vermitteln. Diese beiden Interessen sind nicht unbedingt immer konfliktfrei, und dieser Interessenkonflikt muss diskutiert werden." In Bezug auf die Governance schlug Horstmann eine wissenschaftliche Zertifizierungsstelle vor, die von der Wissenschaft oder gemeinsam von Wissenschaft und Verlegern geleitet wird. Außerdem würde die Offenlegung von Algorithmen, die beispielsweise für Rankings verwendet werden, zu einem immensen Vertrauens- und Transparenzgewinn führen, fügte er hinzu. Für Max von Grafenstein ist die Frage grundsätzlicher: "Wir sollten über die Funktionen sprechen, die verschiedene Akteure im Interesse der Gesellschaft eigentlich erfüllen sollten", sagt er. Seiner Meinung nach übernehmen wissenschaftliche Verlage heute viele der Funktionen von Universitätsbibliotheken, indem sie den Nutzern bei der Navigation und der Suche nach Informationen helfen. Dieser Trend birgt einen potenziellen Interessenkonflikt, wenn er nicht gestoppt wird.
In 2023 werden weitere Ausgaben der Reihe folgen. Weitere Infos und alle Aufzeichnungen finden Sie //hier.
Im Folgenden beantworten die Panelist*innen Fragen aus dem Publikum, die während der Veranstaltung nicht beantwortet werden konnten:
Frage: Sehen Sie eine Konkurrenz zu den großen traditionellen Verlagshäusern? Gibt es politische und technologische Entwicklungen, die die Verlage bedrohen?
Aalbersberg (Elsevier): Wir bewegen uns in einem wettbewerbsintensiven Umfeld. Es gibt ständig neue Initiativen - von kleinen Technologie-Start-ups bis hin zu großen Organisationen, von gemeinnützigen Stiftungen bis hin zu kommerziellen Unternehmen -, die neue Tools für die akademische Gemeinschaft entwickeln oder bestehende verbessern. Wir begrüßen den Wettbewerb, er ist gesund und bietet große Vorteile für Forscher*innen und die akademische Community als Ganzes.
Wir sind zuversichtlich, dass unsere Produkte die akademische Fachgemeinschaft weiterhin effizient und sicher mit relevanten, hochwertigen Informationen und Analysen versorgen werden. Dies ist ein kontinuierlicher Entwicklungsprozess. Unsere Teams sind ständig im Gespräch mit der Wissenschaftsgemeinde, um ein besseres Verständnis für ihre Bedürfnisse zu bekommen und zu analysieren, wie wir unsere Lösungen verbessern können. Wir sehen die Technologie nicht als Bedrohung für uns, sondern als Chance, unseren Nutzenden und ihren Einrichtungen mit neuen und besseren Lösungen zu dienen, um (einige) ihrer Probleme zu lösen. Ähnlich verhält es sich mit politischen Entwicklungen: Sie können auch im Dienste der akademischen Gemeinschaft stattfinden.
Frage: Integriert Elsevier Fingerabdrücke in PDF-Dateien, so dass zwei PDF-Dateien desselben ScienceDirect-Artikels unterschieden werden können? Wenn ja - warum?
Aalbersberg (Elsevier): Universitäten sind systematisch Ziel von Cyberangriffen, daher hat es für Elsevier höchste Priorität, bei der Erkennung potenzieller Bedrohungen mitzuwirken, die die Sicherheit unserer Systeme und der unserer Kund*innen, die Sicherheit persönlicher Studierendenndaten und die Integrität ihrer Forschung gefährden können. Wasserzeichen in PDF-Dateien ermöglichen es uns, potenzielle Gefahrenquellen zu identifizieren, so dass wir unsere Kund*innen informieren können, damit sie darauf reagieren können. Dieser Ansatz ist in der akademischen Verlagsbranche weit verbreitet.
Können Sie eine kurze Einschätzung geben, vielleicht in Prozent, wie GDPR-konform Ihre Einrichtung arbeitet?
Aalbersberg (Elsevier): Alle unsere Produkte, Systeme und Dienstleistungen sind GDPR-konform (EU General Data Protection Regulation), und als in Europa tätiges Unternehmen müssen wir transparent machen, wie wir personenbezogene Daten sammeln, verwenden und weitergeben. Akademische Einrichtungen können unsere Position in unseren veröffentlichten Datenschutzrichtlinien und -grundsätzen nachlesen, und wir laden sie ein, ihre Bedenken direkt mit uns zu besprechen.