Metadaten

Workshopbericht – Große Anforderungen an kleine Textfelder: Ethische Fragen an Metadaten historischer Quellen

Die Geschichts- und Kulturwissenschaften und ihre Infrastruktureinrichtungen sind zunehmend bestrebt, Forschungsdaten zu historischen Beständen aus ethisch-sensiblen Kontexten aufzubereiten. Erste Ansätze zum Umgang mit datenethischen Fragen wie die Formulierung der CARE Prinzipien „for Indigenous Data Governance“, Vorschläge für diskriminierungsfreie Metadaten oder individuelle Lösungen einzelner Einrichtungen bestehen bereits oder befinden sich in der Entwicklung. Hier setzte der Workshop „Große Anforderungen an kleine Textfelder: Ethische Fragen an Metadaten historischer Quellen“ an und schuf Raum für Diskussionen um Bedarfe und Lösungsansätze. Der Workshop fand am 21. und 22. November 2024 am Herder-Institut in Marburg und online statt und wurde unter gemeinsamer Initiative von NFDI4Memory Task Area Data Quality und DARIAH-DE organisiert.

Am ersten Tag skizzierten Peggy Große und Mario Kliewer einleitend vorhandene Diskurse und Standards der Datenethik in den Geschichts- und Kulturwissenschaften. Es wurde deutlich, dass ethische Aspekte schon lange implizite Bestandteile der Forschungspraxis sind, ihre konkreten Umsetzungen vor allem im Rahmen von Metadaten aber noch weitestgehend Desiderate darstellen. Dass dennoch Bedarfe an Richtlinien und praktischen Anleitungen bestehen, verdeutlichten Grischka Petri und Oliver Vettermann anschaulich mit ihrem Bericht aus dem Alltag des NFDI4Culture-Legal-Helpdesks. Sie fokussierten dabei insbesondere auf die Heterogenität der jeweiligen Bestände, für die kaum systematische oder pauschale Lösungen ethischer Herausforderungen gemacht werden können. Diesen Befund erweiterte Michaela Rizzolli mit ihrem Vortrag zu den CARE Principles for Indigenous Data Governance um eine ethische Sichtweise aus den ethnologischen Disziplinen. Die CARE-Prinzipien seien demnach nur eingeschränkt über den historischen Entstehungskontext und die anschließende Weiterentwicklung der Prinzipien hinaus verwendbar. Insgesamt wurde der Bedarf fachspezifischer Richtlinien und Praktiken deutlich.

Im nächsten Panel widmete sich eine Reihe von Beiträgen konkreten Projekterfahrungen. Noёlle Schnegg und Levyn Bürki stellten das “Handbuchprojekt zur Erstellung diskriminierungsfreier Metadaten für historische Quellen und Forschungsdaten” vor, das als Living Document in Zusammenarbeit mit der Community weiter ausgebaut und um zusätzliche Dimensionen ergänzt werden soll. Lisa Quade berichtete über den Aufbau des Portals „Sammlungsgut aus kolonialen Kontexten“ der Deutschen Digitalen Bibliothek. In enger Abstimmung mit deutschen Kulturerbeeinrichtungen und Expert:innen aus Herkunftsländern wurden verschiedene Präsentationsformen für ethisch sensible Materialien entwickelt. Anschließend zeigte Johannes Wolff in einem Werkstattbericht aus der Deutschen Fotothek anhand des von 2015 bis 2017 in Kooperation mit den Staatlichen Kunstsammlungen Dresden durchgeführten DFG-Projekt “Weltsichten”, wie Aspekte eines sensiblen Umgangs mit Fotografien aus ethisch problematischen Zusammenhängen umgesetzt wurden. Zugleich betonte er, dass ethische Ansprüche nicht selten mit Förderrichtlinien für Massendigitalisierung, technischen Möglichkeiten und pragmatischen Entscheidungen in Konflikt stehen können. Der erste Tag endete mit einem Impuls zur Rolle von Entitäten in Metadatenschemata von Eike Martin Löhden. Er stellte das Konzept von Entitäten Modellen in modernen Repositorien vor und illustrierte es anhand eines Beispiels des Marburger Urkundenrepositoriums.

In den zum Teil kontrovers geführten Anschlussdiskussionen, die unter anderem die Widersprüche zwischen aktuellen Open-Data-Anforderungen in Förderrichtlinien und ethischen Rahmensetzungen verdeutlichten, zeigte sich, dass ethisch sensibilisierte Praktiken an allen Stellen des Datenlebenszyklus verankert werden müssen.

Am zweiten Workshoptag wurden Hands-On bestehende Ansätze und Lösungsvorschläge an konkreten Beispielen diskutiert. In vier Gruppen hatten die Teilnehmenden die Möglichkeit, Herausforderungen bei der Zuordnung von Metadaten zu ethisch sensiblen Materialien aus den Beständen des Herder-Instituts zu erörtern und mögliche Lösungsansätze vorzustellen. In allen Gruppen wurde lebhaft darüber diskutiert, wie bspw. mit Namen umzugehen ist, wie man Schlüsselwörter wählt, eine ausreichende Beschreibung erstellt oder mittels Disclaimer Hinweise auf sensible Materialien in das Frontend/die Nutzeroberfläche einbindet.

Die vielfältigen Vorschläge zum Umgang mit ethisch sensiblen Informationen und der Änderung oder Erweiterung vorhandener Metadatenschemata ergänzten die theoretischen Aspekte der Diskussionen des ersten Tages um praktische Lösungsansätze und zeigten Perspektiven auf, wie man mit Hilfe kleiner (oder größerer) Textfelder, aber auch durch Verlinkungen anderer Ressourcen, der Einbindung von Normdaten und vielem mehr den vielschichtigen ethischen Anforderungen der historischen Bestände besser gerecht werden kann.

Autor:innen: Anna Pravdyuk, Grigori Chlesberg, Mario Kliewer, Peggy Große, Anna-Lena Körfer und Ole Meiners


Foto: Claudia Junghänel

92 Metadaten aus Forschungsprojekten: Singuläres vs. Standardisierung. Zum Problem der kategorialen Erschließung von Daten

< Back to problem stories

Auch im Bereich der philosophiehistorischen Grundlagenforschung wird zunehmend die Digitalisierung von Daten (Editionen, Zeitschriften, Kompendien, Archive) vorangetrieben. Dabei stellt sich die Frage, wie die entstehenden Datenmengen auszuwerten sind. Neben der Überlegung zu den technischen Möglichkeiten tritt auch ein hermeneutisches Problem: Wie ist ein sinnvoller kategorialer Zugriff auf die Daten möglich? Die klassischen Werkzeuge sind: Kategorien, Termini, Begriffe usw., aber auch Textsorten (Monographie, Zeitschriftenbeitrag, Nachlassmaterial usw.). Neue Werkzeuge des distant readings treten hinzu, bspw. die Makroanalyse, die computerbasierte Formanalyse von Textualität usw. In diesem Zusammenhang fehlt es bisher an einem Forum für eine vorgeschaltete Methodenreflexion. Es scheint kein guter Rat zu sein, ein Maximum an Werkzeugen in der Analyse der Datenmengen anzuwenden, oder sich ohne weiteres gegen die alten und für die neuen Werkzeuge zu entscheiden. Ein Vorteil der qualitativen Datenanalyse war und ist, dass singuläre Einheiten (Episoden) der Philosophiegeschichte bewahrt werden konnten; ein Nachteil der quantitativen Analyse könnte sein, dass im Verfahren der Standardisierung die Möglichkeit qualitativer Differenzierung von Episodischen und Generalisierendem verloren geht. Darüberhinaus besteht auch die Gefahr, dass durch die Erfassung der Daten im Prozess der Digitalisierung die alten Wissensspeicher - wie bspw. Lexika der Wörter, Begriffe, Metaphern, Kompendien systematischer und historischer Fragen an die Philosophiegeschichte - für obsolet erklärt werden und die Suggestion der für sich selbst sprechenden Daten (der alte "Mythos der Gegebenheit") sich festsetzt. Um hier Klarheit zu schaffen, sollte es als eine dringliche Aufgabe markiert werden, einen Weg zu finden, die alten und die neuen Werkzeuge zu kombinieren und andere Methoden, eventuell verscuhsweise Hybrid-Methoden zu entwickeln. So ist davon auszugehen, dass bspw. ein Historisches Wörterbuch der Philosophie (Erstauflage in den 1970er Jahren) für eine Neubearbeitung seinen Werkzeugkasten neu bestücken wird. Was das heißt und wie unsere Forschung als historisch arbeitende Geisteswissenschaftler*innen nicht nur in der Philosophie, sondern auch in den benachbarten Wissensdisziplinen aussehen wird, vor welchen Herausforderungen/ Möglichkeiten wir stehen und wie ein angemessener hermeneutischer Zugriff auf die digitalisierten Datenmengen (for Memory!) aussehen kann, darüber sollte eine Debatte stattfinden.

Posted on

83 Forschungsdatenmnagement als Support für Forschungsprojekte

< Back to problem stories

Als IT-Verantwortlicher an einer außeruniversitären Forschungseinrichtung möchte ich ein Forschungsdaten-Management-Verfahren einrichten. Ich erhalte Informationen über beginnende und laufende Projekte bzw. Ansprechpartner*innen aus der Verwaltung und führe Gespräche mit einzelnen Wissenschaftler*innen. Gleichzeitig beginnt das Institut mit der Aufarbeitung am Haus überlieferter Datensammlungen. So nimmt die Menge der anfallenden Projektinformationen aktuell stark zu, so dass ich ein eigenes Verwaltungssystem (interne Datenbank) angelegt habe. Ich erkenne die Notwendigkeit, von diesem System aus Schnittstellen zu unserem Forschungsinformationssystem wie auch zu anderen öffentlichen Online-Katalogen des Instituts herzustellen. Allerdings würde eine solche Erweiterung des Systems derzeit mehr Ressourcen kosten als mir auch mittelfristig für das Forschungsdatenmanagement zur Verfügung stehen. Auch erscheint mir die Entwicklung solcher Insellösungen pro Einrichtung nicht sehr effektiv. Konkret fehlen m.E. Data-Services, die Metadaten bzw. Formate für die Projektdaten-Beschreibung definieren und für eigene Bedürfnisse zu erweitern wären. Dies würde mehr Zeit für die Betreuung der einzelnen Forscher*innen und Projekte eröffnen.

Posted on