Task Area 5

#4MCF24: Mehr als ein:e Autor:in – das geht doch nicht!?

2. NFDI4Memory Community Forum | 18.09.2024 | Halle (Saale)

11:10-12:40 Programm Slot 1 - Session 3:
Mehr als ein:e Autor:in – das geht doch nicht!?

Der notwendige fundamentale Kulturwandel der Geschichtswissenschaften im Zeitalter der Digitalität erfordert ein erneuertes Verständnis von Forschungsprozessen als grundsätzlich kollaborativ, ebenso wie gelebte Praxen des kollaborativen Forschungsalltages.

Gemeinsam mit Teilnehmer_innen aller Karrierestufen und Zugänge zu Geschichtswissenschaften wollen wir fragen: Wie kann dies gestaltet werden? Wie sehen Anerkennungsstrategien für alle Prozessbeteiligten und –anteile aus?

Ausgehend von den Erfahrungen der Teilnehmer_innen wird der Workshop an der Erstellung von Personae arbeiten. Personae sind hier aus dem Bereich der Forschung zu User Experience (UX) entlehnt. Sie sollen helfen mit möglichst konkreten, aber fiktiven Personae die Zielgruppen und ihre jeweiligen Bedürfnisse besser zu verstehen und adressieren zu können (vgl. Horváth et al. 2024 zu Personae im Kontext von DH).

Im Anschluss an den Workshop werden wir die Personae kollaborativ als Beitrag zur Diskussion, für die Weiterentwicklung durch die Community, sowie die Anwendung im Forschungsalltag veröffentlichen.

Literatur:
Horváth, Alíz, Cornelis van Lit, Cosima Wagner, and David Joseph Wrisley. “Centring Multilingual Users: Thinking through UX Personas in the DH Community.” Edited by Barbara Bordalejo, Roopika Risam, and Château-Dutier. Digital Studies / Le Champ Numérique 13, no. 3, "DH Unbound 2022, Selected Papers" (February 14, 2024): 1–30. https://doi.org/10.16995/dscn.9608.

Der Workshop wird von unserer Task Area Data Quality durchgeführt.

Weitere Infos zum Community Forum: https://4memory.de/4memory-community-forum/
Zur Anmeldung im Conftool

#4MCF24: "Haben wir Euch gut getroffen?" Feedback zur Zielgruppenanalyse

2. NFDI4Memory Community Forum | 18.09.2024 | Halle (Saale)

13:40-15:10 Programm Slot 2 - Session 2:
"Haben wir Euch gut getroffen?" Feedback zur Zielgruppenanalyse

Um unsere Lern- und Lehrmaterialien präzise auf die Bedürfnisse und Interessen der Historiker:innen und historisch Arbeitenden abzustimmen, ist eine genaue Analyse erforderlich.
Basierend auf der Data Literacy Bedarfserhebung für die verschiedenen Zielgruppen sowie den bisherigen Erfahrungen haben wir Nutzerprofile, sogenannte Personae, erstellt.
Mit den Teilnehmenden des Workshops möchten wir anhand der Personae die Anforderungen an Lern- und Lehrmaterialien der 4Memory-Community besser verstehen.

Der Workshop wird durchgeführt von unseren TAs Data Literacy & Data Culture.

Weitere Infos zum Community Forum: https://4memory.de/4memory-community-forum/ 
Zur Anmeldung im Conftool

Die FAIR Data Fellows 2024 stehen fest!

41 Bewerbungen aus Deutschland, Indien, Italien, Litauen, Großbritannien, Spanien, Tschechien, den USA und Österreich – die Auswahlkommission für die NFDI4Memory FAIR Data Fellowships aus Vertreterinnen des Herder-Instituts, des Leibniz-Instituts für Europäische Geschichte, dem Deutschen Museum und der Herzog August Bibliothek hatten einiges zu tun. Das Bewerber:innenfeld machte es ihnen zusätzlich nicht leicht, denn die Qualität der Datensets und die Motivation zur Veröffentlichung der Forschungsdaten hatten ein sehr hohes Niveau. Die Bewerbungen waren so ausgezeichnet, dass sich die Task Area Data Culture sowie das Herder-Institut entschieden haben, die Zahl der Fellows zu erhöhen und so begrüßen wir in diesem Jahr sogar elf statt acht Fellows bei NFDI4Memory.

Die Auswahl fiel bei den vielen unterstützenswerten Projekten schwer und ein Dank geht an alle Bewerber:innen für ihr Interesse und die Einblicke in ihre Forschungen. Grundlegend für die Entscheidung war, dass das Datenset und die betreuende Einrichtung thematisch gut zusammen passen, damit eine möglichst passgenaue Beratung gegeben ist.

Nun stehen die FAIR Data Fellows 2024 fest: Christian Günther und Lena Filzen am Deutschen Museum, Annika Bärwald, Florian Probst und Martin Prell beim Institut für Europäische Geschichte, Constanze Keilholz und Sarah Lang an der Herzog August Bibliothek sowie Tomasz Jankowski, Mariia Levchenko, Tim Buchen und Tomash Shtohryn am Herder-Institut. Die Fellows werden von Expert:innen im Forschungsdatenmanagement einen Monat lang bei der Aufbereitung und Publikation ihrer Datensets unterstützt und erhalten 1.500,- Euro.

Die Datensets spiegeln die Diversität in den Geschichtswissenschaften wider: Virtual-Reality-Apps von Gedenkstätten, Protokolle wissenschaftlicher Gesellschaften im frühen 18. Jahrhundert, Fragen rund um die Buchgestaltung des 16. Jahrhunderts, alchemiegeschichtliche Quellen der Frühneuzeit, Literaturveranstaltungen in St. Petersburg zwischen 1999 und 2019, Zensusangaben zur jüdischen Bevölkerung in Kurland 1803/1804, Reisetagebücher von Kavalierstouren in den 1740er Jahren, (zwangs)umgesiedelte Familien im „Reichsgau Wartheland“, Rechnungsbücher adliger Güter in der Vormoderne, ostmitteleuropäische Diskettenmagazine in den 1989/1990er Jahren und Menschen nicht-europäischer Herkunft, die die Verbindung zwischen Hamburg und der Sklaverei zwischen 1760 und 1840 verdeutlichen, finden sich in den bearbeiteten Datensets.

Wie die Themen repräsentieren auch die Fellows selbst die Geschichtscommunity in ihrer Bandbreite. Masterstudierende, Doktorand:innen und PostDocs setzen als FAIR Data Fellows ein deutliches Zeichen für die Offenheit der Geschichtscommunity, indem sie ihre Daten anderen Forscher:innen zugänglich machen. Zusammen wollen wir die Datenkultur innerhalb der Geschichtswissenschaft stärken.

Wir freuen uns über den Start der ersten Fellows und planen ein Format, in dem sie Interessierten über ihre Erfahrungen berichten. Noch eine wichtige Informationen für alle, die selbst gerne mit Unterstützung ein Datenset publikationsfähig aufbereiten möchten: Die NFDI4Memory FAIR Data Fellowships 2025 werden im Herbst diesen Jahres erneut ausgeschrieben.

Empfehlung: Clio-Guides. Digitale Ressourcen für die Geschichtswissenschaften

Die Clio-Guides. Ein Handbuch zu digitalen Ressourcen für die Geschichtswissenschaften wurde in der dritten Auflage veröffentlicht.

Ziel des Clio-Guides ist es einen Einstieg in das Feld der digitalen geschichtswissenschaftlichen Fachinformation in seiner ganzen thematischen Breite zu geben. Hierzu gehört die Kompetenzausbildung in der Recherche, der selbsständigen Fähigkeit sich eine Übersicht zum Stand der Forschung zu erarbeiten, dem Finden einschlägiger Quellen.

Eine Neuerung gegenüber den vergangenen Auflagen ist, dass der Guide als genuine Online-Publikation kontinuierlich ausgebaut und aktualisiert werden wird.
Zudem soll das Online-Handbuch in den kommenden Jahren auch im Rahmen des Teilprojektes Data Culture von NFDI4Memory konzeptionell weiterentwickelt werden.

Hier geht's zum Clio-Guide.

Call for Papers: Datafication

A central aim of 4Memory is to spark a thorough evaluation of the nature of digital data and how they have the potential to change the methods of historically oriented humanities disciplines. Our Task Area 5 (Data Culture) has a primary responsibility for encouraging reflection upon and the (re)use of research data (and corresponding digital methods) and fostering a distinct data culture in our community.

That’s why we are working together with the German Historical Institute Washington and several other partners (the Luxembourg Centre for Contemporary and Digital History (C2DH), the Chair of Digital History at Humboldt Universität zu Berlin, the Roy Rosenzweig Center for History and New Media, and the Department of History at Stanford University) to present the conference “Datafication in the Historical Humanities: Reconsidering Traditional Understandings of Sources and Data” (December 9-11, 2021) at the GHI.

The conference is as of now being planned as an on-site event, with contingency plans being developed in case this should turn out not to be possible.

The conference’s call for papers can be viewed here.

Paper proposals will be accepted until 1 April 2021 through the online portal specified in the CfP.

92 Metadaten aus Forschungsprojekten: Singuläres vs. Standardisierung. Zum Problem der kategorialen Erschließung von Daten

< Back to problem stories

Auch im Bereich der philosophiehistorischen Grundlagenforschung wird zunehmend die Digitalisierung von Daten (Editionen, Zeitschriften, Kompendien, Archive) vorangetrieben. Dabei stellt sich die Frage, wie die entstehenden Datenmengen auszuwerten sind. Neben der Überlegung zu den technischen Möglichkeiten tritt auch ein hermeneutisches Problem: Wie ist ein sinnvoller kategorialer Zugriff auf die Daten möglich? Die klassischen Werkzeuge sind: Kategorien, Termini, Begriffe usw., aber auch Textsorten (Monographie, Zeitschriftenbeitrag, Nachlassmaterial usw.). Neue Werkzeuge des distant readings treten hinzu, bspw. die Makroanalyse, die computerbasierte Formanalyse von Textualität usw. In diesem Zusammenhang fehlt es bisher an einem Forum für eine vorgeschaltete Methodenreflexion. Es scheint kein guter Rat zu sein, ein Maximum an Werkzeugen in der Analyse der Datenmengen anzuwenden, oder sich ohne weiteres gegen die alten und für die neuen Werkzeuge zu entscheiden. Ein Vorteil der qualitativen Datenanalyse war und ist, dass singuläre Einheiten (Episoden) der Philosophiegeschichte bewahrt werden konnten; ein Nachteil der quantitativen Analyse könnte sein, dass im Verfahren der Standardisierung die Möglichkeit qualitativer Differenzierung von Episodischen und Generalisierendem verloren geht. Darüberhinaus besteht auch die Gefahr, dass durch die Erfassung der Daten im Prozess der Digitalisierung die alten Wissensspeicher - wie bspw. Lexika der Wörter, Begriffe, Metaphern, Kompendien systematischer und historischer Fragen an die Philosophiegeschichte - für obsolet erklärt werden und die Suggestion der für sich selbst sprechenden Daten (der alte "Mythos der Gegebenheit") sich festsetzt. Um hier Klarheit zu schaffen, sollte es als eine dringliche Aufgabe markiert werden, einen Weg zu finden, die alten und die neuen Werkzeuge zu kombinieren und andere Methoden, eventuell verscuhsweise Hybrid-Methoden zu entwickeln. So ist davon auszugehen, dass bspw. ein Historisches Wörterbuch der Philosophie (Erstauflage in den 1970er Jahren) für eine Neubearbeitung seinen Werkzeugkasten neu bestücken wird. Was das heißt und wie unsere Forschung als historisch arbeitende Geisteswissenschaftler*innen nicht nur in der Philosophie, sondern auch in den benachbarten Wissensdisziplinen aussehen wird, vor welchen Herausforderungen/ Möglichkeiten wir stehen und wie ein angemessener hermeneutischer Zugriff auf die digitalisierten Datenmengen (for Memory!) aussehen kann, darüber sollte eine Debatte stattfinden.

Posted on

91 Im Forschungsverbund – Der steinige Weg zum Geodaten-Repositorium

< Back to problem stories

Als An-Institut einer Universität sind wir Akteur in einem langhin etablierten Verbund unabhängiger Projekte der Grundlagenforschung, die zum Nutzen der interdisziplinären Städteforschung historisches Kartenmaterial edieren. Nach wie vor sind Printprodukte der traditionelle Output. Inzwischen aber haben sich Geoinformationssysteme (GIS) in den benachbarten Arbeitsbereichen Geografie und Archäologie so weit durchgesetzt, dass die Umstellung der Projektarbeiten von konventioneller Zeichensoftware hin zu GIS der nächste logische Schritt war, zumal dies auch eine Ausgangsbasis dafür bot, online die Verbreitung der Arbeitsergebnisse aus den Projekten zu verbessern. Bei der Koordinierung dieses Übergangsprozesses innerhalb des Forschungsverbundes, die bei uns im Haus erfolgt, treten für die internationale Scientific Community vielfältige Herausforderungen zutage. Während verschiedene Projekte in experimentellen Schritten die Datenproduktion erfolgreich auf Geodaten umgestellt und in Workshops ihre Ergebnisse verglichen haben, ist deutlich geworden, dass die anfänglichen ‚handwerklichen‘ Startschwierigkeiten (Knowhow, User Skills) tieferliegende, wissenschaftliche Probleme überdeckten. Unser Ziel der Schaffung eines domänenspezifischen (aber disziplinenübergreifenden) Forschungsdaten-Repositoriums für die Dissemination der Projektgeodaten, verstärkt dies noch. Einerseits ist der Schritt hin zu einem ‚Forschungsdatenbewusstsein‘ in der Scientific Community und zu einer Kultur, die neben der Datenproduktion auch die Bereitstellung der Basisdaten für die interdisziplinäre, länderübergreifende und vergleichende Forschung mitplant, größer als gedacht. Andererseits macht sich der Mangel an Standards für die Produktion und Verwendung von Geodaten in den Geschichtswissenschaften bemerkbar. Auch in diesem ‚Digital Turn‘, der primär die Historischen Grundwissenschaften Kartografie und Geografie tangiert, mündet die Quellenproblematik (Uneinheitlichkeit der Quellenüberlieferung, Uneindeutigkeit der Quellenbefunde) direkt in eine Datenproblematik. Etablierte Metadatenstandards müssen zudem für Geodaten mit historischem Bezug angepasst werden. Die Schaffung einer gemeinsamen Ontologie in einem angeschlossenen Forschungsprojekt steht vor eigenen inhaltlichen Herausforderungen. Letztlich wird ihre Verwendung im Repositorium dabei helfen, die Vergleichbarkeit der Daten über Disziplinen- und Ländergrenzen hinweg herzustellen, jedoch ist ihre Berücksichtigung im Workflow der Datenproduktion innerhalb der einzelnen Projekte eine weitere Hürde.

Posted on

90 Grenzen des Machbaren

< Back to problem stories

WissenschaftlerInnen kennen das Problem, nicht aufhören zu können, aus vielen Bereichen: Wann ist ein Buch abgeschlossen? Wann ist genügend Literatur recherchiert? Wann ist der letzte Wörterbuchbeleg gefunden? Beim Aufbau digitaler Ressourcen stellt sich dieses Problem nicht anders, aber besonders. Ich arbeite in einem Projekt, das kodikologische Basisdaten sammelt. Doch was sind Basisdaten? Gehören Wasserzeichen, Provenienz, Illustrationsbeschreibungen dazu? Die potentielle Menge des Verzettelbaren ist scheinbar unbegrenzt. Dass damit weder dem Projekt noch den Benutzern ein Gefallen getan ist, weiß man zwar, doch die reine Möglichkeit verleiht den Handlungsdruck, immer weitere Daten aufzunehmen. TEI-BenutzerInnen werden das Problem ebenso kennen: Wie tief findet die Auszeichnung statt? Die Möglichkeit gewinnt den Charakter eines Wettlaufs von Hase und Igel. Man kommt nie hinterher, egal wie sehr man sich bemüht. Handelt es sich nur um ein psychisches Problem (der "geile Drang auf große Ganze", wie Benjamin sagte) oder um ein systembedingtes, dem auch mit klareren Prozessen beizukommen wäre?

Posted on

86 Probleme ohne Datenmanagementplan

< Back to problem stories

Ich koordiniere ein anderthalbjähriges audiovisuelles Zeitzeugenprojekt, angesiedelt an der Sächsischen Akademie der Wissenschaften, in Kooperation mit der Humboldt Universität zu Berlin. Das Projekt wird durch Bund und Länder gefördert: Thüringen, Sachsen und die Wismut GmbH, die ihre Gelder durch das BMWi erhält. Laut Antrag beinhaltet das Vorhaben, 50 Zeitzeugeninterviews zu führen, diese filmisch zu dokumentieren, anschließend zu transkribieren, zu verschlagworten und sowohl für eine (Langzeit)archivierung bereitzustellen als auch in eine noch aufzubauende Datenbank zu integrieren. Ein Zeitzeugenprojekt mit diesem Umfang benötigt ein Team, um es im Rahmen der vorgegebenen Zeit umzusetzen. Bisher besteht unsere Projektgruppe lediglich aus zwei Mitarbeitern. Diese „dünne Personaldecke“ ist dem Umstand geschuldet, dass wir als Projektgruppe seit sechs Monaten die Zusicherung der Förderung des BMWi zwar haben, aber bis heute kein Geld geflossen ist. Zudem erwartet das BMWi, die Zahl der zu führenden Interviews auf eine unbestimmte Zahl zu erhöhen. Es sind kaum 50 qualitative Interviews in einem Jahr schaffbar, geschweige denn die erweiterte. Der Aufbau der Datenbank, das Frontend, und die Langzeitarchivierung der großen Datenmenge sollten über die Sächsische Akademie (SAW) organisiert werden, um die Nachhaltigkeit des Projektes zu sichern. Erst nach Beginn des Projekts wurde deutlich, dass die SAW keine Kapazitäten dafür hat. Wir einigten uns auf einen Prototyp der Datenbank mit einem entsprechenden Frontend, das in Folgeprojekte münden und ausgearbeitet werden soll. Doch bleibt die Befürchtung, dass wir Daten produzieren, die in Vergessenheit geraten. Bei einem Projekt, in das mehrere erfahrene Institutionen involviert sind, hätte ich mehr Kommunikation und Unterstützung, zum Beispiel im Vorfeld für das Erstellen eines Datenmanagementplanes erwartet, das uns sicher vor einigen Problemen bewahrt hätte. Beispielsweise hätten wir mit einem DMP die juristische Komplexität, sowie die logistische und finanzielle Herausforderung einer Langzeitarchivierung erkennen und klären können. Wir stehen nun vor der Aufgabe, uns zusätzlich in neue Themenfelder einzuarbeiten, obwohl unsere finanziellen und personellen Kapazitäten dafür nicht vorhanden sind.

Posted on

84 Forschungsdaten als Vertrauenssache

< Back to problem stories

Als Leiter des Programmbereichs Forschungsinfrastrukturen an einem zeithistorischen Forschungsinstitut bin ich auf verschiedenen Ebenen mit den Bedürfnissen der Forschenden hinsichtlich Archivierung, Erschließung und Bereitstellung, der von ihnen produzierten Forschungsdaten, aber auch gleichzeitig auch mit einer ganzen Reihe von Unsicherheiten und Befürchtungen konfrontiert. Beim Aufbau eines institutsweiten Verfahrens und Regelsystem für den Umgang mit Forschungsdaten haben sich folgende Probleme gezeigt, die für den Aufbau übergreifender Infrastrukturen von Bedeutung sind: 1. Forschungsdaten sind eine "Vertrauenssache" und ein Feld von hoher Sensibilität für die Forschenden. Gegenüber forschungsfernen zentralen Infrastrukturen gibt es daher zahlreiche Vorbehalte, die durch intermediäre Strukturen des Datenmanagements aufgefangen werden müssen 2. Forschungsdatenmanagement setzt einen Kulturwandel in der Disziplin voraus. Wer seine Daten erschließt, archiviert und zur Nachnutzung bereitstellt muss daraus fachlichen Reputationsgewinn ziehen können. 3. Als Praxis muss Forschungsdatenmanagement bereits von Anfang an in den Prozess der Projektbearbeitung implementiert werden. Entsprechende Infrastrukturen sollten als Arbeitsumgebung funktionieren und Werkzeuge für die Bearbeitung der Daten bereitstellen. 4. Es müssen fachliche Standards für die Qualität von Forschungsdatensammlungen etabliert werden und ein Instrumentarium für die fachliche Kritik solcher Ergebnisformen etabliert werden ("H-Soz-Kult für Forschungsdaten") 5. Bislang fehlt es in den meisten Einrichtungen an Personal und Ressourcen für das Forschungsdatenmanagement. Neben dem Aufbau einer nationalen Infrastruktur muss diese Aufgaben in den Bereichen vor Ort als Feld fachlicher Wertschätzung und strategische Aufgabe etabliert werden, wofür entsprechende Ressourcen bereitgestellt werden. 6. Um eine Kultur im Umgang mit Forschungsdaten zu etablieren braucht es neben der zentralen Infrastruktur fachdisziplinbezogenen Wissensplattformen mit Tutorials, Ratgebern, Musterverträgen und Best-Practice Beispielen. Dazu sollten die etablierten Plattformen der Fachinformation und -Kommunikation weiterentwickelt werden 7. Es bedarf einer Aufklärungskampagne über Fragen des Datenschutzes bei Forschungsdaten, die Rechtssicherheit etablieren hilft. Auch dies eine Aufgabe für Data Culture

Posted on