Task Area 2

R:hovono – Register für historische und objektbezogene Vokabulare und Normdaten

Der erste Meilenstein ist erreicht: Unser gemeinsames Register “R:hovono” von NFDI4Memory & NFDI4Objects ist fertiggestellt! 

Was ist “R:hovono”?
Es ist ein Register für historische und objektbezogene Vokabulare und Normdaten, welches ein wichtiges Arbeitsinstrument für die geisteswissenschaftlich orientierten (Fach-)Communities werden soll. Es wurde gemeinsam von Arbeitsgruppen aus den Konsortien NFDI4Memory und NFDI4Objects als ein Tool für Lehrende, Forschende und Infrastrukturen entwickelt.

Die Entwicklung von Tools & Services ist zentraler Bestandteil der NFDI-Konsortien. Für unsere Community arbeiten wir in verschiedenen Task Areas fächerübergreifend daran, digitale Infrastrukturen und Dienste für unsere (Fach-)Communities bereitzustellen. Register wie “R:hovono” sind hier ein wichtiger erster Schritt.

Wie geht es weiter?
Als nächstes soll das Register mit Informationen zu Euren Normdaten und Vokabularen gefüllt werden. Dazu hat die Task Area 2 “Data Connectivity” von NFDI4Memory einen Erfassungsbogen mit LimeSurvey erstellt und eine RDF-Datenbank auf FactGRID eingerichtet. Die Benutzung des Registers und des Erfassungsbogens wird kommenden Dienstag, den 23. April 2024 von 12 - 14 Uhr über Zoom erklärt. Die Teilnahme ist kostenlos und bedarf keiner Anmeldung.

Hier gehts zum Zoom-Meeting: https://us02web.zoom.us/j/88652153479?pwd=c2V0Mjhubzd0enAzcGJFemp2cXVYQT09

Bei Fragen wendet Euch gerne per Mail an ta2-nfdi4memory@geschichte.uni-halle.de

Wir freuen uns über eine rege Teilnahme!


95 Suchen von digitalisierten Zeitungen und Zeitschriften

< Back to problem stories

Ich beschäftige mich mit Schriftstellerinnen um 1820 und recherchiere nach Artikeln dieser Frauen in Zeitungen und Zeitschriften. Bibliotheken bieten ihre digitalisierten Bestände auf eigenen Plattformen an. Als Bibliothekarin verstehe ich die Angebote, als Forschende habe ich jedoch eine andere Sicht. Bibliothekssicht: Wir bieten eine einfache Suche und eine erweiterte Suche auf unserer Plattform. Forschende: Ich suche eher bei https://de.wikisource.org, welches Heft, welche Ausgabe digitalisiert vorliegt. Dann erst betrete ich das digitale Angebot einer Bibliothek. Der Ansatz von Bibliotheken nun häuserübergreifende digitale Plattformen für Zeitungen und Zeitschriften aufzubauen, scheint seltsam, da es dieses Angebot mit wikisource eigentlich bereits gibt. Hilfreich wäre es, sie würden ihre Daten dort einpflegen.

Posted on

93 Wikidata-Abgleich

< Back to problem stories

Ein außeruniversitäres, landesfinanziertes Forschungsinstitut, dessen geschichtswissenschaftlichen Bereich ich leite, betreibt ein regionales Online-Datenportal mit mehreren thematischen Angeboten. Dazu gehört auch eine ortsgeschichtliche Datenbank, die ca. 6000 Siedlungen der Referenzregion mit thematisch geordneten Kerndaten ihrer Geschichte vom Mittelalter bis zu Gegenwart umfasst. Der in diesem digitalen historischen Ortsverzeichnis benutzte Code wurde mittlerweile als Eigenschaft in Wikidata angelegt und wird bei vielen Orten auch bereits benutzt. Wir unterstützen diese Verlinkung mit Wikidata und arbeiten aktiv daran mit, weil wir der Ansicht sind, dass Wikidata bei der digitalen Datenverwaltung weltweit eine Schlüsselposition gewonnen hat und, was von zunehmender Bedeutung ist, den automatischen Datenaustausch zwischen Datenbanken enorm erleichtert. Um gleichwohl auch einen von Wikidata unabhängigen Qualitätsmaßstab der eigenständig erhobenen Forschungsdaten zu wahren, halten wir es für sehr wichtig, ein Abgleichs-Tool zwischen den eigenen Daten und den Wikidata-Daten zur Verfügung zu haben und zu nutzen. Über unser eigenes Projekt hinaus entspricht ein solches Tool aus unserer Sicht den allgemeinen Zielen einer nationalen Dateninfrastruktur. Unsere Suche nach geeigneten Tools war bisher ergebnislos (Blocker). Wir haben die Hoffnung, dass die NFDI-Initiative mit ihrer Koordinations-Aufgabe bei der Etablierung von Standards in diesem Bereich eine zentrale Rolle spielen könnte.

Posted on

91 Im Forschungsverbund – Der steinige Weg zum Geodaten-Repositorium

< Back to problem stories

Als An-Institut einer Universität sind wir Akteur in einem langhin etablierten Verbund unabhängiger Projekte der Grundlagenforschung, die zum Nutzen der interdisziplinären Städteforschung historisches Kartenmaterial edieren. Nach wie vor sind Printprodukte der traditionelle Output. Inzwischen aber haben sich Geoinformationssysteme (GIS) in den benachbarten Arbeitsbereichen Geografie und Archäologie so weit durchgesetzt, dass die Umstellung der Projektarbeiten von konventioneller Zeichensoftware hin zu GIS der nächste logische Schritt war, zumal dies auch eine Ausgangsbasis dafür bot, online die Verbreitung der Arbeitsergebnisse aus den Projekten zu verbessern. Bei der Koordinierung dieses Übergangsprozesses innerhalb des Forschungsverbundes, die bei uns im Haus erfolgt, treten für die internationale Scientific Community vielfältige Herausforderungen zutage. Während verschiedene Projekte in experimentellen Schritten die Datenproduktion erfolgreich auf Geodaten umgestellt und in Workshops ihre Ergebnisse verglichen haben, ist deutlich geworden, dass die anfänglichen ‚handwerklichen‘ Startschwierigkeiten (Knowhow, User Skills) tieferliegende, wissenschaftliche Probleme überdeckten. Unser Ziel der Schaffung eines domänenspezifischen (aber disziplinenübergreifenden) Forschungsdaten-Repositoriums für die Dissemination der Projektgeodaten, verstärkt dies noch. Einerseits ist der Schritt hin zu einem ‚Forschungsdatenbewusstsein‘ in der Scientific Community und zu einer Kultur, die neben der Datenproduktion auch die Bereitstellung der Basisdaten für die interdisziplinäre, länderübergreifende und vergleichende Forschung mitplant, größer als gedacht. Andererseits macht sich der Mangel an Standards für die Produktion und Verwendung von Geodaten in den Geschichtswissenschaften bemerkbar. Auch in diesem ‚Digital Turn‘, der primär die Historischen Grundwissenschaften Kartografie und Geografie tangiert, mündet die Quellenproblematik (Uneinheitlichkeit der Quellenüberlieferung, Uneindeutigkeit der Quellenbefunde) direkt in eine Datenproblematik. Etablierte Metadatenstandards müssen zudem für Geodaten mit historischem Bezug angepasst werden. Die Schaffung einer gemeinsamen Ontologie in einem angeschlossenen Forschungsprojekt steht vor eigenen inhaltlichen Herausforderungen. Letztlich wird ihre Verwendung im Repositorium dabei helfen, die Vergleichbarkeit der Daten über Disziplinen- und Ländergrenzen hinweg herzustellen, jedoch ist ihre Berücksichtigung im Workflow der Datenproduktion innerhalb der einzelnen Projekte eine weitere Hürde.

Posted on

89 Thesaurus für ein Digitalisierungsprojekt

< Back to problem stories

Ein Digitalisierungsprojekt aus dem Bereich deutsch-jüdische Geschichte möchte die von ihm erschlossenen Quellen nicht nur chronologisch (Entstehungsdatum) und räumlich (Entstehungsort) sondern über die darin erwähnten Personen und Geografika hinaus auch thematisch einordnen. Dabei stellt sich die Frage nach einer passenden Systematik. Universalklassifikationen wie etwa die Dewey Decimal Classification erweisen sich als zu grob, um wichtige Themen im Quellenbestand wie z.B. die Hachschara (Vorbereitung auf die Auswanderung nach Palästina) zu erfassen. Solch passgenauen Sachbegriffe bietet umgekehrt die GND, allerdings nicht in Form eines hierarchischen Thesaurus. Für ein Online-Angebot bietet sich aber eine Baumstruktur an, da diese im Gegensatz zu einer flachen Verschlagwortung auch das hierarchische Browsing der Inhalte bzw. die schrittweise Facettierung von Suchergebnissen unterstützt. Für die erfolgreiche Projektdurchführung mit einer geeigneten Nutzerführung, zur Vermeidung von Doppelspurigkeiten und im Rahmen einer späterere Integration unserer Projektergebnisse in größere Quellenportale wie etwa die DDB oder die Europeana bräuchten wir Unterstützung bei den folgenden Fragen: • Gibt es evtl. Vorarbeiten von anderen Institutionen, an die wir anknüpfen können? Wie können wir umgekehrt unsere Klassifikationen zur Weiternutzung anbieten? • Wie strukturen wir unsere Metadaten, damit die von uns vergebenen Klassifikatoren ohne aufwändiges Mapping in bestehende oder neue Verbundangebote integriert werden können? • Wie gehen wir mit fehlenden Begriffen um? Wie kann sichergestellt werden, dass diese in bestehende Normdatenbestände wie die GND einfließen können? • Könnte ein Projekt aus dem Museumsbereich wie digiCULT x-tree (https://www.digicult-verbund.de/de/digicultxtree) mit dem bestehenden Vokabular in einer Datenbank zusammengeführt werden, ein Vorbild sein oder gar eine Ausgangsbasis bilden?

Posted on

85 Integration und Veröffentlichung von örtlichen Forschungen zur Familiengeschichte auf regionaler Ebene

< Back to problem stories

Im Rahmen der Familienforschung werden seit mehr als 80 Jahren u.a. von der Upstalsboom – Gesellschaft für historische Personenforschung und Bevölkerungsgeschichte in Ostfriesland e. V. (UG) Ortssippenbücher und Ortsfamilienbücher erstellt. Sie enthalten die Daten der Familienstammbäume der jeweiligen Kirchengemeinden einzelner Orte oder Familien. Diese werden mit Hilfe von Kirchenbüchern, standesamtlichen Unterlagen oder ähnlichen Primärquellen erstellt. Zurzeit sind von der UG 106 Ortssippenbücher, vier Familienbücher sowie dreiundzwanzig Bücher zur Familienkunde erstellt worden. Pro Jahr kommen drei bis fünf neue hinzu. Auch andere genealogische Vereinigungen erstellen Ortssippenbücher und Ortsfamilienbücher. Seit mehreren Jahren werden auch viele Informationssammlungen im Internet von vielen Autoren bereitgestellt. Diese stehen jede für sich und die Validität ist meist nicht zu beurteilen. Daher bleibt die klassische Suche in Archiven nach Primärdokumenten. Um eine Abstimmung von Personendaten zu erreichen, sollten die Forschungsdaten, versehen mit Referenzen auf Primärdokumente, untereinander vernetzt im Internet zu Verfügung werden. Beispiel hierfür wäre „WieWasWie-Everyone has a history“ (https://www.wiewaswie.nl). Hierzu wäre eine koordinierende und administrierende Person als Ansprechpartner sehr wichtig, ergänzt um FAQs im Internet. Den Autoren sollten Werkzeuge zur Unterstützung der Integration bereitgestellt werden. Diese Integration bedarf einer ständigen Überwachung sowie einer Dokumentation, die z. B. tote Punkte der jeweiligen Person, unscharfe Dokumentationen sowie Randunterschärfe der Datenwolke festhält. Weiter wäre es sinnvoll, Unterstützung bereit zu stellen, um vorhandene Primärdokumente, wie z.B. Archivmaterialien, Ortssippenbücher und Ortsfamilienbücher, zu digitalisieren und mit den anderen Daten validiert zu integrieren.

Posted on

84 Forschungsdaten als Vertrauenssache

< Back to problem stories

Als Leiter des Programmbereichs Forschungsinfrastrukturen an einem zeithistorischen Forschungsinstitut bin ich auf verschiedenen Ebenen mit den Bedürfnissen der Forschenden hinsichtlich Archivierung, Erschließung und Bereitstellung, der von ihnen produzierten Forschungsdaten, aber auch gleichzeitig auch mit einer ganzen Reihe von Unsicherheiten und Befürchtungen konfrontiert. Beim Aufbau eines institutsweiten Verfahrens und Regelsystem für den Umgang mit Forschungsdaten haben sich folgende Probleme gezeigt, die für den Aufbau übergreifender Infrastrukturen von Bedeutung sind: 1. Forschungsdaten sind eine "Vertrauenssache" und ein Feld von hoher Sensibilität für die Forschenden. Gegenüber forschungsfernen zentralen Infrastrukturen gibt es daher zahlreiche Vorbehalte, die durch intermediäre Strukturen des Datenmanagements aufgefangen werden müssen 2. Forschungsdatenmanagement setzt einen Kulturwandel in der Disziplin voraus. Wer seine Daten erschließt, archiviert und zur Nachnutzung bereitstellt muss daraus fachlichen Reputationsgewinn ziehen können. 3. Als Praxis muss Forschungsdatenmanagement bereits von Anfang an in den Prozess der Projektbearbeitung implementiert werden. Entsprechende Infrastrukturen sollten als Arbeitsumgebung funktionieren und Werkzeuge für die Bearbeitung der Daten bereitstellen. 4. Es müssen fachliche Standards für die Qualität von Forschungsdatensammlungen etabliert werden und ein Instrumentarium für die fachliche Kritik solcher Ergebnisformen etabliert werden ("H-Soz-Kult für Forschungsdaten") 5. Bislang fehlt es in den meisten Einrichtungen an Personal und Ressourcen für das Forschungsdatenmanagement. Neben dem Aufbau einer nationalen Infrastruktur muss diese Aufgaben in den Bereichen vor Ort als Feld fachlicher Wertschätzung und strategische Aufgabe etabliert werden, wofür entsprechende Ressourcen bereitgestellt werden. 6. Um eine Kultur im Umgang mit Forschungsdaten zu etablieren braucht es neben der zentralen Infrastruktur fachdisziplinbezogenen Wissensplattformen mit Tutorials, Ratgebern, Musterverträgen und Best-Practice Beispielen. Dazu sollten die etablierten Plattformen der Fachinformation und -Kommunikation weiterentwickelt werden 7. Es bedarf einer Aufklärungskampagne über Fragen des Datenschutzes bei Forschungsdaten, die Rechtssicherheit etablieren hilft. Auch dies eine Aufgabe für Data Culture

Posted on

82 Interviews aus Forschungsprojekt als Forschungsdaten archivieren

< Back to problem stories

Als verantwortlicher Datenkurator bin ich in einem zeithistorischen Forschungsprojekts dafür verantwortlich die im Rahmen der Einzelstudien entstehenden Interviews zu archivieren und nach Möglichkeit digital für die Nachnutzung bereitzustellen. Im Bereich der Geschichtswissenschaft ist die Nachnutzung von Interviews eher ungewöhnlich. Einerseits ist vielen schwer vorstellbar, dass Interviews außerhalb des eigenen Forschungskontext bzw. der ursprünglichen Forschungsfrage einen wissenschaftlichen Wert besitzen. Andererseits besteht die Befürchtung, die Nachnutzung den Interviewten und dem zu ihnen entwickelten Vertrauensverhältnis nicht gerecht wird. Schließlich gibt es die durchaus berechtigte Sorge, durch das Offenlegen des gesamten Interviews inkl. der eigenen vielleicht auch naiven oder ungelenken Fragen, angreifbar zu werden. Diese Vorstellungen und Vorbehalte äußern sich auf verschiedenen Ebenen: 1. Massive Befürchtungen, dass die Interviewten gar nicht mehr zum Interview bereit sind, wenn man auch die Möglichkeit der Nachnutzung mit anspricht. 2. Vorbehalte durch eine entsprechende Lizenzierung die gemachten Interviews nach der Veröffentlichung der eigenen Studie zugänglich zu machen. 3. Die mit einer Archivierung verbundenen Anforderungen werden als Mehrarbeit/-belastung wahrgenommen, von der der/die jeweilige Forschende nichts hat. 4. Jenseits von technischen, Orts- und Zeitangaben nur wenige Standardvokabularien für zeithistorische Themen vorhanden. Um diesen und anderen Vorbehalten zu begegnen sehe ich verschiedene Ansatzpunkte: 1. Eine Wissensplattform auf der technische und methodische Hinweise sowie best-practice Erfahrungsberichte für zeitgeschichtliche Interviews und deren Nachnutzung gebündelt sind. 2. Die Weiterentwicklung der Wissenschaftskultur einer verantwortungsvollen Nachnutzung von zeithistorischen Interviews. 3. Idealerweise die für eine Langzeitarchivierung nötige Erfassung und Aufbereitung von Metadaten und Ton-/Bildaufnahmen auf einer Online-Plattform so implementieren, dass dieser Schritt auch für das eigene Forschungsvorhaben und die eigene Transkription/Annotation des Materials hilfreich ist. Die Mehrarbeit also durch einen sofortigen Mehrwert aufgewogen wird. Die zunächst nur im Forschungskontext sichtbaren Materialien könnten dann später leicht öffentlich zugänglich gemacht werden.

Posted on

75 Sicherung und Aktualisierung von „älteren“ Datenbanken

< Back to problem stories

Vor gut 20 Jahren wurden in einem Forschungsprojekt sämtliche Vorstände und Aufsichtsräte deutscher Unternehmen der Jahre 1906, 1927, 1932, 1933 und 1954 in einer Datenbank erfasst. Das Ziel war es, wirtschaftliche und familiäre Vernetzung zu ermitteln und die Struktur der Wirtschaftselite in den Umbruchzeiten zu analysieren. Als Quelle standen die Handbücher der deutschen Aktiengesellschaften in mehreren Ausgaben zur Verfügung. Die Angaben wurden per Hand in eine „Filemaker“-Datenbank eingetragen. Im Laufe der Jahre musste die Datenbank mehrfach in gängigere Formate konvertiert werden, um sie les- und bearbeitbar zu halten. Im Zuge dessen ergaben sich entsprechende Übertragungsprobleme. In diesem Kontext ergeben sich folgende Fragen: a) Wir kann die dauerhafte Sicherung und Aktualisierung von älteren Datenbanken garantiert werden? Sollte es Software-Vorgaben bzw. Empfehlungen geben, um die Daten langfristig nutzbar zu halten? b) Bei der Eingabe der Daten wurden bestimmte Schlagwörter und Abkürzungen z.B. für Berufsbezeichnungen oder Titel vergeben. Es wäre sicher sinnvoll, solche Zuordnungen von Angaben zu Personen nach einem gemeinsamen Standard vorzunehmen, um die spätere Metasuche zu erleichtern. Wie kann dies gelingen?

Posted on

74 Kontrollierte Vokabulare und proprietäre Softwares

< Back to problem stories

Als Forschungseinrichtung müssen wir die Langzeitarchivierung der Forschungsdaten sichern aber sind von unseren proprietären Softwares auf verschiedenen Ebenen eingeschränkt. Zwar erlaubt unser Datenbanksystem die Daten laut verschiedenen Formaten (e.g. XML) und Schemata eines selben Formats (e.g. archivfachlichem XML-EAC) zu exportieren aber die innerhalb des Datenbanksystems bereits bestehenden Thesauri und Taxonomien können ohne (gebührenpflichtige) technische Betreuung nicht ausgeführt werden. Da die Migration aller Forschungsdaten zu einem neuen geeigneteren (Langzeitarchivierungs-)Gerät jedenfalls zeit-, arbeits- und kostenintensiv wäre, möchten wir dafür sorgen, dass nicht nur die Daten sondern auch die kontrollierten Vokabulare aufbewahrt werden sollen. Wie werden kontrollierte Vokabulare in den Geisteswissenschaften normgerecht freigemacht und langfristig archiviert?

Posted on