Data Connectivity
Die Task Area Data Connectivity schafft die Grundlage für eindeutige Datenbeschreibungen, die Verknüpfung von Normdaten, die Etablierung von Datenstandards sowie die Aggregation von Datenbeständen. Wir entwickeln damit eine wichtige Basis für die Datenkuration und Analyse, die webbasierte Datenverknüpfung (Linked Open Data) und die Auffindbarkeit von Daten. Dazu entstehen Empfehlungen und Richtlinien sowie Services und Dienste im Bereich von Forschungsdatenmanagement, Datenmatching, Qualitätssicherung und Datenkuration.
Die Task Area Data Connectivity verteilt sich auf die Bayerische Staatsbibliothek München und das Historische Datenzentrum Sachsen-Anhalt. Wir fördern Datenkuration sowie die Verknüpfung und Kontextualisierung von Daten im historischen Bereich mit Hilfe von Normdaten, Taxonomien, Metadaten und einer Ontologie. Damit legen wir die Grundlage für den NFDI4Memory Data Space und ermöglichen so Suche und Nutzung verschiedenster Datenbestände.
Wir legen den Grundstein für historisch sensible, eindeutige Datenbeschreibungen, die Integration von forschungsgeleiteter historischer Kategorisierung und Katalogisierung durch Archive, Bibliotheken und Museen sowie die Kontextualisierung innerhalb größerer Datenstrukturen. Die Entwicklung und Verbesserung von Autoritätsdateien, Taxonomien, Metadaten, Ontologien und APIs verstärkt die Verknüpfung von Forschungs-, Gedächtnisinstitutionen und Infrastrukturen über einen Wissensgraphen.
Bleiben Sie gezielt informiert und im Kontakt mit neuen Inhalten und dem Team der Task Area Data Connectivity:
Kontakt zur TA Data Connectivity am HistData
Kontakt zur TA Data Connectivity an der BSB
Anmeldung zur TA2-Mailinglist
Arbeitsprogramm
Wir analysieren bestehende kontrollierte Vokabulare für die langfristige Entwicklung von abgestuften Konzepten für Suchstrategien, Datenkuration, Datenverwertung und Qualitätsanforderungen. Dies gilt sowohl für den fachspezifischen Kontext von 4Memory als auch für interdisziplinäre und internationale Initiativen. Dabei berücksichtigt 4Memory kontrollierte Vokabulare und Normdaten, die historische Entitäten kontextualisieren. Mit dem Service R:hovono entsteht ein Register historischer und objektbezogener Vokabulare.
Data Connectivity vertieft die Arbeit durch vier Use Cases, die im Rahmen von Community-Meetings und Problem Stories ausgewählt wurden und verschiedene Akteure aus dem internationalen 4Memory-Netzwerk zusammenbringen. Sie umfassen Konzepte in verschiedenen historischen Perioden der Vormoderne (Netzwerk Jüdische Geschichte; Religiöse Vokabulare) und der Zeitgeschichte (Vokabular der Haftstätten des Nationalsozialismus) sowie historisch-geografische Daten und von Personendaten und Tätigkeiten.
Im Ergebnis der Use Cases (siehe Measure 1) konzipiert eine Arbeitsgruppe Empfehlungen zur Datenkuration historischer Daten und zur Integration von Normdaten. Hierfür werden Werkzeuge, Services und Beratungen entwickelt und angeboten. Eine GND-Agentur für „Geschichtswissenschaft, Normdaten und Datenkuration“ bündelt Initiativen der Gedächtniseinrichtungen und Fachwissenschaft und erarbeitet ein Konzept zur Empfehlung von fachspezifischen Normdaten. Ziel ist der Aufbau eines zweistufigen, verknüpften Netzes von persistent adressierbaren Normdatendaten (GND, Metadaten, Suche) in Relation zu sich dynamisch verändernden Analysewerkzeugen (Taxonomien, Ontologien, Kontextdaten). Der Ansatz adressiert ein wesentliches Ziel für die Produktion von FAIR-Daten, indem er Datentransparenz, Nachvollziehbarkeit und Kontextualisierung von der (analogen oder digitalen) Quelle bis zum nationalen/internationalen Normdatensatz aufrechterhält.
Measure 3 befasst sich mit der Konzeption, Planung und Vorbereitung/Entwicklung von Werkzeugen zur Datenkuratierung, inhaltlichen Qualitätsmessungen und automatisierten Erschließungen bzw. Anreicherung von Forschungsdaten (z.B. Definition von Wissensgraphen, Vorbereitung für das Semantic Web oder Kontextualisierung von Informationen) und schafft die Voraussetzungen für deren Realisierung in Begleitprojekten. Gemeinsam mit der Task Area Data Quality werden Kriterien eines abgestuften Qualitätsmodells für kontrollierte Vokabulare bestimmter historischer Teilbereiche entwickelt. Grundlegende Konzepte zur Normierung und Kontextualisierung von Daten sowie zu deren taxonomischer Aufbereitung werden einer Qualitätskontrolle unterzogen und für den Transfer in Tools und Schnittstellen vorbereitet.
Qualitativ hochwertige Metadaten sind zentral dafür, Forschungsdatensätze für die Nachnutzung zu finden. Daher liegt der Fokus der Arbeit in Measure 4 darauf, mit Hilfe verschiedener Maßnahmen, die Vergabe von Metadaten für Forschungsdaten in der Domäne der Geschichtswissenschaften zu verbessern. Hierzu wird unter anderem das weit verbreitete Datacite-Metadatenschema um fachspezifische Angaben erweitert und als Modell für die Nachnutzung in einschlägigen Forschungsdatenrepositorien empfohlen. Ebenso werden Richtlinien und Best Practices entwickelt, um die Vergabe von Metadaten zu harmonisieren, etwa mit Vorschlägen für die Erstellung eines hilfreichen Abstracts, zu Titelansetzungen, zur Methodenbeschreibung und den dafür notwendigen Workflows. Anhand der Deutschen Historischen Bibliographie (DHB) werden die verschiedenen Tätigkeiten in einem Use Case beispielhaft umgesetzt.
Für den in der Task Area Data Services entwickelten Data Space wird in Measure 5 die zu Grunde liegende Ontologie aus fachlicher Perspektive mitkonzipiert. Die Ontologie, welche in erster Linie dazu dient, unterschiedliche Datenbestände zusammenführen, hat vor allem die Aufgabe, Discovery und Retrieval der heterogenen Daten in einem Index zu strukturieren und so den Zugriff und die weitere Arbeit mit diesen für Historiker:innen zu vereinfachen. Zwei weitere wichtige Aspekt bei der Verknüpfung von verschiedenen Datenbeständen ist es, auf Fragen der Mehrsprachigkeit einzugehen und Empfehlungen hinsichtlich der Verwendung von Persitenten Identifikatoren auszusprechen.

