datareuse

95 Suchen von digitalisierten Zeitungen und Zeitschriften

< Back to problem stories

Ich beschäftige mich mit Schriftstellerinnen um 1820 und recherchiere nach Artikeln dieser Frauen in Zeitungen und Zeitschriften. Bibliotheken bieten ihre digitalisierten Bestände auf eigenen Plattformen an. Als Bibliothekarin verstehe ich die Angebote, als Forschende habe ich jedoch eine andere Sicht. Bibliothekssicht: Wir bieten eine einfache Suche und eine erweiterte Suche auf unserer Plattform. Forschende: Ich suche eher bei https://de.wikisource.org, welches Heft, welche Ausgabe digitalisiert vorliegt. Dann erst betrete ich das digitale Angebot einer Bibliothek. Der Ansatz von Bibliotheken nun häuserübergreifende digitale Plattformen für Zeitungen und Zeitschriften aufzubauen, scheint seltsam, da es dieses Angebot mit wikisource eigentlich bereits gibt. Hilfreich wäre es, sie würden ihre Daten dort einpflegen.

Posted on

91 Im Forschungsverbund – Der steinige Weg zum Geodaten-Repositorium

< Back to problem stories

Als An-Institut einer Universität sind wir Akteur in einem langhin etablierten Verbund unabhängiger Projekte der Grundlagenforschung, die zum Nutzen der interdisziplinären Städteforschung historisches Kartenmaterial edieren. Nach wie vor sind Printprodukte der traditionelle Output. Inzwischen aber haben sich Geoinformationssysteme (GIS) in den benachbarten Arbeitsbereichen Geografie und Archäologie so weit durchgesetzt, dass die Umstellung der Projektarbeiten von konventioneller Zeichensoftware hin zu GIS der nächste logische Schritt war, zumal dies auch eine Ausgangsbasis dafür bot, online die Verbreitung der Arbeitsergebnisse aus den Projekten zu verbessern. Bei der Koordinierung dieses Übergangsprozesses innerhalb des Forschungsverbundes, die bei uns im Haus erfolgt, treten für die internationale Scientific Community vielfältige Herausforderungen zutage. Während verschiedene Projekte in experimentellen Schritten die Datenproduktion erfolgreich auf Geodaten umgestellt und in Workshops ihre Ergebnisse verglichen haben, ist deutlich geworden, dass die anfänglichen ‚handwerklichen‘ Startschwierigkeiten (Knowhow, User Skills) tieferliegende, wissenschaftliche Probleme überdeckten. Unser Ziel der Schaffung eines domänenspezifischen (aber disziplinenübergreifenden) Forschungsdaten-Repositoriums für die Dissemination der Projektgeodaten, verstärkt dies noch. Einerseits ist der Schritt hin zu einem ‚Forschungsdatenbewusstsein‘ in der Scientific Community und zu einer Kultur, die neben der Datenproduktion auch die Bereitstellung der Basisdaten für die interdisziplinäre, länderübergreifende und vergleichende Forschung mitplant, größer als gedacht. Andererseits macht sich der Mangel an Standards für die Produktion und Verwendung von Geodaten in den Geschichtswissenschaften bemerkbar. Auch in diesem ‚Digital Turn‘, der primär die Historischen Grundwissenschaften Kartografie und Geografie tangiert, mündet die Quellenproblematik (Uneinheitlichkeit der Quellenüberlieferung, Uneindeutigkeit der Quellenbefunde) direkt in eine Datenproblematik. Etablierte Metadatenstandards müssen zudem für Geodaten mit historischem Bezug angepasst werden. Die Schaffung einer gemeinsamen Ontologie in einem angeschlossenen Forschungsprojekt steht vor eigenen inhaltlichen Herausforderungen. Letztlich wird ihre Verwendung im Repositorium dabei helfen, die Vergleichbarkeit der Daten über Disziplinen- und Ländergrenzen hinweg herzustellen, jedoch ist ihre Berücksichtigung im Workflow der Datenproduktion innerhalb der einzelnen Projekte eine weitere Hürde.

Posted on

89 Thesaurus für ein Digitalisierungsprojekt

< Back to problem stories

Ein Digitalisierungsprojekt aus dem Bereich deutsch-jüdische Geschichte möchte die von ihm erschlossenen Quellen nicht nur chronologisch (Entstehungsdatum) und räumlich (Entstehungsort) sondern über die darin erwähnten Personen und Geografika hinaus auch thematisch einordnen. Dabei stellt sich die Frage nach einer passenden Systematik. Universalklassifikationen wie etwa die Dewey Decimal Classification erweisen sich als zu grob, um wichtige Themen im Quellenbestand wie z.B. die Hachschara (Vorbereitung auf die Auswanderung nach Palästina) zu erfassen. Solch passgenauen Sachbegriffe bietet umgekehrt die GND, allerdings nicht in Form eines hierarchischen Thesaurus. Für ein Online-Angebot bietet sich aber eine Baumstruktur an, da diese im Gegensatz zu einer flachen Verschlagwortung auch das hierarchische Browsing der Inhalte bzw. die schrittweise Facettierung von Suchergebnissen unterstützt. Für die erfolgreiche Projektdurchführung mit einer geeigneten Nutzerführung, zur Vermeidung von Doppelspurigkeiten und im Rahmen einer späterere Integration unserer Projektergebnisse in größere Quellenportale wie etwa die DDB oder die Europeana bräuchten wir Unterstützung bei den folgenden Fragen: • Gibt es evtl. Vorarbeiten von anderen Institutionen, an die wir anknüpfen können? Wie können wir umgekehrt unsere Klassifikationen zur Weiternutzung anbieten? • Wie strukturen wir unsere Metadaten, damit die von uns vergebenen Klassifikatoren ohne aufwändiges Mapping in bestehende oder neue Verbundangebote integriert werden können? • Wie gehen wir mit fehlenden Begriffen um? Wie kann sichergestellt werden, dass diese in bestehende Normdatenbestände wie die GND einfließen können? • Könnte ein Projekt aus dem Museumsbereich wie digiCULT x-tree (https://www.digicult-verbund.de/de/digicultxtree) mit dem bestehenden Vokabular in einer Datenbank zusammengeführt werden, ein Vorbild sein oder gar eine Ausgangsbasis bilden?

Posted on

87 Probleme bei Erfassung und Verarbeitung historischer Datumsangaben

< Back to problem stories

Das Entstehungsdatum einer Quelle anzugeben, ist nicht einfach, denn es ist nicht immer direkt auf Quellen verzeichnet. So hat man ggf. kein exaktes Tagesdatum, kann dieses nur aus Kontexten erschließen (z.B. aus Ereignis- oder Feiertagsangaben) oder nur anmerken, dass es um, vor oder nach einem anderen Datum entstanden ist. So können manchmal nur Jahreszahlen oder Monate angeben werden, ggf. mit einer zusätzlichen Angabe wie Anfang, Mitte oder Ende des Zeitraums, den man erschlossen hat. Datenbanken auf der anderen Seite erfordern ein exaktes Datum in der Form JJJJ-MM-TT. Nur dann können diese Daten weiterverarbeitet und z.B. für Suchzugriffe oder Sortieralgorithmen genutzt werden. Ein weiteres Problem ist, dass Standardisierungen nicht auf historische Belange angepasst sind. Die Unixzeit, die jedes Datum in Sekunden ab dem 1. Januar 1970 umrechnet, wird von vielen Computerprogrammen zur Datumsberechnungen verwendet. In der Microsoft-Welt werden alle Daten ab dem 1. Januar 1900 unterstützt. Die Norm ISO 8601 gilt nur für Daten ab 15. Oktober 1582. Für Daten davor müssen die Austauschpartner weitere Vereinbarung untereinander treffen (z.B. für v.Chr. ein Minus vor der Jahreszahl). Die Problematik des Jahres Null stellt für Computerverarbeitung ein weiteres Hürde dar. Die Eingabe ungenauer oder erschlossener Daten ist eigentlich nicht vorgesehen. Meistens wird es durch die Eingabe mehrerer Daten (z.B. weiteres Feld für Sortierdatum oder Angabe eines Zeitraums) und weiterer Felder, mit denen man die Art bzw. Qualität der Daten angibt (erschlossen, wahrscheinlich, etc.), umgangen. Dies ist aber individuell in Softwaren oder durch Datenmodelle festgelegt und kann dann nur schwer und nicht ohne weitere Absprache/Anpassungen in der digitalen Welt ausgetauscht werden. Auch besteht die Gefahr, dass das maschinenlesbare Datum, das nur aus Sortier- oder Verarbeitungszweck dem Digitalisat mitgegeben wurde, zum "eigentlichen" Datum der Quelle mutiert, da dieses Datum digital gelesen und verarbeitet werden kann.

Posted on

85 Integration und Veröffentlichung von örtlichen Forschungen zur Familiengeschichte auf regionaler Ebene

< Back to problem stories

Im Rahmen der Familienforschung werden seit mehr als 80 Jahren u.a. von der Upstalsboom – Gesellschaft für historische Personenforschung und Bevölkerungsgeschichte in Ostfriesland e. V. (UG) Ortssippenbücher und Ortsfamilienbücher erstellt. Sie enthalten die Daten der Familienstammbäume der jeweiligen Kirchengemeinden einzelner Orte oder Familien. Diese werden mit Hilfe von Kirchenbüchern, standesamtlichen Unterlagen oder ähnlichen Primärquellen erstellt. Zurzeit sind von der UG 106 Ortssippenbücher, vier Familienbücher sowie dreiundzwanzig Bücher zur Familienkunde erstellt worden. Pro Jahr kommen drei bis fünf neue hinzu. Auch andere genealogische Vereinigungen erstellen Ortssippenbücher und Ortsfamilienbücher. Seit mehreren Jahren werden auch viele Informationssammlungen im Internet von vielen Autoren bereitgestellt. Diese stehen jede für sich und die Validität ist meist nicht zu beurteilen. Daher bleibt die klassische Suche in Archiven nach Primärdokumenten. Um eine Abstimmung von Personendaten zu erreichen, sollten die Forschungsdaten, versehen mit Referenzen auf Primärdokumente, untereinander vernetzt im Internet zu Verfügung werden. Beispiel hierfür wäre „WieWasWie-Everyone has a history“ (https://www.wiewaswie.nl). Hierzu wäre eine koordinierende und administrierende Person als Ansprechpartner sehr wichtig, ergänzt um FAQs im Internet. Den Autoren sollten Werkzeuge zur Unterstützung der Integration bereitgestellt werden. Diese Integration bedarf einer ständigen Überwachung sowie einer Dokumentation, die z. B. tote Punkte der jeweiligen Person, unscharfe Dokumentationen sowie Randunterschärfe der Datenwolke festhält. Weiter wäre es sinnvoll, Unterstützung bereit zu stellen, um vorhandene Primärdokumente, wie z.B. Archivmaterialien, Ortssippenbücher und Ortsfamilienbücher, zu digitalisieren und mit den anderen Daten validiert zu integrieren.

Posted on

84 Forschungsdaten als Vertrauenssache

< Back to problem stories

Als Leiter des Programmbereichs Forschungsinfrastrukturen an einem zeithistorischen Forschungsinstitut bin ich auf verschiedenen Ebenen mit den Bedürfnissen der Forschenden hinsichtlich Archivierung, Erschließung und Bereitstellung, der von ihnen produzierten Forschungsdaten, aber auch gleichzeitig auch mit einer ganzen Reihe von Unsicherheiten und Befürchtungen konfrontiert. Beim Aufbau eines institutsweiten Verfahrens und Regelsystem für den Umgang mit Forschungsdaten haben sich folgende Probleme gezeigt, die für den Aufbau übergreifender Infrastrukturen von Bedeutung sind: 1. Forschungsdaten sind eine "Vertrauenssache" und ein Feld von hoher Sensibilität für die Forschenden. Gegenüber forschungsfernen zentralen Infrastrukturen gibt es daher zahlreiche Vorbehalte, die durch intermediäre Strukturen des Datenmanagements aufgefangen werden müssen 2. Forschungsdatenmanagement setzt einen Kulturwandel in der Disziplin voraus. Wer seine Daten erschließt, archiviert und zur Nachnutzung bereitstellt muss daraus fachlichen Reputationsgewinn ziehen können. 3. Als Praxis muss Forschungsdatenmanagement bereits von Anfang an in den Prozess der Projektbearbeitung implementiert werden. Entsprechende Infrastrukturen sollten als Arbeitsumgebung funktionieren und Werkzeuge für die Bearbeitung der Daten bereitstellen. 4. Es müssen fachliche Standards für die Qualität von Forschungsdatensammlungen etabliert werden und ein Instrumentarium für die fachliche Kritik solcher Ergebnisformen etabliert werden ("H-Soz-Kult für Forschungsdaten") 5. Bislang fehlt es in den meisten Einrichtungen an Personal und Ressourcen für das Forschungsdatenmanagement. Neben dem Aufbau einer nationalen Infrastruktur muss diese Aufgaben in den Bereichen vor Ort als Feld fachlicher Wertschätzung und strategische Aufgabe etabliert werden, wofür entsprechende Ressourcen bereitgestellt werden. 6. Um eine Kultur im Umgang mit Forschungsdaten zu etablieren braucht es neben der zentralen Infrastruktur fachdisziplinbezogenen Wissensplattformen mit Tutorials, Ratgebern, Musterverträgen und Best-Practice Beispielen. Dazu sollten die etablierten Plattformen der Fachinformation und -Kommunikation weiterentwickelt werden 7. Es bedarf einer Aufklärungskampagne über Fragen des Datenschutzes bei Forschungsdaten, die Rechtssicherheit etablieren hilft. Auch dies eine Aufgabe für Data Culture

Posted on

82 Interviews aus Forschungsprojekt als Forschungsdaten archivieren

< Back to problem stories

Als verantwortlicher Datenkurator bin ich in einem zeithistorischen Forschungsprojekts dafür verantwortlich die im Rahmen der Einzelstudien entstehenden Interviews zu archivieren und nach Möglichkeit digital für die Nachnutzung bereitzustellen. Im Bereich der Geschichtswissenschaft ist die Nachnutzung von Interviews eher ungewöhnlich. Einerseits ist vielen schwer vorstellbar, dass Interviews außerhalb des eigenen Forschungskontext bzw. der ursprünglichen Forschungsfrage einen wissenschaftlichen Wert besitzen. Andererseits besteht die Befürchtung, die Nachnutzung den Interviewten und dem zu ihnen entwickelten Vertrauensverhältnis nicht gerecht wird. Schließlich gibt es die durchaus berechtigte Sorge, durch das Offenlegen des gesamten Interviews inkl. der eigenen vielleicht auch naiven oder ungelenken Fragen, angreifbar zu werden. Diese Vorstellungen und Vorbehalte äußern sich auf verschiedenen Ebenen: 1. Massive Befürchtungen, dass die Interviewten gar nicht mehr zum Interview bereit sind, wenn man auch die Möglichkeit der Nachnutzung mit anspricht. 2. Vorbehalte durch eine entsprechende Lizenzierung die gemachten Interviews nach der Veröffentlichung der eigenen Studie zugänglich zu machen. 3. Die mit einer Archivierung verbundenen Anforderungen werden als Mehrarbeit/-belastung wahrgenommen, von der der/die jeweilige Forschende nichts hat. 4. Jenseits von technischen, Orts- und Zeitangaben nur wenige Standardvokabularien für zeithistorische Themen vorhanden. Um diesen und anderen Vorbehalten zu begegnen sehe ich verschiedene Ansatzpunkte: 1. Eine Wissensplattform auf der technische und methodische Hinweise sowie best-practice Erfahrungsberichte für zeitgeschichtliche Interviews und deren Nachnutzung gebündelt sind. 2. Die Weiterentwicklung der Wissenschaftskultur einer verantwortungsvollen Nachnutzung von zeithistorischen Interviews. 3. Idealerweise die für eine Langzeitarchivierung nötige Erfassung und Aufbereitung von Metadaten und Ton-/Bildaufnahmen auf einer Online-Plattform so implementieren, dass dieser Schritt auch für das eigene Forschungsvorhaben und die eigene Transkription/Annotation des Materials hilfreich ist. Die Mehrarbeit also durch einen sofortigen Mehrwert aufgewogen wird. Die zunächst nur im Forschungskontext sichtbaren Materialien könnten dann später leicht öffentlich zugänglich gemacht werden.

Posted on

81 Nachnutzung von zeitgeschichtlichen Interviews

< Back to problem stories

Zu einem zeitgeschichtlichen Thema wurden in den letzten Jahrzehnten viele Interviews im Rahmen von wissenschaftlichen Arbeiten zum Thema geführt. Ich würde gerne diese Interviews mit dem heutigen zeitlichen Abstand darauf untersuchen, welchen Einfluss sie auf die allgemeine Wahrnehmung des Gegenstands ausgeübt haben und wie der jeweilige zeitgeschichtliche Kontext der Interviewsituation sich in dieser und den (nicht) gestellten Fragen niedergeschlagen hat. Leider gibt es keine zentrale Stelle, an der solche Interviews verzeichnet sind, geschweige denn ein zentrales oder auch virtuelles Archiv. Viele Interviews sind in privaten Regalen der Forschenden oder kaum erschlossen an den beteiligten Institutionen gelagert, andere finden sich verteilt über verschiedene Archive. Manche Originalaufnahmen sind nicht mehr existent. In den seltensten Fällen ist die Frage der Nachnutzung rechtlich eindeutig geklärt. Oft hängt die Möglichkeit der Nachnutzung an persönlichen oder institutionellen Beziehungen und dem Vertrauen der Urheber*innen in die Nachnutzenden. Um die Ausgangssituation für solche Fragestellungen zu verbessern, sehe ich verschiedene Ansatzpunkte: 1. Ein Archivübergreifendes digitales Verzeichnis von Interviews, das die Auffindbarkeit verbessert. Vorhaben wie das DFG Projekt „Oral History digital“ mit dem das ZZF kooperiert sollten deshalb unbedingt in den NFDI-Prozess einbezogen werden. 2. Ein vereinheitlichtes Set von Metadaten, um die Recherche über Archivgrenzen hinweg zu vereinfachen. 3. Archivierungsangebote für einzelne Forschende und kleinere Institutionen, die eine angemessene Archivierung inkl. Aufbereitung des Materials für die Archivierung nicht selber leisten können. 4. Vorlagen für rechtliche Erklärungen (Einverständniserklärung,…), die auch die Möglichkeit der Nachnutzung einbeziehen und für alle Seiten transparent und praktikabel regeln. 5. Eine Debatte um den Wert von Interviews über den eigenen Forschungskontext hinaus als originäre Forschungsdaten. 6. Die Entwicklung einer Wissenschaftskultur der verantwortlichen Nachnutzung, die berücksichtigt, dass a) ein Interview nur auf Grundlage einer Vertrauensbeziehung zwischen Interviewenden und Interviewten entstanden ist und dieses Vertrauen nicht einfach übertragbar ist. b) ein Interview auch viel über den/die Forschende verrät und damit verletzbar/angreifbar macht.

Posted on

80 Zusammenhang und Trennschärfe zwischen Forschungsdaten und Objektdigitalisaten in einer kulturhistorischen Sammlung

< Back to problem stories

Unsere Einrichtung verfügt über eine große und thematisch breit gefächerte Sammlung historischer Objekte, die zugleich Grundlage der Forschungsarbeit unserer Wissenschaftler*innen ist. Die (z.T. dreidimensionale) Digitalisierung von Objekten zu Zwecken der Dokumentation, wissenschaftlichen Verfügbarmachung und nicht zuletzt auch zur Publikumsansprache gehört ebenso zu unserem wachsenden Aufgabenprofil wie diese objektbezogene Forschung. Dies wirft für mich, der ich den Aufbau entsprechender personeller und technischer Infrastrukturen betreue, Fragen danach auf, wo genau hier die Grenze des Begriffs ‚Forschungsdaten‘ zu ziehen ist: Sind z.B. die ‚bloßen‘ Digitalisate schon Forschungsdaten? Falls nicht, wie gehen wir mit dem Umstand um, dass die ‚tatsächlichen‘ Forschungsdaten sehr oft nur im direkten Zusammenhang mit den Digitalisaten interpretierbar sind? Hier sind technische Lösungen unabdingbar, die z.B. die Einbindung von (teils sehr großen) 3D-Modellen in digitale Forschungsumgebungen ermöglichen und die so m.E. nicht von Einzelinstitutionen entwickelt werden können.

Posted on

75 Sicherung und Aktualisierung von „älteren“ Datenbanken

< Back to problem stories

Vor gut 20 Jahren wurden in einem Forschungsprojekt sämtliche Vorstände und Aufsichtsräte deutscher Unternehmen der Jahre 1906, 1927, 1932, 1933 und 1954 in einer Datenbank erfasst. Das Ziel war es, wirtschaftliche und familiäre Vernetzung zu ermitteln und die Struktur der Wirtschaftselite in den Umbruchzeiten zu analysieren. Als Quelle standen die Handbücher der deutschen Aktiengesellschaften in mehreren Ausgaben zur Verfügung. Die Angaben wurden per Hand in eine „Filemaker“-Datenbank eingetragen. Im Laufe der Jahre musste die Datenbank mehrfach in gängigere Formate konvertiert werden, um sie les- und bearbeitbar zu halten. Im Zuge dessen ergaben sich entsprechende Übertragungsprobleme. In diesem Kontext ergeben sich folgende Fragen: a) Wir kann die dauerhafte Sicherung und Aktualisierung von älteren Datenbanken garantiert werden? Sollte es Software-Vorgaben bzw. Empfehlungen geben, um die Daten langfristig nutzbar zu halten? b) Bei der Eingabe der Daten wurden bestimmte Schlagwörter und Abkürzungen z.B. für Berufsbezeichnungen oder Titel vergeben. Es wäre sicher sinnvoll, solche Zuordnungen von Angaben zu Personen nach einem gemeinsamen Standard vorzunehmen, um die spätere Metasuche zu erleichtern. Wie kann dies gelingen?

Posted on