Task Area 2

29 Aufbau einer integrierten Datenbank zu familiären Beziehungen

< Back to problem stories

In unserem familienkundlichen Verein wird seit den 1990er Jahren immer wieder der Wunsch laut, dass eine gemeinsame Familiendatenbank aufgebaut wird, an der alle Mitglieder gleichzeitig mitarbeiten können. Ziel wäre es, dass eine Person jeweils nur einmal in der Datei auftaucht, und dass sowohl die Originalquellen (z.B. Kirchenbücher oder Volkszählungslisten) als auch die Kontaktdaten der Bearbeiter transparent angegeben werden. Grundlage wären nicht die laufenden, sondern die jeweils bereits abgeschlossenen Forschungen, wobei allerdings auch Datenbestände unterhalb der Ebene eines abgeschlossenen Ortsfamilienbuchs genutzt werden sollen. Gesucht werden erstens Verfahren der eindeutigen Identifikation von Personen über Normdaten, zweitens Verfahren und Standards der Datenkuratierung, drittens Techniken der Programmierung von Webinterfaces, die eine niederschwellige Pflege und Abfrage der Daten ermöglichen. Eine andere Variante dieser Problematik stellt sich dort, wo verschiedene regionale Familiendatenbanken bereits existieren und nicht von einem "Schwarm", sondern von Einzelnen verantwortet werden. Einer der beteiligten regionalen Vereine hat z.B. eine Familiendatenbank mit etwa einer halben Million Personendatensätzen erstellt, die ungefähr den Raum eines ganzen Bundeslandes für die Zeit ab ca. 1700 erfasst. Ein anderer Verein strebt an, einen an das niederländische (dort von einem Verbund von Archiven getragene) Portal https://www.wiewaswie.nl/en/ angelehnten Verbund aus bereits publizierten Ortsfamilienbüchern zu schaffen. Ein langfristiges Ziel des Vereins für Computergenealogie besteht darin, die für etwa 800 Orte separat geführten Online-Ortsfamilienbücher mit zusammen über 10 Millionen historischen Personendatensätzen untereinander zu verknüpfen. In jedem Fall stellt die Verknüpfung über Normdaten ein Problem dar, weil personenbezogene Normdaten erst über Verfahren der Record Linkage hergestellt werden müssen. Hier käme es darauf an, dass eine Best Practice zur Konstruktion personenbezogener Normdaten erarbeitet würde.

Posted on

22 Nutzung eines außerhalb der akademischen Forschung entwickelten Standards in der akademischen Forschung

< Back to problem stories

Unser bürgerwissenschaftlicher Verein hat ein Ortsverzeichnis entwickelt, das mit Bezug auf Deutschland und viele andere Länder Ortsnamen (in variierenden Schreibweisen), kirchliche und staatliche Zugehörigkeiten im Zeitverlauf sowie geographische Koordinaten erfasst. Die Abdeckung auf Ebene der Siedlungsplätze (also unterhalb der Gemeinden) beträgt für das späte Kaiserreich bereits etwa 80%. Das Verzeichnis liegt als Open Data vor und ist über einen Webservice abrufbar. Im bürgerwissenschaftlichen Bereich haben wir damit einen Standard gesetzt. Wie können wir erreichen, dass dieses System sich auch im akademischen Bereich als Standard etabliert?

Posted on

21 Georeferenzierung innovativer Regionen in den deutschen Staaten

< Back to problem stories

In einer Forschergruppe erheben wir Informationen zu den in den Deutschen Staaten erteilten Patenten im Zeitraum 1840-1877. Die Daten erhalten reichhaltige Informationen zur patentierten Technologie, den Berufen der Patentinhaber und deren Wohnorten. Letztere ermöglichen eine Landkarte innovativer Orte/Regionen über einen langen Zeitraum zu zeichnen und beispielsweise Fragen der Persistenz zu adressieren. Als Blocker erweist sich dabei, dass wir uns mühsam die Geodaten der erfassten Orte beschaffen müssen, erschwerend kommt außerdem hinzu das viele kleine Orte mittlerweile eingemeindet wurden oder - in den östlichen preußischen Provinzen - Ortsnamen gewechselt haben. Eine historische Datenbank, die Gebietsveränderungen über die Zeit nachvollzieht und den Orten Geodaten zuordnet wäre hier sehr hilfreich.

Posted on

18 Erfassung, Geo-Lokalisierung und Visualisierung von handschriftlich verfassten Massendaten

< Back to problem stories

Seit einiger Zeit arbeite ich mit einer kleinen Gruppe an der Zusammenstellung von Glockengussdaten. Dabei handelt es sich um Informationen, die 1940/41 anlässlich der bevorstehenden Einschmelzung der Glocken auf Karteikarten gesammelt wurden, insgesamt etwa 20.000. Für uns von Interesse sind Standort der Glocke (1940/41) und Zeitpunkt des Glockengusses (z.T. zurück bis ins 11. Jh.). Da Glocken fast nie den Standort wechseln, soll im Endergebnis eine Art dynamische Heatmap über die Jahrhunderte gezeigt werden, wann wo besonders viele oder wenig Glocken gegossen wurden. In Ermangelung wirtschaftsstatistischer Daten wäre das eine Art Proxy-Variable für wirtschaftliche Konjunkturen (das ist jetzt alles sehr grob vereinfacht). Alle Karteikarten liegen in digitalisierter Form vor. Unser erstes Problem betrifft die Übertragung der relevanten Daten (v.a. Standort und Glockengussdatum) von der handgeschriebenen Karteikarte in eine Tabelle. Wo finden wir Informationen darüber, welche Software sich für das Einlesen relativ standardisierter, aber eben handgeschriebener Daten eignet? Wieviel Nachkorrekturen sind ungefähr nötig? Um zweitens eine Glocke mit vertretbarem Aufwand georeferenzieren zu können, benötigen wir eine Zuordnung des Ortsnamens von 1940/41 zu einer Geo-Position. Wo finden wir eine Übersicht über entsprechende Datenbanken? Erschwerend kommt hinzu, dass 1940/41 selbständige Gemeinden heute nur noch Stadtteile oder unselbständige Teilgemeinden sind. Drittens schließlich stellt sich die Frage der Visualisierung. Die politischen Grenzen haben sich vom 11. Jahrhundert bis 1941 immer wieder geändert. Gibt es historische Karten, die es erlauben würden, auf der dynamischen heatmap die korrekten jeweiligen Grenzverläufe zu visualisieren (etwa in 50-Jahres-Abständen)?

Posted on

15 Markup language for biographical information about "ordinary people"

< Back to problem stories

We are editing 19th century migrant letters that are physically located in German and American archives. In order to be able to reconstruct migration patterns and migrant networks, we would like to mark persons with a unique identifier. Since these are “ordinary people”, we do not find them in existing Authority Files such as GND, LoC or Wikidata. How should we reference the existing biographical information and which markup language should we use so that the biographical information that we retrieve from the letters and from archives can easily be enhanced by future biographical research? Should we transfer our data into the Integrated Authority File (GND) and if yes, how can we do this? Secondly, we would like to store and document all biographical details (baptism, marriage and death records, census records, pension records, emigration records, ship lists) as well as additional information gathered from the letters such as occupation, places of living and family events, contacts between migrants, their families, old and new neighbors, friends and acquaintances, in order to map and visualize the migration and mobility networks. Which service and platform should we use for cooperative research data management and the long-term preservation of our research data? Which digital tools should we use for GIS mapping and network visualization?

Posted on

11 Adaption des IIIF-Standards für Audio-, Video- und 3D-Daten

< Back to problem stories

Die anbieter- und systemunabhängige Nutzung digitaler/digitalisierter Quellen in der eigenen Forschungsumgebung wird durch die IIIF-Standards unterstützt. Als Bibliothek würden wir gerne auch unsere digitalisierten Audio-, Video-, und 3D-Daten ebenso wie die text-/bildbasierten Quellen über IIIF anbieten können. Für eigene großangelegte Standard- und Softwareentwicklungen fehlen aber die Kapazitäten an unserer Einrichtung ohne Entwicklungsabteilung. Wir brauchen einen Rahmen, in dem wir uns mit Anforderungen aktiv in die Standard- und Softwareentwicklung einbringen können und zugleich eine starke Partnereinrichtung, die in der Lage ist diese Arbeiten auch auszuführen.

Posted on

10 Erstellung und Mapping von Referenzvokabularen

< Back to problem stories

Als Spezialbibliothek erzeugen wir mit OCR Volltexte unserer digitalisierten Quellen für die Forschung. Mit digitalisierten und auf Lemma-Ebene erschlossenen Fachlexika (19. Jh) verfügen wir über zeitspezifisches Vokabular. Bislang fehlt es an Kapazitäten, dieses Vokabular als Gazetteer oder Ontologie aufzubereiten und für die automatische Analyse der Volltexte zur Verfügung zu stellen, also Vokabulare als Forschungsdateninfrastrukturleistung zu entwickeln. Weder für die Infrastrukureinrichtung (Bibliothek) noch für Wissenschaftler*innen existieren günstige Rahmenbedingungen (Finanzierung, wissenschaftliche Anerkennung) für solche fachlich spezialisierte Infrastrukturleistungen an der Schnittstelle zwischen historischer Subdisziplin, Informationswissenschaft und Data Science.

Posted on

9 Archivquellen – Zusammenarbeit mit vielen unterschiedlichen Archiven

< Back to problem stories

In einem größeren Forschungsprojekt arbeite ich mit Quellen ganz unterschiedlicher Provenienz, z.B. aus Zeitungsdatenbanken (Online-Archive von "Der Spiegel", "Die Zeit", aber auch Zeitungen aus dem Ausland; daneben Fernseh- und Rundfunk-Archive, das Bundesarchiv etc. Ich werte Zeitungsartikel, Protokolle von Bundestagsreden, Akten aus verschiedenen Ministerien, Fernsehserien u.v.m. als Quellen aus, und zwar qualitativ. Wie kann ich daraus einen Quellenkorpus machen, der so einheitlich ist, dass er sich irgendwie zur Nachnutzung aufbereiten lässt? Und wie kann ich die Archive, die ja die Rechteinhaber sind, mit ins Boot holen? Meine Idealvorstellung wäre ein E-book, in dem alle Quellenangaben in den Fußnoten "klickbar" sind, d.h. man kommt mit einem Klick zum Original.

Posted on

6 Archivische Forschungsdaten massenhaft mit zukunftsfähigen Normdaten anreichern

< Back to problem stories

Als Archiv stellen wir massenhaft Erschließungsinformationen zu Archivgut im Sinne von primären Forschungsdaten im Internet bereit. Diese und weitere, noch nicht online veröffentlichte digitale Erschließungsinformationen liegen in sehr großer Zahl und unterschiedlicher Datenqualität vor. Eine Herausforderung ist die nachträgliche Anreicherung mit zukunftsfähigen Normdaten im Interesse einer vernetzten Recherche. Dabei bestehen zwei weisentliche Herausforderungen:
1. Benötigt werden Tools zur nachträglichen, automatisierten Anreicherung von Erschließungsinformationen in Archivinformationssystemen und den daraus zu exportierenden Onlineressourcen.
2. Während für Personen mit der GND ein anerkanntes Normdatensystem bereits institutionenübergreifend anerkannt ist, fehlt hinsichtlich von Geografika, Regional- und Gebietseinheiten noch eine vergleichbare Verbindlichkeit (z.B. GND, Amtliche Gemeindeschlüssel, Georeferenzierung).

Posted on

2 Linked Data ja, aber wie?

< Back to problem stories

Als Forscher an einer fachwissenschaftlichen Einrichtung bin ich an einem kunsthistorischen Projekt beteiligt, das sich mit außereuropäischem Material beschäftigt. Wir möchten gerne Kunstwerke inhaltlich klassifizieren, aber die bestehenden (oft eurozentrischen) Vokabulare (IconClass, Getty) decken unser Material nicht ab. Wir brauchen also ein eigenes Vokabular, das aber möglichst (da, wo es Überschneidungen gibt) Cross-Links zu bestehenden Vokabularen bietet. Dafür steht an unserer Einrichtung keine Software bereit, und die typischen Lösungen (wie z.B. VocBench) sind kompliziert aufzusetzen.
Noch schwieriger wird es bei komplexeren Datenstrukturen, wie z.B. historischen Gazetteers, deren Modell noch etwas komplizierter ist als das eine Thesaurus. Hier bestehen z.B. mit LinkedPlaces gute Referenzformate, aber keine Tools, um komplatible Daten nutzerfreundlich zu erstellen.
Neben dem Editor für die Vokabulare selbst ist es für LinkedData natürlich auch notwendig, stabile URIs zu verwenden. Und auch wenn diese als Identifier nicht unbedingt auf eine tatsächliche Ressource verweisen müssen, ist es doch gute Praxis, dass die URIs auflösen und auf menschen- sowie maschinenlesbare Dokumentation verweisen. Unsere Einrichtung selbst kann dafür nicht die Gewähr der Dauer bieten. Also wäre ein Handle-System sowie ein System zur Generierung von Dokumentation für Vokabularen zusätzlich nützlich.

Posted on