datareuse

32 Übersicht über ältere Familiendatenbanken aus der akademischen Forschung

< Back to problem stories

Ich bin Vertreter eines überregionalen Arbeitskreises . Etliche unserer Mitglieder haben schon seit den 1970er Jahren mit personen-, haushalts- und familienbezogenen Mikrodaten geforscht. Die entsprechenden Daten liegen in unterschiedlichen Formaten vor, unter anderem in TUSTEP, Kleio, dBase, SPSS und Access. Der Arbeitskreis kann einerseits entsprechende Daten lokalisieren, andererseits auch Wissen darüber zusammentragen, wie die damaligen Projekte gearbeitet haben. Wer kann uns dabei helfen, diese Daten für die aktuelle Forschung nutzbar zu machen und dabei insbesondere mithilfe von Normdaten anschlussfähig für neue Datenbestände zu machen?

Posted on

27 Praxisempfehlung für den digitalen genealogischen Nachlass

< Back to problem stories

Viele Menschen steigen erst nach Abschluss des Arbeitslebens in die familiengeschichtliche Forschung ein und machen sich dann von Anfang an Gedanken darüber, dass ihre Forschertätigkeit endlich ist. Daraus ergibt sich ein starkes Interesse an der Frage, wie man seine Ergebnisse über die eigene Lebensdauer verfügbar hält. Dafür scheinen drei Medientypen geeignet: (a) die Archivierung der Forschungsdaten (wenn nicht auf Papier im Staatsarchiv, dann digital in einem Datenarchiv), (b) die Selbstpublikation der Ergebnisse im Internet oder auch im Druck, (c) die „zitierfähige“ Publikation, wiederum im Internet (mit persistenter URL) oder auch als Verlagspublikation (mit ISBN). Hier stellt sich zunächst die Frage, wie die Forschungsdaten denn sortiert, gestaltet, gekennzeichnet sein müssen, damit sie überhaupt für eine Archivierung in Frage kommen, und ob es einen bestimmten Umfang, eine zeitliche Tiefe oder Qualitätsmaßstäbe gibt, die erreicht werden müssen. Gibt es eine Strategie für klar definierte große Bestände einerseits, weniger strukturierte Sammlungen in einem noch aufzubauenden durchsuchbaren Zufallsfundrepositorium andererseits? Wie geht man damit um, dass bestimmte Datenbestände zum Wegwerfen zu schade, aber zum Veröffentlichen nicht sicher genug erscheinen?

Posted on

22 Nutzung eines außerhalb der akademischen Forschung entwickelten Standards in der akademischen Forschung

< Back to problem stories

Unser bürgerwissenschaftlicher Verein hat ein Ortsverzeichnis entwickelt, das mit Bezug auf Deutschland und viele andere Länder Ortsnamen (in variierenden Schreibweisen), kirchliche und staatliche Zugehörigkeiten im Zeitverlauf sowie geographische Koordinaten erfasst. Die Abdeckung auf Ebene der Siedlungsplätze (also unterhalb der Gemeinden) beträgt für das späte Kaiserreich bereits etwa 80%. Das Verzeichnis liegt als Open Data vor und ist über einen Webservice abrufbar. Im bürgerwissenschaftlichen Bereich haben wir damit einen Standard gesetzt. Wie können wir erreichen, dass dieses System sich auch im akademischen Bereich als Standard etabliert?

Posted on

19 Digitale Quellenkritik bedenken

< Back to problem stories

Vor dem Hintergrund meiner Erfahrungen als Hochschullehrerin scheint es mir so zu sein, dass die Geschichtswissenschaften digitale Ressourcen noch kaum als neuen und auch relevanten Lehrinhalt etabliert haben. Das bringt auch mit sich, dass die Quellenkritik bspw. zu digitalisierten und "born digital" Quellen noch zu wenig in der Fachkultur verankert ist. Das bringt Probleme für die Lehre mit sich, wenn es darum geht, Studierenden die Komplexität der digitalen Quellenkritik zu vermitteln, Fragen von Authentizität, Qualität usw. zu diskutieren. Da hilft der reine Bezug auf formale Standards nicht viel weiter. Es braucht einen im Fach verankerten, kritischen Diskurs. Das schließt auch ein viel aktiveres Rezensionswesen ein, als dies bspw. für digitale Quellensammlungen (auch Forschungsdatenpublikationen) bislang der Fall ist. Aber vermutlich müsste das Fach dann auch über die Reputation von digitalen Publikationen und den Aufwand, diese adäquat zu besprechen, diskutieren.

Posted on

17 Sonden in die entstehende Konsumgesellschaft: Hamburger Importzolldeklarationen, 1736-1798

< Back to problem stories

Aus Hamburg sind aus den Jahren 1736-1798 für 36 Jahre total 180.000 individuelle Importzolldeklarationen aus dem seeseitigen Handel erhalten. Die Deklarationen enthalten u. a. die Namen der Importkaufleute, Bezeichnungen der verzollten Waren, eine Schätzung von deren Wert, Herkunftsort der Schiffsreise und Datum. Es handelt sich um einen der umfangreichsten und wichtigsten Bestände zur deutschen Handelsgeschichte des 18. Jahrhunderts. Es eignet sich zur Analyse der Anfänge der Konsumgesellschaft in Deutschland, der Verbreitung des Konsums von Kolonialwaren, der aggregierten Entwicklung der deutschen Außenwirtschaft sowie (allerdings nur selektiv) der Aktivitäten individueller Kaufleute. Das Material wurde im Rahmen des Projekts zur Historischen Statistik Deutschlands erhoben und unterschiedlich aggregiert publiziert (Schneider et al. 2001). Um sie analysierbar zu machen, wurden die Daten in eine MS-Access-Datenbank eingebettet, die insbesondere Handelsgüter nach Güterklassen bzw. Herkunftsorte nach Ländern und Regionen zusammenzufassen erlaubt. Die Datenbank zirkuliert informell in verschiedenen Fassungen und hat bisher wenigstens zwei Publikationen zur Grundlage gedient. Das Erkenntnispotential des Korpus ist damit längstens nicht erschöpft. Die problem story kreist damit um die Herausforderung, diese wichtige Datenbank Forscher*innen leicht zugänglich zu machen. Hierzu muss (1) die Datenbank noch weiter geputzt werden, was Aufgabe der damit Arbeitenden (unter Einschluss des Schreibenden) ist. (2) müssen die existierenden Datenbankabfragen zu einem geschlossenen Interface ausgebaut werden, wozu ein gewisser Beratungsbedarf besteht, da die Kompetenz wenigstens des Schreibenden im Bereich der Entwicklung von Datenbankanwendungen begrenzt ist. (3) muss ein Datenarchiv gefunden werden. (GESIS hat die Annahme historischer Forschungsdaten eingestellt.) (4) eignen sich zentrale, aggregierte Zeitreihen für eine historische Statistik. Einschlägig wäre HISTAT, aber GESIS hat die Weiterentwicklung von HISTAT eingestellt. Benötigte Services sind somit: (i) Einschlägiges Datenarchiv; (ii) Unterstützung bei der Aufbereitung einer Datenbank für ein Datenarchiv; (iii) Weiterentwicklung von HISTAT.

Posted on

14 Fehlende Angaben, wie Fotos genutzt werden können

< Back to problem stories

Ich leite eine historische Beratung für Autorinnen und Autoren. Daher arbeite ich viel mit Online-Bilddatenbanken aus der ganzen Welt. Gerade bei den deutschen Datenbanken fällt mir auf: Es wird zwar fleißig digitalisiert und ins Netz gestellt. Ob man diese Bilder aber nutzen kann, z.B. in einem Roman, einem Bildband oder einer Dissertation veröffentlichen kann, steht nicht direkt am Bild.
Man muss für jedes Bild einzeln nachfragen. Oft landen die Anfragen an einer anderen Stelle, die die Digitalisierung nicht durchgeführt hat (info). Wenn gleich AM BILD jedesmal eine Angabe zu Creative Commons-Grad stehen würde, könnten alle Seiten - Nutzer und bildgebende Institution - viel, viel Zeit sparen.

Posted on

12 FactGrid und das fehlende breitenwirksame Wikibase-Frontend

< Back to problem stories

Wir erfassen mit dem FactGrid Daten und helfen Partnern auf der Plattform. Die Software erweist sich dabei als so attraktiv, dass Mitspieler des In- und Auslands zurzeit von selbst an uns herantreten, um bei uns Datensätze in Wikibase laufen zu lassen.
Unsere zentralen Probleme liegen im Moment in der Bedienung der Software, die für Wikidata ein unmittelbar auf die Dateneingabe und das Datamining ausgerichtetes Interface nutzt.
Verbesserungsbedürftig ist einerseits die Dateneingabe: Es müsste möglich sein, Open Refine serverseitig laufen zu lassen und auf die mitdenkende Software hin zu arbeiten, die noch vor der Eingabe großer Datenmengen auf bereits vorliegende Informationen (etwa bei deckungsgleichen Verwandtschaftsbeziehungen)verweist, und die so die Arbeit mit der vorhandenen Information erleichtert.
Wichtiger noch ist für uns im Moment der Schritt in eine dezidierte Datenpräsentation.
Magnus Manske’s „Reasonator“, Markus Krötzschs „Squid“, zeigen das Potential der Software auf, mit der sich eine Wikibase-Datenbank bis an den Punkt nutzen lässt, an dem sie Wikipedia Konkurrenz macht – mit dem Vorteil, dass dabei plötzlich eine einzige multilingual verwaltete Datenlage in verschiedenen Sprachen nutzbar wird. Es ist dies ein Entwicklungsweg, den Wikimedia nicht prioritär verfolgt und auf dem wir uns derzeit mit Partnern wie der DNB bewegen.
In der bis auf Weiteres misslichen Lage sprechen wir Nutzer derzeit nur sehr provisorisch mit exemplarischen, modifizierbaren Suchangeboten an, von denen aus sie sogleich in die bearbeitbaren Datensätze geleitet werden – so im aktuellen Projekt, das Thüringens Pfarrerbuch bei uns verfügbar macht: https://blog.factgrid.de/archives/1923. Das Ziel sind Nutzeroberflächen wie Uwe Jung sie für die FH-Potsdam im Umgang mit Wikidata erarbeitete (https://blog.factgrid.de/archives/1215).
Hier befinden wir uns in Gesprächen mit Partnern, die auf dieselbe Software setzen sowie mit Wikimedia, mit dem Ziel einer open source Lösung, von der alle Wikibase Plattformen profitieren würden. Die Vernetzungsangebote des NFDI-Prozesses sind dabei von fast noch größerem Interesse als Entwicklungsetats.

Posted on

11 Adaption des IIIF-Standards für Audio-, Video- und 3D-Daten

< Back to problem stories

Die anbieter- und systemunabhängige Nutzung digitaler/digitalisierter Quellen in der eigenen Forschungsumgebung wird durch die IIIF-Standards unterstützt. Als Bibliothek würden wir gerne auch unsere digitalisierten Audio-, Video-, und 3D-Daten ebenso wie die text-/bildbasierten Quellen über IIIF anbieten können. Für eigene großangelegte Standard- und Softwareentwicklungen fehlen aber die Kapazitäten an unserer Einrichtung ohne Entwicklungsabteilung. Wir brauchen einen Rahmen, in dem wir uns mit Anforderungen aktiv in die Standard- und Softwareentwicklung einbringen können und zugleich eine starke Partnereinrichtung, die in der Lage ist diese Arbeiten auch auszuführen.

Posted on

6 Archivische Forschungsdaten massenhaft mit zukunftsfähigen Normdaten anreichern

< Back to problem stories

Als Archiv stellen wir massenhaft Erschließungsinformationen zu Archivgut im Sinne von primären Forschungsdaten im Internet bereit. Diese und weitere, noch nicht online veröffentlichte digitale Erschließungsinformationen liegen in sehr großer Zahl und unterschiedlicher Datenqualität vor. Eine Herausforderung ist die nachträgliche Anreicherung mit zukunftsfähigen Normdaten im Interesse einer vernetzten Recherche. Dabei bestehen zwei weisentliche Herausforderungen:
1. Benötigt werden Tools zur nachträglichen, automatisierten Anreicherung von Erschließungsinformationen in Archivinformationssystemen und den daraus zu exportierenden Onlineressourcen.
2. Während für Personen mit der GND ein anerkanntes Normdatensystem bereits institutionenübergreifend anerkannt ist, fehlt hinsichtlich von Geografika, Regional- und Gebietseinheiten noch eine vergleichbare Verbindlichkeit (z.B. GND, Amtliche Gemeindeschlüssel, Georeferenzierung).

Posted on

5 Sicherung der Nachhaltigkeit von MyCoRe-Daten

< Back to problem stories

An meiner Institution baue ich seit 2012 ein umfangreiches Informationssystem im MyCoRe System auf. Um das System dauerhaft nutzbar zu halten, ist in den nächsten Monaten dringend ein systemtechnisches Update des Informationssystems nötig, d.h. es müsste auf die nächste Version von MyCoRe übertragen werden.
Hierzu sind Mittel in Höhe einer halben Informatikerstelle für ein halbes Jahr nötig, Kapazitäten, die weder bei mir am Lehrstuhl noch im Rechenzentrum unserer Universität vorgehalten werden. Nun ist MyCoRe in Deutschland recht gebräuchlich, es kommt in rund 70 Anwendungen zum Einsatz, wo wahrscheinlich ähnliche Bedarfe anfallen. Meine Frage ist, ob hier nicht in punkto Finanzierung, Aufbau einer Koordinationsstelle und technische Umsetzung eine anwendungsübergreifende Lösung bereitgestellt werden könnte, die es den individuellen Projektleitern auf einfachere Weise ermöglichen würde, diese Updates durchzuführen.

Posted on