Task Area 2

66 Nachwuchsförderung / Digitale Edition

< Back to problem stories

Ich bin Nachwuchswissenschaftler*in und möchte das innerhalb meiner Qualifizierungsarbeit verwendete Quellenkorpus veröffentlichen. Die Daten liegen als TEI-XML vor. Neben der Veröffentlichung der Rohdaten soll aber auch eine Digitale Edition entstehen. Diese soll Basisfunktionen wie (parallele) Textansichten (Transkription, Kommentierter Text, Leseversion, Übersetzung, archivalische Vorlage in Form von Bilddigitalisaten) sowie die Erschließungen über Personen, Orte, Institutionen, Ereignisse und Schlagworte ermöglichen. Darüber hinaus möchte ich den im Datenkorpus auftretenden Personenkreis und seine Interaktionsnetzwerke grafisch visualisieren. Ich bin zwar technisch einigermaßen versiert, dennoch habe ich nicht das notwendige Knowhow, ein solches Projekt umzusetzen. Da ich weder fest an einer Forschungsinstitution angestellt bin noch über eine Drittmittelförderung verfüge, fehlen mir die Mittel für die technische Umsetzung wie auch für das anschließende langfristige Hosting der Edition.

Posted on

60 Historische Grenzen und Raumordnungen

< Back to problem stories

Unser Online-Quellenportal bietet neben Text- und Bildquellen auch eine Vielzahl von Karten, die die wechselnden Grenzen und politischen Einheiten des heutigen Deutschlands von der Frühen Neuzeit bis in die Gegenwart zeigen. Statt statischer Karten erwarten durch Google Maps und ähnliche Dienste geprägte Nutzer*innen von einem modernen Internet-Angebot zunehmend dynamische Karten, die das Heran- und Wegzoomen bestimmter Gegenden, dynamische Animationen von Grenzverschiebungen im zeitlichen Verlauf sowie die interaktive Einblendung von Zusatzinformationen wie etwa die Lebenswege bestimmter Personen unterstützen. Programmbibliotheken wie leaflet.js ermöglichen es, solche Funktionalitäten sowohl auf aktuellen Luftbildkarten als auch mit retro-digitalisierten historischen Karten im Hintergrund zu realisieren. Uns fehlt aber ein historisches Geoinformationssystem, das die häufig wechselnden Landes- und Gebietsgrenzen in Europa und insbesondere in Deutschland über die letzten Jahrhunderte (Altes Reich, Napoleonisches Zeitalter, Deutscher Bund, Reichsgründung, Weimarer Republik, Deutsche Teilung, Neue Bundesrepublik) mit den entsprechenden Territorien (Fürsten- und Herzogtümer, Königreiche, Bundesstaaten, (Bundes-)Länder und Bezirke) in passenden Formaten hinreichend exakt und unter einer freien Lizenz bereitstellt.

Posted on

58 Einsatz von Normdaten und kontrolliertem Vokabulare zur fachspezifischen Beschreibung von Forschungsdaten

< Back to problem stories

Als Forschungsdatenkurator möchte ich Normdaten und kontrollierte Vokabulare verwenden, um Forschungsdaten möglichst fachspezifisch und mit anderen Ressourcen integrierbar zu beschreiben. Normdaten wie insbesondere die GND wären für eine effiziente Erfassung von Autoren und Forschungseinrichtungen per Autovervollständigung sehr naheliegend. Leider fehlt dafür ebenso wie für den Einsatz kontrollierter Vokabulare oft eine Unterstützung durch die technischen Plattformen. So muss man z.B. im DataCite-Editor des DHVLab der LMU die GND-IDs umständlich über OGND heraussuchen und manuell in das Eingabeformular eintragen. Kontrollierte Vokabulare sollten möglichst im SKOS-Format eingebunden werden können, da viele relevante Klassifikationssysteme, Thesauri und Gazetteers in diesem Format vorliegen, wie etwa das für historische Forschung relevante HISCO oder ICONCLASS oder auch PeriodO als Verzeichnis historischer Perioden. Am ehesten scheint noch die Web Publishing-Plattform Omeka S mit dem Value Suggest-Modul diese Anforderungen zu erfüllen. Es wäre wünschenswert, wenn im Rahmen von 4Memory entsprechende Module für bestehende Systeme oder Eigenentwicklungen entstehen würden, die diese für die Metadatenkuration sehr naheliegenden Anforderungen erfüllen.

Posted on

56 Schulung und Beratung im Bereich Geoinformationssystem (GIS)

< Back to problem stories

Eine Forscherin möchte gerne Geodaten, die sie aus einem gedruckten Textkorpus extrahiert hat, auf einer interaktiven Karte visualisieren. Die Daten sollen anschließend als .csv für die Forschung zur Verfügung gestellt werden. Konkret steht sie vor der Frage, welche der zahlreichen angebotenen Tools für ihre Zwecke das Geeignetste ist oder ob etwas Eigenes programmiert werden muss. Wichtig ist ihr, die Geodaten auf einer historischen Karte zu zeigen, nicht auf einer aktuellen. Sie fragt sich auch, wie sie internationale Normdaten verwenden kann, welche internationalen Gazetteers/historische Ortslexika es bereits gibt und wie und wo die Webansicht sowie die Daten nachhaltig gespeichert werden können. Gerne würde sie sich von kompetenter Seite Rat holen und an einer Schulung zu GIS einerseits und einer Einführung in die Nutzung eines konkreten Tools - sofern für ihren spezifischen Zweck vorhanden - andererseits teilnehmen.

Posted on

55 Digitale Textanalyse in internationalen historischen Zeitungen

< Back to problem stories

Eine Gruppe von Forschenden möchte den sprachlichen Wandel rund um das Thema “Politikverdrossenheit” in internationalen historischen Zeitungen des 19. und 20. Jahrhunderts untersuchen. Die Zeitungen liegen in Teilen digitalisiert vor, allerdings auf unterschiedlichen, internationalen Plattformen. Nicht alle sind im Volltext erfasst. In Teilen gibt es sie nur gedruckt. Die Gruppe steht vor folgenden Problemen: • Wie kann sie die großen Mengen an Zeitungsartikeln unterschiedlicher Herkunft mit wenig Aufwand und unter Einhaltung des jeweiligen Urheberrechts zu einem Corpus zusammenfügen? • Wie kann sie das Corpus für die digitale Analyse vorbereiten und mit internationalen Normdaten anreichern? • Wie kann sie eine digitale Analyse des Corpus vornehmen? • Wo und wie können die Daten anschließend gespeichert werden, so dass die erarbeiteten Forschungsergebnisse nachvollziehbar sind?

Posted on

54 Projektbezug und Zusammenhang mit anderen Ressourcen herstellen

< Back to problem stories

Als Forschungsdatenkurator möchte ich ich Forschungsdatensätze und weitere Ressourcen miteinander verknüpfen, um den Entstehungszusammenhang und die Beziehungen zu weiterem Forschungsoutput sichtbarer zu machen. Eine Mindestanforderung ist dabei z.B. die Berücksichtigung der DataCite-Relationstypen IsReferencedBy, IsCitedBy und IsSupplementTo zur Verbindung von Forschungsdaten mit zugehörigen Forschungspublikationen, aber auch Relationen wie IsDerivedFrom, IsSourceOf und IsVersionOf, die den Entstehungszusammenhang zwischen Datensätzen beschreiben. Die Verknüpfung der Ressourcen würde idealerweise mit einem (auch für die datengebenden Fachwissenschaftler einfach zu benutzenden) graphischen Editor stattfinden. Die bisher einzige Open Source-Lösung dafür scheint allerdings die mittlerweile veraltete Erweiterung ckanext-lire (LInked RElationships) für CKAN zu sein (siehe auch zugehörigen Konferenzbeitrag). Wichtig für ein Werkzeug zur Kontextualisierung von Forschungsdatensätzen wäre auch die Einbindung von Forschungsinformationssystemen bzw. auch Bibliothekskatalogen. Insbesondere der Projektkontext könnte durch die Anbindung eines Forschungsinformationssystems hergestellt werden. In Bibliothekskatalogen erfasste Publikationen können über deren DOI oder auch ISBN bzw. den permanenten Links zu den entsprechenden Katalogeinträgen verlinkt werden. Idealweise wird die Verknüpfung von Datensätzen und Publikationen durch Linked Data unterstützt. Für den Projektkontext kommen dazu Ontologien wie PROV-O, FRAPO, VIVO-ISF oder auch die Scholarly Ontology in Frage.

Posted on

53 Datendokumentation zur Nachvollziehbarkeit der Aufbereitung von Forschungsdaten

< Back to problem stories

Als Forschungsdatenmanager oder Forscher möchte ich den Entstehungsverlauf meiner Forschungsdaten im Forschungsprozess genau dokumentieren, um die Verarbeitungsschritte nachvollziehbar zu machen und die Arbeitsabläufe zur Erstellung und weiteren Verarbeitung darüber hinaus als Vorlage für spätere, ähnliche Projekte festzuhalten. Ein typischer Workflow ist beispielsweise die Annotation und Identifikation von in Textquellen genannten Entitäten (Personen, Organisationen, Orte, Ereignisse, Begriffe, usw.) mit Named Entity Recognition- und Named Entity Disambiguation-Werkzeugen oder insbesondere auch die Reconciliation von Entitäten in tabellarischen Daten (etwa zur Harmonisierung historischer Zensusdaten) – z.B. mit dem Tool OpenRefine. Wichtig dabei ist eine Dokumentation der Aufbereitung der Forschungsdaten möglichst schon während des Forschungsprozesses: Wer hat was mit welchem Werkzeug und mit welcher Zuverlässigkeit angereichert? Ideal wären dazu Plattformen, die eine Dokumentation der Arbeitsschritte zur Erstellung und Anreicherung der Forschungsdaten gemäß Datenmanagementplan (DMP) – d.h. Forschungsdatenmanagement-Workflows im “life cycle of historical information” (siehe dazu https://doi.org/10.3233/SW-140158) – unterstützt. Für eine spätere Nachnutzung der Daten ist eine ausführliche Datendokumentation wichtig zur Suche nach relevanten Forschungsdaten (z.B. anhand der verwendeten Datenmodelle und Standards wie SDMX, RDF Data Cube und SKOS für Kodierlisten in statistischen Daten) und zur Einschätzung der Qualität der angereicherten Daten (z.B. bei der Zusammenstellung und Integration von kodierten Daten zur statistischen Analyse).

Posted on

50 Dezentrale Digitalisierung und virtuelle Präsentation von historischen Interviews in nicht lateinischen Schriften

< Back to problem stories

Im Zuge eines internationalen Projektes sollen mehrere hundert Interviews in nicht lateinischer Schrift digitalisiert, mit Metadaten versehen und im Internet präsentiert werden. Die Interviews wurden in der ersten Hälfte des 20. Jahrhunderts verschriftlicht und befinden sich in verschiedenen Archiven im nicht europäischen Ausland. Einige der Materialien wurden bereits retrodigitalisiert. Die Projektmitarbeiter*innen sind mit folgenden Problemen konfrontiert: • Rechtliche Unsicherheiten: Es herrschen urheber- und datenschutzrechtliche Unklarheiten, unter anderem hinsichtlich der möglichen Verarbeitung personenbezogener Daten. Daher stellt sich die Frage, welche Maßnahmen zum Schutz dieser Daten getroffen werden müssen und wie sie umgesetzt werden können. Hierzu zählen unter anderem Anonymisierungskonzepte und -standards, aber auch die Frage, ob und in welcher Form derartige Materialien veröffentlicht werden dürfen. • Metadaten: Unklar ist, welche Metadaten für das Projekt notwendig sind und inwiefern bereits in den Archiven vorhandene Metadaten nachnutzbar sind. Des Weiteren herrscht Unklarheit darüber, wie man die Metadaten so gestaltet, dass sie die historischen, bibliothekarischen und archivwissenschaftlichen Anforderungen in mehreren Sprachen erfüllen. • Standards für Textdaten: Es besteht Unklarheit, welche Standards für die Veröffentlichung von Textdaten existieren und welche in dem vorliegenden Fall wie anzuwenden sind. • Technische Plattform: Es wird eine technische Lösung gesucht, um die Metadaten dezentral in mehreren lateinischen und nicht lateinischen Schriften erfassen und präsentieren zu können. Darüber hinaus soll eine Volltextsuche in den Interviews möglich sein. Die Visualisierung von Standorten auf interaktiven Karten soll ebenfalls unterstützt werden. Die technische Lösung soll des Weiteren anschlussfähig für Systeme zur digitalen Langzeitarchivierung für die dauerhafte Speicherung sein. • Workflow: Es besteht die Schwierigkeit, einen Arbeitsablauf zu organisieren, der die unterschiedlichen dezentral stattfindenden Arbeitsschritte koordiniert und dokumentiert.

Posted on

49 Digitale Quellenedition historischer Berichte

< Back to problem stories

Ein Forschender möchte eine digitale Edition historischer Berichte aus dem 17. und 18. Jahrhunderts im Internet veröffentlichen. Die Dokumente liegen in unterschiedlichen Sprachen in lateinischer Schrift in verschiedenen europäischen Archiven vor. Die Edition soll ein Verzeichnis der Berichte und verschiedene Register umfassen. Es soll zudem Verknüpfungen mit unterschiedlichen Arten von Normdaten (unter anderem GND, VIAF) geben. Eine erweiterte Suche soll die Recherche im Dokumentenbestand erleichtern. So soll beispielsweise nach Fundort, Titel, Absender*in, Empfänger*in, Absendeort und Empfängerdatum gesucht werden können. Der Forschende muss für sein Projekt folgende Probleme lösen: • Zunächst müssen die in verschiedenen europäischen Archiven vorhandenenhistorischen Berichten transkribiert werden. Dem Forschenden sind mit Blick auf digitale Editionen jedoch weder einschlägige Standards noch Richtlinien bekannt. • Zudem fehlt es ihm an persönlichen Kontakten in den unterschiedlichen Archiven mit ihren jeweiligen Nationalsprachen. • Der Forschende ist ferner nur rudimentär mit digitalen Editionen vertraut und kennt deren editionswissenschaftliche Gepflogenheiten und Möglichkeiten nicht. • Obwohl er eine klare Vorstellung davon hat, welche Metadaten aus Perspektive der Geschichtswissenschaft relevant sind, weiß er nicht, ob diese für digitale historische Editionen ausreichend bzw. passend sind. • Darüber hinaus ist ihm nicht bekannt, welche technische Plattform man für ein solches Vorhaben benötigt und welche Kosten damit verbunden sind. • Des Weiteren weiß der Forschende nicht, ob bzw. wie seine Edition langfristig gesichert werden kann und was dafür zu tun ist.

Posted on

48 Korpus von historischen Übersetzungen zur ideen- und begriffsgeschichtlichen Forschung

< Back to problem stories

Ein Forschender möchte in einem Projekt einen Korpus von Texten aus dem 18. Jahrhundert inklusive der dazugehörigen nicht lateinischschriftlichen Übersetzungen erstellen und im Internet verfügbar machen, um Wissens- und Sprachtransfer aus ideen- und begriffsgeschichtlicher Perspektive zu erforschen. Die Internetpräsenz soll es ermöglichen, das Korpus zu durchsuchen und die unterschiedlichen Texte inklusive der dazugehörigen Übersetzungen in einer kollationierten Ansicht anzeigen zu lassen. Durch Anklicken eines Schlüsselbegriffs sollen Textstellen in anderen Texten angezeigt werden können, in denen jener Ausdruck vorkommt. Einschlägige Informationsseiten zu jedem Text sowie ein Glossar wichtiger Begriffe soll es ebenfalls geben. Jeder einzelne Eintrag soll mit persistenten Identifikatoren referenziert und zitiert werden können. Ferner soll auch eine erweiterte Suche möglich sein. Der Forschende muss folgende Probleme lösen: • Zunächst muss der Forschende die Texte in verschiedene nicht lateinische Schriftsysteme transkribieren. Allerdings kennt er dafür weder die fachgerechten Standards, noch die notwendigen Tools. • Die für das Projekt relevanten digitalen Quellen (Übersetzungen) sind hinsichtlich der Referenzierbarkeit problematisch, da keine einheitliche Zitationskultur und -form dafür existiert. Ferner werden Onlinepublikationen solcher Quellen in den Universitäten vieler Länder nicht als wissenschaftliche Publikation anerkannt. Diese beiden Probleme scheinen miteinander verbunden zu sein: Das Fehlen einer formalisierten einheitlichen Zitierweise solcher Quellen einerseits und die fehlende Wertschätzung seitens wissenschaftlicher Institutionen andererseits bedingen sich gegenseitig. • Der Forschende muss die Texte zudem mit Informationen anreichern, unter anderem zu wichtigen Begriffen und Konzepten. Er fragt sich, wie er dies so bewerkstelligen kann, dass diese Informationen auf der Internetpräsenz auffindbar sind und bei der Recherche berücksichtigt werden. • Zudem stellt sich der Forschende die Frage, welche technische Plattform er für sein Vorhaben benötigt, welcher Arbeitsaufwand damit verbunden ist und welche Kosten sich daraus ergeben. • Außerdem ist ihm noch unklar, wie er eine langfristige Pflege und Wartung seiner Website sowie der auf ihr präsentierten Daten gewährleisten kann.

Posted on