Task area

58 Einsatz von Normdaten und kontrolliertem Vokabulare zur fachspezifischen Beschreibung von Forschungsdaten

< Back to problem stories

Als Forschungsdatenkurator möchte ich Normdaten und kontrollierte Vokabulare verwenden, um Forschungsdaten möglichst fachspezifisch und mit anderen Ressourcen integrierbar zu beschreiben. Normdaten wie insbesondere die GND wären für eine effiziente Erfassung von Autoren und Forschungseinrichtungen per Autovervollständigung sehr naheliegend. Leider fehlt dafür ebenso wie für den Einsatz kontrollierter Vokabulare oft eine Unterstützung durch die technischen Plattformen. So muss man z.B. im DataCite-Editor des DHVLab der LMU die GND-IDs umständlich über OGND heraussuchen und manuell in das Eingabeformular eintragen. Kontrollierte Vokabulare sollten möglichst im SKOS-Format eingebunden werden können, da viele relevante Klassifikationssysteme, Thesauri und Gazetteers in diesem Format vorliegen, wie etwa das für historische Forschung relevante HISCO oder ICONCLASS oder auch PeriodO als Verzeichnis historischer Perioden. Am ehesten scheint noch die Web Publishing-Plattform Omeka S mit dem Value Suggest-Modul diese Anforderungen zu erfüllen. Es wäre wünschenswert, wenn im Rahmen von 4Memory entsprechende Module für bestehende Systeme oder Eigenentwicklungen entstehen würden, die diese für die Metadatenkuration sehr naheliegenden Anforderungen erfüllen.

Posted on

57 Virtuelle Veröffentlichung von Quellen und Forschungsergebnissen in einem Blog

< Back to problem stories

Eine Gruppe von Forschenden der Geschichtswissenschaft möchte ihre Forschungsergebnisse sowie einige Quellen (Texte, Bildmaterial) veröffentlichen. Da für die Publikation keine Finanzmittel zur Verfügung stehen, suchen sie ein Publikationsmedium im Internet, das keine Kosten verursacht, aber dennoch gut und auch international sichtbar ist. Dabei ist ihnen wichtig, den Veröffentlichungsprozess zwar komplett ohne fremde Hilfe, zugleich aber zeitversetzt und kollaborativ durchführen zu können. Zudem sollen die Veröffentlichungen im Internet frei nutzbar und gut auffindbar sein. Auch eine Kommentarfunktion wäre hilfreich, um die wissenschaftliche Diskussion zu beflügeln. Da die Publikationen nur online erscheinen, ist den Forschenden eine nachhaltige Sicherung der veröffentlichten Inhalte wichtig. Nach reiflicher Überlegung entscheiden sich die Forschenden für einen wissenschaftlichen Blog. Die Forschenden stehen vor folgenden Problemen: • Sie haben nur eingeschränkte Kenntnisse von Websystemen bzw. Webentwicklung, allerdings auch keine finanziellen Mittel, um dies in Auftrag zu geben oder jemanden dafür einzustellen. • Die Forschenden wissen nicht genau, welche Kriterien bei der Auswahl solcher Systeme wichtig sind. Daher ist ihnen nicht klar, welches System sich für ihre Bedarfe eignet und dabei auch in der Handhabung einfach ist. • Die Forschenden haben die Befürchtung, dass ihre im Internet veröffentlichten Forschungsergebnisse und Quellen mangels finanzieller Mittel irgendwann verschwinden, unter anderem weil das System, in dem die Ergebnisse präsentiert werden, veralten könnte. Sie wissen jedoch nicht, wie sie dem vorbeugen können.

Posted on

56 Schulung und Beratung im Bereich Geoinformationssystem (GIS)

< Back to problem stories

Eine Forscherin möchte gerne Geodaten, die sie aus einem gedruckten Textkorpus extrahiert hat, auf einer interaktiven Karte visualisieren. Die Daten sollen anschließend als .csv für die Forschung zur Verfügung gestellt werden. Konkret steht sie vor der Frage, welche der zahlreichen angebotenen Tools für ihre Zwecke das Geeignetste ist oder ob etwas Eigenes programmiert werden muss. Wichtig ist ihr, die Geodaten auf einer historischen Karte zu zeigen, nicht auf einer aktuellen. Sie fragt sich auch, wie sie internationale Normdaten verwenden kann, welche internationalen Gazetteers/historische Ortslexika es bereits gibt und wie und wo die Webansicht sowie die Daten nachhaltig gespeichert werden können. Gerne würde sie sich von kompetenter Seite Rat holen und an einer Schulung zu GIS einerseits und einer Einführung in die Nutzung eines konkreten Tools - sofern für ihren spezifischen Zweck vorhanden - andererseits teilnehmen.

Posted on

55 Digitale Textanalyse in internationalen historischen Zeitungen

< Back to problem stories

Eine Gruppe von Forschenden möchte den sprachlichen Wandel rund um das Thema “Politikverdrossenheit” in internationalen historischen Zeitungen des 19. und 20. Jahrhunderts untersuchen. Die Zeitungen liegen in Teilen digitalisiert vor, allerdings auf unterschiedlichen, internationalen Plattformen. Nicht alle sind im Volltext erfasst. In Teilen gibt es sie nur gedruckt. Die Gruppe steht vor folgenden Problemen: • Wie kann sie die großen Mengen an Zeitungsartikeln unterschiedlicher Herkunft mit wenig Aufwand und unter Einhaltung des jeweiligen Urheberrechts zu einem Corpus zusammenfügen? • Wie kann sie das Corpus für die digitale Analyse vorbereiten und mit internationalen Normdaten anreichern? • Wie kann sie eine digitale Analyse des Corpus vornehmen? • Wo und wie können die Daten anschließend gespeichert werden, so dass die erarbeiteten Forschungsergebnisse nachvollziehbar sind?

Posted on

54 Projektbezug und Zusammenhang mit anderen Ressourcen herstellen

< Back to problem stories

Als Forschungsdatenkurator möchte ich ich Forschungsdatensätze und weitere Ressourcen miteinander verknüpfen, um den Entstehungszusammenhang und die Beziehungen zu weiterem Forschungsoutput sichtbarer zu machen. Eine Mindestanforderung ist dabei z.B. die Berücksichtigung der DataCite-Relationstypen IsReferencedBy, IsCitedBy und IsSupplementTo zur Verbindung von Forschungsdaten mit zugehörigen Forschungspublikationen, aber auch Relationen wie IsDerivedFrom, IsSourceOf und IsVersionOf, die den Entstehungszusammenhang zwischen Datensätzen beschreiben. Die Verknüpfung der Ressourcen würde idealerweise mit einem (auch für die datengebenden Fachwissenschaftler einfach zu benutzenden) graphischen Editor stattfinden. Die bisher einzige Open Source-Lösung dafür scheint allerdings die mittlerweile veraltete Erweiterung ckanext-lire (LInked RElationships) für CKAN zu sein (siehe auch zugehörigen Konferenzbeitrag). Wichtig für ein Werkzeug zur Kontextualisierung von Forschungsdatensätzen wäre auch die Einbindung von Forschungsinformationssystemen bzw. auch Bibliothekskatalogen. Insbesondere der Projektkontext könnte durch die Anbindung eines Forschungsinformationssystems hergestellt werden. In Bibliothekskatalogen erfasste Publikationen können über deren DOI oder auch ISBN bzw. den permanenten Links zu den entsprechenden Katalogeinträgen verlinkt werden. Idealweise wird die Verknüpfung von Datensätzen und Publikationen durch Linked Data unterstützt. Für den Projektkontext kommen dazu Ontologien wie PROV-O, FRAPO, VIVO-ISF oder auch die Scholarly Ontology in Frage.

Posted on

53 Datendokumentation zur Nachvollziehbarkeit der Aufbereitung von Forschungsdaten

< Back to problem stories

Als Forschungsdatenmanager oder Forscher möchte ich den Entstehungsverlauf meiner Forschungsdaten im Forschungsprozess genau dokumentieren, um die Verarbeitungsschritte nachvollziehbar zu machen und die Arbeitsabläufe zur Erstellung und weiteren Verarbeitung darüber hinaus als Vorlage für spätere, ähnliche Projekte festzuhalten. Ein typischer Workflow ist beispielsweise die Annotation und Identifikation von in Textquellen genannten Entitäten (Personen, Organisationen, Orte, Ereignisse, Begriffe, usw.) mit Named Entity Recognition- und Named Entity Disambiguation-Werkzeugen oder insbesondere auch die Reconciliation von Entitäten in tabellarischen Daten (etwa zur Harmonisierung historischer Zensusdaten) – z.B. mit dem Tool OpenRefine. Wichtig dabei ist eine Dokumentation der Aufbereitung der Forschungsdaten möglichst schon während des Forschungsprozesses: Wer hat was mit welchem Werkzeug und mit welcher Zuverlässigkeit angereichert? Ideal wären dazu Plattformen, die eine Dokumentation der Arbeitsschritte zur Erstellung und Anreicherung der Forschungsdaten gemäß Datenmanagementplan (DMP) – d.h. Forschungsdatenmanagement-Workflows im “life cycle of historical information” (siehe dazu https://doi.org/10.3233/SW-140158) – unterstützt. Für eine spätere Nachnutzung der Daten ist eine ausführliche Datendokumentation wichtig zur Suche nach relevanten Forschungsdaten (z.B. anhand der verwendeten Datenmodelle und Standards wie SDMX, RDF Data Cube und SKOS für Kodierlisten in statistischen Daten) und zur Einschätzung der Qualität der angereicherten Daten (z.B. bei der Zusammenstellung und Integration von kodierten Daten zur statistischen Analyse).

Posted on

52 Publikation von Forschungsdaten als Ergänzung eines Zeitschriftenaufsatzes

< Back to problem stories

Als Redakteur einer geschichtswissenschaftlichen Zeitschrift will ich die Publikation von Forschungsdaten organisieren, um die in Aufsätzen publizierten Forschungsergebnisse anhand der verwendeten Daten (Quellen) nachvollziehbar bzw. reproduzierbar zu machen. Das Problem ist, dass aktuell noch Empfehlungen und Leitlinien für Autoren zur Veröffentlichung sowie zur Sicherung der Datenqualität und ein Metadatenschema zur adäquaten Beschreibung geschichtswissenschaftlicher Forschungsdaten mit Metadaten fehlen. Soll die Publikation von Forschungsdaten in einer Forschungsdaten-Policy für die Zeitschrift geregelt werden oder in einer eigenen Forschungsdaten-Policy der herausgebenden Körperschaft (Institut) festgelegt sein? In welchem Repositorium sollen die Forschungsdaten zur Verfügung gestellt werden? Reicht ggf. eine Veröffentlichung als Supplement auf der Website des Zeitschriftenverlags oder sollte besser ein fachspezisches bzw. das institutionelle Forschungsdatenrepositorium verwendet werden? Welche fachspezifischen methodischen Aspekte der Erstellung, Sammlung, Aufbereitung, Auswertung oder sonstigen Bearbeitung der Forschungsdaten müssen neben den administrativen, rechtlichen und natürlich technischen Aspekten in den Metadaten beschrieben werden?

Posted on

51 Ortsverteilte Digitalisierung und virtuelle Präsentation nicht lateinschriftlicher Archivakten

< Back to problem stories

Im Zuge eines geförderten Projekts sollen mehrere Millionen Blatt Akten in lateinischer und nicht lateinischer Schrift aus der ersten Hälfte des 20. Jahrhunderts digitalisiert und im Internet mehrsprachig präsentiert werden. Die Aktenbestände befinden sich in unterschiedlichen Archiven im In- und Ausland und weisen unterschiedliche Arten sowie Grade der Erschließung auf. Die Projektmitarbeiter*innen stehen vor dem Problem, einen koordinierten, aber dezentral organisierten Workflow zur Retrodigitialisierung und Erschließung der Akten zu entwickeln. Hierbei stellt sich zunächst die organisatorische und gleichsam diplomatische Frage, wie man am besten mit den betreffenden Archiven in Kontakt treten und die Arbeiten organisieren kann. Dann bestehen urheber- und datenschutzrechtliche Zweifel, insbesondere vor dem Hintergrund, dass viele der Akten in Archiven außerhalb Europas aufbewahrt werden. Dazu zählen auch veröffentlichungsrechtliche Fragen, etwa, inwieweit und in welcher Form man digitalisiertes Schriftgut aus nicht deutschen Archiven überhaupt virtuell publizieren darf. Ferner besteht die Schwierigkeit, ein aussagekräftiges, aber nicht zu kompliziertes Metadatenschema in mehreren (auch nicht lateinischen) Schriften zu entwickeln, das sowohl historischen als auch archivwissenschaftlichen Ansprüchen genügt. Hierbei besteht zudem der Wunsch, bereits in den Archiven vorliegende Metadaten mit dem projekteigenen Metadatenset zu harmonisieren und somit für die Projektarbeit nachzunutzen. Schlussendlich stellt sich das Problem, eine passende technische Grundlage zu finden, um nicht nur den Projektworkflow zu unterstützen, sondern die digitalisierten und mit Metadaten angereicherten Akten auch in rechtlich zulässiger Form im Internet verfügbar zu machen.

Posted on

50 Dezentrale Digitalisierung und virtuelle Präsentation von historischen Interviews in nicht lateinischen Schriften

< Back to problem stories

Im Zuge eines internationalen Projektes sollen mehrere hundert Interviews in nicht lateinischer Schrift digitalisiert, mit Metadaten versehen und im Internet präsentiert werden. Die Interviews wurden in der ersten Hälfte des 20. Jahrhunderts verschriftlicht und befinden sich in verschiedenen Archiven im nicht europäischen Ausland. Einige der Materialien wurden bereits retrodigitalisiert. Die Projektmitarbeiter*innen sind mit folgenden Problemen konfrontiert: • Rechtliche Unsicherheiten: Es herrschen urheber- und datenschutzrechtliche Unklarheiten, unter anderem hinsichtlich der möglichen Verarbeitung personenbezogener Daten. Daher stellt sich die Frage, welche Maßnahmen zum Schutz dieser Daten getroffen werden müssen und wie sie umgesetzt werden können. Hierzu zählen unter anderem Anonymisierungskonzepte und -standards, aber auch die Frage, ob und in welcher Form derartige Materialien veröffentlicht werden dürfen. • Metadaten: Unklar ist, welche Metadaten für das Projekt notwendig sind und inwiefern bereits in den Archiven vorhandene Metadaten nachnutzbar sind. Des Weiteren herrscht Unklarheit darüber, wie man die Metadaten so gestaltet, dass sie die historischen, bibliothekarischen und archivwissenschaftlichen Anforderungen in mehreren Sprachen erfüllen. • Standards für Textdaten: Es besteht Unklarheit, welche Standards für die Veröffentlichung von Textdaten existieren und welche in dem vorliegenden Fall wie anzuwenden sind. • Technische Plattform: Es wird eine technische Lösung gesucht, um die Metadaten dezentral in mehreren lateinischen und nicht lateinischen Schriften erfassen und präsentieren zu können. Darüber hinaus soll eine Volltextsuche in den Interviews möglich sein. Die Visualisierung von Standorten auf interaktiven Karten soll ebenfalls unterstützt werden. Die technische Lösung soll des Weiteren anschlussfähig für Systeme zur digitalen Langzeitarchivierung für die dauerhafte Speicherung sein. • Workflow: Es besteht die Schwierigkeit, einen Arbeitsablauf zu organisieren, der die unterschiedlichen dezentral stattfindenden Arbeitsschritte koordiniert und dokumentiert.

Posted on

49 Digitale Quellenedition historischer Berichte

< Back to problem stories

Ein Forschender möchte eine digitale Edition historischer Berichte aus dem 17. und 18. Jahrhunderts im Internet veröffentlichen. Die Dokumente liegen in unterschiedlichen Sprachen in lateinischer Schrift in verschiedenen europäischen Archiven vor. Die Edition soll ein Verzeichnis der Berichte und verschiedene Register umfassen. Es soll zudem Verknüpfungen mit unterschiedlichen Arten von Normdaten (unter anderem GND, VIAF) geben. Eine erweiterte Suche soll die Recherche im Dokumentenbestand erleichtern. So soll beispielsweise nach Fundort, Titel, Absender*in, Empfänger*in, Absendeort und Empfängerdatum gesucht werden können. Der Forschende muss für sein Projekt folgende Probleme lösen: • Zunächst müssen die in verschiedenen europäischen Archiven vorhandenenhistorischen Berichten transkribiert werden. Dem Forschenden sind mit Blick auf digitale Editionen jedoch weder einschlägige Standards noch Richtlinien bekannt. • Zudem fehlt es ihm an persönlichen Kontakten in den unterschiedlichen Archiven mit ihren jeweiligen Nationalsprachen. • Der Forschende ist ferner nur rudimentär mit digitalen Editionen vertraut und kennt deren editionswissenschaftliche Gepflogenheiten und Möglichkeiten nicht. • Obwohl er eine klare Vorstellung davon hat, welche Metadaten aus Perspektive der Geschichtswissenschaft relevant sind, weiß er nicht, ob diese für digitale historische Editionen ausreichend bzw. passend sind. • Darüber hinaus ist ihm nicht bekannt, welche technische Plattform man für ein solches Vorhaben benötigt und welche Kosten damit verbunden sind. • Des Weiteren weiß der Forschende nicht, ob bzw. wie seine Edition langfristig gesichert werden kann und was dafür zu tun ist.

Posted on