Task Area 3

74 Kontrollierte Vokabulare und proprietäre Softwares

< Back to problem stories

Als Forschungseinrichtung müssen wir die Langzeitarchivierung der Forschungsdaten sichern aber sind von unseren proprietären Softwares auf verschiedenen Ebenen eingeschränkt. Zwar erlaubt unser Datenbanksystem die Daten laut verschiedenen Formaten (e.g. XML) und Schemata eines selben Formats (e.g. archivfachlichem XML-EAC) zu exportieren aber die innerhalb des Datenbanksystems bereits bestehenden Thesauri und Taxonomien können ohne (gebührenpflichtige) technische Betreuung nicht ausgeführt werden. Da die Migration aller Forschungsdaten zu einem neuen geeigneteren (Langzeitarchivierungs-)Gerät jedenfalls zeit-, arbeits- und kostenintensiv wäre, möchten wir dafür sorgen, dass nicht nur die Daten sondern auch die kontrollierten Vokabulare aufbewahrt werden sollen. Wie werden kontrollierte Vokabulare in den Geisteswissenschaften normgerecht freigemacht und langfristig archiviert?

Posted on

73 How to avoid misrepresentations of data

< Back to problem stories

I am Principal Investigator in a project (PENELOPE, funded by ERC, Deutsches Museum) where the key objective is to explore what is categorised as tacit knowledge, in (ancient) weaving. We make a claim that mathematical knowledge, was itself abstracted from weaving principles in Ancient Greece. In order to explicate such knowledge as being rational and technological, we show coding, algorithms, and numbers implicit in weaving practices. Our problem for data management is that, even though we developed a lot of experiments (live coded looms, robot swarms dancing around a maypole, documenting tacit technological conversations of weavers at looms), only the interaction of all of them can eventually be understood as the point we make for weaving knowledge. Once we move forward, the object cannot solve the problem, and when placed in the public domain can end up misrepresenting what the research outcomes are. How do we avoid this situation? In order to generate the necessary insights, we get users to experience the nature of this knowledge, creating analogies through different algorithmic practices – in music, in computers, on looms. We will set up a final workshop/exhibit and make videos of such experiments as documentation. However, the data processing when weaving becomes available only when the object is in motion, in use. The information is complete only when there is actual engagement with the material objects of our project. How do we save this experiential component, which is available in the project, as data structure? If we put this into a data storage facility, we fall into the trap of creating a new graveyard for weaving knowledge. How do we avoid this trap? How can we actually mark points of ‘missing’ data connections?

Posted on

72 Interdisziplinäre Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt wollen Kunsthistoriker*innen, Historiker*innen und Musikwissenschaftler*innen die Geschichte, Rezeption und Präsentation eines epochalen Ereignisses erforschen. Sie suchen nun für die Entwicklung des Antrags und die Planung der Aufgaben Ansprechpartner*innen und Infrastruktureinrichtungen, die ihnen sagen können, wie sie mit den entstehenden Datenmengen (Bilddaten, digitale Editionen, Textdatenbanken, annotierte Digitalisate, etc.) umgehen sollen. Sie möchten z.B. wissen: • Was sind die besten Vorgehensweisen zur Benennung der Daten und ihrer Verwaltung? • Welche Datenformate sind besonders geeignet? • Wo können sie die Daten nach Abschluss des Projektes sichern? • Wie und wo sie können sie diese Daten für andere Wissenschaftler*innen ihrer Disziplinen gut auffindbar machen? Bei der Suche nach Informationen finden sie viele sehr allgemeine und wenige genauere Hinweise, die dann aber aus der Sicht nur einer der beteiligten Disziplinen verfasst sind. Das Team findet keine Best Practices und keine Beratungen, die auf die Herausforderungen interdisziplinärer Vorhaben in ihren Wissenschaften eingehen. Potentielle Lösung Arbeitskreis Digital Humanities als ein institutionalisiertes Gremium von Digital Humanists aus der Projektpraxis in den verschiedenen Geistes- und Sozialwissenschaften

Posted on

71 Grenzübergreifende Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt italienischer, französischer und deutscher Wissenschaftler*innen werden die Berichte, Korrespondenzen und Sachzeugnisse dreier Reisender auf ihrer Grand Tour erforscht. Die Quellen befinden sich in Archiven und Museen in Italien, Frankreich, Deutschland und in der Schweiz. Viele dieser Quellen sind nicht digitalisiert, sollen aber durch das Projekt digitalisiert werden. Von Beginn an möchte das Team, dass: • die Digitalisate anschließend übergreifend auffindbar und verwendbar sind, • die Daten zu den Stationen der Grand Tour in allen beteiligten Ländern einfach auffindbar sind, • die Daten und Digitalisate im Rahmen des Wissenstransfers frei und einfach genutzt werden können. Das Projektteam findet aber in jedem Land unterschiedliche Ansprechpartner*innen, zum Beispiel sind mal die Archive und mal Forschungsinstitute zuständig. Die Wissenschaftler*innen können bei den Auskünften nicht einschätzen, inwieweit die vorgeschlagenen Lösungen auch für das andere Land passend sind. Insgesamt fehlen Best Practices und Ansprechpartner*innen für den Umgang mit Forschungsdaten in grenzübergreifenden Projekten in der Geschichtswissenschaft. Potentielle Lösung Kompetenzbereich der Max Weber Stiftung: traditionsreiche bi- und multinationale Projektarbeit

Posted on

70 Sozialdaten als Quellen der Zeitgeschichte

< Back to problem stories

Im Rahmen eines geförderten Projekts beteiligt sich das DHI London daran, Richtlinien für eine von zeithistorischen ForscherInnen dringend benötigte Infrastruktur zur Erfassung, Langzeitarchivierung, Zugänglichkeit und Auswertung neuartiger Datenbestände (sogenannter „Sozialdaten“) aufzubauen. Bei Sozialdaten handelt es sich um die seit der 2. Hälfte des 20. Jahrhunderts zunehmend erzeugten Datensammlungen einerseits staatlicher Behörden, andererseits (im breitesten Sinne) sozialwissenschaftlicher Forschungen. Dies sind heterogene, oft fragmentarisch überlieferte, quantitative und qualitative Daten. Ziel der laufenden Machbarkeitsstudie ist, vorhandene Sozialdatenbestände zu evaluieren, die Bedarfe zeithistorischer Forschung zu erfassen und Umsetzungsmodelle für den Aufbau einer solchen Forschungsdateninfrastruktur herauszuarbeiten und in der Fachcommunity breit zu verankern. Die Forschungsinfrastruktur soll unter anderem zum Erreichen folgender Ziele beitragen: • Sozialdaten sollen als historische Quellen erschlossen und langzeitarchiviert werden können; • diese Datenbestände sollen für die historische Forschung sichtbar dokumentiert und zentral recherchierbar sein; • Metadatenformate zur Kontextualisierung sollen bereitgestellt werden; • es sollen fortlaufend Tools zur optimalen Nutzung der Sozialdaten gemäß den historischen Forschungsinteressen entwickelt und betreut werden; • Beratungs- und Schulungsangebote zu Sozialdaten sollen angeboten werden; • Bedingungen einer rechtskonformen Nachnutzung von Sozialdaten in Bezug auf Datenschutz, Nutzungsbedingungen und Eigentum an den Daten sollen erkundet werden; • Plattformen für die Kommunikation zwischen DatennutzerInnen und DatenhalterInnen sowie zwischen sozial- und geschichtswissenschaftlichen Forschenden sollen entstehen; • die Verknüpfung mit anderen nationalen und internationalen Infrastrukturen gleichen Typs soll hergestellt werden, um mittel- bzw. langfristig internationale Forschungsinfrastrukturen aufbauen zu können. Die Forschenden stoßen auf folgende Probleme: • stark fragmentierte Datenbestände; • Fehlen einer leicht auffindbaren und aussagekräftigen Dokumentation der Daten (beispielsweise zum Archivierungsort); • Fehlen einheitlicher Standards zum Kuratieren zeitgeschichtlicher Daten, etwa von Interviews; • rechtliche Unklarheiten, etwa zu Datenschutz, Urheberrecht, Anonymisierung; • hohe Hürden für HistorikerInnen zur Forschung mit Sozialdaten, da frei verfügbare Sozialdatenbestände fehlen und die statistischen Kenntnisse für deren Auswertung nicht in den historischen Curricula der Universitäten verankert sind; • Nichtberücksichtigung von Schnittstellen zu sozialwissenschaftlichen Infrastrukturen und Erschließungstechniken beim bisherigen Aufbau digitaler geisteswissenschaftlicher Forschungsinfrastrukturen.

Posted on

67 Nicht nur Daten, sondern auch Workflows

< Back to problem stories

Bei der Aufbereitung, Auswertung und Publikation von Forschungsdaten gibt es wiederkehrende Bearbeitungsschritte, die im Detail aber auch immer wieder leicht variieren können. Beispiel: Ich möchte meine Daten mit Hilfe von Named-Entity Recognition (NER)-Methoden semantisch anreichern. Das in einer Onlinedokumentation beschriebene Verfahren lässt sich jedoch nicht auf die Sprache meiner Quellen oder den für mich relevanten historischen Kontext anwenden. Gibt es ein einfach zu bedienendes Repositorium, in dem Wissenschaftler*innen ihre beispielhaften use-cases und Lösungsvorschläge publizieren können, so dass sie von anderen Wissenschaftlern nachgenutzt und gegebenenfalls um alternative Vorgehensweisen ergänzt werden können?

Posted on

65 Normdaten

< Back to problem stories

Ich bin Mediävist*in und habe zahlreiche in meinen Quellen genannte Personen, Orte und Institutionen identifizieren können. Nun möchte ich diese Ergebnisse einem breiteren Fachpublikum zur Verfügung stellen und damit vermeiden, dass eine solche zeitintensive Forschungstätigkeit immer wieder neu betrieben werden muss. Für diesen speziellen Datenbestand decken die derzeitig einschlägigen Normdatenrepositorien und -services wie z.B. Wikidata jedoch nur einen Bruchteil meines Bedarfes ab. Nur die wenigsten Personen lassen sich z.B. über die GND identifizieren, kleinere Ortschaften tauchen in den Gazeteers kaum auf, zudem gibt es kein normiertes Vokabular mittelalterlicher Institutionen. Allgemein fehlt es an Normdatenlösungen für meinen Fachbereich und Möglichkeiten, die Daten im Sinne des Semantic Web auf entsprechenden Plattformen als Linked Open Data (LOD) veröffentlichen zu können.

Posted on

62 Ortsverteilte Erfassung und virtuelle Präsentation nicht lateinschriftlicher Musikquellen + Digitale und analoge Edition

< Back to problem stories

Eine Gruppe von Forschenden untersucht im Rahmen eines Drittmittelprojekts orientalische Musik des 19. Jahrhunderts. Die Musikstücke liegen in analoger Form in verschiedenen Handschriften und Drucken vor, wobei teilweise unterschiedliche Quellen für ein und dasselbe Werk existieren. Die Quellen befinden sich an verschiedenen Standorten im nicht europäischen Ausland. Das Material weicht sowohl von sprachlichen als auch musikalischen Standards ab: in den Handschriften und Drucken mischen sich unterschiedliche nicht lateinische Sprachen und Schriftzeichen (mit einigen historischen Sonderzeichen), die historische Musiknotation entspricht ebenfalls nicht dem westeuropäischen Notationsstandard. Die Forschenden möchten einen einschlägigen Quellenkatalog aufbauen und im Internet zugänglich machen. Dabei stehen sie vor dem Problem, ein geeignetes technisches System zu finden, das die spezifischen sprachlichen und musikwissenschaftlichen Anforderungen der Quellen erfüllt. Zudem fragen sie sich, welche Metadaten dafür notwendig sind und wie man diese standardisiert in mehreren Sprachen und Schriftsystemen ortsverteilt erfassen und darstellen kann. Ferner stellt sich die Frage, wie man den Quellenkatalog langfristig sichern und funktionsfähig halten kann. Darüber hinaus entscheiden sich die Forschenden dafür, die Handschriften und Drucke gedruckt und online zu veröffentlichen. Hierbei stehen sie zunächst vor dem Problem, den Quellenkatalog für diesen Zweck anpassen zu müssen, um die digitalen Editionen virtuell präsentieren zu können. Unklar ist, inwiefern eine Erweiterung des Quellenkatalogs genügt oder ob stattdessen ein neues System dafür notwendig ist. Zudem wissen die Projektbeteiligten nicht, welche Standards für historische Editionen gelten, insbesondere für historische Musikeditionen und welche Editionswerkzeuge und -systeme die spezifischen sprachlichen und musikwissenschaftlichen Anforderungen des Quellmaterials erfüllen können. Ferner fehlt im Projekt ein Workflow, um ausgehend von dem analog vorliegenden Quellenmaterial digitale und gedruckte Editionen zu erstellen. Schließlich ist den Forschenden nicht klar, wie eine langfristige Sicherung der digitalen musikhistorischen Editionen sichergestellt werden kann.

Posted on

60 Historische Grenzen und Raumordnungen

< Back to problem stories

Unser Online-Quellenportal bietet neben Text- und Bildquellen auch eine Vielzahl von Karten, die die wechselnden Grenzen und politischen Einheiten des heutigen Deutschlands von der Frühen Neuzeit bis in die Gegenwart zeigen. Statt statischer Karten erwarten durch Google Maps und ähnliche Dienste geprägte Nutzer*innen von einem modernen Internet-Angebot zunehmend dynamische Karten, die das Heran- und Wegzoomen bestimmter Gegenden, dynamische Animationen von Grenzverschiebungen im zeitlichen Verlauf sowie die interaktive Einblendung von Zusatzinformationen wie etwa die Lebenswege bestimmter Personen unterstützen. Programmbibliotheken wie leaflet.js ermöglichen es, solche Funktionalitäten sowohl auf aktuellen Luftbildkarten als auch mit retro-digitalisierten historischen Karten im Hintergrund zu realisieren. Uns fehlt aber ein historisches Geoinformationssystem, das die häufig wechselnden Landes- und Gebietsgrenzen in Europa und insbesondere in Deutschland über die letzten Jahrhunderte (Altes Reich, Napoleonisches Zeitalter, Deutscher Bund, Reichsgründung, Weimarer Republik, Deutsche Teilung, Neue Bundesrepublik) mit den entsprechenden Territorien (Fürsten- und Herzogtümer, Königreiche, Bundesstaaten, (Bundes-)Länder und Bezirke) in passenden Formaten hinreichend exakt und unter einer freien Lizenz bereitstellt.

Posted on

59 Sicherung der einheitlichen Erfassung von Metadaten für Forschungsdaten

< Back to problem stories

Als Forschungsdatenkurator möchte ich die einheitliche Beschreibung von Forschungsdaten mit Metadaten durch die Forschenden kontrollieren und sichern, um die Forschungsdaten möglichst gut wiederauffindbar zu machen. Wie gewährleiste ich eine einheitliche Beschreibung von Forschungsdaten, die von verschiedenen Wissenschaftlern aus verschiedenen disziplinären aber auch interdisziplinären Arbeitsgruppen kommen? Eine brauchbare technische Plattform, die mich beim Einrichten von Workflows für Metadaten-Review bzw. Qualitätskontrolle der Daten und Metadaten unterstützt, scheint es derzeit noch nicht zu geben.

Posted on