Task Area 4

84 Forschungsdaten als Vertrauenssache

< Back to problem stories

Als Leiter des Programmbereichs Forschungsinfrastrukturen an einem zeithistorischen Forschungsinstitut bin ich auf verschiedenen Ebenen mit den Bedürfnissen der Forschenden hinsichtlich Archivierung, Erschließung und Bereitstellung, der von ihnen produzierten Forschungsdaten, aber auch gleichzeitig auch mit einer ganzen Reihe von Unsicherheiten und Befürchtungen konfrontiert. Beim Aufbau eines institutsweiten Verfahrens und Regelsystem für den Umgang mit Forschungsdaten haben sich folgende Probleme gezeigt, die für den Aufbau übergreifender Infrastrukturen von Bedeutung sind: 1. Forschungsdaten sind eine "Vertrauenssache" und ein Feld von hoher Sensibilität für die Forschenden. Gegenüber forschungsfernen zentralen Infrastrukturen gibt es daher zahlreiche Vorbehalte, die durch intermediäre Strukturen des Datenmanagements aufgefangen werden müssen 2. Forschungsdatenmanagement setzt einen Kulturwandel in der Disziplin voraus. Wer seine Daten erschließt, archiviert und zur Nachnutzung bereitstellt muss daraus fachlichen Reputationsgewinn ziehen können. 3. Als Praxis muss Forschungsdatenmanagement bereits von Anfang an in den Prozess der Projektbearbeitung implementiert werden. Entsprechende Infrastrukturen sollten als Arbeitsumgebung funktionieren und Werkzeuge für die Bearbeitung der Daten bereitstellen. 4. Es müssen fachliche Standards für die Qualität von Forschungsdatensammlungen etabliert werden und ein Instrumentarium für die fachliche Kritik solcher Ergebnisformen etabliert werden ("H-Soz-Kult für Forschungsdaten") 5. Bislang fehlt es in den meisten Einrichtungen an Personal und Ressourcen für das Forschungsdatenmanagement. Neben dem Aufbau einer nationalen Infrastruktur muss diese Aufgaben in den Bereichen vor Ort als Feld fachlicher Wertschätzung und strategische Aufgabe etabliert werden, wofür entsprechende Ressourcen bereitgestellt werden. 6. Um eine Kultur im Umgang mit Forschungsdaten zu etablieren braucht es neben der zentralen Infrastruktur fachdisziplinbezogenen Wissensplattformen mit Tutorials, Ratgebern, Musterverträgen und Best-Practice Beispielen. Dazu sollten die etablierten Plattformen der Fachinformation und -Kommunikation weiterentwickelt werden 7. Es bedarf einer Aufklärungskampagne über Fragen des Datenschutzes bei Forschungsdaten, die Rechtssicherheit etablieren hilft. Auch dies eine Aufgabe für Data Culture

Posted on

81 Nachnutzung von zeitgeschichtlichen Interviews

< Back to problem stories

Zu einem zeitgeschichtlichen Thema wurden in den letzten Jahrzehnten viele Interviews im Rahmen von wissenschaftlichen Arbeiten zum Thema geführt. Ich würde gerne diese Interviews mit dem heutigen zeitlichen Abstand darauf untersuchen, welchen Einfluss sie auf die allgemeine Wahrnehmung des Gegenstands ausgeübt haben und wie der jeweilige zeitgeschichtliche Kontext der Interviewsituation sich in dieser und den (nicht) gestellten Fragen niedergeschlagen hat. Leider gibt es keine zentrale Stelle, an der solche Interviews verzeichnet sind, geschweige denn ein zentrales oder auch virtuelles Archiv. Viele Interviews sind in privaten Regalen der Forschenden oder kaum erschlossen an den beteiligten Institutionen gelagert, andere finden sich verteilt über verschiedene Archive. Manche Originalaufnahmen sind nicht mehr existent. In den seltensten Fällen ist die Frage der Nachnutzung rechtlich eindeutig geklärt. Oft hängt die Möglichkeit der Nachnutzung an persönlichen oder institutionellen Beziehungen und dem Vertrauen der Urheber*innen in die Nachnutzenden. Um die Ausgangssituation für solche Fragestellungen zu verbessern, sehe ich verschiedene Ansatzpunkte: 1. Ein Archivübergreifendes digitales Verzeichnis von Interviews, das die Auffindbarkeit verbessert. Vorhaben wie das DFG Projekt „Oral History digital“ mit dem das ZZF kooperiert sollten deshalb unbedingt in den NFDI-Prozess einbezogen werden. 2. Ein vereinheitlichtes Set von Metadaten, um die Recherche über Archivgrenzen hinweg zu vereinfachen. 3. Archivierungsangebote für einzelne Forschende und kleinere Institutionen, die eine angemessene Archivierung inkl. Aufbereitung des Materials für die Archivierung nicht selber leisten können. 4. Vorlagen für rechtliche Erklärungen (Einverständniserklärung,…), die auch die Möglichkeit der Nachnutzung einbeziehen und für alle Seiten transparent und praktikabel regeln. 5. Eine Debatte um den Wert von Interviews über den eigenen Forschungskontext hinaus als originäre Forschungsdaten. 6. Die Entwicklung einer Wissenschaftskultur der verantwortlichen Nachnutzung, die berücksichtigt, dass a) ein Interview nur auf Grundlage einer Vertrauensbeziehung zwischen Interviewenden und Interviewten entstanden ist und dieses Vertrauen nicht einfach übertragbar ist. b) ein Interview auch viel über den/die Forschende verrät und damit verletzbar/angreifbar macht.

Posted on

77 Workshop Datenpublikation: Suche Syllabus!

< Back to problem stories

Als verantwortliche Person an einer außeruniversitären Einrichtung möchte ich für die Forschenden in der Qualifizierungsphase Weiterbildungsformate im Bereich Forschungsdatenmanagement anbieten. Insbesondere die Publikation von Forschungsdaten soll gemäß der institutionellen Forschungsdatenleitlinie unterstützt werden. Ein eintägiger Workshop zu Möglichkeiten und Rahmenbedingungen von Datenpublikationen in den Geschichtswissenschaften soll für den Themenbereich sensibilisieren und konkrete Handlungsoptionen für die Forschenden bieten. Eine Konzeption der Veranstaltung von Null auf wäre zu aufwendig für die Einrichtung, so dass ich auf vorhandene Konzepte und Material zurückgreifen möchte und dieses über eine Internetrecherche auffindbar sein sollte. Das Material sollte einen vollständigen Syllabus und Foliensätze umfassen sowie idealerweise auch das Feedback von Teilnehmenden bereits realisierter Veranstaltungen enthalten. Die Recherche blieb jedoch erfolglos: Veranstaltungen zum Forschungsdatenmanagement in den historischen Wissenschaften finden sich insgesamt nur wenige, die recherchierbar und dokumentiert sind, darunter sind noch weniger als Fortbildungsveranstaltung für die Qualifizierungsphase konzipiert und nachnutzbares Lehrmaterial findet sich darunter nur in absoluten Ausnahmefällen, jedoch keines zum Thema Datenpublikation. Während für generische Themen des Forschungsdatenmanagements ausreichend Material zur Verfügung steht, fehlt es an den notwendigen fachspezifischen Adaptionen, besonders im Bereich der historischen Geisteswissenschaften.

 

Task Area

Perspective

Tags

Posted on

73 How to avoid misrepresentations of data

< Back to problem stories

I am Principal Investigator in a project (PENELOPE, funded by ERC, Deutsches Museum) where the key objective is to explore what is categorised as tacit knowledge, in (ancient) weaving. We make a claim that mathematical knowledge, was itself abstracted from weaving principles in Ancient Greece. In order to explicate such knowledge as being rational and technological, we show coding, algorithms, and numbers implicit in weaving practices. Our problem for data management is that, even though we developed a lot of experiments (live coded looms, robot swarms dancing around a maypole, documenting tacit technological conversations of weavers at looms), only the interaction of all of them can eventually be understood as the point we make for weaving knowledge. Once we move forward, the object cannot solve the problem, and when placed in the public domain can end up misrepresenting what the research outcomes are. How do we avoid this situation? In order to generate the necessary insights, we get users to experience the nature of this knowledge, creating analogies through different algorithmic practices – in music, in computers, on looms. We will set up a final workshop/exhibit and make videos of such experiments as documentation. However, the data processing when weaving becomes available only when the object is in motion, in use. The information is complete only when there is actual engagement with the material objects of our project. How do we save this experiential component, which is available in the project, as data structure? If we put this into a data storage facility, we fall into the trap of creating a new graveyard for weaving knowledge. How do we avoid this trap? How can we actually mark points of ‘missing’ data connections?

Posted on

72 Interdisziplinäre Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt wollen Kunsthistoriker*innen, Historiker*innen und Musikwissenschaftler*innen die Geschichte, Rezeption und Präsentation eines epochalen Ereignisses erforschen. Sie suchen nun für die Entwicklung des Antrags und die Planung der Aufgaben Ansprechpartner*innen und Infrastruktureinrichtungen, die ihnen sagen können, wie sie mit den entstehenden Datenmengen (Bilddaten, digitale Editionen, Textdatenbanken, annotierte Digitalisate, etc.) umgehen sollen. Sie möchten z.B. wissen: • Was sind die besten Vorgehensweisen zur Benennung der Daten und ihrer Verwaltung? • Welche Datenformate sind besonders geeignet? • Wo können sie die Daten nach Abschluss des Projektes sichern? • Wie und wo sie können sie diese Daten für andere Wissenschaftler*innen ihrer Disziplinen gut auffindbar machen? Bei der Suche nach Informationen finden sie viele sehr allgemeine und wenige genauere Hinweise, die dann aber aus der Sicht nur einer der beteiligten Disziplinen verfasst sind. Das Team findet keine Best Practices und keine Beratungen, die auf die Herausforderungen interdisziplinärer Vorhaben in ihren Wissenschaften eingehen. Potentielle Lösung Arbeitskreis Digital Humanities als ein institutionalisiertes Gremium von Digital Humanists aus der Projektpraxis in den verschiedenen Geistes- und Sozialwissenschaften

Posted on

71 Grenzübergreifende Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt italienischer, französischer und deutscher Wissenschaftler*innen werden die Berichte, Korrespondenzen und Sachzeugnisse dreier Reisender auf ihrer Grand Tour erforscht. Die Quellen befinden sich in Archiven und Museen in Italien, Frankreich, Deutschland und in der Schweiz. Viele dieser Quellen sind nicht digitalisiert, sollen aber durch das Projekt digitalisiert werden. Von Beginn an möchte das Team, dass: • die Digitalisate anschließend übergreifend auffindbar und verwendbar sind, • die Daten zu den Stationen der Grand Tour in allen beteiligten Ländern einfach auffindbar sind, • die Daten und Digitalisate im Rahmen des Wissenstransfers frei und einfach genutzt werden können. Das Projektteam findet aber in jedem Land unterschiedliche Ansprechpartner*innen, zum Beispiel sind mal die Archive und mal Forschungsinstitute zuständig. Die Wissenschaftler*innen können bei den Auskünften nicht einschätzen, inwieweit die vorgeschlagenen Lösungen auch für das andere Land passend sind. Insgesamt fehlen Best Practices und Ansprechpartner*innen für den Umgang mit Forschungsdaten in grenzübergreifenden Projekten in der Geschichtswissenschaft. Potentielle Lösung Kompetenzbereich der Max Weber Stiftung: traditionsreiche bi- und multinationale Projektarbeit

Posted on

70 Sozialdaten als Quellen der Zeitgeschichte

< Back to problem stories

Im Rahmen eines geförderten Projekts beteiligt sich das DHI London daran, Richtlinien für eine von zeithistorischen ForscherInnen dringend benötigte Infrastruktur zur Erfassung, Langzeitarchivierung, Zugänglichkeit und Auswertung neuartiger Datenbestände (sogenannter „Sozialdaten“) aufzubauen. Bei Sozialdaten handelt es sich um die seit der 2. Hälfte des 20. Jahrhunderts zunehmend erzeugten Datensammlungen einerseits staatlicher Behörden, andererseits (im breitesten Sinne) sozialwissenschaftlicher Forschungen. Dies sind heterogene, oft fragmentarisch überlieferte, quantitative und qualitative Daten. Ziel der laufenden Machbarkeitsstudie ist, vorhandene Sozialdatenbestände zu evaluieren, die Bedarfe zeithistorischer Forschung zu erfassen und Umsetzungsmodelle für den Aufbau einer solchen Forschungsdateninfrastruktur herauszuarbeiten und in der Fachcommunity breit zu verankern. Die Forschungsinfrastruktur soll unter anderem zum Erreichen folgender Ziele beitragen: • Sozialdaten sollen als historische Quellen erschlossen und langzeitarchiviert werden können; • diese Datenbestände sollen für die historische Forschung sichtbar dokumentiert und zentral recherchierbar sein; • Metadatenformate zur Kontextualisierung sollen bereitgestellt werden; • es sollen fortlaufend Tools zur optimalen Nutzung der Sozialdaten gemäß den historischen Forschungsinteressen entwickelt und betreut werden; • Beratungs- und Schulungsangebote zu Sozialdaten sollen angeboten werden; • Bedingungen einer rechtskonformen Nachnutzung von Sozialdaten in Bezug auf Datenschutz, Nutzungsbedingungen und Eigentum an den Daten sollen erkundet werden; • Plattformen für die Kommunikation zwischen DatennutzerInnen und DatenhalterInnen sowie zwischen sozial- und geschichtswissenschaftlichen Forschenden sollen entstehen; • die Verknüpfung mit anderen nationalen und internationalen Infrastrukturen gleichen Typs soll hergestellt werden, um mittel- bzw. langfristig internationale Forschungsinfrastrukturen aufbauen zu können. Die Forschenden stoßen auf folgende Probleme: • stark fragmentierte Datenbestände; • Fehlen einer leicht auffindbaren und aussagekräftigen Dokumentation der Daten (beispielsweise zum Archivierungsort); • Fehlen einheitlicher Standards zum Kuratieren zeitgeschichtlicher Daten, etwa von Interviews; • rechtliche Unklarheiten, etwa zu Datenschutz, Urheberrecht, Anonymisierung; • hohe Hürden für HistorikerInnen zur Forschung mit Sozialdaten, da frei verfügbare Sozialdatenbestände fehlen und die statistischen Kenntnisse für deren Auswertung nicht in den historischen Curricula der Universitäten verankert sind; • Nichtberücksichtigung von Schnittstellen zu sozialwissenschaftlichen Infrastrukturen und Erschließungstechniken beim bisherigen Aufbau digitaler geisteswissenschaftlicher Forschungsinfrastrukturen.

Posted on

68 Datenmigration

< Back to problem stories

Ich bin Wissenschaftler*in und möchte einen aus unterschiedlichen Quellen aggregierten Datenbestand für Fragestellungen nutzen, die ich z.B. mit Hilfe von Methoden aus dem Bereich des Textmining oder der Netzwerkanalyse beantworten könnte. Anschließend möchte ich die Ergebnisse so publizieren, dass sie von anderen Wissenschaftler*innen nachvollzogen und reproduziert werden können. Die Ausgangsdaten liegen in unterschiedlichen, fachspezifischen (teils auch älteren, heute nicht mehr gebräuchlichen) Datenformaten/Versionen vor (Plaintext, Word, Indesign, Tustep, verschiedene XML-Notationen, etc.). Mir stellen sich folgende Fragen: Wie lassen sich die Daten in ein für meine Fragestellung geeignetes Format transformieren? Gibt es einen (Web)Service für so etwas? Welches ist ein geeignetes Format für die Publikation der Ergebnisse? Wie kann ich sicherstellen, dass die Werkzeuge und Algorithmen, die ich für die Analyse benutzt habe, auch für weitere Generationen von Forschenden noch auffindbar sind und meine Ergebnisse reproduziert werden können?

Posted on

67 Nicht nur Daten, sondern auch Workflows

< Back to problem stories

Bei der Aufbereitung, Auswertung und Publikation von Forschungsdaten gibt es wiederkehrende Bearbeitungsschritte, die im Detail aber auch immer wieder leicht variieren können. Beispiel: Ich möchte meine Daten mit Hilfe von Named-Entity Recognition (NER)-Methoden semantisch anreichern. Das in einer Onlinedokumentation beschriebene Verfahren lässt sich jedoch nicht auf die Sprache meiner Quellen oder den für mich relevanten historischen Kontext anwenden. Gibt es ein einfach zu bedienendes Repositorium, in dem Wissenschaftler*innen ihre beispielhaften use-cases und Lösungsvorschläge publizieren können, so dass sie von anderen Wissenschaftlern nachgenutzt und gegebenenfalls um alternative Vorgehensweisen ergänzt werden können?

Posted on

63 Forschungssoftware

< Back to problem stories

Wesentlicher Kern der Digital Humanities ist die Entwicklung und Erforschung digitaler Methoden zur Beantwortung geisteswissenschaftlicher Fragestellungen. Softwareentwicklung stellt in diesem Zusammenhang einen zentralen Bestandteil der Forschungspraxis dar. Nicht selten ist dabei die Entwicklung eines Algorithmus, einer Schnittstelle oder eines Softwarepaketes die eigentliche wissenschaftliche Leistung. Forschungssoftware entsteht in einem komplexen, kreativen, kombinatorischen und oft kollaborativen Prozess, der durch zahlreiche Abhängigkeiten zu anderen Ressourcen und Softwarekomponenten gekennzeichnet ist. Im Gegensatz zu klassischen Forschungsdaten ist der Lebenszyklus von Forschungssoftware wesentlich kürzer und weitaus anfälliger für „äußere Einflüsse“. Zum einen wird Forschungssoftware häufig nur zur kurzfristigen Erzeugung oder Verifikation von Forschungsergebnissen erstellt, zum anderen leidet sie unter der oft begrenzten Förderdauer von Projekten. Themen wie das Überarbeiten von Quellcode, um eine bessere Wartbarkeit zu erzielen, oder das Erstellen von Dokumentationen und Tutorials werden aus Zeitgründen häufig nicht in ausreichendem Maße berücksichtigt. Zudem fallen bei Auslauf der Projektmittel die Softwareentwickler*innen als notwendige technische Expert*innen weg, so dass die Software nicht mehr gepflegt wird und schnell veraltet. Als spezielle Art von Forschungsdaten stellt Software besondere Herausforderungen an den Entwicklungsprozess und an ein nachhaltiges Datenmanagement. Die Anerkennung von Software als Forschungsergebnis sowie die Schaffung institutioneller Strukturen, die Softwareentwickler*innen verlässliche Karrierewege ermöglichen und nicht zuletzt die Integration von Software in nachhaltige Forschungsdateninfrastrukturen würden maßgeblich zu einer qualitativ besseren Forschungspraxis beitragen.

Posted on