Community-Treffen

#4MCF24: Expert:innenworkshop Ortsdaten

2. NFDI4Memory Community Forum | 18.09.2024 | Halle (Saale)

11:10-12:40 Programm Slot 3 - Session 2:
Expert:innenworkshop Ortsdaten

Historische Ortslexika sind sowohl Grundlagenwerke landesgeschichtlicher Forschung und von Citizen Science als auch zentrale Hilfsmittel für alltägliche Recherchen einer breiten interessierten Öffentlichkeit. Während es in Sachsen, Hessen und Bayern bereits eigene staatlich geförderte digitale Datenbanken zur Erfassung und Verwaltung historischer Ortsdaten gibt, fehlen im restlichen Bundesgebiet bislang entsprechende Repositorien. Dies erschwert die historische Recherchearbeit in Archiven, die präzise Zuordnung von Quellendokumenten und historischen Entwicklungen sowie die Nachnutzbarkeit bereits vorhandener Daten.
An einigen Beispielen sollen durch die "AG Historische Ortsdaten" in diesem Workshop verschiedene Recherchetools für historische Ortsdaten mit ihren Nutzungsmöglichkeiten und Einschränkungen vorgestellt sowie aktuelle Bedarfe aus der Forschungscommunity im wechselseitigen Austausch erfragt werden.

Das Format richtet sich dabei schwerpunktunabhängig an jegliche Projekte und Instutionen, welche (auch nebensächlich) historische Ortsdaten produzieren oder weiterverwenden.

Der Workshop ist ausgelegt auf 30 Teilnehmende.

Weitere Infos zum Community Forum: https://4memory.de/4memory-community-forum/ 
Zur Anmeldung im Conftool

 

Programm zum NFDI4Memory Community Forum

Das zweite 4Memory Community Forum findet wie bereits angekündigt am 18.09.2024 in Halle (Saale) im Vorfeld der Tagung 'Digital History & Citizen Science' statt.

Die Anmeldung erfolgt über das Conftool der Tagung 'Digital History & Citizen Sciences', die Teilnahme ist kostenfrei, eine Anmeldung ist dennoch erforderlich! Für die digitale Teilnahme ist keine Anmeldung erforderlich.

Wir freuen uns das vielseitige Programm vorzustellen, dass zu Teilen auch hybrid stattfindet - für diese Teile werden wir rechtzeitig die Zugangsdaten hier veröffentlichen.
Pro Slot finden drei paralle Sessions statt, die Teilnahme ist nur für eine der Sessions pro Slot möglich.

Wir freuen uns Euch am 18.09. in den Austausch mit Euch zu kommen!

oder als Downlaod: Programm_CF2024_4Memory

4Memory Community Forum

NFDI4Memory veranstaltet jährlich ein Community Forum. Dieses dient sowohl dem Austausch und der Vernetzung untereinander aber auch der thematischen Vertiefung und des Wissenserwerbs druch vielfältige Vorträge und Workshops.

Das Community Forum im ersten Projektjahr fand am 20.11.2023 online statt. Auf dem Blog wird ein Rückblick und Einblick gegeben.

Das zweite 4Memory Community Forum fand am 18.09.2024 in Halle (Saale) im Vorfeld der Tagung 'Digital History & Citizen Science' statt.

Das dritte 4Memory Community Forum wird am 16.09.2024 in Bonn im Vorfeld des 55. Historikertages stattfinden.

 

 

 

Posted on

4Memory Community Forum – Euer Input ist gefragt

Liebe NFDI4Memory Community,

unser zweites Community Forum am 18.09.2024 in Halle (Saale) steht an!

Auch dieses Jahr möchten wir euch wieder ein facettenreiches Programm aus dem 4Memory-Themenspektrum anbieten.
Jetzt ist euer Input gefragt – zu welchen Themen möchtet Ihr besonders gerne auf dem Community Forum mehr erfahren, euch austauschen oder einen Workshop besuchen?

Nehmt bis zum 26. April 2024 an unserer Umfrage https://survey.zdv.uni-mainz.de/index.php/347794?lang=de teil!

Wir freuen uns auf eure Ideen, die wir bestmöglich in unsere Planungen einbeziehen werden!

Unser Community Forum findet im Vorfeld der Tagung 'Digital History & Citizen Science' an der Martin-Luther-Universität Halle-Wittenberg statt.

Wir halten Euch über den Blog sowie unsere anderen Kanäle auf dem Laufenden, bezüglich Anmeldestart, Programm etc.

Recap: Erstes NFDI4Memory Community Forum

Am 20.11.2023 fand online das erste NFDI4Memory Community Forum mit mehr als 150 Teilnehmenden weltweit statt.

Das Community Forum war offen für alle Interessierten, die mehr über die Arbeit des Konsortiums für die historisch arbeitenden Geisteswissenschaften erfahren wollten. Aus diesem Grund startete der Vormittag mit einer Einführung in den Aufbau und die Ziele von NFDI4Memory. Die Folien zum Nachlesen finden Sie hier: Allgemeine Präsentation Community Forum_20.11.2023

Zur weiteren Vertiefung wurden sieben Breakout Sessions angeboten, die von den einzelnen Task Areas von NFDI4Memory vorbereitet und durchgeführt wurden. Begleitetend und vertiefend zu den Sessions wurde das Miro Borad genutuzt, das hier einsehbar ist.

Im Folgenden werden die Ergebnisse einzelner Breakout Sessions kurz zusammen gefasst:

In „Do we CARE about Quality?“ wurde lebhaft über Datenethik als Aspekt von Datenqualität diskutiert. Deutlich wurde, dass bestehende Lösungen im Umgang mit sensiblen Daten auf Interface- bzw. Metadatenebene noch Wünsche offen lassen. Auch stellt die Einbindung der betroffenen Communities für historische Daten z. T große Herausforderungen dar.

Die Breakout Session „#InsGesprächKommen – Kommunikation mit, über und durch NFDI4Memory“ wurde zweimal angeboten: Ausgehend von der doppelten Herausforderung, dass ein diverses Publikum sowohl über allgemeine DH-Themen als auch über Angebote und Strukturen von NFDI4Memory informiert werden will, standen mögliche Kommunikationsideen und -wege im Zentrum der stark auf Austausch angelegten Breakout Session.

In "Grundlagen der FAIR-Prinzipien und Linked Open Data" vermittelten Kolleg:innen der Task Areas 'Data Quality', 'Data Connectivity' und 'Data Services' Grundlagen des Forschungsdatenmanagements und zeigten insbesondere die Herausforderungen und Chancen für Forschungsdaten in historisch arbeitenden Geisteswissenschaften auf. Neben einer Einführung in die FAIR-Prinzipien konnten die Teilnehmenden mehr über Linked und Linked Open Data (LOD) sowie den Aufbau des NFDI4Memory-Data Space erfahren. In der Diskussion entstand besonderes Interesse an der (inter-)nationalen Vernetzung im Bereich FDM sowie an der konkreten Ausgestaltung des Data Space.

In dem "#Werkstattgespräch zu ersten Ergebnissen aus der Data Literacy Bedarfserhebung" wurden die Ergebnisse der Bedarfserhebung zur Datenkompetenz in den historisch arbeitenden Disziplinen der Community zur Diskussion vorgestellt. Die Umfrage fokussiert sämtliche Aspekte des Datenmanagements und wird wichtige Erkenntnisse für die Entwicklung von Lehr- und Lernangeboten liefern.
Den ungefähr 40 Teilnehmenden wurden erste Ergebnisse der Auswertung vorgestellt. Besonders hervorzuheben ist bei dieser Umfrage, dass es im deutschsprachigen Raum nun erstmals gelungen ist, die gesamte Bandbreite der relevanten Stakeholder für das Thema Data Literacy in den historischen Disziplinen zu befragen. Neben Studierenden aus BA- und MA-Programmen nahmen Doktorand:innen, Post-Docs, Forschende aller Qualifikationsstufen sowie Vertreter:innen aus Archiven, Bibliotheken und weiteren Gedächtniseinrichtungen teil. Die Gruppe der Lehrer:innen und Lehramtsstudierenden blieb leider unterrepräsentiert. Auf inhaltlicher Ebene ist hervorzuheben, dass die durchschnittliche Selbsteinschätzung der Teilnehmenden in ihren Statusgruppen sich nach ersten Auswertungen vorwiegend im Mittelfeld bewegt. Woran dies liegen kann, wurde im Werkstattgespräch kontrovers diskutiert und interpretiert. Diese Eimschätzungen werden im weiteren Verlauf der Auswertung berücksichtigt. Aufgrund des Interesses an einer Nachnutzung des Forschungsdesigns wird die Task Area Data Literacy das Fragebogendesign noch 2023 veröffentlichen.

Die Breakout Session "Register für Normdaten und historische Vokabulare" beschäftigte sich mit Folgendem: Vokabulare lassen sich für viele Zwecke hervorragend nutzen: Als Metadaten sind sie für Recherchen wichtig, sie helfen aber ebenso bei der webbasierten Verknüpfung von Informationen, bei Datenkuration und Anreicherung von Informationen. Nur wo genau kann man solche Vokabulare finden? Um diese Frage leichter zu beantworten, entwickelt Data Connecitivity für die Community ein Register für kontrollierte Vokabulare der historisch arbeitenden Disziplinen. Das Grundgerüst für ein solches Verzeichnis wurde in der Session vorgestellt und mit den Geisteswissenschaftler:innen diskutiert. Dabei reichten die Beiträge von der Organisation und Pflege des Registers über Fragen der Definition von Vokabularen und Wissensthemen zur Erstellung von Vokabularen bis hin zu einzelnen Einträgen und Aufnahmekriterien. Das Konzept zum Register wird entsprechend der Anregungen weiterentwickelt und technisch implementiert.

Die Teilnehmenden der Breakout-Session „#Different Area - Different RDM? Nicht-eurozentristische Perspektive auf FD“ stellten zunächst einmal fest, dass die Area Studies (nicht nur, aber auch) in Bezug auf Daten und Digitalität häufig als Sonderfall behandelt oder dargestellt werden. Dieser Umstand, der unter anderem auf die schwache institutionelle Verankerung im deutschenWissenschaftssystem zurückzuführen ist, wird beispielsweise deutlich in der unzureichenden Berücksichtigung von Mehrsprachigkeit und nicht-lateinischen Schriften in digitalen Infrastrukturen (Stichwort digital monolingualism). Globale Asymmetrien in Ressourcen und Macht prägen nach wie vor die Produktion von Wissen weltweit und Bewegungen hin zu einer Dekolonialisierung von Wissen sind vielerorts noch am Anfang. Und so geht es auch um die Frage, wer über welches Material bzw. welche Daten entscheiden und verfügen darf. Open Access ist dabei möglicherweise nicht immer der Goldstandard; es gilt, stets den Entstehungskontext zu berücksichtigen und gleichzeitig anzuerkennen, dass es viele Arten und Wege gibt, Daten und Materialien zu bewahren. Diese und weitere Punkte wurden in der Breakout-Session diskutiert und werden auch in den kommenden Jahren Teil des Arbeitsprogramms von 4Memory sein.

Wir danken allen Teilnehmenden und freuen uns schon jetzt auf das nächste Community Forum am 18.09.2024 in Halle (Saale)! Weitere Infos zum Community Forum nächtes Jahr folgen hier im Blog.

Erstes 4Memory Community Forum

Wir laden Euch herzlich zu unserem  1. Community Forum am 20.11.2023 ein.

Das Coummnity Forum findet von 9-12 Uhr digital statt.

Die Registrierung läuft über folgenden Link:
https://4mem-kt6.sciencesconf.org

Auf folgende interessante und informative Programmpunkte dürft Ihr euch freuen - wir freuen uns auf jeden Fall auf den Austausch mit Euch!

 

Programm 1. NFDI4Memory Community-Forum
09:00-09:30 Uhr Begrüßung & Einführung
09:30-10:30 Uhr Breakout Sessions I

  •  Durch Kritik zu Akzeptanz? Datenbasierte Forschung in der Geschichtswissenschaft
  • #Different Area - Different RDM? Nicht-eurozentristische Perspektive auf FD
  • Do We CARE About Quality?
  • #InsGesprächKommen - Kommunikation mit, über und durch NFDI4Memory

10:30-10:40 Uhr Pause
10:40-11:40 Uhr Breakout Sessions II

  • Register für historische Normdaten und Vokabulare
  • #InsGesprächKommen - Kommunikation mit, über und durch NFDI4Memory
  • Grundlagen der FAIR-Prinzipien und Linked Open Data
  • #Werkstattgespräch zu ersten Ergebnissen aus der Data Literacy-Bedarfserhebung

11:40 Uhr           Abschied & Ausblick
12:00 Uhr           Ende

 

Die Timetable auch als PDF zum Download: Timetable CF kurz & Timetable CF ausführlich

Questions and answers to 4Memory

The text below (which is also available in PDF format) documents the discussions during the two-part virtual community meeting of the 4Memory consortium on March 27 and 30, 2020. The "Question Time" meeting took place on an Etherpad as well as in the messenger app Slack and was divided into different document sections or "channels", corresponding to the different "task areas" of the consortium.

The following text reflects the discussions in their substance. In total, more than 150 people followed the "Question Time". We have removed the names of the questioners and edited the individual contributions and the structure of the discussions in an easy way. Some very specific questions were removed or more generally reworded.

With this documentation of the 4Memory "Question Time" we hope to be able to record as many of the questions from our community of historically working humanities as possible and to answer them according to the current state of discussion. We would like to thank all participants for their active participation in these events!

Allgemeine Fragen zur NFDI und zu 4Memory

Struktur der NFDI und 4Memory

Integration neuer Akteure und Vorhaben

Frage: Wenn ich es richtig verstanden habe, dann soll die NFDI-Struktur nicht projektförmig sein. Richtig? Das hat dann aber wohl die Konsequenz, dass allein bestehende Strukturen gefördert werden und nicht Neues, zuerst bloß projektförmiges aufgebaut wird. Richtig? Wenn das so ist, dann hat das ganze Verfahren einen stark konservatorischen und konservativen Zug.

Frage: Wie wird garantiert bzw. überdacht, dass nicht allein die schon etablierten Akteure das, was sie bisher schon gemacht haben, nun bloß im Verbund machen? Verknüpfungen und Verbindungen herzustellen, das ist ja ganz wunderbar. Aber dadurch festigen wir doch allein Bestehendes. Auch das ist nicht per se verkehrt, aber es ist nur bedingt zukunftsweisend.

Antwort: 4Memory soll einen Rahmen bieten, in dem Bestehendes verbessert und weiterentwickelt, aber auch Neues begonnen und begleitet werden kann. Langfristig erfolgt das über die verschiedenen Phasen der NFDI-Förderung. Unmittelbar dadurch, dass schon in der ersten wie dann auch wieder in späteren Phasen Abläufe vorgesehen und Mittel bereitgestellt werden sollen, die es ermöglichen, „neu auftauchende“ Vorhaben zu identifizieren und zu unterstützen. Für die Vergaberichtlinien der DFG stellt das teilweise ein Problem dar, weil auch nicht ausspezifizierte und offene Tasks für “gut” und damit förderungswürdig befunden werden müssen. Wir arbeiten jedoch an einer solchen Möglichkeit und wollen in 4Memory daher Abläufe entwickeln, die besonders auf die Identifizierung und dann Unterstützung von Neuem gerichtet sind. Der Hinweis ist sehr gut. Lassen Sie uns das gemeinsam ausgestalten!

Weiterentwicklung und Qualitätssicherung von 4Memory

Frage: Ich habe eine Nachfrage zur fortlaufenden Weiterentwicklung der Infrastruktur: Wie wird sichergestellt, dass die Weiterentwicklungen und Innovationen regelmäßig und systematisch Eingang in die 4Memory finden? Dazu gehört ja womöglich auch eine Evaluation der Angebote bzw. Aufgabenkritik.

Antwort: Eine sehr gute Frage! Eine konsequente Quality-Control Struktur wird bei 4Memory eingebaut. Measures und Tasks werden evaluiert. Wir hoffen, nicht nur von Phase zu Phase neues aufnehmen zu können, sondern auch schon innerhalb der ersten fünf Jahre, soweit die DFG-Richtlinien uns diesen Spielraum lassen. Bewusstsein dafür ist bei der DFG vorhanden.

Frage: TA 5 und 6: Ich bündele meine ersten Fragen zu einer grundsätzlichen Frage: Ein NFDI der historisch (und hermeneutisch) arbeitenden Geisteswissenschaften muss irgendwo, an irgendeiner Stelle seiner Struktur eine Ebene implementieren, auf der nachgedacht wird über das eigene Tun. Was wollen wir eigentlich? Oder anders, fast philosophisch gefragt: Was waren unsere Fragen an unsere Untersuchungsgegenstände, unsere Methoden, unsere Infrastrukturen, auf die der NFDI4Memory eine Antwort geben soll?

Antwort: Das ist eine wichtige Erinnerung. Wir sollten diese übergeordnete Reflexion in den Prozess der kontinuierliche Überprüfung unserer Ziele und der konkreten Maßnahmen explizit einbauen und als Aufgabe benennen.

Austausch mit anderen NFDI-Konsortien

Frage: Gibt es schon Überlegungen, sich zu bestimmten Themen (Data Services, Data Quality, Data Connectivity) mit weiteren geisteswissenschaftlichen Konsortien auszutauschen?

Antwort: Ja. Wir haben ein Memorandum of Understanding mit drei anderen geisteswissenschaftlichen NFDI-Konsortien – NFDI4Objects, NFDI4Culture, NFDIText+.

Participants

Interesse als Participant?

Frage: Wie genau gestaltet sich die Mitarbeit der Participants im Konsortium – auch rein formal: Welche Unterlagen müssen bis wann geliefert werden, gibt es hierfür einzuhaltende Vordrucke / Formblätter etc.? Hierzu vielleicht auch die Frage zu den Tasks eines Participants: In welcher Form können diese auftreten?

Wo kann man konkrete Bedarfe und Angebote von (Teil-)Communities zur Kenntnis geben – geht es Ihnen auch schon darum?

Gibt es Vorüberlegungen, wie entschieden wird, welche Ressourcen aufgenommen werden sollen und können?

Antwort: Die Gruppe der Participants steht noch nicht fest. Wir haben im letzten Jahr erste Treffen abgehalten sowie danach Angebote (über eine breit gestreutes Formular) gesammelt. Was wir heute machen, ist Teil des Prozesses, mögliche Participants kennenzulernen. Sofern Sie noch nicht mit 4Memory auf diesen Wegen in Kontakt getreten sind, wenden Sie sich bei Interesse mit ihrem Angebot an John Wood, dem Koordinator von 4Memory (4memory@ieg-mainz.de), oder direkt an die Koordinatoren einer der Task Areas. Zum jetzigen Zeitpunkt sammeln wir weitere Angebote und werden im Laufe des Sommers im Kreise der Antragsteller eine Auswahl treffen, die sich an den Zielsetzungen von 4Memory und den einzelnen Task Areas orientiert. Formal wird, wenn die Antragstellung erfolgt, ein Letter of Intent notwendig sein.

Die konkrete Form der Mitarbeit hängt von dem “Service” ab, den die Participants anbieten und welche Eigenleistungen sie erbringen können. Andere Formen der Eigenleistung sind neben der Bereitstellung von Diensten auch Mitarbeit in der Entwicklung von Standards, Aufgaben in Gremien etc. Im Einzelnen können Sie mit den Koordinatorinnen und Koordinatoren der Task Areas Kontakt aufnehmen.

Bereits angemeldetes Interesse? Nächste Schritte!

Frage: Bereits vor einigen Monaten waren wir aufgefordert konkrete Vorschläge für die Partizipation in 4Memory einzureichen. Auf diese Vorschläge ist bislang aber keine Reaktion erfolgt. Werden diese Vorschläge jetzt zum Gegenstand der Diskussion in den Task Areas oder sind sie mit der jetzt festgelegten Struktur obsolet?

Wenn man bereits sein Interesse als Participant bekundet und Task-Beschreibungen geliefert hat – wie geht es dann weiter? Sind Anforderungen hinsichtlich Zuarbeit zum Antrag zu erwarten bzw. von uns einzuplanen?

Antwort: Danke, dass Sie ihre konkreten Vorschläge damals eingereicht haben. Wir haben erst vor kurzem die Task Areas bestimmt und dafür Koordinator:innen eingeteilt. Mit der Question Time von Freitag und heute setzen wir den Prozess des Sammelns und Ordnens fort. Auf dieser Grundlage werden die TA-Koordinatoren sich im Nachgang bei Ihnen und den anderen, die sich schon an der Abfrage beteiligt haben, wenden.

Antwort: Die Koordinatorinnen und Koordinatoren der relevanten TA werden sich mit Ihnen in Verbindung setzen, sobald wir die verschiedenen Angebote sortiert haben. Sie können sich aber auch direkt an eine TA wenden, wenn Sie eine bestimmte im Blick haben. Jedenfalls Danke für Ihre Beschreibung!

Participant in mehreren Konsortien

Frage: Kann man auch an 4Memory teilnehmen, wenn man bereits bei NFDI4Culture als Participant vertreten ist?

Antwort: Grundsätzlich ist es möglich, sich an mehreren Konsortien zu beteiligen. Mit 4Culture hat 4Memory ein Memorandum of Understanding abgeschlossen, so dass wir solche Fragen auch auf der Leitungsebene abstimmen werden.

Akteure und Community

Zusammenarbeit mit Fachverbänden

Frage: Participants müssen Angebote bereitstellen und eine Eigenleistung erbringen. Das ist insbesondere für kleinere Fachgesellschaften schwierig. Könnte man an eine Art ideelle Beteiligung denken, so dass sie vom Druck einer finanziellen Beteiligung befreit sind?

Antwort: Ja, eine "ideelle" Beteiligung ist möglich und sogar sehr erwünscht. Das künftige Konsortium soll -- wie andere in der NFDI -- nicht nur aus Co-Applicants und Participants (mit Eigenleistung) bestehen, sondern soll auch die Fach-Community im weiteren Sinne aufbauen und fördern. Die Entwicklung einer Governance-Struktur und damit die Beteiligung von Fachgesellschaften über Beratung, Evaluation etc. ist ein wichtiger nächster Punkt auf unsere Agenda im Rahmen der Antragsvorbereitung. Gut, dass Sie den Punkt hier aufgebracht haben, denn er gilt noch für eine Reihe von Gesellschaften.

Zusammenarbeit mit Landesinitiativen

Frage: Wie könnte sich die Zusammenarbeit zwischen NFDI4Memory und den bestehenden Landesinitiativen künftig gestalten?

Antwort: Die Landesinitiativen sind natürlich wichtige Partner, da hier entscheidende Infrastrukturen bereitgehalten, entwickelt oder zusammengeführt werden. In der NFDI geht es primär um die Vernetzung verschiedener Initiativen, institutioneller Ebenen und Konsortien, die hier für verschiedene Communities zusammengebracht werden können. Die Landesinitiativen bilden eine wichtige Schnittstelle für die Kommunikation auf der Ebene der Länder. Wir möchten grundsätzlich und weiterhin intensiv mit den Landesinitiativen zusammenarbeiten und versuchen, gemeinsame Aktivitäten und Dienste für die historisch arbeitenden Disziplinen zu identifizieren. Wie genau die Zusammenarbeit aussehen kann, hängt auch stark von der Struktur der jeweiligen Landesinitiative ab. Gerade die Landesinitiativen unterscheiden sich hinsichtlich Organisation, Aufgabe und Finanzierung sehr stark.

Zusammenarbeit mit DFG-Langzeitvorhaben

Frage: Ist der Anschluss von weiteren DFG-(Langfrist-)Vorhaben an NFDI besonders gewünscht und gibt es Fördermöglichkeiten?

Antwort: Die DFG-Langfristvorhaben zeichnen sich neben der wissenschaftlichen Bedeutung durch eine standardbildende Funktion, infrastrukturellen Charakter und/oder interdisziplinäre Perspektive aus. Damit sind die historisch arbeitenden Vorhaben aus den Geisteswissenschaften ein wichtiger Akteur in der Community für 4Memory. Gleichzeitig handelt sich um Drittmittelprojekte, so dass die Zusammenarbeit hier auf Synergien der jeweiligen Arbeitspläne basieren muss. (Weder können die Langfristvorhaben Eigenmittel für die NFDI einbringen, noch kann die NFDI unmittelbar Fördermittel für die Langfristvorhaben bereitstellen.)

Zusammenarbeit mit Fachinformationsdiensten

Frage: Wie können Fachinformationsdienste (FIDs), die jeweils eine Teildisziplin mit historisch arbeitender Forschung abdecken, mit 4Memory zusammenarbeiten und sich beteiligen?

Antwort: Die Fachinformationsdienste (FIDs) sind grundsätzlich wichtige Partner in der NFDI, da sie Zugänge zu Ressourcen und digitalen Diensten bereitstellen sowie informationswissenschaftliche Expertise und Kenntnisse der Fachcommunity verbinden. 4Memory ist daher an einer Zusammenarbeit mit allen FIDs interessiert, die historisch arbeitende Forschung als Teil ihres Profils definieren. Neben der Bereitstellung von Diensten können FIDs auch Aufgaben im Bereich der Normdaten und als Community-Schnittstelle übernehmen. Organisatorisch kann eine direkte Beteiligung als Participant nur über die tragende Bibliothek erfolgen (da FIDs drittmittelgefördert sind), aber FIDs können bei der Neubeantragung der eigenen Förderung auch Synergien mit der Arbeit der NFDI-Konsortien bilden. Weiter ist die Zusammenarbeit von NFDI-Konsortien und FIDs eine Herausforderung, der die NFDI und die DFG auf übergeordneter Ebene begegnen muss.

Beteiligung von Teildisziplinen

Frage: Neben dem großen Feld der Geschichtswissenschaften und dessen Unterdisziplinen gibt es eine sehr große Anzahl an Disziplinen, die historische Fragestellungen und Methoden als Teil ihrer Disziplin verstehen. Wie können sich diese Teildisziplinen an 4Memory mitwirken?

Antwort: 4Memory versteht sich als ein Konsortium, das sich vor allem in den historischen Methoden verortet. Die Geschichtswissenschaft im engeren Sinn hat mit anderen historisch arbeitenden Disziplinen, ob historischer Anthropologie, Alltagsgeschichte und Oral History durchaus eine Reihe von methodischen Schnittmengen. Zugleich existieren auch Verbindungen zu Fächern wie historische Philosophie, Religionswissenschaften, Jüdische Studien, historische Sozialwissenschaften oder weltregionale Studien.

Task Area 1: Data Quality

Ziel von NFDI4memory ist es, Empfehlungen und Leitlinien für alle Forschenden bereitzustellen und sie bei der Strukturierung der eigenen Forschungsdaten in einer Weise zu unterstützen, die auch der Vielfalt an Datentypen, den Arbeitsprozessen und den quellenkritischen Methoden gerecht werden, die dem historischen Arbeiten zugrunde liegen.

Um die eigenen Forschungsdaten nachhaltig speichern, veröffentlichen und bereitstellen zu können, müssen Normalisierungs- und Qualitätssicherungsprozesse eingehalten und die Datenzusammensetzung und -sammlung nachvollziehbar dokumentiert werden.

Ausgehend von bestehenden Definitionen und Richtlinien sowie im Dialog mit der Forschungs-Community soll für NFDI4memory ein allgemeingültiger und für jede Forscherin und jeden Forscher in nachvollziehbarer, auf die eigene Forschung anwendbarer Definitions- und Handlungsrahmen erarbeitet werden.

Übersicht von Standards

Frage: Wo finde ich eine Übersicht über die in den historischen Wissenschaften etablierten (Daten-)Standards? Einerseits, im Abstract der Task Area "Data Culture", heißt es öfters, etablierte Standards sollen übernommen bzw. ins Digitale überführt werden. Andererseits, in den Antworten zur Fragerunde von Freitag heißt es z. B. "Insgesamt wäre noch mal genau zu fixieren, um welche Standards, Metadaten oder Normdaten es gehen soll" und man wolle "Anforderungen an Metadaten und vor allem auch Normdaten innerhalb der historisch arbeitenden Disziplinen" überhaupt erst einmal "erfassen". Letzteres scheint mir eher zuzutreffen, d. h. die "etablierten (Daten-)Standards" gibt es de facto noch gar nicht. Lasse mich gern widerlegen

Antwort: Genau ist damit gemeint, den aktuellen Stand in den historisch arbeitenden Disziplinen zu erfassen und darauf Datenstandards gemeinsam festzusetzen. Es gibt ja ziemlich viele Entwicklungen auf verschiedenen Ebenen. NFDI möchte diesen Prozess vor allem stärker koordinieren.

Antwort: Wichtig ist, dass die Standards an den Daten (Gegenständen, Objekten) orientieren. Metadatenstandards gibt es einige (DC, MARC...), für Digitalisate (DFG-Richtlinien, RfII, ...). Es gilt, gemeinsam mit der Community passende Standards zu finden.

Hier noch eine etwas allgemeine Liste, die aber unvollständig ist: <http://www.dcc.ac.uk/resources/subject-areas/social-science-humanities>

Kommentar: *sehr* unvollständig und nicht spezifisch für historische Forschung; gehe weiter davon aus, dass es einen solchen Überblick noch nicht gibt (weil es die konkreten "etablierten Standards", von denen in den Abstracts die Rede ist, nicht gibt, jedenfalls nicht in einer Form, die sich vom Analogen ins Digitale übertragen ließe)

Antwort: siehe dazu auch die Zulieferformate der Deutschen Digitalen Bibliothek <https://pro.deutsche-digitale-bibliothek.de/dokumente-und-links>.

Antwort: Wir haben für eine Datenbank zur Beschreibung von analogen und digitalen Beständen des Herder-Instituts inkl. deren Bestandsgeschichte den Metadatenstandard LIDO verwendet. LIDO ist ereignisbasiert, Objekt- und Bestandsgeschichte können standardisiert inkl. der Verwendung von kontrolliertem Vokabular/Normdaten beschrieben werden. Bsp. s. <https://www.herder-institut.de/holdings/index.php?hol=HI000005&amp;lang=de>

Antwort: Wir möchten indarauf hinweisen, dass es Standards für ganz verschiedene Ebenen braucht: Standards und Richtlinien für die Modellierung und Verarbeitung von Daten, für Methoden, Analyseverfahren, für Datenschutz, Datenautorenschaft, Dokumentation, Nachnutzung und Zitation von Daten, für Metadaten, Normdaten, Datenqualität und verschiedene Level dieser Qualität etc. - und dass wir eben erst einmal einen Verständigungsprozess darüber führen müssen, welche Standards wir als historisch arbeitende Fächer tatsächlich besitzen, weiter ausbauen oder uns auch neu geben wollen.

Anwendung von Standards

Frage: Werden neue Standards für Daten in den historischen Wissenschaften entwickelt?

Antwort: Vielen Dank für die Frage: Bestehende Standards sollen im Dialog mit der Forschungs-Community ggf. weiterentwickelt werden. Bspw. müssen auf anderen Ebenen (bspw. Schnittstellen) jedoch noch Standards entwickelt werden. Insgesamt soll der Einigungsprozess auf bestehende Standards vorangetrieben werden.

Frage: Wer definiert Standards für Datenqualität? Wie kann ihre Erfüllung sichergestellt werden? Wie motiviert man Wissenschaftler, Daten zur Verfügung zu stellen, die aus ihrer Sicht noch keine "optimale" Datenqualität besitzen, jedoch für die Wissenschaftscommunity von Wert sein können? Wann und wie soll eine Wissenschaftlerin oder Wissenschaftler in z.B. bei einem Projekt diese Daten in bestimmter Form bereitstellen? Wird das eine Zusatzaufgabe sein? Wer macht das? Ist das nicht ein Mehraufwand? Und welche Daten genau werden das sein - wie hoch sind da die Hürden? Was ist schon Forschung, was sind die Daten?

Antwort: Genau darin sehen wir eine zentrale Aufgabe der NFDI, der wir uns – gemeinsam mit weiteren NFDI-Konsortien – im laufenden Prozess stellen werden. Die Sicherstellung der Datenqualität kann und soll auch durch eine höhere Akzeptanz von Forschungsdaten in der Wissenschaft erreicht werden. Der "Mehraufwand" wird verringert, sobald man weiß, was genau die Aufgaben der Forschenden und ihre Forschungsdaten sind/werden.

Frage: Ich stelle mir das relativ niederschwellig vor, wenn man das in die Breite denkt und jeden mitnehmen will. Die Frage wäre dann, wie sich das von generischen FDM abgrenzt und von den Aktivitäten anderen Konsortien bzw. übergreifender Aktivitäten, die vom NFDI-Direktorat ausgehen. Also: wie stellt man heraus, was hier spezifisch für die historisch arbeitenden Wissenschaften ist? Geht das was über die (auch in der Beschreibung genannten) Arbeitsprozesse, Normalisierungs- und Qualitätssicherungsprozesse?

Antwort: Hatte die Nachricht zu LIDO zu schnell abgeschickt... Ich fände es sehr sinnvoll im AP data quality den Austausch über die Anwendung von Metadatenformaten und deren Grenzen und ggf. Anforderungen an Weiterentwicklung voranzubringen und gemeinsam an der Standardentwicklung mitzuwirken!

Bewertung von Datenqualität

Frage: Damit verbunden ist meiner Meinung nach die Frage danach, wie man die Qualität von Standards bzw. Daten bemisst. Hierzu meine Frage: Welcher Qualitätsbegriff wird angelegt? Un inwieweit geht dieser über die FAIR-Prinzipien hinaus?

Antwort: Inhalt vs. Technik: Inhaltliche Standards (wie etwa EAD) müssen relativ statisch sein, wohingegen sich digitale Systeme dynamisch mit der Entwicklung verändern (müssen). Technische Standards können nur relativ allgemein sein (z.B. maschinenlesbare Daten, Open Source, Vermeidung exotischer Dateiformate, ...)

Antwort: Genau hier möchten wir gemeinsam mit der Community der historisch arbeitenden Geisteswissenschaften ansetzen und iterativ Qualitätskriterien definieren. Diese werden auf den FAIR-Prinzipien aufbauen. Wieweit darüber hinaus lässt sich zum jetzigen Zeitpunkt noch nicht sagen.

Kommentar: Vielleicht nicht unbedingt über die FAIR-Prinzipien hinausgehen (die sind ja schon wahnsinnig weit gefasst...), aber unbedingt diese konkretisieren sollte m .E. ein Ziel der NFDI sein. Was bedeutet "interoperable" für Ihre Daten? Ist eine Publikation unter CC-Lizenz mit -NC oder gar -ND wirklich "reusable"? usw.

Frage: Wie weit sind da die Kriterienkataloge von clio bzw. hsk?

Antwort: Bei <https://www.hsozkult.de/digitalreview/page> gab es schon lange nichts mehr, bei <https://www.hsozkult.de/webreview/page> auch relativ wenig. Unschuldige, ernst gemeinte Frage dazu: Fehlen Ihnen derzeit 'nur' die Rezensenten oder auch die zu rezensierenden Angebote an "digitalen Ressourcen, Datensammlung, digitalen Edition etc." aus der "breiten historische Community"?

Kommentar: Vielleicht kann man auch mit RIDE gemeinsam an der 'Abarbeitung' dieser schon langen Liste arbeiten: <https://ride.i-d-e.de/reviewers/suggested-projects-for-review/>

Die Kriterien dazu hier: <https://ride.i-d-e.de/reviewers/catalogue-criteria-for-reviewing-digital-editions-and-resources/>; sind diese nicht übertragbar auf Geschichtswissenschaften.

Antwort: Bisher haben wir hierfür drei Kategorien ausgelotet (formal, inhaltlich, technisch). Technische und formale Kriterien lassen sich (unter Vorbehalt) bewerten, inhaltlich könnten peer-review-Verfahren (oder daran angelehnt) hilfreich und zielführend sein. Wir nehmen das auf jeden Fall in die Diskussionen mit auf.

Kommentar: Ich sehe genau hier eine Lücke von FAIR, da FAIR inhaltliche Aspekte meiner Deutung nach kaum berücksichtigt.

Kommentar: Ich denke, es ist ja genau Sinn dieses Konsortiums, die verschiedenen vorhanden Kriterien und Anforderungen zu erheben und gemeinsam weiter zu entwickeln. Hsozkult hat eigene Kriterien für das Rezensionswesen formuliert <https://www.hsozkult.de/help/submit/review> Bei Clio werden intern Kriterien genutzt, die schon seit den 1990er Jahre im Rahmen der sog. Subject Gateways zur Katalogisierung von Webressourcen formuliert und dann innerhalb von Clio erweitert wurden.

Kommentar: selbst CC0 ist nicht einfach CC0, wenn ich mir die Daten aus einem offenen Projekt letztlich alle händisch vom Bildschirm kopieren soll, aus einem Webinterface, in dem ich einzelne Informationen suche. CC0 wird die Leitlinie werden und wir werden Standards brauchen, wie Daten zitiert werden sollen - hier liegt das zentrale Problem derzeit.

Frage: Könnten URIs als Zitatgrundlage dienen?

Antwort: Das reicht bei weitem nicht. In einer Abbildung können Daten liegen, die nicht zitierbar werden. Meine persönliche Tendenz darum: CC0, damit Projekte Daten auch unzitiert in Visualisierungen einbetten können. Andererseits wollen Projekte (<https://database.factgrid.de/wiki/Main_Page>) Datensätze im Einzelfall viel konkreter mit Forschungsprojekten verbinden, um der DFG Pakete vorlegen zu können – Zitier-Empfehlungen wurden dabei nicht herausgearbeitet. Generell fürchte ich unter CC0 nicht den Datenklau, sondern unsere Misslichkeit kluge Empfehlungen für das Datenzitat zu geben. Da werden wir eine Kultur des Umgangs mit Datensätzen entwickeln müssen, ähnlich wie wir Zitierkulturen für unterschiedliche Zusammenhänge entwickelten.

Zu den Rollen der Partner, Stakeholder, Co-Applicants, Participants…

Frage: Mich würde die Position der TA Data Quality zu folgenden Fragen interessieren:

Wie sieht die Rolle der Forschenden, aber auch von Gedächtnisinstitutionen und z.B. auch Citizen Science Projekten bei der Datenqualität aus?

Wie stellt sich die TA Data Quality den Aufbau und die Mitwirkung bei der Bewertung von digitalen Ressourcen, Datensammlung, digitalen Edition etc. mit Blick auf die breite historische Community vor?

Antwort: Die Community muss festlegen, für welche Gegenstände (Dateiformate, Quellenarten etc.) Standards gelten sollen. Die NFDI soll nicht als Normierungsinstitut auftreten, sondern bestehende Strukturen aufnehmen und wo nötig weiterentwickeln und koordinieren. Jeweils wieder gemeinsam mit der Community. Bestehende Standards wie LIDO, TEI etc. - die durchaus etabliert sind - sollen im NFDI-Prozess erfasst und evaluiert werden.

TA Data Quality legt keine Standards fest, sondern sammelt von konkreten Wissenschaften die Standards, an die sie sich halten, stellt entsprechend Handreichungen zur Verfügung: ein Ergebnis könnte dann die gewünschte Übersicht an Standards sein.

Vorgeschlagene Angebote für 4Memory aus der Community

Frage: Ist vorgesehen, eine Forensik für digitale Quellen zu etablieren? Also technische Lösungen für das Erkennen von „gefälschten“ oder „manipulierten“ Digitalisaten zu entwickeln oder an spezifisch historische Quellen anzupassen?

Antwort: Die Entwicklung von Tools (Softwareentwicklung) ist zum jetzigen Zeitpunkt nicht vorgesehen. Quellenkritik ist aber Hauptaufgabe der historisch arbeitenden Geisteswissenschaften. Diese gilt es ins Digitale zu übertragen.

Frage: Aber die externe Kritik einer digitalen Quelle ist dafür doch wichtig?

Antwort: Ja, das ist ein Aspekt beim kritischen Umgang mit Quellen. Um das im Endeffekt tun zu können, benötigt man umfangreiche Metadaten, die die Entstehungsgeschichte sowohl im analogen als auch digitalen beschreiben. Also auch eine Dokumentation des Entstehungsprozesses und der verschiedenen Versionen. Das ist eine Praxis, die Digitalisierende z. B. über den DFG-Praxisleitfaden bereits umsetzen können und dies auch schon tun. Das wäre eine Art Qualitätssiegel. Aber vielmehr müssen wir das dann noch für die weiteren Verarbeitungsschritte durch die Forschenden etablieren, was sowohl eine Frage der ta5-data-culture ist, aber eben auch hier, weil es auch um eine Art von Qualitätssiegeln gehen wird, die man für Forschungsdaten entwickeln müsste, damit sie mit dem notwendigen kritischen Auge weiter genutzt werden können.

Abgrenzung und Kooperation zwischen den Task Areas

Frage: Ich habe eine Verständnisfrage: ich habe Schwierigkeiten die Zielsetzung von TA1 von TA2.1 „Identifizierung und Konsolidierung fachspezifischer Standards und Normdaten“ zu unterscheiden. Für mich entsteht der Eindruck, dass TA1 allgemeiner bleibt, TA2 aufsetzt und konkreter in die Arbeitspraxis greift?

Antwort: Richtlinien, Standards und Normen gibt es auf vielen verschiedenen Ebenen des Forschungsdatenmanagements und der wissenschaftlichen Anwendung von Forschungsmethoden. Daher spielen in allen Task Areas Fragen der Richtlinien und wissenschaftlichen Praxis eine wichtige Rolle. TA 2 koordiniert vor allem den Bereich von Meta- und Normdaten und beschäftigt sich mit entsprechenden Standards und Richtlinien. Die Bestimmung von Datenqualität in TA 1 geht weit darüber hinaus und umfasst sehr viel mehr Ebenen des Data Lifecycles und der Transformation von FAIR-Prinzipien in die historisch arbeitenden Disziplinen. Aber natürlich gilt es im Konsortium aufeinander aufzubauen und untereinander (diagonal) in Teams zusammenzuarbeiten.

Frage: Wie lässt sich TA1 von generischem FDM und dann wieder von Data Literacy (TA4) abgrenzen. Welche Rolle spielen dabei die Modellierung der Arbeitsprozesse in den historisch arbeitenden Wissenschaften?

Antwort: Wir nehmen aus der heutigen Fragerunde durchaus mit, dass es bei der „Abgrenzung“ und Aufgabenverteilung der Task Areas noch Diskussionsbedarf gibt. Grundgedanke bleibt aber, dass es eine Aufteilung für die Antragstellung geben muss, die Zusammenarbeit über diese „Grenzen“ hinaus ist aber wichtig ist. So wird es „diagonal“ über die Task Areas hinweg noch Arbeitsgruppen geben.

Task Area 2: Data Connectivity

Maßnahmen der TA 2

Nach derzeitigem Diskussionsstand werden TA 2 im Bereich Data Connectivity folgende Measures umfassen, die in zwei große Bereiche entfallen (wobei Änderungen beim konkreten Zuschnitt und der inhaltlichen Ausgestaltung noch zu erwarten sind)

Infrastrukturen für Daten

  • Inhaltliche Konzeption eines NFDI4Memory-Metadatenschemas, Anbindung eines passfähigen Erschließungskonzeptes für historisch arbeitende Fächer
  • Erhöhung der Visibilität von Forschungsdaten durch die Integration in fachbibliografische Informationssysteme und Verknüpfung heterogener Informationssysteme
  • Verbesserung der Nachnutzbarkeit verteilter bildbasierter Forschungsprimärdaten
  • Realisierung von Verknüpfungslösungen mit normdatenerschlossenen internationalen Forschungsdatenbeständen (Mehrsprachigkeit)

Daten als Infrastrukturen

  • Sichtung, Verzeichnung und Erfassung von Normdaten und Vokabularen der historisch arbeitenden Fächer, Entwicklung von Richtlinien und abgestufter Qualitätsanforderungen
  • Identifizierung, Konzeptualisierung und Aufbau/Zusammenführung fachübergreifender Normdaten sowie Entwicklung von Taxonomien (z.B. Raumdaten, Personendaten, Beziehungsdaten, zeitbezogene Sachdaten oder Objektdaten) für die wissenschaftliche Nutzung (Schwerpunkt: dynamische Klassifikationen, Analyse, ontologische Ansätze, Semantic Web)
  • Abgleich und Verknüpfung ausgewählter, fachübergreifender Normdaten mit der GND (Use Cases), Konzeption und Aufbau von institutionell übergreifenden Workflows (Schwerpunkt: Erschließung von Daten, Standardisierung)
  • Verzeichnung, Bereitstellung und Beratung zu Werkzeugen, Schnittstellen, Diensten und Datenstrukturen für die Implementierung von Normdaten/Klassifikationen in originalsprachliche Quellen und Daten (Schwerpunkt: Datenkuration)

Metadaten / Suchen-Auffinden-Zugänglichkeit

Frage: Umfasst die Task Area 2 zu Data Connectivity auch eine übergreifende Suche?

Antwort: In 4Memory ist mit dem sogenannten Data Hub eine übergreifende Suche nach Forschungsdaten vorgesehen, diese wird schwerpunktmäßig in der Task Area 3 (TA 3) zu Data Services entwickelt. In der TA 2 werden für diese die inhaltlichen Grundlagen gelegt, nämlich dergestalt dass überlegt wird, wie Forschungsdaten inhaltlich mit Hilfe von Normdaten beschrieben werden können, um dann nach diesen Suchen zu können.
Zusätzlich werden wir Themen wie die Katalogisierung von Forschungsdaten angehen, damit diese auch in Bibliotheks- und Verbundkatalogen sowie FID-Protalen verzeichnet werden können. Ein weiteres wichtiges Ziel ist es, Forschungsdaten in die Deutsche Historische Bibliografie zu integrieren. Schließlich ist auch die Anbindung an internationale Verweissysteme zu berücksichtigen, beispielsweise WorldCat oder die European Open Science Cloud (EOSC).

Standards, Normdaten oder Vokabulare?

Frage: Eine wichtige Infrastrukturaufgabe wäre sicherlich auch die Erzeugung historischer Referenzvokabulare und deren Mapping, also gezielte Verlinkung auf Normdaten. Würde im Rahmen der NFDI beispielsweise so eine Aufgabe als zentrale Infrastrukturdienstleistung umgesetzt oder wird 4Memory rein koordinierend wirken? Ist der Gegenstand von 4Memory primär Infrastruktur für Daten oder auch Daten als Infrastruktur?

Antwort: Die Aufgabe von Data Connectivity soll auf jeden Fall beide Seiten umfassen. Besonders die letzte Frage beschreibt die Zweiteilung unseres Vorhabens sehr präzise. Die primäre Aufgabe ist es sicherlich, die bereits vorhandenen Infrastrukturen für Daten in Hinblick auf die historisch arbeitenden Disziplinen stärker miteinander zu verzahnen und gemeinsame Standards etwa im Bereich der Metadatenerfassung, Suche oder Erschließung auszubilden. Dabei müssen insgesamt auch noch Lücken identifiziert und Workflows ausgebildet werden. Perspektivisch strebt 4Memory aber eben auch die Generierung von Werkzeugen zur Datenkuration und die Nutzung von Forschungsdaten als Werkzeuge für Data Connectivity (also als Infrastruktur) an. Sie können für die gesamte Fachdisziplin (unter anderem im Bereich der Digital Humanities und des Semantic Web) wichtige Grundlagen der Vernetzung, Analyse und Aufbereitung von Daten bilden. Daraus entstehen Dienste und Services zur algorithmenbasierten Annotation von Daten, zur Kontextualisierung, Visualisierung oder inhaltlichen Qualitätsprüfung. Gemeinsam wollen wir über die NFDI eine communityübergreifende Diskussion über zentrale Referenzvokabulare als fachübergreifende Normdatensätze führen. Momentan sind hier vor allem Normvokabulare für Geodaten und Räume, Personendaten, Tätigkeits- und Berufsdaten, Oral History, Quellentypen und Objektdaten sowie einige andere epochenspezifische bzw. fachspezifische Ansätze in der (prinzipiell offenen) Diskussion. Die Entwicklung bzw. Nachnutzung dieser Referenzvokabulare (oder Normdaten / Klassifikationen) hängt stark von den Impulsen und Angeboten aus den Communities ab, die sich möglichst selbst auch schon abstimmen und einigen sollten. Diese sind daher aufgerufen, sich diesbezüglich mit Ideen und Vorschlägen einzubringen. Vernetzung und Selbstorganisation ist ja gerade ein wichtiges Ziel der NFDI! 4Memory übernimmt in diesem Prozess gerne die Koordination und unterstützt Abstimmungsprozesse.

Anwendungsszenarien für Normdaten

Frage: Sind unsere Daten nicht zu domänenspezifisch? Macht also der Aufwand zur Erzeugung von Normdaten überhaupt Sinn?

Frage: Welche Anwendungsszenarien für Normdaten gibt es überhaupt?

Antwort: Sicherlich muss man sich als Community sehr gut überlegen, an welcher Stelle Normdaten und Standards Sinn machen und wo auch einfache Vokabularien oder die Beschreibung über Dokumentationen oder in entsprechenden Metadatenfeldern genügen. Allerdings zeigt allein die Praxis der bibliografischen Angabe (Metadaten) und des Zitats in der Wissenschaft, wie entscheidend Standards eben auch sind. Wichtig ist für uns die qualitative Unterscheidung von Standards, Normen und “normaler Wissenschaftspraxis” - für TA 2 Data Connectivity übertragen also Standards, Normdaten/Taxonomien und kontrollierter Vokabulare/Daten. Ein Standard muss von allen angewendet werden und daher einfach anwendbar sein und eindeutigen Regeln folgen.

Normdaten sind vor allem wissenschaftlich relevant, wenn sie mit Taxonomien verknüpft werden. Sie sollten fachübergreifend einen Mehrwert zur Kontextualisierung, Auffindbarkeit und Analyse von Daten leisten. Insgesamt braucht es also auch Richtlinien für die Erzeugung von Normdaten. Die Nutzung von Normdaten ermöglicht etwa die Vergleichbarkeit von Forschungsdaten und damit von Forschungsergebnissen. Sehr erfolgreich werden bspw. Normdaten für die Berufs- und Tätigkeitsanalyse in Massendaten eingesetzt und können so auch international, disziplinübergreifend und zeitlich differenziert weiterentwickelt werden. Sie sind Teil der methodenbasierten Analyse oder können dazu werden. Qualitativ sind solche Referenzen dann von herausgehobenen Wert. Insgesamt benötigen wir einen fachübergreifenden Verständigungsprozess, welche Entitäten wir für unsere Forschungsprozesse für so relevant halten, um daraus Normdaten abzuleiten (siehe vorhergehende Frage).

Daneben können einfache Daten oder kontrollierte Vokabulare für die Dokumentation von Forschungsergebnissen Sinn machen oder das Verständnis von Ergebnissen fördern. Solche Vokabulare und vor allem Dokumentationen sollten einmalig gemeinsam mit den Daten abgelegt werden. Über Metadaten könnten solche Vokabularien auch separat erfassbar gemacht werden.

Aufgabe von 4Memory bei Normdaten

Frage: Wer erzeugt fachspezifische Vokabulare und wer pflegt sie? Wird 4Memory auch als Infrastrukturdienstleister (z.B. Pflege historischer Ortsbezeichnungen und deren territorialer Zugehörigkeit) oder nur koordinierend tätig (z.B. Forschungsanforderungen an die GND herantragen)?

Antwort: Diese scheinbar einfache Frage hat es durchaus in sich, weil sie komplexe Handlungsstränge anspricht. Gerade am Beispiel der Ortsbezeichnungen kann man sehen, dass es mittlerweile mehrere internationale und nationale Standards gibt, die aber die eigentlichen Probleme der historischen Forschung (Dynamik des Raumes, Sprachvarianten, Unschärfen) noch gar nicht hinreichend adressieren. Zugleich gibt es zahlreiche fachübergreifende Communities - angefangen von bürgerwissenschaftlichen Initiativen bis hin zu internationalen Gremien - die sich mit der Geokodierung beschäftigen. Außerdem besteht eine lange Tradition der Ortsverzeichnisse in den historischen Disziplinen im analogen Bereich. Mit GND-Culture wurde ein Projekt der Sichtung verschiedener Akteure und Ansätze begonnen, auch um Erkenntnisse zum Ausbau der GND als Knotenpunkt zu gewinnen. Daher ist es zunächst eine zentrale Aufgabe der NFDI (und nicht nur im Fall der Ortsbezeichnungen), verschiedene Akteure zusammenzubringen, gemeinsame Richtlinien und Standards zu definieren und zu einem gemeinsamen Handeln zu motivieren. Es ist unser Wunsch, für einzelne zentrale Entitäten dann auch Communities und Partner für die langfristige Pflege solche Normdaten zu gewinnen und Prozesse der Evaluation zu entwickeln. Die Diskussionen und genauen Abstimmungen dazu sind bisher aber nicht abgeschlossen und können auch erst Ergebnis des NFDI-Prozesses sein.

Mehrsprachigkeit

Frage: Wie geht NFDI4Memory mit der Frage der Mehrsprachigkeit um, die für die internationale Anbindung und Sichtbarkeit essentiell sind?

Antwort: Mehrsprachigkeit ist sicherlich in mehrerer Hinsicht ein wichtiger Aspekt: Einerseits verfügen historische Quellen und Daten bereits über eine ganz individuelle Sprache, die mit Mitteln der Lemmatisierung und Annotation auch im Forschungsdatenmanagement erhalten und kontextualisiert werden muss (ein zentraler Standard, der längst noch nicht überall durchgesetzt ist). Ansonsten verlieren Daten erheblich an Mehrwert für eine breite, interdisziplinäre Nachnutzung und an Zugangsmöglichkeiten über historische Quellenkritik.

Andererseits bieten gerade Normdaten die Möglichkeit, Anbindungen zu internationalen Referenzsystemen herzustellen. Ob auch dies ein Qualitätsmerkmal ausgewählter Normdaten werden sollte, müssen wir diskutieren. Gerade fachspezifische Communities haben hierfür häufig bereits internationale Referenzsysteme entwickelt, weil ihnen Mehrsprachigkeit immanent sind. Hinsichtlich der internationalen Einbindung von 4Memory ist sicherlich zu prüfen, wie überdies die Anschlussfähigkeit der GND weiter verbessert werden kann. Die Lieferung von Personennormdaten an die VIAF zeigt unter anderem, dass an dieser Stelle bereits einiges unternommen wird.

Rolle der GND

Frage: Welche Rolle wird die GND (Gemeinsame Normdatei der Deutschen Nationalbibliothek) für 4Memory spielen und wo sehen Sie noch Entwicklungsbedarf?

Antwort: Insgesamt sehen wir die GND als überaus zentrale Ressource und bibliothekarischen Standard, um ganz verschiedene Datentypen innerhalb der historisch arbeitenden Geisteswissenschaften inhaltlich zu beschreiben, zu verschlagworten und teilweise zu erschließen. Für diese von den Gedächtnisinstitutionen zu leistende interdisziplinäre Aufgabe wird es zentral sein, diesen Standard auch handhabbar zu belassen. Es braucht abgestufte Konzepte, mit denen die Verknüpfung mit forschungsbasierten Normdaten und Taxonomien erfolgen können, die im Regelfall eine sehr viel höhere Granularität, Häufigkeit und Tiefenschärfe besitzen, als dies für die primären Aufgaben der GND zielführend sein kann. Ein Standard bedarf zudem kontrollierter Zugänge. Daher sind hier Modelle für die hierarchische Skalierung von wissenschaftlichen Normdaten zu entwickeln, die auf diese Weise Verknüpfungen zur GND herstellen. Innerhalb von 4Memory wollen wir daher ausloten, welche Formen des Datenmappings und der Organisation für die breite Community von Gedächtnisinstitutionen (Archive, Bibliotheken, Museen), Infrastrukturen des Datenmanagements und wissenschaftlichen Einrichtungen geeignet sind und sich zugleich organisatorisch als praktikabel erweisen. In der täglichen bibliothekarischen Praxis und mit dem Projekt GND4Culture wurden erste Erfahrungen zur Öffnung der GND gesammelt und werden mittlerweile ausgewertet. Gerade der Verbund von Gedächtnisinstitutionen und Wissenschaft bietet für 4Memory eine ausgezeichnete Plattform zur Entwicklung eines überinstitutionellen, abgestimmten Vorgehens.

Task Area 3: Data Services

Geltungsbereich

Frage: Gibt es eine genaue Definition der "Dienste"? Fallen darunter auch bestehende öffentlich zugängliche Datenbanken? Werden demnach auch Datensätze als Dienste betrachtet?

Antwort: Dienste verstehen wir sehr weit - das können z.B. auch Beratungsangebote sein. Öffentlich zugängliche Datenbanken gehören mit Sicherheit auch dazu. Entscheidend ist die Relevanz für die Community. Die Frage ist, wie wir Datensätze interoperabel machen und nachhaltig anbieten können. Das wird eine wichtige Aufgabe für NFDI4Memory sein.

Service-Portfolio von 4Memory: Umfang und Kriterien für Auswahl

Frage: Wie wird das Service-Angebot von 4Memory erstellt? Welche Services sind noch gewünscht, ohne dass sich vielleicht bisher ein Anbieter gefunden hat? Wonach wird entschieden, welche Services in das Angebot aufgenommen werden?

Antwort: Unsere Überlegungen gehen dahin, zum einen innerhalb des Projekts zunächst relevante Services zu identifizieren und über den Aufbau eines "Ökosystems" bzw. einer gemeinsamen virtuellen Infrastruktur zu vernetzen. Aus den Reihen der Konsortialmitglieder wurde auch schon eine große Zahl an Diensten und Angeboten zusammengetragen. Zum anderen wird eine Auswahl an Kerndiensten definiert, dazu zählen z.B. verlässlicher Speicher für Forschungsdaten und Angebote zur Langzeitarchivierung. Vor allem sind wir aber auch noch interessiert, weitere Dienste/Angebote vorgeschlagen zu bekommen, die für relevant gehalten werden. Bezüglich der Desiderate werden wir uns großteils erst im Projektverlauf einen Überblick verschaffen können. Die Schließung von "Servicelücken" wäre etwas, was aus dem 4Memory-Konsortium heraus zumindest initiiert werden soll.

Frage: Gibt es eine Übersicht der bisher geplanten Dienste? Wie kann man als Einrichtung, die mutmaßlich über relevante Dienste für 4Memory verfügt, diese einbringen?

Antwort: Wir arbeiten an einer Zusammenstellung relevanter Dienste. Dazu gab es schon eine Umfrage Ende letzten Jahres. Wir bieten aktuell eine Möglichkeit, weitere Dienste als Vorschläge nachzumelden. Hierzu gibt es ein Formular zur Abfrage der Dienste. Dieses kann unter https://drive.google.com/file/d/1WjwzykQd4VNIXwkdon91hCZ2gTAjhv1Z/view heruntergeladen werden. Bei Interesse sollten uns Rückmeldungen in den nächsten 14 Tagen zugehen. Wie wir dann zu einer finalen Auswahl kommen, steht noch nicht abschließend fest, aber es wird unter Einbeziehung der Community laufen.

Frage: Würde auch eine Web-Plattform zum Erschließen/Indexieren von gedruckten Quellen in den Bereich Data Services passen?

Antwort: Nach unserem Verständnis schon, denn diese gedruckten Quellen sind damit zumindest nachweis- und recherchierbar. Das ist sehr ähnlich zu der Digitalisierung von Findmitteln in Archiven (siehe z.B. auch Archivportal-D). Vorstellbar wäre auch eine Möglichkeit zur kollaborativen Erschließung.

Bedarfsorientierte Services

Frage: Wie können tatsächliche Bedarfe identifiziert werden? Gibt es formuliert Bedarfe (Use cases, User stories)?

Antwort: Dem Kreis des 4Memory-Konsortiums (Forschung, Gedächtnisinstitutionen und Infrastruktureinrichtungen) sind bereits einige Bedarfe bekannt. Jedoch sollen durch Use cases aus der historischen Community heraus konkrete Bedarfe benannt werden. Hierfür wird es ein Formular geben, dass die Aspekte Bezeichnung, Beschreibung des Problems/Vorgangs, beteiligte Akteure, beteiligte Dienste/Datensammlungen, Beschreibung der bisherigen Blocker enthält. Dieses wird an Interessierte verschickt, die 4Memory bei der Bedarfserhebung unterstützen möchten.

Gemeinsamer Sucheinstieg vs. zentrales Datenrepositorium

Frage: Wird es ein zentrales Datenrepositorium geben? Oder wird ein gemeinsamer Sucheinstieg über verteilte Repositorien implementiert? Wird hier ggf. ein NFDI-übergreifender Ansatz verfolgt?

Antwort: Ein zentrales Repositorium ist bisher nicht vorgesehen, wohl aber eine Vernetzung verschiedener Repositorien, Services und Standards. Dazu soll die Sichtbarkeit von Datenangeboten für die historisch arbeitenden Disziplinen insgesamt erhöht werden und auch auf einer Metadaten-Ebene möglichst zusammengeführt werden. Dies impliziert Überlegungen, einen gemeinsamen Sucheinstieg über verteilte Repositorien zu etablieren: eine virtuelle Schicht über alle Dienste, um die dort zugreifbaren Ressourcen übergreifend such- und darstellbar zu machen.

Anschlussfähigkeit im internationalen Kontext

Frage: Es gibt schon eine Reihe von internationalen Diensten, die man einbeziehen könnte. Werden diese einbezogen? Und wie kann dann ein einheitliches Service-Portfolio auf nationaler und internationaler Ebene gewährleistet werden?

Antwort: Internationale Anschlussfähigkeit wird vom Rat für Informationsinfrastruktur (RfII) als wichtig herausgestellt. Das ist also ein wichtiges Desiderat. Dies betrifft insbesondere die Task Area 2 "Data Connectivity", die sich um Schnittstellen und Austauschformate kümmern wird. Auf Ebene der Data Services müssen wir sicherstellen, dass die von uns unterstützten Dienste die entsprechenden Schnittstellen bereitstellen. Im Detail werden wir das im Verlauf der Arbeit konkretisieren.

Langzeitarchivierung

Frage: Werden Dienste bspw. zur Langzeitarchivierung in einer zentralen Infrastruktur angeboten, die von interessierten Einrichtungen genutzt werden können?

Antwort: Wir denken eher an ein "Ökosystem" föderierter Dienste und nicht so sehr an zentral bereitgestellte Angebote. Wichtig ist, dass dabei alle essentiellen Dienste (z.B. verlässlicher Speicher, Langzeitarchivierung, Normdatendienste, übergreifende Suche und Discovery, usw.) nachhaltig und zuverlässig für die Community bereitstehen.

Zentral soll v.a. eine Anlaufstelle für die Nutzenden sein, damit sie die für sie passenden Dienste finden können. Bezüglich der Langzeitarchivierung denken wir vorrangig in Richtung einer Implementierung von Schnittstellen zu dezidierten LZA-Lösungen (z.B. ViDa,RADAR, DIMAG).

Informationsangebote

Frage: Wird ein Verzeichnis von relevanten Datensammlungen und Informationsangeboten bereitgestellt?

Antwort: Ein möglicher Dienst von NFDI4Memory könnte sein, ein entsprechendes Verzeichnis aufzubauen und zu pflegen. Dies könnte Links auf Wikis, Blogs, REST-Endpoints, durchsuchbare Datenbanken umfassen.

Task Area 4: Data Literacy

Maßnahmen der TA 4

Frage: Womit wird sich TA Data Literacy beschäftigen bzw. was wird unter Data Literacy bei 4memory verstanden?

Antwort: Wir schlagen fünf Maßnahmen vor, um Data Literacy in der Breite der Fächer zu vermitteln:

1. Aufbau eines Kompetenznetzwerks. Wir wollen Data Literacy-Experten aus den unterschiedlichen Zielgruppen zusammenbringen, um Maßnahmen für die Community zu diskutieren und zu koordinieren. Dabei soll so etwas wie ein Virtueller Wissensraum oder Knowledge Hub für Data Literacy-Services entstehen. Während der Projektlaufzeit soll das Kompetenznetzwerk in eine permanente Organisationsstruktur für die historisch arbeitenden Wissenschaften zu überführt werden.

2. Entwicklung eines spezifischen Kompetenzprofils für Historikerinnen und Historikern im Bereich Data Literacy. Dazu wollen wir Data Literacy Kompetenzen identifizieren und systematisieren. Zu DL-Kompetenzen gehören u.a.

  • Fähigkeiten zur Erfassung und Sammlung von Daten
  • Fähigkeiten zur Verwaltung und Anpassung von Daten
  • Fähigkeiten zur Analyse von Daten
  • Fähigkeiten zur fachgerechten Bewertung von Daten
  • Fähigkeiten zur Präsentation und Visualisierung von Daten
  • Fähigkeiten zur Anwendung von Daten

Auf dieser Grundlage wollen wir didaktische und inhaltliche Empfehlungen entwickeln.

3. Entwicklung von Lehr- und Lernmaterialien: Dazu sollen Qualitätskriterien für Unterrichtsmaterial im Bereich der Data Literacy für unsere vier Zielgruppen: Wissenschaft/Forschung, universitäre Lehre und Lehrerausbildung, Aufbewahrung und Archivierung sowie bürgerwissenschaftliche Forschung entwickeln. Vorhandenes Material soll identifiziert, gesammelt und evaluiert und vorhandene didaktische Ansätze und Methoden untersucht werden. Dies bildet die Grundlage für die Entwicklung spezifischer Curricula und Trainingsmaterialien. Über die Entwicklung eines virtuellen Lernraums wollen wir Möglichkeiten für lebenslanges Lernen eröffnen (Fort- und Weiterbildung).

4. Digitale Quellenkritik: Wir wollen uns damit beschäftigen, wie die etablierten Methoden der inneren und äußeren Quellenkritik auf digitalisierte und digitale Quellen übertragen werden können. Wir wollen Vorschläge für die Anpassung existierender Einführungswerke in die historische Methode und die historische Quellenkritik entwickeln. Wichtig erscheint uns dabei die interdisziplinäre Zusammenarbeit und die Entwicklung von Konzepten über die Disziplinengrenzen hinweg. Während der Projektlaufzeit sollen Kursangebote implementiert evaluiert und in einer permanenten Feedback-Schleife an neue Erfordernisse angepasst werden.

5. Beratungsdienste: Wir wollen ein Koordinations- und Ausbildungszentrum errichten, um die Lehrenden zu schulen („teach the teachers”) und „Peer-to-Peer”-Beratung zu ermöglichen. Wir stellen uns vor, lokale oder regionale Beratungszentren zu etablieren, um kurze Wege zu ermöglichen und lokale Ansprechpartner zur Verfügung zu stellen. Der Beratungsservice zielt auch darauf, Kolleginnen und Kollegen, die mit digitalen Methoden und Instrumenten arbeiten zu vernetzen und gemeinsam die analytischen Qualitäten der vorhandenen Tools zu evaluieren und zu dokumentieren.

Verhältnis von Methoden und Theorien bei Data Literacy

Frage: Sehe ich es richtig, dass in dieser TA sowohl (eher methodische, unter Umständen technische) Fragen des konkreten Umgangs mit Daten/-auswertungsverfahren als auch übergreifende theoretische Fragen thematisiert werden sollen - etwa zur Hermeneutik und zur Quellenanalyse?

Antwort: Wir erachten es als eine zentrale aufgabe, dass die Fragen nach konkreten Nutzungsmöglichkeiten von Daten und Quellen eng an methodisch reflektierte Überlegungen gekoppelt sind. Nur wenn beides gemeinsam bedacht wird, können wir einen wissenschaftlichen und methodischen Mehrwert generieren und vor allem darüber in den historisch arbeitenden Fachdisziplinen diskutieren, welche methodischen Anforderungen seitens einer digitale Quellenkritik an Daten gestellt werden müssen.

Task Area 5: Data Culture

Konkretisierung und Propagierung von FAIR

Frage 1: Wie steht es um die Konkretisierung und Propagierung der FAIR-Prinzipien? Wird das als Aufgabe von NFDI4Memory gesehen? Zur Erläuterung: Konkretisierung heißt, das sie in Bezug auf den Umgang mit Daten in den historischen Wissenschaft näher beschrieben werden sollten, wie das in anderen Fachbereichen schon geschehen – vielleicht auch schon bei den Historikern? Propagierung heißt, dass für ihre Akzeptanz geworben werden müsste, die unter Historikern noch durchgängig nicht gegeben zu sein scheint.

Frage 2: Ich fände es gut, wenn NFDI4Memory, sich etwas deutlicher zu den FAIR-Prinzipien und das heißt insbesondere auch da, wo es rechtlich möglich ist, zu Open Access bekennen würde, z.B. indem die Übernahme und Aufbewahrung von Daten im Rahmen von NFDI4Memory davon abhängig gemacht wird, dass die Daten entsprechend der FAIR-Prinzipien angeboten werden können. Die Konkretisierung der FAIR-Prinzipien für den historischen Bereich und die Definition von Forschungsdaten ist natürlich eher eine Aufgabe, die die Wissenschaftler bzw. Fachverbände leisten müssten. Man könnte sich an die entsprechenden Papiere relativ stärker datengetriebener Humanwissenschaften wie Soziologie oder Psychologie zum Ausgangspunkt nehmen.

Antwort: Die Umsetzung der FAIR-Prinzipien im Bereich der historisch arbeitenden Fächer zu ermöglichen, ist eines der zentralen Anliegen des Konsortiums. Auch historische Daten sollten auffindbar (Findable), zugänglich (Accessible), interoperabel (Interoperable) und wiederverwendbar (Re-usable) sein und diese Prinzipien unsere gemeinsame Datenkultur wesentlich mit prägen. Dazu ist es, wie Sie richtig sagen, zunächst notwendig, diese Prinzipien für die historisch arbeitenden Fächer konkret auszudefinieren und Möglichkeiten für deren praktische Umsetzung zu schaffen. In TA 1 Data Quality soll eine Konkretisierung, wie Sie sie beschreiben, geleistet werden. Diese Aufgabe kann jedoch nur aus der Community – Forschende und Verbände – heraus erfolgen. 4Memory soll hierfür den Rahmen für den Austausch und die konkrete Ausführung bieten.mmm Die Aufgabe der Task Area Data Culture ist es, diese Prinzipien und die damit verbundenen Möglichkeiten in die Community hinein zu vermitteln und sie zu wesentlichen Bestandteilen einer sich herausbildenden Datenkultur zu machen. Dies ist nicht einfach. Hier brauchen wir neue Ansätze. Wollen wir die Grundsätze der FAIR-Prinzipien tatsächlich auch langfristig in der historische Fachkultur verankern, müssen wir erst einmal für ein Verständnis dafür sorgen, was Forschungsdaten in den historisch arbeitenden Fächern überhaupt sind und welchen konkreten Mehrwert sie für die zukünftig Forschung besitzen. Erst auf dieser Grundlage kann man auch einen breiteren Diskurs um die Bedeutung der FAIR-Prinzipien führen und dafür werben. Man muss also, wenn man so will, den Bedarf an der Umsetzung der FAIR-Prinzipien in der Community selbst wecken und entwickeln, statt sie nur von außen heranzutragen. Das wird ein relativ weiter und schwieriger, aber auch ein sehr lohnender und spannender Weg.

Akzeptanz von Datenpublikationen

Frage: Welche Bestrebungen verfolgt NFDI4Memory, um die Akzeptanz von Forschungsdaten als eigenständige Publikationsleistung innerhalb der historisch arbeitenden Wissenschaften zu erhöhen (z.B. Auszeichnungen, Rezensionen, Data Paper, Anpassung von Förderkriterien, Anpassung von Prüfungs- bzw. Promotionsordnungen)?

Antwort: Grundlage dafür ist es, ein generelles Bewusstsein für die Bedeutung der Forschungsdaten zu schaffen. Es geht also um einen allgemeinen Kulturwandel vor dem Hintergrund der durch die Digitalisierung hervorgerufenen Veränderungen in unseren Fächern. Zugleich muss man aber gemeinsam darüber nachdenken, welche konkreten Maßnahmen man ergreifen kann, um diese Anerkennung zu fördern und neben einer allgemeinen Akzeptanz auch ein konkretes Anreizsystem zu schaffen. Neben den in der Frage bereits genannten Punkten kann man sich auch die Initiierung von Auszeichnungen wie z.B. eines „Best-Data-Awards“, die Vergabe von Daten-Stipendien und die Diskussion über neue Daten-Publikationsformen vorstellen. Ganz wesentlich bei alledem ist auch der Ausbau des Review- und Rezensionswesens, das dann auch die inhaltliche wie formale Qualität der publizierten Daten in den Blick nimmt und hier für Standards und Austausch sorgt. Über weitere Ideen und Rückmeldungen würden wir uns natürlich sehr freuen.

Konkrete Integration der Bürgerwissenschaften

Frage: Der Verein für Computergenealogie wurde von Torsten Hiltmann zu dem Treffen eingeladen. Mir stellt sich die Frage, ob und wie auch Organisationen der Bürgerwissenschaften an 4Memory mitarbeiten könnten.

Antwort: Für die Bürgerwissenschaften und gerade für den Verein für Computergenealogie bieten sich in der 4Memory gleich mehrere Anknüpfungspunkte. Einerseits natürlich im Bereich Data Connctivity,mit den vom produzierten Normdaten und Ontologien. Zudem würden wir die Bürgerwissenschaften sehr gern auch in den allgemeinen Diskussionsprozess um das zukünftige historische Arbeiten integrieren. Uns ist wichtig, dass hier möglichst die gesamte inhaltliche, institutionelle und gesellschaftliche Breite der historischen Geisteswissenschaften beteiligt ist. Zugleich kann man aber auch über besondere Angebote und Foren nachdenken, welche das Konzept und die Bedeutung der Forschungsdaten und deren Qualität näher vorstellen, sowie natürlich auch über Unterstützung bei der Ausbildung der notwendigen Kompetenzen im Umgang mit Forschungsdaten (TA 4 Data Literacy), welche die wesentliche Grundlage für eine zukünftige Arbeit in einem digitalen Umfeld und mit Forschungsdaten bilden.

Antwort: Ich sehe den Beitrag gerade des Vereins für Computergenealogie darin, Data Literacy auch als Kernkompetenz von Genealogen, Ortshistoriker*innen oder Familienhistoriker*innen etc. zu fördern und darüber auch einen Beitrag zur Entwicklung der Data Culture in den historisch arbeitenden Fächern zu leisten. Bürgerwissenschaftler, die nicht ganz so datenaffin arbeiten wie die Mitglieder des Vereins für Computergenealogie aber durch ihre Tätigkeit (z.B. Transkription) die Grundlagen für die in einem nächsten Schritt erfolgende Datenanreicherung von historischen Quellen legen, sollen auf jeden Fall auch mit angesprochen werden.

Vermittlung von Data Culture

Frage: Die angestrebte „Data Culture“ müsste dann ja mit einschlägigen Maßnahmen zur Dissemination auf breiter Ebene kommuniziert werden. Gibt es dazu schon Ideen bzw. Konzepte?

Antwort: Ideen haben wir schon viele, würden diese aber gern im Austausch mit der Community konkretisieren und sind hier für weitere Vorschläge und Ideen sehr offen. Wichtig für uns ist, dabei möglichst praxisnah am konkreten Beispiel zu kommunizieren. Dies könnte in einer Reihe verschiedener Veranstaltungen wie Road-Shows, Diskussionsrunden und Workshops geschehen, aber auch durch Videos, Webpräsentationen oder auch im Rahmen von Hackathons und konkreter

Praxislabore. Dabei geht es uns bei der „Data Culture“ nicht nur um eine besondere Kultur im Umgang mit Daten, sondern auch, viel breiter gefasst, um die Ermöglichung eine stärker auch auf Daten beruhenden Fachkultur. Denn letztlich kann sich eine neue Kultur im Umgang mit Daten erst in einer sich entsprechend wandelnden Fachkultur entwickeln, welche sich der Rolle der Forschungsdaten für die weitere Entwicklung des Faches bewusst ist und auch die datengetriebene Forschung in sich integriert. Ohne dem würde es schwierig, eine auf Offenheit und Austausch basierende Kultur im Umgang mit den Daten zu etablieren und im Fach zu verankern. Dies bedarf jedoch eines längeren Prozesses, der die gesamten Community, die digitale wie analoge anspricht und mit einbezieht. Eine unserer zentralen Aufgaben wird es sein, diesen Prozess anzustoßen und zu begleiten und vor allem, ihm eine gemeinsame Plattform zu bieten.

Dezentrale Dissemination und Einbindung lokaler Angebote

Frage: Fragen zu zentrale vs dezentrale Ansätzen: welche Maßnahmen sind geplant, damit die Standards/Strukturen in die Breite und Tiefe wahrgenommen und auch angenommen werden? Gibt es Ideen zur Einbindung von lokalen FDM-Beratungsstellen?

Antwort: Das ist noch im Konzeptionsprozess und ein sehr wichtiger Punkt. Zentral ist, dass wir eine gute Kommunikation sicherstellen und die Daten, Dienste und Kompetenzen des Konsortiums für alle Beteiligten gut sichtbar und zugänglich machen. In der TA Data Culture arbeiten wir dafür gerade an möglichen Konzepten. Hier wollen wir uns um den Aspekt der Kommunikation in die Community und zwischen Community und Konsortium kümmern. Wichtig ist sicherzustellen, dass die verschiedenen dezentralen Strukturen, Dienste und Kompetenzen zentral sichtbar gemacht werden und damit auch auffindbar und zugänglich sind. Dabei geht es aber m.E. nicht darum, eine einzige zentrale Plattform zu schaffen sondern an den jeweiligen Quellen Schnittstellen zu etablieren, über die man die Daten, Informationen, Dienste und Kompetenzen erreichen und abfragen und damit letztlich auch zentral präsentieren kann. Diese Frage ist für die Ausgestaltung einer gemeinsamen Datenkultur zentral wichtig.

Wo wird über nachgedacht?

Frage: Die Task Areas haben ja rasante neu-deutsche Titel, aber mir erschließt sich noch nicht, was genau wo stattfinden soll. Bspw.: In welcher Task Area wird darüber nachgedacht, welche Daten wir managen wollen? Wo wird die hermeneutische Arbeit stattfinden? Wo genau zeigen wir uns als „Geisteswissenschaftler*innen“ (in Abgrenzung zu anderen Wissenschaftler*innen in den Bereichen Natur, Soziales und Kultur)? Kurzum: Wo wird nachgedacht?

Antwort: Nachgedacht werden soll gemeinsam, in einem gemeinsam gestalteten Prozess. Letztlich sind ja alle Task Areas eng miteinander vernetzt. Fragen wie die nach den konkreten Daten und dem Datenmanagement werden daher über die verschiedenen Task Areas hinweg gemeinsam verhandelt. Entsprechend sollte auch in der gesamten Breite deutlich werden, dass es sich hier um ein genuin geisteswissenschaftliches Konsortium handelt, das gerade die besonderen Anforderungen nicht nur der Geisteswissenschaften allgemein sondern ganz

spezifisch der historisch arbeitenden Geisteswissenschaften an die Gestaltung, Bereitstellung und Pflege der an ihre Fachinteressen gebundenen Forschungsdaten formuliert. Die einzelnen Task Areas kümmern sich dabei um einzelne Aspekte dieses Prozesses. Wenn Sie jedoch genauer danach fragen, wo die hermeneutische Arbeit stattfindet, kann ich gern auf unsere Task Area „Datenkultur“ verweisen, in deren Rahmen es um die Verankerung der Forschungsdaten in den Fachkulturen geht. Um dies zu bewerkstelligen, braucht es zunächst eines gemeinsamen Verständnisses der durch die Digitalisierung und Datafizierung hervorgerufenen Veränderungen in unseren Fächern und ihren Arbeitsweisen. Dies betrifft natürlich ganz besonders auch die Frage der epistemologischen Konsequenzen einer stärker datengetriebenen Forschung. Nur, wenn wir diese Veränderungen verstehen, können wir auch einen adäquaten Umgang mit den Forschungsdaten in unsere Fächer ausbilden und eine entsprechende Datenkultur entwickeln. Letztlich geht es ja darum, die historisch arbeitenden Geisteswissenschaften als Gemeinschaft selbst sprechfähig zu machen und sie dazu zu befähigen, ihre Anforderungen an die gemeinsam betriebene Infrastruktur zu formulieren. Dies setzt jedoch ein tiefere, auch fachliche Auseinandersetzung mit den damit einhergehenden Veränderungen voraus, für die wir gern die notwendige Plattform bieten möchten. Vorschläge und Anregungen hierzu sind jederzeit willkommen.

Digitale Quellenkritik in Lehre und Praxis

Frage: Zielt diese Task Area eigentlich auch auf die Entwicklung von Lehrformaten zur digitalen Quellenkritik (im Sinne einer Kritik der digitalen Quelle)?

Antwort: Natürlich steht die Entwicklung solcher Lehrformate auf der Tagesordnung. Ob sie zwingend innerhalb der TA Data Culture entwickelt werden muss, steht für auf einem anderen Blatt. In der Lehre werden wir an dieser Frage nicht vorbeikommen.

In der Task Areas 5 „Data Culture” geht es vor allem um die Fachkultur insgesamt. Dabei arbeiten wir sehr eng mit der TA4 Data literacy zusammen, da man nur durch Vermittlung der notwendigen Kompetenzen auch eine entsprechende Datenkultur etablieren kann.

Die digitale Quellenkritik sehen wir dabei aber als einen sehr wichtigen Bestandteil einer digitalen Fachkultur an. Dazu brauchen wir eine Weiterentwicklung unserer Standards und Verfahrensweisen in der Quellenkritik, wie allgemein in der Datenkritik, aber auch bessere und mehr Angebote zur Bewertung von digitalen Quellen – wir müssen unsere Rezensionsformate weiterentwickeln und Rezensionsplattformen wie H-Soz-Kult (wo ja bereits Rezensionen digitaler Formate verschiedener Art veröffentlicht werden) erweitern wie auch die Kriterien für die Bewertung.

Frage: Bei der Frage nach der digitalen Quellenkritik geht es auch um den möglichen Beitrag von Bibliotheken. Ist für die Einschätzung des Quellenwerts einer digitalen Quelle nicht das Wissen um ihren technischen Entstehungsprozess konstitutiv (z.B. Bedeutung von OCR-Qualität für TDM bzw. materialen Informationsverlust bei der Analog-Digital-Wandlung)?

Antwort: Dieses Wissen gehört definitiv zu einer digitalen Quellenkritik, ebenso wie die Geschichte der digitalen Publikation. Gerade in der Zeitgeschichte werden wir einerseits weiterhin die etablierten vertrauenswürdigen Institutionen (wie Bibliotheken) als Anbieter treffen, andererseits aber auch zahlreiche Quellen und Forschungsdaten aller Art, die jenseits der üblichen (Gedächtnis- und Forschungs-)Institutionen entstehen. Dies zu begleiten (für Forschung und Lehre), wird im gesamten 4memory Konsortium sicherlich eine wichtige Rolle spielen, auch in der TA Data Culture.

Bedeutung der Beispiele in der Kommunikation zu Forschungsdaten und deren Nachnutzung

Frage: In unserem Verbundprojekt arbeiten wir seit einer Weile an Kommunikationsstrategien und Formaten, um den Diskurs um und über Forschungsdaten in den Fächern zu etablieren. Da könnte man sicher Beispiele generieren, was geht und was nicht so gut geht.

Antwort: Das sind genau die Arten von Kooperationen und Kooperationspartnern, die wir für den Aufbau dieser TA brauchen und würden gern nach Möglichkeiten suchen, das Projekt und seine Erfahrungen in die Arbeit der TA 5 einzubauen.

Es gibt ja viele Möglichkeiten, das zu denken und umzusetzen. Wichtig ist unseres Erachtens, nicht nur die Forschungsdaten im engeren Sinne in den Blick zu nehmen, sondern darüber hinaus das ganze Fach. Erst wenn man einen gemeinsamen Begriff von Forschungsdaten hat und weiß, wozu diese gut sind, kann man auch einen Diskurs um den Umgang mit Forschungsdaten führen. Daher der breitere Ansatz. Es geht darum, möglichst viel an konkreten Beispielen zu kommunizieren. Dabei, und das ist wichtig, sollte man aber nicht nur die Daten in den einzelnen Projektkontexten beachten, sondern gerade auch die Potentiale deren konkreten Nachnutzung (und damit zugleich die Anforderungen, die damit einhergehen).

Reputation von Datenpublikationen und neue Publikationsformen für die historische Forschung

Frage: Es sollen in der Task Area "Anreize zur Datenpublikation und entsprechender Reputationssysteme" geschaffen werden. Wie wollen Sie aber auf diese Reputationssysteme einwirken? Wie können Sie sicherstellen, dass die Digitalen Geschichtswissenschaften nicht weiterhin nur von einem kleinen Kreis Überzeugter betrieben und anerkannt wird?

Externe Antwort 1: In unserem Projekt entwickeln wir beispielsweise eine Plattform, die es ermöglichen soll, die datenbezogenen Publikationen einzusehen und miteinander zu vernetzen. Die Beiträge werden mit zitierfähigen DOIs versehen, damit sie als Publikationen gelten. Aber als Verbundprojekt bringt unser Projekt eben schon eine kritische Masse mit und kommuniziert die neuen Formate direkt an die DFG. Ich hoffe, dass wir so mehr Reichweite erreichen, als mit Einzelprojekten (die natürlich genauso wichtig sind). Die Frage ist immens wichtig. Ich glaube wir erreichen Anerkennung über die kritische Masse. Je mehr Leute sinnvolle Datenpublikationen und Formate bedienen, desto unübersehbarer werden sie.

Externe Antwort 2: Ich glaube, es darf am Ende aber nicht in einer "unübersehbaren Masse" in etwas veränderter Interpretation enden. Sondern entscheidend ist bei der Entwicklung einer Data Culture, dass Datensammlungen von Anbeginn miteinander in Bezug gesetzt werden bzw. einmal entwickelte Datenbanken die Ergänzung zusätzlicher Daten erlauben. Da stellt sich dann aber wiederum das Reputationsproblem.

Externe Antwort 3: Aber das Gebot, die eigene Argumentation mit Quellen zu belegen, legt doch das Fundament für ein datengetriebenes Arbeiten, das im digitalen Zeitalter eben auf digitale Quellen referenzieren muss.

Antwort: Unseres Erachtens muss das sogar so sein. In den anderen Fächern wird da auch fleißig daran gearbeitet. Da werden z.B. auch Anwendungen containert, etc. Wichtig ist, hier gemeinsame Standards zu entwickeln, formal wie hinsichtlich der Bewertung und der Reputation. Wir finden, ohne dem geht es nur schwer.

Externe Antwort 1: Meiner Erfahrung nach ist das etwas, für das aber erst ein Bewusstsein geschaffen werden muss. In der Kommunikation kommt man dann schnell dahin, dass Quellenarbeit und Datenarbeit nicht immer unterschiedlich sein muss.

Externe Antwort 3: Kann ich mir gut vorstellen - vor allem mit Blick auf das relative Fehlen von Open Access-Publikationsorten, in deren Kontext die Zitation z.B. der eMGH verpflichtend wäre.

Antwort: In einem früheren Papier hatten wir dazu auch von Sensibilisieren, Ermächtigen und Ermöglichen gesprochen. Der erste Schritt muss also überhaupt erst einmal eine Sensibilisierung der großen Fachcommunity sein. Dann müssen wir die Kompetenzen vermitteln, damit auch nachvollzogen und mitgedacht werden kann. Und dann muss es eine zentrale Kommunikationsplattform geben, welche das gemeinsame digitale Arbeiten ermöglicht. So in der Art.

Datenschutz und NFDI-Querschnittsmaßnahmen

Frage: Nicht wenige (zeit-)historische Forschungseinrichtungen arbeiten mit personenbezogenen Forschungsdaten zu noch lebenden Personen. Sie fallen daher unter die Datenschutzgesetze. Deren Auswirkungen auf die Geisteswissenschaften, insbesondere die historischen, sind m.E. wenig beachtet - was natürlich auch am fehlenden Schulungsangebot liegt. Wäre das auch ein Betätigungsfeld für die Task Area 5 „Data culture“?

Antwort: Das ist eine sehr wichtige Frage, die nicht nur wir haben. Das ist eine Querschnittsaufgabe aller Konsortien. Die Frage der Rechte muss aber auch in 4Memory entsprechend eingebunden werden.

Wir müssen hier also zusammenarbeiten, aber die Infos und die Diskussion und v.a. die Kompetenzen auch in unser Konsortium hineintragen.

Frage: Mit solchen Fragen will sich z.B. das bereits beantragte KonsortSWD befassen. Besonders im Bereich der mit qualitativen Methoden erhobenen Daten gibt es eine ganze Reihe Überschneidungen. Könnte man spezifische Kontakte oder Gemeinschaftsangebote zwischen z.B. KonsortSWD (Bereich Öffnung von kritischen Datenbeständen) und 4Memory betreiben?

Antwort: Ja, solche Querschnittsaufgaben sind angedacht. NFDI4Culture hat das m. W. auch zentral mit dabei. Es geht ja auch darum, doppelte Arbeit zu vermeiden und gegenseitig zu lernen. Wir werden diese Fragen auf alle Fälle auch in 4Memory integrieren.

Reflektion der Veränderungen im Forschungsprozess

Frage: Ich habe mir ein paar Gedanken zum Thema Interviews als Forschungsdaten gemacht. In der Oral History wird darüber seit längerem diskutiert, allerdings (noch) nicht unter dem Begriff Forschungsdaten. Ich hänge meinen Text an, vielleicht inspiriert er zukünftige Diskussionen und gibt konstruktive Hinweise.

Externe Antwort: Hallo, Wir arbeiten auch genau dazu und hatten im Dezember einen Workshop zu diesem Thema organisiert. Vielen Dank für die Gedanken!

Antwort: Danke! Das schauen wir uns gern genauer an. Gerade ein neuer Blick auf historische Quellen und historisches Material unter der Perspektive der Forschungsdaten ist wichtig und muss gut reflektiert und begleitet werden. Das wollen wir gern gemeinsam machen. Das Nachdenken über einzelne Quellengattungen, aber genauso über bestimmte Forschungsprozesse, Methoden und ihre Implikationen, ist aus unserer Sicht extrem wichtig, um die Komplexität der (Weiter)Entwicklung einer "Data Culture" zu verdeutlichen.

Die notwendige Weiterentwicklung der Fachkommunikation

Frage: Die Beschreibung der TA klingt aus meiner Sicht sehr vielversprechend, ich möchte nur noch einmal explizit nachfragen, welchen Stellenwert darin Formate des digitalen Wissenstransfers (also z. B. Online-Publikationsformate) einnehmen. Steht im Vordergrund eher die Kommunikation fachlicher Inhalte in digitalen Medien im engeren Sinne (also Kommunikation der Ergebnisse) - oder aber gleichzeitig auch die Reflexion der Digitalität gegenüber dem / gemeinsam mit dem Zielpublikum (also Meta-Kommunikation über digitale Forschung und digitale Formate)? Soll hier ein Schwerpunkt gesetzt werden?

Antwort: Beides. Ziel ist es, den analogen und den digitalen Bereich zusammenzuführen. Das soll nicht auseinanderbrechen. Von daher sollten einerseits die gewohnten Formate im Digitalen fortgeführt werden. Zugleich aber sollten wir in einem gemeinsamen Prozess darüber nachdenken, wie sich unser Fach verändert, welche nicht nur medialen sondern auch methodischen Konsequenzen sich daraus ergeben und welche Rolle Daten in Zukunft für unsere Forschung und unser historisches Arbeiten spielen werden. Und letztlich produziert die Fachkommunikation selbst ja wiederum auch Forschungsdaten, die wir mit einbeziehen sollten.

H-Soz-Kult arbeitet bereits mit Rezensionen von Webangeboten, die die von ihnen erwähnte Verknüpfung versuchen: einerseits ein Nachdenken über die Eigenheiten digitaler Publikationsformate zu formulieren, andererseits ganz konkret an einer bestimmten Online-Publikation zu diskutieren, welche Konsequenzen die Digitalisierung hat / haben kann, und diese Diskussion somit in die Leserschaft hineinzutragen.

Externe Antwort: Ich glaube, dass es helfen könnte, digitale Publikationen, die häufig ja (noch) eine (multi-)mediale Adaption vorheriger analoger Veröffentlichungsformate darstellen, in einem zweiten Medium zu begleiten. Das geschieht ja zum Teil in Blogs, in denen über das eigene Vorgehen nachgedacht oder ein "Blick hinter die Kulissen" gewährt wird. Auch Video-Formate und/oder Podcast könnte ich mir hier gut vorstellen - als weitere, kommentierende und kommentierbare Ebenen von Wissenstransfer.

Antwort: Die Nutzung genuin digitaler Formate, wie von Ihnen angesprochen, wird ja angesichts der derzeitigen Situation zunehmen; insofern werden diese Formate in Zukunft noch eine deutlich größere Rolle in der Fachkommunikation (z.B. H-Soz-Kult) und in der TA5 zur Data Culture spielen.

Externe Antwort: In unserem Blog versuchen wir in einigen Beiträgen, genau einen solchen Blick hinter die Kulissen und in das konkrete Arbeiten an digitalen Datenbeständen oder mithilfe digitaler Auswertungstools bereitzustellen. Vielleicht kann man im Rahmen von NFDI gemeinsam diskutieren, wie man diese Einblicke, Selbstreflexion und Diskussion darüber noch stärker öffentlich führen kann.

Antwort: sehr gern! Wir werden das auf die Liste setzen und wir werden uns nochmal melden.

Gibt es überhaupt schon etablierte Datenstandards in den Geschichtswissenschaften?

Frage: Wo finde ich eine Übersicht über die in den historischen Wissenschaften etablierten (Daten-)Standards?

Einerseits, im Abstract der Task Area "Data Culture", heißt es öfters, etablierte Standards sollen übernommen bzw. ins Digitale überführt werden. Andererseits, in den Antworten zur Fragerunde von Freitag heißt es z.B. "Insgesamt wäre noch mal genau zu fixieren, um welche Standards, Metadaten oder Normdaten es gehen soll" und man wolle "Anforderungen an Metadaten und vor allem auch Normdaten innerhalb der historisch arbeitenden Disziplinen" überhaupt erst einmal "erfassen". Letzteres scheint mir eher zuzutreffen, d.h. die "etablierten (Daten-)Standards" gibt es de facto noch gar nicht.

Antwort: Tatsächlich stimmt die Einschätzung. Die Darstellung ist noch nicht sehr kohärent. Mit den analogen Standards sind vor allem die Grundlagen der historisch-kritischen Methode gemeint, die auch im digitalen Arbeiten eine entsprechende Rolle spielen sollen.

Was die Standards im digitalen Arbeiten angeht, sehen wir das ähnlich. Die Herausforderung ist, überhaupt erst einmal zu sammeln, zu ordnen und v.a. zu kommunizieren. Dafür braucht es eine zentralen Kommunikationsort, wo man erwartbar solche Informationen findet.

Gemeint sind hier aber sicherlich Standards wie Cidoc-CRM, FRBRoo, LIDO oder quasi-Standards wie die Richtlinien der TEI. Aber das sind eher Top-Level Standards. Andere wie EDTF werden bislang kaum genutzt. Von daher liegt noch ein weiter Weg vor uns. Auf Tagungen wie der Data for History 2020 sollen im internationalen Kontext beispielsweise genau solche Standards zusammengetragen und geprüft werden. Sicher können wir auch daran anknüpfen. Aber ganz sicher sollte eine solche Sammlung auch direkt im Rahmen des 4Memory-Konsortiums stattfinden.

Externe Antwort: Am besten schon als sichtbarer Teil eures Konsortiums, fortlaufende, moderierte Sammlung. Am besten einen gemeinsamen Überblick zumindest der Konsortien Text+, Objects, Culture und Memory.

Notwendigkeit eines zentralen Kommunikationsortes für das Konsortium

Frage: Ich würde gerne ein Detail aus der Diskussion eben aufgreifen: Welche Kommunikationsorte gibt es eigentlich, was ist als Angebot angedacht, um der breiteren Fachcommunity den Einstieg zu ermöglichen? Die Einrichtung eines funktionierenden Kommunikationsorts/Netzwerks wäre natürlich selbst eine erhebliche Leistung, aber vielleicht lohnte sich hier der Aufwand? Ist hier etwas angedacht?

Antwort: Am besten wäre, hier bereits auf bestehende und etablierte Plattformen aufzusetzen und diese auszubauen. In der Tat ist es hier Kernziel, mit bestehenden Plattformen zu arbeiten und diese zu erweitern. H-Soz-Kult und vor allem Clio-online sind ja bereit solche Orte mit einem sehr breiten Kooperations-/Partnernetzwerk, die ja bereits auch von der Community selbst betrieben werden.

Auch könnte man die digitalen Angebote so am Besten in der Community verankern. H-Soz-Kult z.B. hat über 30.000 Abonnenten, die oft noch vorrangig analog arbeiten. Die könnte man so gut erreichen und in die Entwicklung einbinden.

Ganz nebenbei: Spannend ist natürlich auch, was aktuell passiert. Auch solche Formate wie dieses hier (Slack als Messengerdienst) könnte man in diesem Zusammenhang weiterdenken. Fundamental wichtig ist aber sicherlich, dass es für diese Kommunikation des Konsortiums und seiner Angebote (Daten, Dienste, Kompetenzen) eine zentrale Plattform gibt und dass diese als Netzwerk funktioniert.

Externe Antwort: Und vielleicht braucht es zudem auch eine mit Reputation aufgeladene Open Access-Publikationsplattform als best practice für die digitale Geschichtswissenschaft.

Antwort: Ja, das sollten wir unbedingt mit aufnehmen!

Kooperation zwischen Forschung und Archiven

Frage: Gibt es bereits Ideen, wie die Zusammenarbeit mit Archiven aussehen soll? Rechtlich wird es da sicherlich einige offene Fragen geben (wem gehören die Rechte, wenn wir Archivquellen weiter aufbereiten, etc.), aber es gäbe umgekehrt ja auch einen Mehrwert, wenn Archive auf Forschungs-Datenproduktion/nutzung, die mit ihren Beständen verbunden ist, verweisen könnten und andere Forscher diese so leichter finden.

Antwort: Die Archive sind in der 4Memory als Teile der GLAM-Institutionen (Galleries, Libraries, Archives, Museums) mit vertreten. Wir denken, dass das eine ganz wichtige Besonderheit der 4Memory ist. Eine solche eindeutige Verlinkung und Referenzierbarkeit wäre sicherlich sehr wichtig.

Die Frage ist darüber hinaus, wie wir die Archive auch in den allgemeinen Diskurs zur Entwicklung des Faches mit einbinden können. Ein Austausch über die Art, wie Historiker mit Daten arbeiten und später arbeiten werden, wäre m.E. fundamental für das Verständnis, wie die Archive ihre Daten bereitstellen. Und andersherum, müssen wir besser verstehen, wie die Archive arbeiten und was sie in dem Bereich leisten können.

Die Frage der Kooperation mit den Archiven ist sehr wichtig wie auch die Klärung der rechtlichen Fragen in diesem Zusammenhang, worum sich das Konsortium auch als Ganzes kümmern muss. In der Zusammenarbeit mit den Archiven ist es uns ein Anliegen, auch auf die vielen kleinen zuzugehen, die teilweise auch rückmelden, dass sie gar kein Personal für eine Auseinandersetzung mit Digitalisierungsprozessen haben. Da gibt es keinen Königsweg. Im Sinne der Vielfalt halten wir das aber für ein wichtiges Anliegen.

Externe Antwort: Vielleicht könnte man überlegen, in Veranstaltungen und Seminaren auf Uni- oder Doktorandenebene mit Teams von Archivaren und Historikern zu arbeiten.

Externe Antwort 2: Das ist eine gute Idee. Teil des Prozesses sollte m. E. idealerweise auch sein, (als Teil des Forschungsprozesses) auch zu reflektieren, was Archive online stellen und was nicht; wer darüber bestimmt, und wie sich die Zusammenarbeit zwischen Historikern und Archivaren dadurch verändert. Bei fast jedem längeren physischen Archivbesuch (zur Zeitgeschichte) kommt ja irgendwann der Punkt, an dem man an Dinge ran darf, bei denen am Anfang noch der Kopf geschüttelt wurde, so jedenfalls meine Erfahrung. Derartige vertrauensbasierte Prozesse lassen sich nicht so einfach ins Digitale transportieren. Da werden wir (auch) andere Wege der Kommunikation und Zusammenarbeit finden müssen... was meint Ihr?

Antwort: Eine der Ideen ist, ein Doktorandennetzwerk zu etablieren oder sogar ein Kolleg zu initiieren, das dabei auch die verschiedenen Gruppen und Anwendungsbereiche integriert. Für diesen Austausch zwischen Archiven oder insgesamt GLAM und den digitalen Nutzern müssten wir noch gute Formate finden.

Externe Antwort 3: Meines Wissens haben viele Archive schon eigens dafür Personal und Angebote aufgestellt. Beispiel Berliner Landesarchiv.

Externe Antwort 4: Die Memorial Archives z.B. stellen seit Ende 2019 rechtlich unbedenkliche Daten auch via Open Access zur Verfügung - mit großem Erfolg und auch via Schnittstelle auf anderen Plattformen, was z.B. ein enormes Interesse aus USA generiert.

Externe Antwort 2: Für meine Forschungen ist es ein enormer Gewinn, auf Archivalien in anderen Ländern (auf anderen Kontinenten) zugreifen zu können. Sie weisen da auf einen ganz interessanten Punkt hin: dass sich die Gruppe derjenigen, die ein bestimmtes Thema beforschen kann, durch Digitalisierung in den Archiven stark ändern kann. (Gerade auch für Forschende an weniger gut ausfinanzierten Universitäten in vielen Staaten ist das ein großer Gewinn, und das kann noch sehr interessante neue Perspektiven in die Geschichtswissenschaften einbringen.).

Neue Zitationsformen für Daten und Dokumentationsstandards

Frage: Ein wichtiges Feld der Datenkultur ist sicher die Dokumentation und die Verwendung von Datenmanagementplänen. Für die "Digital Humanities" bzw. datenorientierte Forschung ist das Vorgehen einigermaßen klar. Aber wie wird in den Fällen verfahren, wo sich traditionelle und digitale Arbeitsweisen mischen (was häufig der Fall sein dürfte). Wie sehen in Bezug auf digitale Daten künftig Standards der Dokumentation aus, wie wird das Quellen- und Literaturverzeichnis für Forschungsdaten erweitert? Gibt es hierzu Ansätze wie 4Memory in die Wissenschaftskultur hineinwirken will? Ich könnte mir vorstellen, dass 4Memory hierbei eine wichtige Rolle spielen kann, z.B. durch aktive Ausrichtung von Workshops am Rande von Fachveranstaltungen, Best-Practice-Reviews, Empfehlungspapieren…

Antwort: Das sind alles wichtige Punkte, die auf unserem Programm stehen. Dazu muss man zunächst in den historisch arbeitenden Fächern ein Bewusstsein dafür schaffen, was Forschungsdaten eigentlich sind und wo deren Mehrwert liegt. … Zudem müssen die Standards auch erst einmal noch entwickelt, definiert und kommuniziert werden.

Die größte Herausforderung ist aber, das Ganze zu kommunizieren und in der Community zu verankern. Dazu kann man Richtlinien aufstellen und anleiten. Ich denke aber, es ist noch viel wichtiger, das der Bedarf in der Community selbst geweckt und darauf aufbauend gemeinsame Lösungen entwickelt werden.

Wichtig ist, die Gemeinschaft der Forschenden und der mit historischen Daten arbeitenden selbst dazu zu befähigen, diese Fragen zu diskutieren und dann in das eigene Arbeiten zu integrieren.

Letztlich soll die 4Memory vor allem eine Ermöglichungsstruktur sein. Wir möchten also so viel es geht und soweit es möglich ist die Community mit integrieren!

Das Ganze betrifft neben der TA Data Culture auch zentral die TA Data Literacy, die TA Data Quality und weitere. Wir werden schauen, dass wir uns gut abstimmen.

Aktuelle Situation bei der Rezension digitaler Ressourcen

Frage: Auf H-Soz-Kult gibt es bereits Formate für die Rezension digitaler Angebote. Diese scheinen jedoch nur wenig bespielt zu werden. Woran liegt das? Unschuldige, ernst gemeinte Frage dazu: Fehlen derzeit 'nur' die Rezensenten oder auch die zu rezensierenden Angebote an "digitalen Ressourcen, Datensammlung, digitalen Edition etc." aus der "breiten historische Community"?

Antwort: Auf https://www.hsozkult.de/webreview/page z.B. erscheint normalerweise eine neue Rezension pro Monat. Das ist sehr wenig im Vergleich mit den Buchrezensionen. An rezensionswürdigen Angeboten mangelt es eigentlich nicht, da gibt es bereits eine längere Liste. Die bisherigen Erfahrungen aber zeigen, dass es deutlich mühsamer ist, Rezensenten für digitale Formate zu finden. Anders als für die Printpublikationen.

Es gibt wohl verschiedene Ursachen hierfür, angefangen von der weniger ausgeprägten Bereitschaft digitale Angebote zu rezensieren, über die Scheu, sich mit Technologien auseinanderzusetzen bis hin zu fehlendem "Belohnungssystem" und "Reputationssystem". Genau da soll die TA5 aber ansetzen und hier die Entwicklung forcieren.

Letztlich sollte es das Fernziel sein, das Rezensionswesen und damit den Diskurs über Daten und Forschung auch fest in einer datengetriebenen Forschung zu etablieren. Das man aus Interesse am Diskurs und am Austausch rezensiert. Oder braucht das auch eine Weiterentwicklung der Formate?

Frage: Weil es eben aufgegriffen wurde: Das Stichwort "Reputationssystem" ist doch ganz wichtig: Wie wird die NFDI auf das Reputationssystem einwirken können?

Antwort: Bezüglich der Reputationssysteme als kleiner beispielhafter Einwurf: Als H-Soz-Kult startete, galten digital veröffentlichte Rezensionen erstmal als verwunderlich, dann als irgendwie doch zweitrangig im Vergleich mit Buchbesprechungen in Printmedien. Das ist - so interpretieren wir es jedenfalls - Geschichte. Sprich: An diesem Punkt haben Reputationssysteme sich verändert. Nötig war dazu Zeit, und vor allem sehr viel redaktionelle Arbeit unserer Fachredakteure über viele Jahre hinweg. Das sind keine Selbstläufer, aber deshalb sprechen wir ja auch hier…

Externe Antwort 2: Würde ein mit hoher Reputation ausgestatteter Open Access-Publikationskontext mit Verpflichtung zur Offenlegung von Forschungsdaten helfen? In den Lebenswissenschaften hat es eLife vorgemacht - eine neu gegründete Zeitschrift mit rigorosem Qualitätsanspruch, für den die MPG mit ihrer Reputation bürgt.

Auch Forschungen zur Kulturgeschichte der Digitalisierung integrieren

Frage: Uns ist gerade aufgefallen: Eine spezifisch historische Perspektive auf die Entwicklung von Data Culture fehlt eigentlich noch in der Beschreibung - also so etwas wie eine Kulturgeschichte des Umgangs mit Digitalität, die ja in jedem Falle in das Kernprofil der historisch arbeitenden Geisteswissenschaften fallen würde - ist das im Rahmen von 4Memory auch geplant? Viele Impulse richten sich gerade auf die Praxis der Gegenwart und der Zukunft, was ich sehr richtig finde - aber eine historische Analyse des Vorgangs selbst wäre auch eine naheliegende Möglichkeit, in der sich das Konsortium gegenüber den anderen beteiligten Fächerkulturen profilieren könnte.

Antwort: Das ist ein sehr wichtiger Hinweis, den wir auch im Hinterkopf haben. Wir werden diesen Punkt auf jeden Fall mit aufnehmen und bei der weiteren Planung berücksichtigen. Ohne eine Wissens- und Kulturgeschichte der Digitalität wird es nicht gehen.

Formen von Forschungsdaten und die notwendige Datenkritik

Frage: Ich möchte vielleicht noch einmal eine etwas naive Diskussion anstoßen, die mir aber für die Entwicklung von Data Culture wichtig erscheint. Forschungsdaten sind für HistorikerInnen bislang i.d.R. Archivmaterialien. Aus diesen destillieren wir unsere Erkenntnisse. Quelleneditionen versuchen vergleichsweise exakte die Ursprungs-"daten" abzubilden. Bei der Diskussion um Forschungsdaten scheint es mir aber häufig um die Aufbereitung von Archivmaterial etc. zu gehen. Damit sind weitergehende Selektions- und Interpretationsaspekte verbunden, die ich als Nachnutzer immer nur sehr begrenzt nachprüfen kann (anders als bei einer Quellenedition, wo ich immer an den Ursprungstext zurückgehen kann). Ich glaube, für die Vermittlung einer Data Culture ist zunächst einmal wichtig, dass man den Unterschied zwischen diesen zwei Datenformen ernst nimmt und genau überlegt, wo uns die unterschiedlichen Forschungsdatenvarianten langfristig hinführen.

Was mir im Rahmen meiner Forschungsprojekte vorschwebt, sind Nachlassinventare. Diese lassen sich natürlich als Scans digitalisieren und das tun wir auch. Gleichzeitig lassen sie sich in Datenbanken überführen, die dann für andere nutzbar sein können. Da muss man aber aufpassen, unterschiedlichen Strukturen der Datenaufbereitung gerecht zu werden und eine Datenbank so zu organisieren, dass sowohl die schnelle Auswertung, als auch die Wiederherstellung der Ursprungsstruktur möglich ist. Das wäre dann ein Hybrid zwischen klassischer Quellenedition und Datenbank.

Antwort: Damit sprechen Sie ein Thema an, das uns mittelbar vermutlich mehr beschäftigen wird, als wir es uns gegenwärtig eingestehen. Denn viele unserer Kollegen/innen assoziieren mit Forschungsdaten bis dato vor allen digital verfügbare Archiv- und Bibliotheksdokumente. Hier steht ein Kulturwandel in den Arbeitsweisen an, der eine lange Zeit erfordern wird. Aber gegenwärtig erleben wir ja angesichts der Corona-Pandemie wie sich eine beschleunigte digitale Selbstertüchtigung vielerorts vollzieht.

Insgesamt braucht es eine breite Diskussion darüber, was in unserem gesamten Feld zu den Forschungsdaten zu zählen ist. In meiner eigenen Arbeit sind das auch digitale Repräsentationen von Texten, Zeitschriften, Handschriften, Bildern, Museumsobjekten, Inschriften und deren Metadaten, aber auch schon erschlossene Datensammlungen in Datenbanken, Listen etc.

Externe Antwort: Quellenzentriert vs. personenzentriert. Original vs. Interpretation. Diese Diskussion begleitet uns seit über 20 Jahren, und ebenso lange ist sie schon gelöst: Es ist durchaus beides vereinbar: Ein schönes Beispiel - schon 10 Jahre alt - die "Digitalisierung der Häftlingskartei des SS-Wirtschaftsverwaltungs-Hauptamtes", seit 2013 integraler Bestandteil der Memorial Archives.

Externe Antwort2: Ja, es mag sein, dass in Fachzirkeln Probleme schon lange gelöst sind. Aber es geht ja darum, im gesamten Fach eine Datenkultur zu etablieren.

Antwort: Ohne die Diskussion schon hier beginnen zu wollen, aber Original gibt es als digitale Repräsentation nicht. Digitale Repräsentation ist ja immer schon Modellierungen, und Modellierung ist immer Selektion und Interpretation. Aber genau diese Fragen würden und müssen wir gemeinsam diskutieren.

Externe Antwort2: Für mich ist es auch eine wichtige Frage, wie das unsere Forschungsprozesse und ihre Kommunikation verändert. Damit meine ich beispielsweise Punkte, die vorhin zur Oral History angesprochen wurden. Welche Aspekte unserer Forschungsprozesse machen wir transparent und öffentlich (auch Blogs wurden ja schon angesprochen), mit welchen Konsequenzen für die Fachkultur?

Entwicklung dynamischer Hilfsmittel und konkrete Projektbegleitung

Frage: Ich finde zu Data Culture formulierten Vorschlag sehr sinnvoll, die bestehenden Plattformen und Foren der fachlichen Kommunikation und Kritik auf das Feld der Forschungsdaten auszudehnen. Dabei ist sicher davon auszugehen, auch das wurde schon gesagt, dass es einen längere Phase geben wird, in der experimentiert, erprobt und getestet wird. Bis bei H-Soz-Kult in Größenordnungen fachlich und methodisch valide Forschungsdateneditionen rezensiert werden können, wird es also noch eine Weile dauern. In der Zwischenzeit sollten aber die in Data Culture angedachten Formate der "kulturellen Bildung" sehr stark auf den Erfahrungsaustausch und die Vermittlung von Basics ausgerichtet sein. Wir werden in unserer Institution immer häufiger mit ganz praktischen Fragen der forschenden Kolleginnen und Kollegen konfrontiert, wenn es um ihre Daten geht. Insofern fände ich es sinnvoll, solche Formate wie die Clio-Guides, die ja gerade dynamisiert werden, für das Feld der Forschungsdaten weiterzuentwickeln, auch im Sinne von Tutorials, Musterlösungen etc. Dabei könne man auch audiovisuelle Formate nutzen. Wir entwickeln ja alle gerade eine neue digitale Virtuosität.

Antwort: Das ist ein sehr wichtiger Punkt. Wir sehen es genauso, dass wir die Erfahrungen, die wir gerade in der jetzigen Zeit sammeln, direkt aufnehmen und umsetzen müssen. Und eine notwendige "Dynamisierung" muss vielleicht auch andere der etablierten Formate umfassen.

Zugleich würden wir gern, so zumindest die Idee, digitale Projekte wie die genannten direkt mit begleiten, um so mehr über den Prozess und den Wandel zu lernen und diese Erkenntnisse dann in die größere Diskussion zurückspielen zu können. Wir gehen davon aus, dass man das meiste erst in der konkreten Praxis sieht und lernt und dass sich auch nur durch konkrete Beispiele aus der Praxis sinnvoll und effektiv kommunizieren lässt. Durch eine solche Projektbegleitung könnte man als über die konkreten Prozesse lernen und hätte zugleich gute Beispiele, an denen man die Frage der Forschungsdaten, der digitalen Forschung wie überhaupt der über 4Memory bereitgestellten Daten, Dienste und Kompetenzen kommunizieren kann.

Tutorials, Musterlösungen, kurze Einführungen auch in spezifische Methoden wären in diesem Zusammenhang für die Kommunikation aber natürlich ebenfalls sehr wichtig.

Bedeutung des neuen Konzepts der Datenkultur für Archive und Notwendigkeit Forum für Austausch

Frage: Ich möchte mich ebenfalls den Diskussionen anschließen, die in folgende Richtungen gehen: Was bedeutet ein neues Konzept der "Data Culture"? Was verändert sich an unserem Umgang mit Archivmaterialien? Wie finden Entscheidungen statt, die eine Selektion der Wissensbestände, die zu bewahren sind, und solchen, für die sich der Aufbau einer digitalen Infrastruktur "nicht lohnt" bewirken? Wer wählt aus? Nach welchen Kriterien? Hierfür sollte ein Forum eingerichtet werden!

Frage: Daran schließt auch die Frage der Priorisierung in der Digitalisierung von Archivquellen an. Ich lasse im Moment Bestände in Kooperation mit einem der Landesarchive durch meine Hiwis digitalisieren, die ich für meine eigene Forschung brauche. Anschließend gehen die Digitalisate online und sind für alle nutzbar. Auch das könnte ein Kriterium für Data Culture sein.

Antwort: Genau das wollen wir in TA Data Culture leisten. Community und Infrastrukturen in Austausch bringen, so dass zielgerichtet und bedarfsorientiert entwickelt werden kann. Aber auch, genauso wichtig, dass die Forschenden besser verstehen, wie überhaupt die Möglichkeiten sind.

Externe Antwort: Als Archivvertreter erhoffe ich mir von 4Memory zu den zwei letztgenannten Punkten auch, dass wir kontinuierliche Formate des Dialogs zwischen Forschung und Infrastrukturen etablieren. Bisher fand dieser Austausch eher punktuell statt.

Was sind Forschungsdaten – Diskussion am konkreten Fall

Frage: Diese "naive" Diskussion würde ich gerne vertiefen: wenn ich mit Archivalien aus unterschiedlichen Archiven, Quellensammlungen, Datenbanken (z.B. Zeitungen) etc. arbeite: wie kann ich sie dann in einer zu meinem Projekt gehörigen Form sammeln und für die Nachnutzung in einem übersichtlichen Paket zur Verfügung stellen? Wie gehen wir mit den Rechten um, die ja bei den Archiven o.ä. liegen? Oder kann ich in der Tat nur die aus den Archivmaterialien gewonnen Forschungsdaten (was ganz genau habe ich mir darunter vorzustellen?) zur Verfügung stellen. Also ganz konkret: ich werte z.B. den Spiegel von 1947 bis 1990 aus hinsichtlich der Frage, wie über Seuchen berichtet wurde. Was könnten meine "Forschungsdaten" sein und wie könnte ich mit ihnen umgehen?

Antwort: Genau das sind die Fragen, die wir brauchen. Forschungsdaten wären die Texte, die Sie auswerten, aber auch die Annotationen, die Sie ggf. durchführen bzw. die Ergebnisse ihre Auswertung in Datenform.

Neben den Ausgangsdaten sollten im Idealfall aber auch die Methoden der Auswertung (Projektrichtlinien, Dokumentationen, Algorithmen) und die sich daraus ergebenden Daten veröffentlicht werden. Damit würde das Verfahren transparent, wiederholbar, und man könnte ebenso auf der methodischen wie auf der inhaltlichen Ebene anschließen.

Externe Antwort: Hierzu bräuchte es vielleicht auch ein gezieltes Förderinstrument der Drittmittelgeber. Beispielsweise eine beantragbare Pauschale zu Digitalisierung von Archivbeständen im Rahmen eines Drittmittelprojektes mit der erforderlichen Qualität nach DFG-Standards, verknüpft mit der Verpflichtung des Archivs, die Digitalisate anschließend auch zugänglich zu machen inkl. der „angereicherten“ Forschungsdaten der Bearbeiter/innen bzw. Antragsteller/innen. Gleichzeitig ist darüber nachzudenken, wie mit anderen Qualitätsstufen von Quellendigitalisaten umzugehen ist.

Frage: Ist denn der Spiegel von 1947 bis 1990 so frei verfügbar, dass man die Daten veröffentlichen dürfte?

Antwort: Das ist nicht nur eine Frage zum Spiegel, sondern insgesamt. Hier hätte man als Konsortium mehr Schlagkraft, um die Interessen der Forschung sichtbarer zu machen.

Externe Antwort 2: Absolut, wenn SPIEGEL (o.a., hier nur als Beispiel!) z.B. via DWDS als Volltext verfügbar ist, kann der Forscher bzw. die Forscherin diese XML-Daten annotieren und als Derivat archivieren, ggf. hinter einer AAI-Schranke oder ähnlichem.

Externe Antwort 3: Anregung: Vielleicht könnte man an einem solchen Beispielprojekt und dem damit verbundenen digitalen Workflow veranschaulichen, an welcher Stelle eigentlich welche Task Areas des Konsortiums betroffen sind und welche Fragen das aufwirft?

Antwort: Genau das ist unsere Idee.

Externe Antwort 2: Man wird aber nicht darum herum kommen, mit rechtebehafteten Quellen zu arbeiten, worunter letztlich v.a. die Nachprüf- und Nachnutzbarkeit der Ergebnisse leidet, wenn nicht Authentifizierungssysteme existieren, die dies erlauben.

Externe Antwort 4: Der Bedarf an einem geschützten digitalen Lesesaal für die Nutzung von zugangsbeschränktem Archivgut ist uns bewusst. Ich finde es aber gut, wenn das aus 4Memory auch noch einmal als dezidierte Anforderung kommt.

Task Area 6: Governance und Administration

Governance-Struktur

Frage: Gibt es schon Entwürfe für die konkrete Governance-Struktur, insbesondere Entscheidungsmechanismen? Wie wird die Community (z.B. Fachverbände) in die Entscheidungsprozesse und die strategische Weiterentwicklung von NFDI4Memory eingebunden?

Antwort: Einen Entwurf für die Governance-Struktur gibt es zur Zeit noch nicht. Es existiert bisher die Gruppe der zehn Co-applicants sowie ein Sprecherteam. Wir haben uns bislang mit der Gestaltung der Task Areas befasst. Eine der nächsten Aufgaben wird es sein, ein Governance-Modell zu entwerfen: zunächst für die Phase der Antragstellung, dann für das künftige Konsortium. Dabei soll die Community (u.a. Fachverbände) unbedingt einbezogen werden: Aufgaben, die hier anstehen, sind Beratung, Evaluation, Qualitätssicherung, strategische Weiterentwicklung. Das Konsortium soll für und mit der Community arbeiten.

Einbindung unterschiedlicher Akteure

Frage: Eine enge Zusammenarbeit von Forschung und Infrastruktureinrichtungen (Bibliotheken, Archive, Museen) in der NFDI4Memory ist meiner Ansicht nach grundlegend auf der Ebene von einzelnen Projekten, aber auch beim Aufbau einer übergeordneten Infrastruktur. Wie kann die Governance von 4Memory gestaltet werden, damit alle Akteure repräsentativ eingebunden sind?

Antwort: Das ist eine wichtige Frage. Die Governance-Struktur für das spätere Konsortium haben wir noch nicht entworfen. Das ist eine der nächsten Aufgaben. Wir haben bei der Koordination der Task Areas aber gezielt immer zwei Antragsteller zusammengeführt, und zwar möglichst so, dass Forschung, bewahrende Institutionen und Infrastrukturen vertreten sind. Zwischen den verschiedenen Antragstellern kommunizieren wir eng, um sowohl in den konkreten Vorhaben und Diensten von 4Memory wie auch der übergeordneten Ebene die wechselseitige Arbeit zu ermöglichen.

Konzept der Task-Areas

Frage: Die Auswahl der Task-Areas in der jetzigen Form macht antragsstrategisch sicher Sinn. Mit Blick auf die Forschungspraxis funktioniert diese Trennung so nicht. Hinzu kommen Überschneidungen zwischen den einzelnen Feldern z.B. zwischen Literacy und Data-Culture. Müsste es nicht eine Task-Area geben, in der diese Felder zusammengeführt werden, also ein Feld in dem die in 4Memory entwickelten Infrastrukturen, Standards etc. im Sinne eines Experimentierfeldes oder Labs zusammengeführt, in der konkreten Forschungspraxis erprobt und rückgekoppelt werden können. In der jetzigen Form ist 4memory doch eher top down organisiert, d.h. es wird etwas in die Zunft vermittelt.

Antwort: Das sind zwei verschiedene Gesichtspunkte: Die Überschneidungen zwischen den Task Areas sind uns nicht nur als Problem bewusst, sondern als eine wichtiger Aspekt in der Gestaltung des Vorhabens. Die Task Areas sind keine isolierten Bereiche, sondern Teil eines Konsortiums, dass sich übergreifenden Themenkomplexen widmet. Dass die Arbeit der Task Areas auf übergeordneter Ebene zusammengeführt wird, ist eine wichtige Eigenschaft der Konsortialstruktur. In der Forschungspraxis soll 4Memory als gemeinschaftlicher Partner fungieren. Um jedoch auf operativer Ebene handlungsfähig zu werden und die Themenkomplexe bearbeiten zu können, benötigt es fokussierte und konkrete Arbeitspläne. Diese entstehen in den Task Areas.

Kooperation der Task Areas

Frage: Der Einsatz und die (Weiter)Entwicklung von Metadatendstandards und kontrolliertem Vokabular/Normvokabular/Thesauri ist in verschiedenen TAs (v. a. data quality, data connectivity aber auch data culture, data literacy, data services) von großer Bedeutung. Es wäre hilfreich, im weiteren Verlauf die Arbeitsaufträge für die einzelnen TAs bzgl. des weiten Felds der Standardisierung von FD zu konkretisieren, damit nicht an mehreren Stellen dasselbe gemacht wird (z. B. Sammlung von im Einsatz befindlichen Standards und Vokabularen).

Antwort: Grundsätzlich arbeiten TA1 bis 3 in diesem Thema eng miteinander. TA2 (data connectivity) ist vor allem für die inhaltliche Seite (welche Standards/Normdaten/Metadaten) gibt es, wie kommen wir hier zu gemeinsamen, übergreifenden Ansätzen und Richtlinien. In TA3 (data services) werden diese dann entsprechend in APIs und Schnittstellen bzw. übergreifende technische Konzepte umgesetzt und damit auch ein abgestuftes Konzept für Qualitätsanforderungen definiert (Standards müssen alle Daten erfüllen, Normen sind die Kür und kontrollierte Vokabulare etwa fachspezifische Ansätze).

Internationalisierung

Frage: Wie genau soll die internationale Vernetzung von 4Memory aussehen? Welche Aktivitäten werden zum internationalen Community-Building unternommen? Wie wird der Anschluss an sich entwickelnde europäisch-/internationale Infrastrukturen bewerkstelligt?

Werden noch Partner gesucht, die internationale Wissenschaftscommunities aus historisch arbeitenden Fächern vertreten bzw. darin eine Mittelpunktfunktion einnehmen?

Antwort: Internationale Vernetzung ist eines der übergreifenden Ziele bzw. Aufgaben für das Konsortium. Wir werden dies in allen Task Areas betreiben, aber in der TA 6 die allgemeine Koordination für die Internationalisierung verankern (vermutlich als Aufgabe eines Teams / Gremiums).

Der Anschluss an die internationale Community ist eine übergreifende Aufgabe im Konsortium und die Aufgabe einer Vermittlungsfigur für Kommunikation und Repräsentation ist eine mögliche Funktion für eine/n Participant.

Zugang zur Infrastruktur

Frage: Wie soll der Zugang zur Infrastruktur geregelt werden? Gibt es Überlegungen, wie der Zugang zu den Diensten geregelt wird, bspw. über zentrale Anlaufstelle oder dezentral über lokalen Zentren?

Antwort: Die Frage des Zugriffs auf die Angebote von 4Memory ist nicht nur eine technische Frage. Prinzipiell sollen die Angebote von 4Memory allen Wissenschaftlerinnen und Wissenschaftlern zur Verfügung stehen und der technische Zugriff soll durch bereits bestehende Angebote ermöglicht werden – dies ist ein Cross-Cutting-Topic aller NFDI-Initiativen (siehe auch https://zenodo.org/record/3457213). Auf die Inhalte, Daten und Werkzeuge soll darüber hinaus möglichst barrierefrei zugegriffen werden können. Eine zentrale Anlaufstelle sollte grundsätzlich als alternativer Kontaktpunkt und Verteiler zu den lokalen Stellen fungieren.

Posted on

Information und Anmeldung: 4Memory Community Treffen in Mainz

Am 21. April 2020 findet ein NFDI-4Memory„Community-Treffen“ am Leibniz-Institut für Europäische Geschichte in Mainz zwischen 11–17:00 Uhr statt. Hierzu laden wir Sie herzlich ein!

Das Anmeldeformular finden Sie unter: https://4memory.de/4memory-community-treffen-in-mainz-21-april-2020/

Das Meeting am 21. April in Mainz ist eines von insgesamt fünf Community-Treffen.

Ziel der Veranstaltung ist es:

  • Über die 4Memory-Initiative zu informieren
  • Bedarfe aus Nutzer- wie Bereitstellerperspektive zu erheben
  • Den Austausch innerhalb der Community voranzutreiben
  • Mitwirkungsmöglichkeiten zu erschließen

Zu diesem gemeinsamen Austausch sind alle eingeladen, die mit historischen Forschungsdaten arbeiten und Daten und Services für die digitale historische Forschung entwickeln und bereitstellen. Wir möchten auf den Community-Treffen möglichst viel Perspektiven zusammenführen und produktiv ins Gespräch bringen.

Die fünf Community-Treffen von 4Memory finden an folgenden Orten und Terminen statt:

27 March 2020: Munich (Anmeldung hier.)
30 March 2020: Berlin (Anmeldung hier.)
21 April 2020: Mainz (Anmeldung Anmeldung hier..)
22 April 2020: Düsseldorf (Link zur Information und Anmeldung wird so bald wie möglich hier erscheinen.)
24 April 2020: Halle (Anmeldung hier.)

Information und Anmeldung: 4Memory Community-Treffen in Berlin

Am 30. März findet ein NFDI-4Memory Community-Treffen in Berlin statt!

Das Meeting am 30. März in Berlin ist eines von insgesamt fünf Community-Treffen in ganz Deutschland. Ziel der Veranstaltung ist es:

  • Über die 4Memory-Initiative zu informieren
  • Bedarfe aus Nutzer- wie Bereitstellerperspektive zu erheben
  • Den Austausch innerhalb der Community voranzutreiben
  • Mitwirkungsmöglichkeiten zu erschließen

Zu diesem gemeinsamen Austausch sind sowohl Vertreter/innen von Institutionen als auch Forschende und Lehrende herzlich eingeladen. Angesprochen sind Historikerinnen und Historiker sowie Vertreter verwandter Fächer, die bereits mit historischen Forschungsdaten arbeiten, wie auch Institutionen und Projekte, die im Bereich der historisch arbeitenden Geisteswissenschaften tätig sind und die Daten und Services für die digitale historische Forschung entwickeln und bereitstellen.

Wichtig ist für uns, auf dem Community Treffen möglichst viele Perspektiven zusammenzuführen und ins Gespräch zu bringen.

Information über das Treffen in Berlin und einen Link zur Anmeldung finden Sie unter: https://4mem-ct-berlin.sciencesconf.org/

**

Die Community-Treffen von 4Memory finden an folgenden Orten und Terminen statt:

27 March 2020: Munich (Anmeldung hier.)
30 March 2020: Berlin (Anmeldung hier.)
21 April 2020: Mainz (Anmeldung Anmeldung hier..)
22 April 2020: Düsseldorf (Link zur Information und Anmeldung wird so bald wie möglich hier erscheinen.)
24 April 2020: Halle (Anmeldung hier.)

Registration open for the 4Memory "Community-Treffen" in Munich

The first of the planned "Community-Treffen" for 4Memory will take place in Munich on 27 March 2020.

A registration form, contact details and and further information is available via the following link:

https://www.bsb-muenchen.de/nfdi4memory/

Further meetings will take place on the following dates and in the following cities:

  • 30 March 2020: Berlin
  • 21 April 2020: Mainz
  • 22 April 2020: Düsseldorf
  • 24 April 2020: Halle

Information about registration and contact details for these other meetings will be posted online as soon as possible.

These "Community-Treffen" will:

  • provide information about 4Memory and the NFDI initiative;
  • assess the needs and potential contributions of various members of the historically oriented humanities with regard to research data management; and
  • take initial steps toward building our community, also for the longer-term operation of the 4Memory consortium.

The meetings will be your opportunity to make contact with the representatives of the co-applicant institutions who are coordinating the creation of the 4Memory consortium and to explore ways in which your institutions and projects can contribute to the aims of our consortium.