Task Area 4

Von Büchern zu Bytes – Ein Rückblick auf Staffel eins

Transformation lebt von Austausch und Kollaboration. Gewohntes Terrain zu verlassen und neue
Wege einzuschlagen erfordert Neugierde und Mut. Um dies zu erleichtern, hat der Arbeitsbereich
Data Literacy des NFDI4Memory Konsortiums die digitale Veranstaltungsreihe „Von Büchern zu
Bytes“ ins Leben gerufen. Sie soll eine Brücke von analog zu digital schlagen mit dem Ziel die
Community bei der Bewältigung des Digital Turns zu unterstützen.

Seit Herbst 2023 werden einmal im Monat in einer 90-minütigen Session aktuelle Themen und
relevante Anwendungsfelder in Forschung und Lehre mit Expert:innen, Forschenden und
Lehrenden besprochen. Um möglichst vielen Personengruppen gerecht zu werden, sind die
einzelnen Sessions äußert flexibel gestaltet. Nach einer 30-minütigen theoretischen Einführung
in das jeweilige Thema oder Tool folgt ein ca. 60-minütiger Hands-On Teil, bei dem je nach
Belieben aktiv teilgenommen oder einfach nur zugeschaut werden kann.

Während in der ersten Session die grundlegende Bedeutung von Forschungsdatenmanagement
in den historisch arbeitenden Disziplinen diskutiert wurde, befassten sich die weiteren Sessions
mit gezielten Anwendungsbeispielen, diese werden im Folgenden gebündelt aufgelistet:

  • Session 02: Forschungsdaten präsentieren – aber wie? Erfahrungsbericht und
    Beratungsangebot
  • Session 03: Generationsgegensätze? Ein digitaler Blick über die Schulter zur Analyse
    qualitativer Daten mit MAXQDA
  • Session 04: Die digitale Re-Edition gemeinfreier Bücher
  • Session 05: Analyse und Visualisierung von Netzwerken mit Gephi
  • Session 06: Data modelling and processing for historical Scholarship: How Research
    Design and Methodolgy affect Data Management
  • Session 07: Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement
  • Session 08: Nodegoat als Tool für die historisch arbeitenden Wissenschaften
  • Session 09: LEAF-Writer: Ein online-Editor zum Annotieren von XML-Dateien und
    Einbinden von Normdaten

Alle Sessions wurden aufgezeichnet und über den NFDI4Memory YouTube-Channel sowie alle
Präsentationsunterlagen über Zenodo bereitgestellt.

Diese Vielfalt zog immer zwischen 40 und 60 Teilnehmende an, sodass auch der gezielte
Austausch mit der Community gelang. In der letzten Session der ersten Staffel befragten wir die
Teilnehmenden zu dem allgemeinen Ablauf und Aufbau der Veranstaltung sowie zu
Themenwünschen für die zweite Staffel. Auf die Frage was die Teilnehmenden am ehesten
interessiert (30-minütiger Input oder 60-minütiger Hands-On-Teil) hat die Mehrheit der knapp
30 Teilnehmer:innen die Antwortoption „beides“ gewählt (siehe Abb. 1).

Abb.1: Abfrage zu inhaltlichen Ablauf und Aufbau einer Session

Anfänglich wurde lediglich der erste Teil der Session aufgenommen, um es im Hands-On Teil den
Teilnehmenden so angenehm wie möglich zu machen „frei“ sprechen zu können. Schon
während der weiteren Sessions ist uns jedoch aufgefallen, dass der Mehrwert der Aufzeichnung
des Hands-On Teils sehr hoch ist und das Interesse durch nachträgliche Mails zusätzlich
bekundet wurde. Aus diesem Grund haben wir die Community gefragt, was aufgezeichnet
werden sollte. Mehr als die Hälfte haben für die Option „beides“ gestimmt, mit dem Wunsch
aktiv daran teilnehmen zu können. Durch einen Workaround ist es uns gelungen die aktive
Partizipation zu ermöglichen und gleichzeitig Anonymität zu gewährleisten.

In der Planung der zweiten Staffel war es möglich, den Wünschen der Community
nachzukommen. Interesse wurde bei der Abfrage vor allem an Large Language Models bekundet.
Ohne zu viel vorwegnehmen zu wollen – dieser Wunsch wird in Erfüllung gehen!

Die erste Session der zweiten Staffel findet am 25. Oktober 2024 statt und behandelt das Tool
FactGrid. Eine Anmeldung ist hier möglich. Das vollständige Programm wird in Kürze wie gehabt
über die offizielle NFDI4-Memory Webseite aufrufbar sein.

Somit bleibt hier nur noch ein großer Dank an alle Referent:innen und Teilnehmenden der ersten
Staffel auszusprechen! Wir freuen uns auf die 2. Staffel „Von Büchern zu Bytes“.

Autor:innen: Stefan Buedenbender, Laura Döring und Marina Lemaire

#4MCF24: "Haben wir Euch gut getroffen?" Feedback zur Zielgruppenanalyse

2. NFDI4Memory Community Forum | 18.09.2024 | Halle (Saale)

13:40-15:10 Programm Slot 2 - Session 2:
"Haben wir Euch gut getroffen?" Feedback zur Zielgruppenanalyse

Um unsere Lern- und Lehrmaterialien präzise auf die Bedürfnisse und Interessen der Historiker:innen und historisch Arbeitenden abzustimmen, ist eine genaue Analyse erforderlich.
Basierend auf der Data Literacy Bedarfserhebung für die verschiedenen Zielgruppen sowie den bisherigen Erfahrungen haben wir Nutzerprofile, sogenannte Personae, erstellt.
Mit den Teilnehmenden des Workshops möchten wir anhand der Personae die Anforderungen an Lern- und Lehrmaterialien der 4Memory-Community besser verstehen.

Der Workshop wird durchgeführt von unseren TAs Data Literacy & Data Culture.

Weitere Infos zum Community Forum: https://4memory.de/4memory-community-forum/ 
Zur Anmeldung im Conftool

Sammlung von Lehr- und Lernmaterialen – Teilen Sie Ihr Wissen!

Um zu ermitteln, welche Lehr-/Lernmaterialien und Sammlungen im Bereich Digital und Data Literacy in den historisch arbeitenden Wissenschaften bereits eingesetzt oder gerade erstellt werden, bittet Sie das Team der Task Area „Data Literacy“ des NFDI4Memory Konsortiums, Ihre Materialien über folgendes Formular zu melden: https://www.4memory.uni-trier.de/sammlung-von-lehr-und-ausbildungsmaterialien/

NFDI4Memory entwickelt Handreichungen, Services und Lehr- und Lernformate, um Digital- und Datenkompetenzen in den historisch arbeitenden Disziplinen zu verbessern.
Das Ziel der Sammlung von Lehr-/Lernmaterialien ist es, einen Data-Literacy-Trainingskatalog mit didaktischen und inhaltlichen Empfehlungen zu erstellen. Der Fokus liegt dabei ausschließlich auf Materialien, die für die Vermittlung von Datenkompetenzen in den historisch orientierten Disziplinen verwendet oder dafür konzipiert wurden.

Bitte leiten Sie die Information an Ihre Kolleg*innen weiter!

Bei Fragen oder Anmerkungen erreichen Sie uns unter:
4m-dl-measure-1-team@listserv.dfn.de

Abonnieren- Anschauen – Lernen: "Von Büchern zu Bytes"- Sessions sind jetzt auf YouTube verfügbar!

Die erfolgreiche Veranstaltungsreihe "From Books to Bytes", welche im Oktober 2023 gestartet ist, ist jetzt auf YouTube abrufbar.

In den bisherigen Sessions wurden monatlich aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre mit Expert:innen, Forschenden und Lehrenden vorgestellt. Der professionelle Umgang mit Daten ist ein virulentes Thema über die Grenzen aller Disziplinen hinweg. NFDI4Memory greift dies auf, um die Datenkompetenz in den Geschichtswissenschaften und geschichtsarbeitenden Fächern (weiter) zu entwickeln und die Community bei der Bewältigung des digital turn zu unterstützen.

Von Büchern zu Bytes: Die digitale Transformation in der Geschichtswissenschaft - Lernen, Lehren und Forschen im Zeitalter der Digitalisierung - einfach dem Link folgen und mehr erfahren über aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre: https://www.youtube.com/@nfdi4memorydataliteracy203

Zu den Terminen der kommenden "From Books to Bytes" Sessions geht es hier.

Bericht über den Roundtable “The Future of the Archive(s): Digital Infrastructures Across Regions”

Unter dem Titel „The Future of the Archive(s): Digital Infrastructures Across Regions” hat das ReCentGlobe der Universität Leipzig in Kooperation mit CrossArea e.V. und im Kontext der Task Area „Data Literacy“ / Measure „Digital Area Histories“ im November 2023 einen Roundtable organisiert.
Die Veranstaltung fand im Rahmen der CrossArea-Jahrestagung an der Universität Regensburg sowie online statt, in Kooperation mit dem Regensburger Department for Interdisciplinary and Multiscalar Area Studies (DIMAS) sowie dem Leibniz Institut für Ost- und Südosteuropaforschung (IOS).

Peter Altekrüger (Ibero-Amerikanisches Institut (IAI), Berlin), Cassandra Mark-Thiesen (Universität Bayreuth), Arnošt Štanzel (Bayerische Staatsbibliothek (BSB), München) und Cosima Wagner (Universitätsbibliothek, FU Berlin) diskutierten unter der Moderation von Timothy Nunan (Universität Regensburg) über aktuelle Entwicklungen in Archiv- und Bibliotheks-Infrastrukturen sowie -projekten.

Zu den wichtigsten Themen gehörten:
1. “Preserve and share”: Was ist in den Archiven und Bibliotheken und wer hat Zugriff?
2. Disrupting digital monolingualism
3. Aufbau und Erhalt von digitalen Infrastrukturen
4. Open Access in globaler Perspektive
5. Entwicklung einer digitalen Infrastruktur für Area Studies in Deutschland

Auf TRAFO - Blog for Transregional Research ist nun unter dem Titel "Digital Monolingualism, Archives at Risk, and Global Views on Open Access" eine ausführliche Zusammenfassung der Diskussionsrunde erschienen.

Veranstaltungstipp: Daten-Drama & Glücksrad-Gaudi: 4Memory-FDM-Märchenrätsel Edition.

Daten-Drama & Glücksrad-Gaudi: 4Memory-FDM-Märchenrätsel Edition.

Tauche ein in eine Welt voller Datenzauber und Rätsel. Erfahre live beim Dreh am Glücksrad, wer die glücklichen Gewinner:innen der Data Literacy Umfrage sind, während wir zur Abwechslung gemeinsam spannende FDM-Märchenrätsel von TKFDM lösen.

Glücksrad-Gaudi: die Gewinner:innen unserer Data Literacy-Umfrage durch Dreh am Glücksrad ermitteln
FDM-Märchenrätsel: Gemeinsam FDM-Scarytale-Rätsel lösen
Spiel & Spaß: Rate mit und erfahre auf unterhaltsame Weise mehr über die Tücken des Forschungsdatenmanagements und wie man sie vermeiden kann
Gewinne: unter den Teilnehmenden verlosen wir ein weiteres 4Memory-Paket

Wann: 12.12.2023, 16:00-17:00
Wo: Online, https://www.4memory.uni-trier.de/anmeldung-daten-drama-glucksrad-gaudi-4memory-fdm-marchenratsel-editionanmeldung/

Die Teilnahme ist kostenlos und für alle, die Spaß an Rätseln und eine entspannte Atmosphäre haben.
Die Veranstaltung soll aufgezeichnet werden. Die Version der Veröffentlichung wird ausschließlich die Moderator*innen zeigen

Neue Veranstaltungsreihe "Von Büchern zu Bytes"

Wir laden herzlich zu unserer neuen Veranstaltungsreihe "Von Büchern zu Bytes: Die digitale Transformation in der Geschichtswissenschaft - Lernen, Lehren und Forschen im Zeitalter der Digitalisierung" ein!

Der professionelle Umgang mit Daten ist ein virulentes Thema über die Grenzen aller Disziplinen hinweg. NFDI4Memory greift dies auf, um die Datenkompetenz in den Geschichtswissenschaften und geschichtsarbeitenden Fächern (weiter) zu entwickeln und die Community bei der Bewältigung des digital turn zu unterstützen.

Die Veranstaltungsreihe "From Books to Bytes" startet im Oktober 2023 und wird regelmäßig aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre mit Experten, Forschern und Lehrenden vorstellen. Sie ist so konzipiert, dass die Teilnehmerinnen und Teilnehmer nach kurzen thematischen Einführungen die Möglichkeit haben, sich in Hands-on-Sessions selbstständig mit den vorgestellten Inhalten auseinanderzusetzen. Wir freuen uns über Ihre Teilnahme, sowohl für einzelne Termine als auch für die gesamte Veranstaltungsreihe.

Die Veranstaltung findet digital um 10 Uhr statt, eine Übersicht über die Termine finden Sie hier: https://4memory.de/task-areas/task-area-4-data-literacy/veranstaltungsreihe-from-books-to-bytes/

Präsentationsraum
Meeting-ID: 691 4856 0192
Kenncode: M0gcpwTh

94 Tiefenerschließung von digitalisierten Urkundenbüchern

< Back to problem stories

In einem Regional-Portal, das von einem Institut betrieben ist, dessen historischen Bereich ich leite, ist unter anderem ein landesgeschichtliches Urkundenbuch eingestellt. Es besteht aus derzeit 27 gedruckten Bänden, deren Volltext-Urkunden in digitalisierter Form bandweise und innerhalb dessen nach Urkundennummern abrufbar sind. Die gedruckten Register sind beigegeben, doch gibt es keine elektronische Verknüpfung der Registereinträge mit dem Textteil. Suchmöglichkeiten in den Daten bestehen derzeit nicht. Um die Nutzbarkeit des Urkundenbuchs in zeitgemäßer Weise zu erhöhen, bieten sich zwei Wege an: 1) Der Aufbau einer bandübergreifenden Volltextsuche – idealerweise mit Booleschen Operatoren, schreibweisentolerant und mit Umgebungs- und Phrasensuchmöglichkeit etwa nach den Vorbildern der »Library of Latin Texts« oder der »Migne«-Datenbanken. Doch wären in diesem Fall sehr hohe Investitionen in die notwendige IT erforderlich. Zudem zielt das landesgeschichtliche Interesse auch weniger auf die Durchsuchung des Wortschatzes als auf die enthaltenen historischen Orte und Personen. An dieser Stelle bieten sich – Weg 2) – die gedruckten Register an, in denen ein beachtlicher Teil der historisch-kritischen Arbeit der Herausgeber überliefert ist, die nun auch für die Online-Fassung des Urkundenbuches genutzt werden könnte. Dazu müssten allerdings – so stellt sich das Problem derzeit für uns dar – die Orts- und Personennamensregister jedes der 27 Bände händisch in eine datenbanktaugliche Form (Excel-Dateien) überführt werden. Anschließend würden die erfassten Registereinträge mit den bereits vorhandenen, online gestellten Bilddateien der Urkunden verlinkt. Schließlich könnten die digitalisierten und verlinkten Registereinträge der einzelnen Bände zu einer Gesamt-Datenbank verbunden werden. NutzerInnen könnten dann bandübergreifend von lediglich einem einzigen Suchportal aus nach Orts- und Personennamen recherchieren und die Suchergebnisse gesammelt abrufen. Bei Weg 2) fielen allerdings ähnlich wie bei Weg 1) hohe Kosten an –vor allem aufgrund der benötigten Arbeitszeit, was die Erreichung des Ziels auch hier in Frage stellt (Blocker: Ressourcenaufwand). Mögliche technische Lösungen: Gibt es beispielweise OCR-Technik für die Aufschlüsselung von komplex strukturierten Registern und für die Verknüpfung der dort genannten Nummern mit den zugehörigen Textdokumenten?

Posted on

92 Metadaten aus Forschungsprojekten: Singuläres vs. Standardisierung. Zum Problem der kategorialen Erschließung von Daten

< Back to problem stories

Auch im Bereich der philosophiehistorischen Grundlagenforschung wird zunehmend die Digitalisierung von Daten (Editionen, Zeitschriften, Kompendien, Archive) vorangetrieben. Dabei stellt sich die Frage, wie die entstehenden Datenmengen auszuwerten sind. Neben der Überlegung zu den technischen Möglichkeiten tritt auch ein hermeneutisches Problem: Wie ist ein sinnvoller kategorialer Zugriff auf die Daten möglich? Die klassischen Werkzeuge sind: Kategorien, Termini, Begriffe usw., aber auch Textsorten (Monographie, Zeitschriftenbeitrag, Nachlassmaterial usw.). Neue Werkzeuge des distant readings treten hinzu, bspw. die Makroanalyse, die computerbasierte Formanalyse von Textualität usw. In diesem Zusammenhang fehlt es bisher an einem Forum für eine vorgeschaltete Methodenreflexion. Es scheint kein guter Rat zu sein, ein Maximum an Werkzeugen in der Analyse der Datenmengen anzuwenden, oder sich ohne weiteres gegen die alten und für die neuen Werkzeuge zu entscheiden. Ein Vorteil der qualitativen Datenanalyse war und ist, dass singuläre Einheiten (Episoden) der Philosophiegeschichte bewahrt werden konnten; ein Nachteil der quantitativen Analyse könnte sein, dass im Verfahren der Standardisierung die Möglichkeit qualitativer Differenzierung von Episodischen und Generalisierendem verloren geht. Darüberhinaus besteht auch die Gefahr, dass durch die Erfassung der Daten im Prozess der Digitalisierung die alten Wissensspeicher - wie bspw. Lexika der Wörter, Begriffe, Metaphern, Kompendien systematischer und historischer Fragen an die Philosophiegeschichte - für obsolet erklärt werden und die Suggestion der für sich selbst sprechenden Daten (der alte "Mythos der Gegebenheit") sich festsetzt. Um hier Klarheit zu schaffen, sollte es als eine dringliche Aufgabe markiert werden, einen Weg zu finden, die alten und die neuen Werkzeuge zu kombinieren und andere Methoden, eventuell verscuhsweise Hybrid-Methoden zu entwickeln. So ist davon auszugehen, dass bspw. ein Historisches Wörterbuch der Philosophie (Erstauflage in den 1970er Jahren) für eine Neubearbeitung seinen Werkzeugkasten neu bestücken wird. Was das heißt und wie unsere Forschung als historisch arbeitende Geisteswissenschaftler*innen nicht nur in der Philosophie, sondern auch in den benachbarten Wissensdisziplinen aussehen wird, vor welchen Herausforderungen/ Möglichkeiten wir stehen und wie ein angemessener hermeneutischer Zugriff auf die digitalisierten Datenmengen (for Memory!) aussehen kann, darüber sollte eine Debatte stattfinden.

Posted on

91 Im Forschungsverbund – Der steinige Weg zum Geodaten-Repositorium

< Back to problem stories

Als An-Institut einer Universität sind wir Akteur in einem langhin etablierten Verbund unabhängiger Projekte der Grundlagenforschung, die zum Nutzen der interdisziplinären Städteforschung historisches Kartenmaterial edieren. Nach wie vor sind Printprodukte der traditionelle Output. Inzwischen aber haben sich Geoinformationssysteme (GIS) in den benachbarten Arbeitsbereichen Geografie und Archäologie so weit durchgesetzt, dass die Umstellung der Projektarbeiten von konventioneller Zeichensoftware hin zu GIS der nächste logische Schritt war, zumal dies auch eine Ausgangsbasis dafür bot, online die Verbreitung der Arbeitsergebnisse aus den Projekten zu verbessern. Bei der Koordinierung dieses Übergangsprozesses innerhalb des Forschungsverbundes, die bei uns im Haus erfolgt, treten für die internationale Scientific Community vielfältige Herausforderungen zutage. Während verschiedene Projekte in experimentellen Schritten die Datenproduktion erfolgreich auf Geodaten umgestellt und in Workshops ihre Ergebnisse verglichen haben, ist deutlich geworden, dass die anfänglichen ‚handwerklichen‘ Startschwierigkeiten (Knowhow, User Skills) tieferliegende, wissenschaftliche Probleme überdeckten. Unser Ziel der Schaffung eines domänenspezifischen (aber disziplinenübergreifenden) Forschungsdaten-Repositoriums für die Dissemination der Projektgeodaten, verstärkt dies noch. Einerseits ist der Schritt hin zu einem ‚Forschungsdatenbewusstsein‘ in der Scientific Community und zu einer Kultur, die neben der Datenproduktion auch die Bereitstellung der Basisdaten für die interdisziplinäre, länderübergreifende und vergleichende Forschung mitplant, größer als gedacht. Andererseits macht sich der Mangel an Standards für die Produktion und Verwendung von Geodaten in den Geschichtswissenschaften bemerkbar. Auch in diesem ‚Digital Turn‘, der primär die Historischen Grundwissenschaften Kartografie und Geografie tangiert, mündet die Quellenproblematik (Uneinheitlichkeit der Quellenüberlieferung, Uneindeutigkeit der Quellenbefunde) direkt in eine Datenproblematik. Etablierte Metadatenstandards müssen zudem für Geodaten mit historischem Bezug angepasst werden. Die Schaffung einer gemeinsamen Ontologie in einem angeschlossenen Forschungsprojekt steht vor eigenen inhaltlichen Herausforderungen. Letztlich wird ihre Verwendung im Repositorium dabei helfen, die Vergleichbarkeit der Daten über Disziplinen- und Ländergrenzen hinweg herzustellen, jedoch ist ihre Berücksichtigung im Workflow der Datenproduktion innerhalb der einzelnen Projekte eine weitere Hürde.

Posted on