Von Büchern zu Bytes – Ein Rückblick auf Staffel eins
Transformation lebt von Austausch und Kollaboration. Gewohntes Terrain zu verlassen und neue Wege einzuschlagen erfordert Neugierde und Mut. Um dies zu erleichtern, hat der Arbeitsbereich Data Literacy des NFDI4Memory Konsortiums die digitale Veranstaltungsreihe „Von Büchern zu Bytes“ ins Leben gerufen. Sie soll eine Brücke von analog zu digital schlagen mit dem Ziel die Community bei der Bewältigung des Digital Turns zu unterstützen.
Seit Herbst 2023 werden einmal im Monat in einer 90-minütigen Session aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre mit Expert:innen, Forschenden und Lehrenden besprochen. Um möglichst vielen Personengruppen gerecht zu werden, sind die einzelnen Sessions äußert flexibel gestaltet. Nach einer 30-minütigen theoretischen Einführung in das jeweilige Thema oder Tool folgt ein ca. 60-minütiger Hands-On-Teil, bei dem je nach Belieben aktiv teilgenommen oder einfach nur zugeschaut werden kann.
Während in der ersten Session die grundlegende Bedeutung von Forschungsdatenmanagement in den historisch arbeitenden Disziplinen diskutiert wurde, befassten sich die weiteren Sessions mit gezielten Anwendungsbeispielen. Diese werden im Folgenden gebündelt aufgelistet:
- Session 02: Forschungsdaten präsentieren – aber wie? Erfahrungsbericht und
Beratungsangebot - Session 03: Generationsgegensätze? Ein digitaler Blick über die Schulter zur Analyse
qualitativer Daten mit MAXQDA - Session 04: Die digitale Re-Edition gemeinfreier Bücher
- Session 05: Analyse und Visualisierung von Netzwerken mit Gephi
- Session 06: Data modelling and processing for historical Scholarship: How Research
Design and Methodolgy affect Data Management - Session 07: Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement
- Session 08: Nodegoat als Tool für die historisch arbeitenden Wissenschaften
- Session 09: LEAF-Writer: Ein online-Editor zum Annotieren von XML-Dateien und
Einbinden von Normdaten
Alle Sessions wurden aufgezeichnet und über den NFDI4Memory YouTube-Channel sowie alle
Präsentationsunterlagen über Zenodo bereitgestellt.
Diese Vielfalt zog immer zwischen 40 und 60 Teilnehmende an, sodass auch der gezielte Austausch mit der Community gelang. In der letzten Session der ersten Staffel befragten wir die Teilnehmenden zu dem allgemeinen Ablauf und Aufbau der Veranstaltung sowie zu Themenwünschen für die zweite Staffel. Auf die Frage, was die Teilnehmenden am ehesten interessiert (30-minütiger Input oder 60-minütiger Hands-On-Teil), hat die Mehrheit der knapp 30 Teilnehmer:innen die Antwortoption „beides“ gewählt.
Anfänglich wurde lediglich der erste Teil der Session aufgenommen, um es im Hands-On-Teil den Teilnehmenden so angenehm wie möglich zu machen, „frei“ sprechen zu können. Schon während der weiteren Sessions ist uns jedoch aufgefallen, dass der Mehrwert der Aufzeichnung des Hands-On-Teils sehr hoch ist und das Interesse durch nachträgliche Mails zusätzlich bekundet wurde. Aus diesem Grund haben wir die Community gefragt, was aufgezeichnet werden sollte. Mehr als die Hälfte haben für die Option „beides“ gestimmt, mit dem Wunsch aktiv daran teilnehmen zu können. Durch einen Workaround ist es uns gelungen, die aktive Partizipation zu ermöglichen und gleichzeitig Anonymität zu gewährleisten.
In der Planung der zweiten Staffel war es möglich, den Wünschen der Community nachzukommen. Interesse wurde bei der Abfrage vor allem an Large Language Models bekundet. Ohne zu viel vorwegnehmen zu wollen – dieser Wunsch wird in Erfüllung gehen!
Somit bleibt hier nur noch ein großer Dank an alle Referent:innen und Teilnehmenden der ersten
Staffel auszusprechen! Wir freuen uns auf die 2. Staffel „Von Büchern zu Bytes“.
Autor:innen: Stefan Buedenbender, Laura Döring und Marina Lemaire
Von Büchern zu Bytes - Staffel 1

Referent:innen: Prof. Dr. Ursula Lehmkuhl, Universität Trier; Prof. Dr. Stefan Schmunk, Hochschule Darmstadt
In der Welt der Geschichtswissenschaften ist das Verständnis und die Handhabung von Forschungsdaten von entscheidender Bedeutung. Dieser Vortrag hat zum Ziel, den Begriff „Forschungsdaten“ in diesem Kontext zu erläutern und zu verdeutlichen, welche Wechselwirkung zwischen Datenmanagement und Forschungsprozess bestehen. Von der Datenerhebung bis zur Auswertung sind klare Strukturen und effektive Strategien unerlässlich, um belastbare Ergebnisse zu erzielen, keine Daten- und Arbeitsverluste zu erleiden und auch, um sich die Arbeit an manchen Stellen zu erleichtern. Wir werden einen Blick auf die vielfältigen Aspekte des Datenmanagements werfen und darüber hinaus aufzeigen, warum es für jede:n Geschichtswissenschaftler:in von großer Bedeutung ist, sich intensiv mit diesem Thema auseinanderzusetzen. Denn letztlich ist es das Datenmanagement, das uns ermöglicht, durch die Jahrhunderte zu navigieren und die Vergangenheit in all ihrer Komplexität zu entschlüsseln.
Referent:innen: Dr. Anna Menny & Dr. Anna Neovesky (Institut für die Geschichte der deutschen Juden, Hamburg)
Neben der rein wissenschaftlichen Arbeit gewinnt die Vermittlung und Präsentation von Forschungsinhalten für Institutionen und Einzelforscher:innen immer mehr an Bedeutung. Dabei geht es um die Frage, wie Daten wissenschaftlich adäquat und zugleich ästhetisch/visuell ansprechend für eine breitere Öffentlichkeit aufbereitet werden können, um die Wahrnehmung von Forschungsergebnissen und -diskussionen über die Fachcommunity hinaus zu gewährleisten. Die digitalen Medien und Methoden bieten vielfältige Möglichkeiten, Inhalte darzustellen und dabei herkömmliche Präsentationsschemata aufzubrechen. Besonders bei digitalen Quellensammlungen und -editionen gilt es dabei die wissenschaftlichen Forschungsdaten mit den Präsentationsformen zu verknüpfen. So lassen sich etwa mit Hilfe digitaler Karten, Daten direkt mit einem Ort verknüpfen, eine Online-Ausstellung erlaubt die Zusammenschau und individuelle Navigation durch ausgewähltes Quellenmaterial entlang vorstrukturierter Narrative und eine Online-Interview-Plattform kann sich als Präsentationsumgebung für Video- und Audiosequenzen aus lebensgeschichtlichen Interviews anbieten. Dr. Anna Menny und Dr. Anna Neovesky geben Einblick in verschiedene Online-Angebote des Institutes für die Geschichte der deutschen Juden in Hamburg und erläutern, was die Besonderheiten digitaler Vermittlungsangebote sind und was bei der Wahl der passenden Präsentationsform zu beachten ist.
Referent:innen: Dr. Katrin Moeller & Dr. Olaf Simons (MLU Halle-Wittenberg)
Der digitale Workshop bietet eine umfassende Einführung in die Analyse qualitativer Interviews mit MAXQDA, einer leistungsstarken Software für die qualitative Datenanalyse. Genutzt werden dazu Interviews aus dem Jahr 1968, die sich mit Generationengegensätzen befassen.
Teilnehmende werden in die Grundlagen der qualitativen Forschung und Interviewanalyse eingeführt, wobei der historische Kontext der späten 1960er Jahre als Schlüsselkomponente für das Verständnis der Generationenkonflikte dient.
Ein wesentlicher Schwerpunkt des Workshops liegt auf der praktischen Anwendung von MAXQDA und die Aufbereitung unterschiedlicher Daten. Die Teilnehmenden lernen, wie sie ihre Daten in die Software importieren, codieren und analysieren können. Besondere Aufmerksamkeit wird der Arbeit mit Dictionären und kontrollierten Vokabularen geschenkt, um eine effektive und möglichst konsistente Codierung von Daten vorzunehmen und mit den Ergebnissen eigener Codierungsbemühungen zu vergleichen. Die Verwendung von Vokabularen ermöglicht es den Forschern, Schlüsselbegriffe und Themen in den Interviews systematisch zu identifizieren, während Normdate*innen, den Kontext und die Hintergrundinformationen für die Analyse liefern.
Dieser Workshop ist ideal für geisteswissenschaftliche Forschende, Historiker:innen und Sozialwissenschaftler:innen oder auch für Fachexpert:innen dieser Zeit, die sich nicht nur für Generationskonflikte der späten 1960er Jahre interessieren, sondern auch ihre digitalen Analysefähigkeiten erweitern möchten.
Referent:innen: Daniel Burckhardt, MMZ Potsdam
Die Digitale Bibliothek verbrannter Bücher (https://www.verbrannte-buecher.de/#digital-library) präsentiert 90 Jahre nach den Bücherverbrennungen im nationalsozialistischen Deutschland eine erste Auswahl von 10 repräsentativen Büchern, und wird in den nächsten Monaten weiter ergänzt. Die Werke werden als Faksimile und Transkript zeitgenössischer Ausgaben präsentiert. Die Ergebnisse stehen unter einer freien Lizenz in standardisierten Formaten zur freien Weiternutzung und maschinellen Auswertung zur Verfügung.
Im Workshop wird zunächst gezeigt, welche Schritte - von der Beschaffung der Scans über die Texterkennung (Tesseract/Rescribe OCR) bis zur Transformation nach TEI und der Nachkorrektur - eine digitale Re-Edition umfasst. Die einzelnen Schritte werden in der Folge für einzelne Kapitel selbst erprobt. Dank freier Software ist eine solche digitale Transformation gemeinfreier Werke auch für Einzelpersonen oder kleine Forschungsgruppen ohne aufwändige Infrastruktur zu leisten.
Referent:innen: Prof. Dr. Frederik Elwert, RUB Bochum
Ein metaphorischer Gebrauch von Netzwerk-Konzepten wie „Netzwerke“, „Verflechtungen“, „Knotenpunkte“ und ähnliche spielen in den Kultur- und Geisteswissenschaften seit längerem eine Rolle. Das Feld der Historischen Netzwerkforschung beschäftigt sich dem gegenüber damit, wie sich diese Konzepte formalisieren und so der Netzwerkanalyse zugänglich machen lassen. Die Netzwerkanalyse im formalen Sinne ist ein disziplinenübergreifender Methodenansatz, der auf einem Grundmodell von Entitäten (Knoten) und ihren Beziehungen (Kanten) basiert. Entitäten in diesem Sinne können Personen sein, aber auch Organisationen, Orte oder sogar abstrakte Konzepte. Die Kanten zwischen ihnen ergeben sich aus der jeweiligen Fragestellung und sind in der Regel Ergebnis eines Operationalisierungsprozesses. Als Beziehungen können etwa dokumentierte Akte wie Korrespondenzen oder Zitationen verstanden werden, aber auch gemeinsame Mitgliedschaften oder räumliche Nähe. Auf dieser Grundlage können auf mathematischem Wege Informationen über Netzwerkeigenschaften, Gruppen innerhalb des Netzwerkes sowie die strukturelle Position einzelner Entitäten erlangt werden. Darüber hinaus lassen sich die Netzwerke und ihre Eigenschaften ansprechend visualisieren und ermöglichen so eher explorative Zugänge. Dieser Vortrag führt in die Grundzüge der formalen Netzwerkanalyse anhand des Programms Gephi ein.
Referent:innen: Dr. Jaap Geraerts & Sofia Baroncini, IEG Mainz
Broadly speaking, this seminar will address the application of digital methods in historical research. More specifically, it will tease out how the various components of designing a research project – the research questions, the corpus or corpora of (primary) sources, and the digital tools and methods used – mutually influence each other. Which data is necessary to answer specific research questions and how will these shape the ways in which the data should be structured and modelled? What are the advantages and limitations of existing digital tools and how can they be applied most effectively in relation to the project’s data and the questions it seeks to address and answer? How, in other words, can the humanities side of a project on the one hand, and its digital side on the other, be engaged in a fruitful dialogue?
Touching upon the larger topic of data literacy, this seminar aims to discuss and work out together with the participants about how digital methods can be integrated into historical research projects. It will do so on the basis of some research projects that are currently undertaken at the Digital Humanities Lab at IEG Mainz. This project-based approach allows us to highlight theoretical and practical issues when it comes to the application of digital tools and methods, and to show the links between the former and the project’s research design.
Referent:innen: Dr. Kathleen Schlüter, Universität Leipzig
Nodegoat ist ein Daten-Management-Tool, das speziell für die Bedürfnisse von geistes- und sozialwissenschaftlichen Forschungsprojekten konzipiert wurde (https://nodegoat.net). Um es zu nutzen, entwickelt man aus den eigenen Forschungsfragen ein Datenmodell und legt sie in Nodegoat als Beziehungen von Objekten und Sub-Objekte an. Eingepflegte Daten können umgehend analysiert und visualisiert werden. Möglich sind u.a. eine geographische Visualisierung inklusive Zeitverlauf, Netzwerkanalysen oder chronologische Visualisierung. Weitere Vorteile sind die Nutzer:innenfreundlichkeit, die Möglichkeit zur Datenveröffentlichung, die integrierten Import- und Export-Schnittstellen sowie der Open Source-Charakter. Nodegoat wird von LAB1100 entwickelt und bietet neben einer kostenlosen Version auch die Option, es auf einem eigenen Server zu betreiben (kostenpflichtig).
Referent:innen: Dr, Stefan Büdenbender & Jacob Benz, Hochschule Darmstadt
Die eindeutige Identifikation von Orten, Personen, Ereignissen und weiteren Entitäten ist fester Bestandteil einer zeitgemäßen Digitalisierungsstrategie und ein Anliegen gleich mehrerer Measures in NFDI4Memory.
LEAF Writer ist eine Webapplikation, die genau hier einen Schwerpunkt setzt. Als Teil einer Editionsumgebung für digitale Texte bietet sie umfangreiche Möglichkeiten der XML-Auszeichnung, kann aber auch als Stand-alone-Tool zur interaktiven Anreicherung mit Normdaten verwendet werden. Zurzeit wird die Webapplikation an der Hochschule Darmstadt weiterentwickelt und durch die Anbindung an die GND, eine deutsche Übersetzung und ein erweitertes User:innen-Management einem größeren Nutzer:innenkreis erschlossen.
Der Vortrag möchte die Grundfunktionen der Normdatenauszeichnung vorstellen und im Rahmen einer Hands-on-Session Gelegenheit zum Testen und zur Diskussion von Verbesserungswünschen geben.
LEAF Writer ist in seiner ursprünglichen Version unter leaf-writer.leaf-vre.org erreichbar; zur Nutzung des vollen Funktionsumfangs ist ein github-account notwendig.