Von Büchern zu Bytes

Die digitale Transformation in der Geschichtswissenschaft

Der professionelle Umgang mit wissenschaftlichen Daten ist ein drängendes und hochaktuelles Thema über die Grenzen der Fachdisziplinen hinweg. NFDI4Memory möchte die Community bei der Bewältigung des “Digital Turns” unterstützen und Forschenden in den historisch arbeitenden Wissenschaften helfen, ihre Fachkompetenzen zu erweitern und von den Möglichkeiten digital gestützter Methoden zu profitieren.

Die Veranstaltungsreihe „From Books to Bytes“ stellt regelmäßig aktuelle Themen und relevante Anwendungsfelder in Vorträgen von und mit Expert:innen, Forschenden und Lehrenden vor. Dabei erhalten die Teilnehmenden nach kurzen thematischen Einführungen die Möglichkeit, sich in Hands-on-Sessions selbstständig mit den vorgestellten Inhalten auseinanderzusetzen und die Ergebnisse innerhalb der Fachcommunity ausführlich zu diskutieren.

Die Veranstaltung steht allen Interessierten offen. Wir freuen uns auf Ihre Teilnahme, sowohl an einzelnen Terminen als auch an der gesamten Veranstaltungsreihe!

 

Wann? Freitags, 10-11.30 Uhr (ca. vierwöchentlich)

Wo? https://uni-trier.zoom-x.de/j/69148560192?pwd=ZUVjclY2V1JibXhFYVk1VGgrdE9qdz09, Meeting-ID: 691 4856 0192, Code: M0gcpwTh

 

Sie haben eine Sitzung verpasst? Kein Problem! Sie können sich alle Präsentationen und Vorträge auf unserer Zenodo-Community und unserem YouTube-Kanal ansehen.

Wir freuen uns über Ihre Rückmeldungen, Anregungen und Themenvorschläge. Diese ganz einfach hier einreichen.

Was bisher geschah...

Daten im Dienste der Geschichte

In der Welt der Geschichtswissenschaften ist das Verständnis und die Handhabung von Forschungsdaten von entscheidender Bedeutung. Dieser Vortrag hat zum Ziel, den Begriff "Forschungsdaten" in diesem Kontext zu erläutern und zu verdeutlichen, welche Wechselwirkung zwischen Datenmanagement und Forschungsprozess bestehen. Von der Datenerhebung bis zur Auswertung sind klare Strukturen und effektive Strategien unerlässlich, um belastbare Ergebnisse zu erzielen, keine Daten- und Arbeitsverluste zu erleiden und auch, um sich die Arbeit an manchen Stellen zu erleichtern. Wir werden einen Blick auf die vielfältigen Aspekte des Datenmanagements werfen und darüber hinaus aufzeigen, warum es für jede* Geschichtswissenschaftler*in von großer Bedeutung ist, sich intensiv mit diesem Thema auseinanderzusetzen. Denn letztlich ist es das Datenmanagement, das uns ermöglicht, durch die Jahrhunderte zu navigieren und die Vergangenheit in all ihrer Komplexität zu entschlüsseln.

Forschungsdaten präsentieren – aber wie? Erfahrungsbericht und Beratungsangebot

Neben der rein wissenschaftlichen Arbeit gewinnt die Vermittlung und Präsentation von Forschungsinhalten für Institutionen und Einzelforscher*innen immer mehr an Bedeutung. Dabei geht es um die Frage, wie Daten wissenschaftlich adäquat und zugleich ästhetisch/visuell ansprechend für eine breitere Öffentlichkeit aufbereitet werden können, um die Wahrnehmung von Forschungsergebnissen und -diskussionen über die Fachcommunity hinaus zu gewährleisten. Die digitalen Medien und Methoden bieten vielfältige Möglichkeiten, Inhalte darzustellen und dabei herkömmliche Präsentationsschemata aufzubrechen. Besonders bei digitalen Quellensammlungen und -editionen gilt es dabei die wissenschaftlichen Forschungsdaten mit den Präsentationsformen zu verknüpfen. So lassen sich etwa mit Hilfe digitaler Karten, Daten direkt mit einem Ort verknüpfen, eine Online-Ausstellung erlaubt die Zusammenschau und individuelle Navigation durch ausgewähltes Quellenmaterial entlang vorstrukturierter Narrative und eine Online-Interview-Plattform kann sich als Präsentationsumgebung für Video- und Audiosequenzen aus lebensgeschichtlichen Interviews anbieten. Dr. Anna Menny und Dr. Anna Neovesky geben Einblick in verschiedene Online-Angebote des Institutes für die Geschichte der deutschen Juden in Hamburg und erläutern, was die Besonderheiten digitaler Vermittlungsangebote sind und was bei der Wahl der passenden Präsentationsform zu beachten ist. Im Anschluss können die Teilnehmenden in einer Hands-on-Session ein Präsentationskonzept entwerfen und dieses in der Gruppe diskutieren.

Generationsgegensätze? Ein digitaler Blick über die Schulter zur Analyse qualitativer Daten mit MAXQDA

Der digitale Workshop bietet eine umfassende Einführung in die Analyse qualitativer Interviews mit MAXQDA, einer leistungsstarken Software für die qualitative Datenanalyse. Genutzt werden dazu Interviews aus dem Jahr 1968, die sich mit Generationengegensätzen befassen. 

 

Teilnehmer werden in die Grundlagen der qualitativen Forschung und Interviewanalyse eingeführt, wobei der historische Kontext der späten 1960er Jahre als Schlüsselkomponente für das Verständnis der Generationenkonflikte dient.

 

Ein wesentlicher Schwerpunkt des Workshops liegt auf der praktischen Anwendung von MAXQDA und die Aufbereitung unterschiedlicher Daten. Die Teilnehmer lernen, wie sie ihre Daten in die Software importieren, codieren und analysieren können. Besondere Aufmerksamkeit wird der Arbeit mit Dictionären und kontrollierten Vokabularen geschenkt, um eine effektive und möglichst konsistente Codierung von Daten vorzunehmen und mit den Ergebnissen eigener Codierungsbemühungen zu vergleichen. Die Verwendung von Vokabularen ermöglicht es den Forschern, Schlüsselbegriffe und Themen in den Interviews systematisch zu identifizieren, während Normdate*innen, den Kontext und die Hintergrundinformationen für die Analyse liefern.

Dieser Workshop ist ideal für geisteswissenschaftliche Forscher*innen, Historiker*innen und Sozialwissenschaftler*innen oder auch für Fachexpert*innen dieser Zeit, die sich nicht nur für Generationskonflikte der späten 1960er Jahre interessieren, sondern auch ihre digitalen Analysefähigkeiten erweitern möchten.

Die digitale Re-Edition gemeinfreier Bücher

Die Digitale Bibliothek verbrannter Bücher (https://www.verbrannte-buecher.de/#digital-library) präsentiert 90 Jahre nach den Bücherverbrennungen im nationalsozialistischen Deutschland eine erste Auswahl von 10 repräsentativen Büchern, und wird in den nächsten Monaten weiter ergänzt. Die Werke werden als Faksimile und Transkript zeitgenössischer Ausgaben präsentiert. Die Ergebnisse stehen unter einer freien Lizenz in standardisierten Formaten zur freien Weiternutzung und maschinellen Auswertung zur Verfügung.
Im Workshop wird zunächst gezeigt, welche Schritte - von der Beschaffung der Scans über die Texterkennung (Tesseract/Rescribe OCR) bis zur Transformation nach TEI und der Nachkorrektur - eine digitale Re-Edition umfasst. Die einzelnen Schritte werden in der Folge für einzelne Kapitel selbst erprobt. Dank freier Software ist eine solche digitale Transformation gemeinfreier Werke auch für Einzelpersonen oder kleine Forschungsgruppen ohne aufwändige Infrastruktur zu leisten.

Analyse und Visualisierung von Netzwerken mit Gephi

Ein metaphorischer Gebrauch von Netzwerk-Konzepten wie „Netzwerke“, „Verflechtungen“, „Knotenpunkte“ und ähnliche spielen in den Kultur- und Geisteswissenschaften seit längerem eine Rolle. Das Feld der Historischen Netzwerkforschung beschäftigt sich dem gegenüber damit, wie sich diese Konzepte formalisieren und so der Netzwerkanalyse zugänglich machen lassen. Die Netzwerkanalyse im formalen Sinne ist ein disziplinenübergreifender Methodenansatz, der auf einem Grundmodell von Entitäten (Knoten) und ihren Beziehungen (Kanten) basiert. Entitäten in diesem Sinne können Personen sein, aber auch Organisationen, Orte oder sogar abstrakte Konzepte. Die Kanten zwischen ihnen ergeben sich aus der jeweiligen Fragestellung und sind in der Regel Ergebnis eines Operationalisierungsprozesses. Als Beziehungen können etwa dokumentierte Akte wie Korrespondenzen oder Zitationen verstanden werden, aber auch gemeinsame Mitgliedschaften oder räumliche Nähe. Auf dieser Grundlage können auf mathematischem Wege Informationen über Netzwerkeigenschaften, Gruppen innerhalb des Netzwerkes sowie die strukturelle Position einzelner Entitäten erlangt werden. Darüber hinaus lassen sich die Netzwerke und ihre Eigenschaften ansprechend visualisieren und ermöglichen so eher explorative Zugänge. Dieser Vortrag führt in die Grundzüge der formalen Netzwerkanalyse anhand des Programms Gephi ein.

Data modelling and processing for historical Scholarship: How Research Design and Methodolgy affect Data Management

Broadly speaking, this seminar will address the application of digital methods in historical research. More specifically, it will tease out how the various components of designing a research project – the research questions, the corpus or corpora of (primary) sources, and the digital tools and methods used – mutually influence each other. Which data is necessary to answer specific research questions and how will these shape the ways in which the data should be structured and modelled? What are the advantages and limitations of existing digital tools and how can they be applied most effectively in relation to the project’s data and the questions it seeks to address and answer? How, in other words, can the humanities side of a project on the one hand, and its digital side on the other, be engaged in a fruitful dialogue?

Touching upon the larger topic of data literacy, this seminar aims to discuss and work out together with the participants about how digital methods can be integrated into historical research projects. It will do so on the basis of some research projects that are currently undertaken at the Digital Humanities Lab at IEG Mainz. This project-based approach allows us to highlight theoretical and practical issues when it comes to the application of digital tools and methods, and to show the links between the former and the project’s research design. 

Nodegoat als Tool für die historisch arbeitenden Wissenschaften

Nodegoat ist ein Daten-Management-Tool, das speziell für die Bedürfnisse von geistes- und sozialwissenschaftlichen Forschungsprojekten konzipiert wurde (https://nodegoat.net). Um es zu nutzen, entwickelt man aus den eigenen Forschungsfragen ein Datenmodell und legt sie in Nodegoat als Beziehungen von Objekten und Sub-Objekte an. Eingepflegte Daten können umgehend analysiert und visualisiert werden. Möglich sind u.a. eine geographische Visualisierung inklusive Zeitverlauf, Netzwerkanalysen oder chronologische Visualisierung. Weitere Vorteile sind die Nutzerfreundlichkeit, die Möglichkeit zur Datenveröffentlichung, die integrierten Import- und Export-Schnittstellen sowie der Open Source-Charakter. Nodegoat wird von LAB1100 entwickelt und bietet neben einer kostenlosen Version auch die Option, es auf einem eigenen Server zu betreiben (kostenpflichtig).

LEAF-Writer: Ein online-Editor zum Annotieren von XML-Dateien und Einbinden von Normdaten

Die eindeutige Identifikation von Orten, Personen, Ereignissen und weiteren Entitäten ist fester Bestandteil einer zeitgemäßen Digitalisierungsstrategie und ein Anliegen gleich mehrerer Measures in NFDI4Memory.

LEAF Writer ist eine Webapplikation, die genau hier einen Schwerpunkt setzt. Als Teil einer Editionsumgebung für digitale Texte bietet sie umfangreiche Möglichkeiten der XML-Auszeichnung, kann aber auch als Stand-alone-Tool zur interaktiven Anreicherung mit Normdaten verwendet werden. Zurzeit wird die Webapplikation an der Hochschule Darmstadt weiterentwickelt und durch die Anbindung an die GND, eine deutsche Übersetzung und ein erweitertes User-Management einem größeren Nutzerkreis erschlossen.

Der Vortrag möchte die Grundfunktionen der Normdatenauszeichnung vorstellen und im Rahmen einer Hands-on-Session Gelegenheit zum Testen und zur Diskussion von Verbesserungswünschen geben.

LEAF Writer ist in seiner ursprünglichen Version unter leaf-writer.leaf-vre.org erreichbar; zur Nutzung des vollen Funktionsumfangs ist ein github-account notwendig.

Von Büchern zu Bytes – Ein Rückblick auf Staffel eins

Transformation lebt von Austausch und Kollaboration. Gewohntes Terrain zu verlassen und neue Wege einzuschlagen erfordert Neugierde und Mut. Um dies zu erleichtern, hat der Arbeitsbereich Data Literacy des NFDI4Memory Konsortiums die digitale Veranstaltungsreihe „Von Büchern zu Bytes“ ins Leben gerufen. Sie soll eine Brücke von analog zu digital schlagen mit dem Ziel die Community bei der Bewältigung des Digital Turns zu unterstützen.

Seit Herbst 2023 werden einmal im Monat in einer 90-minütigen Session aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre mit Expert:innen, Forschenden und Lehrenden besprochen. Um möglichst vielen Personengruppen gerecht zu werden, sind die einzelnen Sessions äußert flexibel gestaltet. Nach einer 30-minütigen theoretischen Einführung in das jeweilige Thema oder Tool folgt ein ca. 60-minütiger Hands-On-Teil, bei dem je nach Belieben aktiv teilgenommen oder einfach nur zugeschaut werden kann.

Während in der ersten Session die grundlegende Bedeutung von Forschungsdatenmanagement in den historisch arbeitenden Disziplinen diskutiert wurde, befassten sich die weiteren Sessions mit gezielten Anwendungsbeispielen. Diese werden im Folgenden gebündelt aufgelistet:

  • Session 02: Forschungsdaten präsentieren – aber wie? Erfahrungsbericht und
    Beratungsangebot
  • Session 03: Generationsgegensätze? Ein digitaler Blick über die Schulter zur Analyse
    qualitativer Daten mit MAXQDA
  • Session 04: Die digitale Re-Edition gemeinfreier Bücher
  • Session 05: Analyse und Visualisierung von Netzwerken mit Gephi
  • Session 06: Data modelling and processing for historical Scholarship: How Research
    Design and Methodolgy affect Data Management
  • Session 07: Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement
  • Session 08: Nodegoat als Tool für die historisch arbeitenden Wissenschaften
  • Session 09: LEAF-Writer: Ein online-Editor zum Annotieren von XML-Dateien und
    Einbinden von Normdaten

Alle Sessions wurden aufgezeichnet und über den NFDI4Memory YouTube-Channel sowie alle
Präsentationsunterlagen über Zenodo bereitgestellt.

Diese Vielfalt zog immer zwischen 40 und 60 Teilnehmende an, sodass auch der gezielte Austausch mit der Community gelang. In der letzten Session der ersten Staffel befragten wir die Teilnehmenden zu dem allgemeinen Ablauf und Aufbau der Veranstaltung sowie zu Themenwünschen für die zweite Staffel. Auf die Frage, was die Teilnehmenden am ehesten interessiert (30-minütiger Input oder 60-minütiger Hands-On-Teil), hat die Mehrheit der knapp 30 Teilnehmer:innen die Antwortoption „beides“ gewählt.

Anfänglich wurde lediglich der erste Teil der Session aufgenommen, um es im Hands-On-Teil den Teilnehmenden so angenehm wie möglich zu machen, „frei“ sprechen zu können. Schon während der weiteren Sessions ist uns jedoch aufgefallen, dass der Mehrwert der Aufzeichnung des Hands-On-Teils sehr hoch ist und das Interesse durch nachträgliche Mails zusätzlich bekundet wurde. Aus diesem Grund haben wir die Community gefragt, was aufgezeichnet werden sollte. Mehr als die Hälfte haben für die Option „beides“ gestimmt, mit dem Wunsch aktiv daran teilnehmen zu können. Durch einen Workaround ist es uns gelungen, die aktive Partizipation zu ermöglichen und gleichzeitig Anonymität zu gewährleisten.

In der Planung der zweiten Staffel war es möglich, den Wünschen der Community nachzukommen. Interesse wurde bei der Abfrage vor allem an Large Language Models bekundet. Ohne zu viel vorwegnehmen zu wollen – dieser Wunsch wird in Erfüllung gehen!

Somit bleibt hier nur noch ein großer Dank an alle Referent:innen und Teilnehmenden der ersten
Staffel auszusprechen! Wir freuen uns auf die 2. Staffel „Von Büchern zu Bytes“.

Autor:innen: Stefan Buedenbender, Laura Döring und Marina Lemaire