"Von Büchern zu Bytes": Ein Rückblick auf Staffel 2

In den neun Sessions der zweiten Staffel von „Von Büchern zu Bytes“ wurde eindrucksvoll sichtbar, wie vielfältig die Forschungsfelder sind und wie essentiell der Einsatz digitaler Werkzeuge und Methoden bereits heute für die geschichtswissenschaftliche Forschung ist. Damit haben wir das zentrale Ziel der Veranstaltungsreihe – die Unterstützung der geschichtswissenschaftlichen Disziplinen beim „Digital Turn“ durch die Vorstellung aktueller Themen und relevanter Anwendungsbereiche – erreicht: Es wurden digitale Tools und Methoden präsentiert, neue Perspektiven eröffnet und die Eintrittshürden für die digitale Forschung gesenkt.

Von der Literaturrecherche über die Erfassung, Transkription, Analyse und Verarbeitung der Daten bis hin zu deren Management und Publikation steht den Forschenden mittlerweile eine Vielzahl an Softwarelösungen zur Verfügung. Das Koordinationsteam der Veranstaltungsreihe hatte es sich zum Ziel gesetzt, Interessierten in dieser Hinsicht ein möglichst breites Spektrum zu präsentieren. Dabei war es wichtig, die Herausforderungen und Bedürfnisse der historischen Disziplinen auf der einen Seite und die Ansprüche an Hilfswerkzeuge auf der anderen Seite zu beachten. 

Daraus resultierten die folgenden Sessions der zweiten Staffel:

  • FactGrid: Eine Wikibase-Instanz für historische Daten
  • Transkribus & eScriptorium: Zwei Plattformen zur Transkription und automatisierten Erkennung von historischen Textquellen
  • “Die Zukunft der Vergangenheit”: Eine Einführung in die Arbeit mit ChatGPT & Co. in den Geschichtswissenschaften
  • Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement
  • “Die Begriffe der Geschichte”: Kontrollierte Vokabulare und Sachbegriffsressourcen für die digitale historische Arbeit
  • Kompetent Recherchieren nach Literatur und mehr: Zentrale Tools des Fachinformationsdienstes Geschichtswissenschaft
  • Forschungsdaten digital managen mit FuD. Ein vielseitiges Tool für die Geistes- und Sozialwissenschaften
  • Statistische Analysen und Datenmanagement mit SPSS am Beispiel der Analyse von Hexenprozessen

Alle Sessions wurden aufgezeichnet und über den NFDI4Memory YouTube-Channel sowie alle Präsentationsunterlagen über Zenodo bereitgestellt.

Das vielfältige Programm ermöglichte den Austausch mit unterschiedlichen Teilen der NFDI4Memory Community. Neben der niedrigschwelligen Vermittlung von Daten- und Methodenkompetenzen soll vor allem im Diskussionsteil der Sessions fachlicher Austausch und Vernetzung gefördert werden. Umso mehr freut es uns, dass im Nachgang zur Session “Zotero als Werkzeug des persönlichen Forschungsdatenmanagements” eine Arbeitsgruppe zur Erstellung eines geschichtswissenschaftlichen Zotero-Tutorials entstanden ist, die sich monatlich trifft (bei Interesse gerne eine Nachricht an contact(at)4memory-dataliteracy.de senden).

Um die Veranstaltungsreihe stetig weiterzuentwickeln, wurde wie bereits in Staffel 1 in den letzten beiden Sessions eine Umfrage bzgl. Umsetzung und Ablauf der Veranstaltungsreihe sowie Themenwünschen für die kommende Staffel durchgeführt. Die Aufteilung in einen ca. 30-minütigen theoretischen Part, gefolgt von einem ca. 60-minütigen Hands-On-Teil, findet nach wie vor überwiegenden Zuspruch. Bei den Themenwünschen sticht ein Gebiet besonders hervor: Ein Großteil der Beteiligten möchten gerne mehr über unterschiedliche Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) und Large Language Models (LLMs) erfahren. Ohne bereits zu viel vorweg zu nehmen: Die Herausforderungen und Möglichkeiten von KI und LLMs werden in der dritten Staffel in unterschiedlichen Blickwinkeln beleuchtet. 

Somit bleibt hier nur noch ein großer Dank an alle Referent:innen und Teilnehmenden der zweiten Staffel auszusprechen. Sowie an alle, die die Zeit gefunden haben, Feedback zu geben: “Ich verfolge die Reihe immer mit großem Interesse - vielen Dank für das Angebot!”.

Autor*innen: Laura Döring, Stefan Büdenbender & Marina Lemaire