In den neun Sessions der zweiten Staffel von „Von Büchern zu Bytes“ wurde eindrucksvoll sichtbar, wie vielfältig die Forschungsfelder sind und wie essentiell der Einsatz digitaler Werkzeuge und Methoden bereits heute für die geschichtswissenschaftliche Forschung ist. Damit haben wir das zentrale Ziel der Veranstaltungsreihe – die Unterstützung der geschichtswissenschaftlichen Disziplinen beim „Digital Turn“ durch die Vorstellung aktueller Themen und relevanter Anwendungsbereiche – erreicht: Es wurden digitale Tools und Methoden präsentiert, neue Perspektiven eröffnet und die Eintrittshürden für die digitale Forschung gesenkt.
Von der Literaturrecherche über die Erfassung, Transkription, Analyse und Verarbeitung der Daten bis hin zu deren Management und Publikation steht den Forschenden mittlerweile eine Vielzahl an Softwarelösungen zur Verfügung. Das Koordinationsteam der Veranstaltungsreihe hatte es sich zum Ziel gesetzt, Interessierten in dieser Hinsicht ein möglichst breites Spektrum zu präsentieren. Dabei war es wichtig, die Herausforderungen und Bedürfnisse der historischen Disziplinen auf der einen Seite und die Ansprüche an Hilfswerkzeuge auf der anderen Seite zu beachten.
Daraus resultierten die folgenden Sessions der zweiten Staffel:
- FactGrid: Eine Wikibase-Instanz für historische Daten
- Transkribus & eScriptorium: Zwei Plattformen zur Transkription und automatisierten Erkennung von historischen Textquellen
- “Die Zukunft der Vergangenheit”: Eine Einführung in die Arbeit mit ChatGPT & Co. in den Geschichtswissenschaften
- Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement
- “Die Begriffe der Geschichte”: Kontrollierte Vokabulare und Sachbegriffsressourcen für die digitale historische Arbeit
- Kompetent Recherchieren nach Literatur und mehr: Zentrale Tools des Fachinformationsdienstes Geschichtswissenschaft
- Forschungsdaten digital managen mit FuD. Ein vielseitiges Tool für die Geistes- und Sozialwissenschaften
- Statistische Analysen und Datenmanagement mit SPSS am Beispiel der Analyse von Hexenprozessen
Alle Sessions wurden aufgezeichnet und über den NFDI4Memory YouTube-Channel sowie alle Präsentationsunterlagen über Zenodo bereitgestellt.
Das vielfältige Programm ermöglichte den Austausch mit unterschiedlichen Teilen der NFDI4Memory Community. Neben der niedrigschwelligen Vermittlung von Daten- und Methodenkompetenzen soll vor allem im Diskussionsteil der Sessions fachlicher Austausch und Vernetzung gefördert werden. Umso mehr freut es uns, dass im Nachgang zur Session “Zotero als Werkzeug des persönlichen Forschungsdatenmanagements” eine Arbeitsgruppe zur Erstellung eines geschichtswissenschaftlichen Zotero-Tutorials entstanden ist, die sich monatlich trifft (bei Interesse gerne eine Nachricht an contact(at)4memory-dataliteracy.de senden).
Um die Veranstaltungsreihe stetig weiterzuentwickeln, wurde wie bereits in Staffel 1 in den letzten beiden Sessions eine Umfrage bzgl. Umsetzung und Ablauf der Veranstaltungsreihe sowie Themenwünschen für die kommende Staffel durchgeführt. Die Aufteilung in einen ca. 30-minütigen theoretischen Part, gefolgt von einem ca. 60-minütigen Hands-On-Teil, findet nach wie vor überwiegenden Zuspruch. Bei den Themenwünschen sticht ein Gebiet besonders hervor: Ein Großteil der Beteiligten möchten gerne mehr über unterschiedliche Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) und Large Language Models (LLMs) erfahren. Ohne bereits zu viel vorweg zu nehmen: Die Herausforderungen und Möglichkeiten von KI und LLMs werden in der dritten Staffel in unterschiedlichen Blickwinkeln beleuchtet.
Somit bleibt hier nur noch ein großer Dank an alle Referent:innen und Teilnehmenden der zweiten Staffel auszusprechen. Sowie an alle, die die Zeit gefunden haben, Feedback zu geben: “Ich verfolge die Reihe immer mit großem Interesse - vielen Dank für das Angebot!”.
Autor:innen: Laura Döring, Stefan Büdenbender und Marina Lemaire
Überblick der einzelnen Sessions der 2. Staffel "Von Büchern zu Bytes"
Referent:innen: Dr. Olaf Simons (MLU Halle-Wittenberg)
FactGrid ist eine Wikibase-Instanz für historische Daten - ein Wagnis, denn die Software macht Forschungsprojekten das Angebot, noch mitten in laufenden Forschungsprozessen die „eigenen“ Daten kollektiv in einer einzigen überaus transparenten Ressource öffentlich zu handhaben.
Das Experiment erwies sich, seit 2023 Teil von NFDI4Memory, als extrem erfolgreich. Die Veranstaltung will Einblicke in die Technik und Organisation der Plattform geben und hands-on, erste Eindrücke von der Bedienung der Graph-Datenbank-Software vermitteln.
Für die Dateneingabe ist ein vorher initialisiertes und mit Kontaktdaten ausgestattetes Klarnamen-Konto Voraussetzung. Sie können es bis zum 23.10. unter https://www.4memory.uni-trier.de/anmeldung-b2b/ anlegen lassen.
Referent:innen: Larissa Will & Jan Kamlah (Universität Mannheim); Dr. Stefan Büdenbender (Hochschule Darmstadt)
Die (Volltext-)Digitalisierung relevanter Textquellen gewährt den historisch arbeitenden Wissenschaften dramatisch erweiterte Zugriffs- und Auswertungsmöglichkeiten. Während neuere Drucke mittels OCR weitestgehend automatisch verarbeitet werden können, stellen historische Texte eine größere Herausforderung dar und müssen oft entweder manuell transkribiert oder mithilfe aufwendig trainierter Erkennungsmodelle erschlossen werden.
In dieser Sitzung möchten wir mit eScriptorium und Transkribus zwei Transkriptionsplattformen vorstellen, die diese Verfahren mit unterschiedlichen Ansätzen unterstützen. Dabei sollen zunächst sowohl die gemeinsamen Abläufe als auch die unterschiedlichen Vor- und Nachteile in Bezug auf häufige Nutzungsszenarien präsentiert werden.
Im Anschluss wird die Wahl zwischen zwei Hands-On-Sessions bestehen, in der je ein Team den Umgang mit eScriptorium oder Transkribus an praktischen Beispielen vorführt. Wer aktiv an der Transkribus-Sitzung teilnehmen möchte, kann sich auf https://www.transkribus.org/de unter „kostenlos testen” einen Probeaccount anlegen. Für die Hands-on-Session mit eScriptorium wird ein Zugang zu einer Testinstanz zur Verfügung gestellt.
Referent:innen: Aida Horaniet Ibanez & Daniel Richter (Luxembourg Centre for Contemporary and Digital History (C2DH))
During this training session, we will guide participants through some of the possibilities to represent data across the epistemological axis, ranging from quantitative to qualitative, critical/rhetorical and creative practices. Not only visually, but also exploring other modalities, such as data physicalization. We will discuss which methods to choose according to different objectives, the tools available from analogue to digital, and potential ways to evaluate the results. The main objective of this training is to expose participants to a wide range of options through different examples, challenging the definition of data literacy, and therefore that of data visualisation, particularly in the context of historical research and dissemination.
Referent:innen: Melanie Althage (Humboldt-Universität zu Berlin), Dr. Mareike König (Deutsches Historisches Institut Paris)
KI-Chatbots wie ChatGPT besitzen das Potenzial, riesige Mengen an Textdaten zu analysieren, „zu verstehen“ und zu generieren. Als multimodale Tools können sie für die Geschichtswissenschaften daher bei einer Vielzahl von Aufgaben von Nutzen sein. Zugleich bringen sie Herausforderungen mit sich, etwa Biases und Halluzinationen, hohen Energieverbrauch sowie die ethisch und rechtlich fragwürdige Erstellung ihrer Datenbasis. Für die produktive und verantwortungsvolle Nutzung von KI-Chatbots sind daher Grundkenntnisse notwendig, die wir in dieser Session kurz vorstellen: Nach einer knappen Einführung in die Funktionsweise von KI-Chatbots, in ihre Stärken und Schwächen thematisieren wir Grundlagen des Promptings, rechtliche und ethische Fragestellungen sowie mögliche Einsatzbereiche in der historischen Forschung und in der Lehre anhand von Praxisbeispielen.
Referent:innen: Katharina Hering (GHI Washington)
Zotero ist als kostenlose „open-source“ Software zur Verwaltung bibliografischer Daten und damit verknüpfter Forschungsliteratur nicht nur in den USA, sondern auch im deutschsprachigen Raum sehr beliebt. Als Software ist Zotero sehr anpassungsfähig und kann auch als niedrigschwelliges Werkzeug zur Verwaltung der eigenen Forschungsdaten eingesetzt werden. In diesem Workshop werden wir anhand von Beispieldatensätzen Strategien zum Management unterschiedlicher Forschungsdaten mit Hilfe von Zotero diskutieren und ausprobieren. Wie können wir unsere Forschungsdaten so organisieren, dass wir sie über einen längeren Zeitraum selbst verwalten und ggf. zur Übermittlung an ein Datenrepositorium vorbereiten können? Im Workshop entwerfen wir auch eine Handreichung, die wir mit Kolleg:innen im 4Memory Konsortium teilen können.
Kenntnis von Zotero ist für den Workshop hilfreich, aber keine Voraussetzung. Gerne können Sie einen Datensatz zum Testen mitbringen, aber auch das ist keine Voraussetzung.
Der Workshop ist eine Wiederholung des im Sommer 2024 ausgefallenen Workshops zum gleichen Thema.
Referent:innen: Felix Köther
Die Nutzung von Normdaten und kontrollierten Vokabularen ist längst ein zentrales Kriterium für die Qualität geisteswissenschaftlicher Forschungsdaten und eine Voraussetzung FAIRer Daten. Neben Personen- und Ortsdatenbanken (Gazetteers) stehen dabei insbesondere Sachbegriffe und sachbezogene Klassifikationssysteme im Fokus.
Gerade Sachbegriffe und Begriffssysteme im Allgemeinen sind aus Sicht historischer Disziplinen jedoch herausfordernd: Erstens gibt es zwar zahlreiche Vokabulare zum kulturellen Erbe, zur Archäologie, zu den Sozialwissenschaften oder spezifischen Themenbereichen, die auch historische Aspekte abdecken. Zu vielen weiteren Arbeitsbereichen und auch aktuelleren Themen und Theoriekomplexen liegen jedoch schlicht keine Normvokabular-Ressourcen vor, die ad hoc und als Linked Data einbezogen werden könnten. Zweitens erfüllen auch die vorhandenen kaum spezifisch historische Bedarfe: Fragen der Historischen Semantik und historischer Semantiken im weitesten Sinne, allen voran der Wandel und die Historizität von Bezeichnungen und Begriffen mit ihrem jeweiligen Bedeutungsinhalt und -umfang werden in der Regel nicht berücksichtigt. Drittens sind auch die methodisch-theoretischen Grundlagen – von der Begriffstheorie bis hin zu informationswissenschaftlicher Theorie und Praxis – kein Bestandteil der historischen Ausbildung und vieler späterer Arbeitsfelder, was die vorhandenen Desiderate bereits ein Stück weit erklärt.
Die Onlineveranstaltung wird in zwei Teile geteilt sein: Der erste Teil führt grundlegend ein in die Bedeutung von Normvokabularen und Begriffssystemen für die historische Arbeit und stellt spezifische historische Bedarfe, Herausforderungen und Erfahrungswerte zur Diskussion. In einem zweiten Teil werden konkrete Orientierungshilfen und Anlaufstellen für die Recherche oder die Entwicklung eigener Sachbegriffsressourcen aufgezeigt. Begleitend wird ein konziser Online-Ratgeber bereitgestellt werden, der über die Veranstaltung hinaus Orientierung bieten und zentrale Fragen zu diesem Thema beantworten soll.
Referent:innen: Gregor Horstkemper, Dr. Wiebke Herr, Moritz Friesenhausen (Bayerische Staatsbibliothek München)
Die Session gibt im ersten Teil einen Überblick über die zentralen Recherchetools des FID Geschichtswissenschaft. Dazu zählen vor allem das Portal historicumSEARCH, in dem rund 40 Datenquellen übergreifend durchsucht werden können, sowie die Deutsche Historische Bibliografie, die zukünftig auch Forschungsdaten verzeichnen wird. Die Teilnehmenden erhalten Einblicke in die wichtigsten Suchfunktionen, Suchstrategien und Möglichkeiten des Dokumentenzugriffs.
In einem zweiten Teil besteht Gelegenheit, die Tools an Hand praktischer Anwendungsbeispiele zu testen. Neben der klassischen Suche nach geschichtswissenschaftlicher Forschungsliteratur wird es auch darum gehen, erste Recherchemöglichkeiten nach Forschungsdaten zu demonstrieren.
Referent:innen: Marina Lemaire & Yvonne Rommelfanger (Servicezentrum eSciences, Universität Trier)
Das Softwaresystem FuD wird eingesetzt, um qualitativ arbeitenden Forschungsprojekten in den Geistes- und Sozialwissenschaften eine Plattform zur kollaborativen Erfassung, Aufbereitung, Analyse, Publikation und Archivierung von Forschungsdaten zu bieten. Entwickelt vom Servicezentrum eSciences und dem Trier Center for Digital Humanities an der Universität Trier, unterstützt FuD seit über 20 Jahren Projekte bei der digitalen Transformation ihrer Arbeit. Mehr als 60 Forschungsprojekte haben das System bereits genutzt, das sich durch seine hohe Konfigurierbarkeit an die unterschiedlichsten Anforderungen anpassen lässt. Es eignet sich für vielfältige Anwendungsfälle, wie etwa Online- und Print-Editionen, Inventare, Personendatenbanken, sprachwissenschaftliche Untersuchungen oder historisch-geographische Visualisierungen. Im Workshop wird das System anhand verschiedener Praxisbeispiele in einer Live-Präsentation vorgeführt. Die Teilnehmenden können sich gerne im Vorfeld einen Demoaccount anfragen, um dann mit ihren eigenen Daten und Fragestellungen das System während der Präsentation zu erkunden und auf Passfähigkeit für ihre Anwendungsfälle zu erproben und Fragen zu stellen.
Referent:innen: Katrin Moeller (MLU Halle-Wittenberg)
Statistische Analysen haben heute den Forschungsalltag durchdrungen. Jede KI, jede digitale Arbeitsmethode und viele traditionelle Forschungsansätze beruhen im Kern auf statistischen Verfahren. Statistisches Wissen ist daher aus der heutigen Datenanlyse kaum wegzudenken und es ist äußerst gewinnbringend, sich mit Voraussetzungen und Ergebnisinterpretationen zu beschäftigen. Letztlich hilft dies auch, um Ergebnisse digitaler Methoden besser einschätzen zu können. Am Beispiel des intuitiv zu handhabenden Programms SPSS, das fast jede Universität zur eigenen Standardsoftware vorhält, sollen solche Möglichkeiten vorgestellt werden. Mithilfe eines Datensatzes zur Hexenverfolgung in Mecklenburg und verschiedenen Häufigkeitsanalysen, Kreuztabellen und einer Regressionsanalyse soll gezeigt werden, wie sich statistische Verfahren auch für qualitative Analysen Erkenntnisse nutzen lassen.
Stellen Sie für den Kurs sicher, dass Sie entweder eine SPSS-Lizenz ihrer Einrichtung nutzen können oder fordern Sie wenige Tage vor dem Kurs eine Testversion bei IBM für SPSS Statistics an (https://www.ibm.com/de-de/products/spss-statistics#trial). Die Daten werden am Tag vor der Veranstaltung auf der Cloud: https://cloud.uni-halle.de/s/v3cWbcUNMm5q6Qm zur Verfügung stehen.