From Books to Bytes

From Books to Bytes: The Digital Transformation in Historical Studies - Learning, Teaching, and Research in the Age of Digitization.

The professional handling of data is a virulent topic across the boundaries of all disciplines. NFDI4Memory addresses this in order to (further) develop data literacy in the historical sciences and subjects working in history and to support the community in mastering the digital turn.

The event series "From Books to Bytes" will start in October 2023 and will regularly present current topics and relevant fields of application in research and teaching with experts, researchers and teachers. It is designed in such a way that after short thematic introductions, participants will have the opportunity to independently engage with the presented content in hands-on sessions. We welcome your participation, both for individual dates and for the entire series of events.

The event will take place digitally at 10 - 11:30 a.m. on zoom:

 https://uni-trier.zoom-x.de/j/69148560192?pwd=ZUVjclY2V1JibXhFYVk1VGgrdE9qdz09

Meeting-ID: 691 4856 0192

Code: M0gcpwTh

With the consent of the presenters, the presentations will be published both on Zenodo and YouTube.

Missed a session? No problem! You can watch all session on our YouTube-Channel

The second season of "From Books to Bytes" will start at 25.10.2024.

FactGrid: Eine Wikibase-Instanz für historische Daten - 25.10.2024

Dr. Olaf Simons (MLU Halle-Wittenberg)

FactGrid ist eine Wikibase-Instanz für historische Daten - ein Wagnis, denn die Software macht Forschungsprojekten das Angebot, noch mitten in laufenden Forschungsprozessen die "eigenen" Daten kollektiv in einer einzigen überaus transparenten Ressource öffentlich zu handhaben.

Das Experiment erwies sich, seit 2023 Teil von NFDI4Memory, als extrem erfolgreich. Die Veranstaltung will Einblicke in die Technik und Organisation der Plattform geben und, hands-on, erste Eindrücke von der Bedienung der Graph-Datenbank-Software vermitteln.

Für die Dateneingabe ist ein vorher initialisiertes und mit Kontaktdaten ausgestattetes Klarnamen-Konto Voraussetzung. Sie können es bis zum 23.10. unter https://www.4memory.uni-trier.de/anmeldung-b2b/ anlegen lassen.

Transkribus & eScriptorium: Zwei Plattformen zur Transkription und automatisierten Erkennung von historischen Textquellen - 22.11.2024

Larissa Will und Jan Kamlah (Universität Mannheim)
Dr. Stefan Büdenbender (Hochschule Darmstadt)

Die (Volltext-)Digitalisierung relevanter Textquellen gewährt den historisch arbeitenden Wissenschaften dramatisch erweiterte Zugriffs- und Auswertungsmöglichkeiten. Während neuere Drucke mittels OCR weitestgehend automatisch verarbeitet werden können, stellen historische Texte eine größere Herausforderung dar und müssen oft entweder manuell transkribiert oder mithilfe aufwendig trainierter Erkennungsmodelle erschlossen werden.
In dieser Sitzung möchten wir mit eScriptorium und Transkribus zwei Transkriptionsplattformen vorstellen, die diese Verfahren mit unterschiedlichen Ansätzen unterstützen. Dabei sollen zunächst sowohl die gemeinsamen Abläufe als auch die unterschiedlichen Vor- und Nachteile in Bezug auf häufige Nutzungsszenarien präsentiert werden.
Im Anschluss wird die Wahl zwischen zwei Hands-On-Sessions bestehen, in der je ein Team den Umgang mit eScriptorium oder Transkribus an praktischen Beispielen vorführt. Wer aktiv an der Transkribus-Sitzung teilnehmen möchte, kann sich auf https://www.transkribus.org/de unter “kostenlos testen” einen Probeaccount anlegen. Für die Hands-on-Session mit eScriptorium wird ein Zugang zu einer Testinstanz zur Verfügung gestellt.

Visualising historical data across epistemological practices - 13.12.2024

Aida Horaniet Ibanez & Daniel Richter Luxembourg Centre for Contemporary and Digital History (C²DH)

During this training session, we will guide participants through some of the possibilities to represent data across the epistemological axis, ranging from quantitative to qualitative, critical/rhetorical and creative practices. Not only visually, but also exploring other modalities, such as data physicalisation. We will discuss which methods to choose according to different objectives, the tools available from analogue to digital, and potential ways to evaluate the results. The main objective of this training is to expose participants to a wide range of options through different examples, challenging the definition of data literacy, and therefore that of data visualisation, particularly in the context of historical research and dissemination.

(This session will be held in English)

Die Zukunft der Vergangenheit: eine Einführung in die Arbeit mit ChatGPT & Co. in den Geschichtswissenschaften - 24.01.2025

Melanie Althage (Humboldt-Universität zu Berlin), Dr. Mareike König (Deutsches Historisches Institut Paris)

KI-Chatbots wie ChatGPT besitzen das Potenzial, riesige Mengen an Textdaten zu analysieren, „zu verstehen“ und zu generieren. Als multimodale Tools können sie für die Geschichtswissenschaften daher bei einer Vielzahl von Aufgaben von Nutzen sein. Zugleich bringen sie Herausforderungen mit sich, etwa Biases und Halluzinationen, hohen Energieverbrauch sowie die ethisch und rechtlich fragwürdige Erstellung ihrer Datenbasis. Für die produktive und verantwortungsvolle Nutzung von KI-Chatbots sind daher Grundkenntnisse notwendig, die wir in dieser Session kurz vorstellen: Nach einer knappen Einführung in die Funktionsweise von KI-Chatbots, in ihre Stärken und Schwächen thematisieren wir Grundlagen des Promptings, rechtliche und ethische Fragestellungen sowie mögliche Einsatzbereiche in der historischen Forschung und in der Lehre anhand von Praxisbeispielen.

Historische Quellen automatisiert erschließen: Einführung in die digitale Textanalyse mit Topic Modeling - 21.02.2025

Melanie Althage (Humboldt-Universität zu Berlin)

Textanalysemethoden wie Topic Modeling ermöglichen es, umfangreiche Quellenkorpora inhaltlich anhand von Sprachgebrauchsmustern, den sog. Topics, explorativ zu erschließen. Topics stellen dabei Cluster von Wörtern dar, die häufig gemeinsam in den Texten eines Korpus vorkommen. Diese Wortgruppen lassen sich bspw. als semantische Wortfelder, Themen oder Diskurse interpretieren und im Kontext historischer Fragestellungen weiterverarbeiten. Nach einer Einführung in die methodischen Grundlagen führt die Session am Beispiel der in den digitalen Geisteswissenschaften etablierten Latent Dirichlet Allocation (LDA) praxisorientiert durch den Topic-Modeling-Workflow mit Python, wobei auch die für den historischen Forschungsprozess relevanten Potenziale und Limitierungen aufgezeigt werden. Da es sich bei Topic Modeling um eine ganze Familie von Algorithmen handelt, werden abschließend überblickshaft weiterführende Ressourcen und alternative Modellierungsansätze vorgestellt. Programmierkenntnisse in Python sind für die Teilnahme nicht erforderlich; Teilnehmende sollten allerdings aufgeschlossen sein, Code zu lesen und vorbereitete Jupyter Notebooks auszuführen. Die Installation von Software wird voraussichtlich nicht notwendig sein.

Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement - 21.03.2025

Katharina Hering (GHI Washington)

Zotero ist als kostenlose, open-source Software zur Verwaltung bibliografischer Daten und damit verknüpfter Forschungsliteratur nicht nur in den USA, sondern auch im deutschsprachigen Raum sehr beliebt. Als Software ist Zotero sehr anpassungsfähig und kann auch als niedrigschwelliges Werkzeug zur Verwaltung der eigenen Forschungsdaten eingesetzt werden. In diesem Workshop werden wir anhand von Datensätzen, die die Teilnehmer/innen mitbringen, Strategien zum Management unterschiedlicher Forschungsdaten mit Hilfe von Zotero diskutieren und ausprobieren. Wie können wir unsere Forschungsdaten organisieren, so dass wir sie über einen längeren Zeitraum selbst verwalten und ggf. zur Übermittlung an ein Datenrepositorium vorbereiten können? Im Workshop entwerfen wir auch eine Handreichung, die wir mit Kolleginnen und Kollegen im 4Memory Konsortium teilen können.

Kenntnis von Zotero ist für den Workshop hilfreich, aber keine Voraussetzung.

Die Begriffe der Geschichte: Kontrollierte Vokabulare und Sachbegriffsressourcen für die digitale historische Arbeit - 25.04.2025

Felix Köther (Herder-Institut für historische Ostmitteleuropaforschung)

Die Nutzung von Normdaten und kontrollierten Vokabularen ist längst ein zentrales Kriterium für die Qualität geisteswissenschaftlicher Forschungsdaten und eine Voraussetzung FAIRer Daten. Neben Personen- und Ortsdatenbanken (Gazetteers) stehen dabei insbesondere Sachbegriffe und sachbezogene Klassifikationssysteme im Fokus.

Gerade Sachbegriffe und Begriffssysteme im Allgemeinen sind aus Sicht historischer Disziplinen jedoch herausfordernd: Erstens gibt es zwar zahlreiche Vokabulare zum kulturellen Erbe, zur Archäologie, zu den Sozialwissenschaften oder spezifischen Themenbereichen, die auch historische Aspekte abdecken. Zu vielen weiteren Arbeitsbereichen und auch aktuelleren Themen und Theoriekomplexen liegen jedoch schlicht keine Normvokabular-Ressourcen vor, die ad hoc und als Linked Data einbezogen werden könnten. Zweitens erfüllen auch die vorhandenen kaum spezifisch historische Bedarfe: Fragen der Historischen Semantik und historischer Semantiken im weitesten Sinne, allen voran der Wandel und die Historizität von Bezeichnungen und Begriffen mit ihrem jeweiligen Bedeutungsinhalt und -umfang werden in der Regel nicht berücksichtigt. Drittens sind auch die methodisch-theoretischen Grundlagen – von der Begriffstheorie bis hin zu informationswissenschaftlicher Theorie und Praxis – kein Bestandteil der historischen Ausbildung und vieler späterer Arbeitsfelder, was die vorhandenen Desiderate bereits ein Stück weit erklärt.

Die Onlineveranstaltung wird in zwei Teile geteilt sein: Der erste Teil führt grundlegend ein in die Bedeutung von Normvokabularen und Begriffssystemen für die historische Arbeit und stellt spezifische historische Bedarfe, Herausforderungen und Erfahrungswerte zur Diskussion. In einem zweiten Teil werden konkrete Orientierungshilfen und Anlaufstellen für die Recherche oder die Entwicklung eigener Sachbegriffsressourcen aufgezeigt. Begleitend wird ein konziser Online-Ratgeber bereitgestellt werden, der über die Veranstaltung hinaus Orientierung bieten und zentrale Fragen zu diesem Thema beantworten soll.

Kompetent Recherchieren nach Literatur und mehr: zentrale Tools des Fachinformationsdienstes Geschichtswissenschaft - 23.05.2025

Gregor Horstkemper, Dr. Wiebke Herr, Moritz Friesenhausen (Bayerische Staatsbibliothek München)

Die Session gibt im ersten Teil einen Überblick über die zentralen Recherchetools des FID Geschichtswissenschaft. Dazu zählen vor allem das Portal historicumSEARCH, in dem rund 40 Datenquellen übergreifend durchsucht werden können, sowie die Deutsche Historische Bibliografie, die zukünftig auch Forschungsdaten verzeichnen wird. Die Teilnehmenden erhalten Einblicke in die wichtigsten Suchfunktionen, Suchstrategien und Möglichkeiten des Dokumentenzugriffs.

In einem zweiten Teil besteht Gelegenheit, die Tools an Hand praktischer Anwendungsbeispiele zu testen. Neben der klassischen Suche nach geschichtswissenschaftlicher Forschungsliteratur wird es auch darum gehen, erste Recherchemöglichkeiten nach Forschungsdaten zu demonstrieren.

Forschungsdaten digital managen mit FuD. Ein vielseitiges Tool für die Geistes- und Sozialwissenschaften - 20.06.2025

Marina Lemaire und Yvonne Rommelfanger (Servicezentrum eSciences, Universität Trier)

Das Softwaresystem FuD wird eingesetzt, um qualitativ arbeitenden Forschungsprojekten in den Geistes- und Sozialwissenschaften eine Plattform zur kollaborativen Erfassung, Aufbereitung, Analyse, Publikation und Archivierung von Forschungsdaten zu bieten. Entwickelt vom Servicezentrum eSciences und dem Trier Center for Digital Humanities an der Universität Trier, unterstützt FuD seit über 20 Jahren Projekte bei der digitalen Transformation ihrer Arbeit. Mehr als 60 Forschungsprojekte haben das System bereits genutzt, das sich durch seine hohe Konfigurierbarkeit an die unterschiedlichsten Anforderungen anpassen lässt. Es eignet sich für vielfältige Anwendungsfälle, wie etwa Online- und Print-Editionen, Inventare, Personendatenbanken, sprachwissenschaftliche Untersuchungen oder historisch-geographische Visualisierungen. Im Workshop wird das System anhand verschiedener Praxisbeispiele in einer Live-Präsentation vorgeführt. Die Teilnehmenden können sich gerne im Vorfeld einen Demoaccount anfragen, um dann mit ihren eigenen Daten und Fragestellungen das System während der Präsentation zu erkunden und auf Passfähigkeit für ihre Anwendungsfälle zu erproben und Fragen zu stellen.

Daten im Dienste der Geschichte. Was bedeutet Forschungsdatenmanagement in den historisch arbeitenden Disziplinen? - 27.10.2023
Prof. Dr. Ursula Lehmkuhl, Marina Lemaire (Universität Trier), Prof. Dr. Stefan Schmunk (Hochschule Darmstadt)

In der Welt der Geschichtswissenschaften ist das Verständnis und die Handhabung von Forschungsdaten von entscheidender Bedeutung. Dieser Vortrag hat zum Ziel, den Begriff "Forschungsdaten" in diesem Kontext zu erläutern und zu verdeutlichen, welche Wechselwirkung zwischen Datenmanagement und Forschungsprozess bestehen. Von der Datenerhebung bis zur Auswertung sind klare Strukturen und effektive Strategien unerlässlich, um belastbare Ergebnisse zu erzielen, keine Daten- und Arbeitsverluste zu erleiden und auch, um sich die Arbeit an manchen Stellen zu erleichtern. Wir werden einen Blick auf die vielfältigen Aspekte des Datenmanagements werfen und darüber hinaus aufzeigen, warum es für jede* Geschichtswissenschaftler*in von großer Bedeutung ist, sich intensiv mit diesem Thema auseinanderzusetzen. Denn letztlich ist es das Datenmanagement, das uns ermöglicht, durch die Jahrhunderte zu navigieren und die Vergangenheit in all ihrer Komplexität zu entschlüsseln.

Forschungsdaten präsentieren – aber wie? Erfahrungsbericht und Beratungsangebot - 24.11.23
Dr. Anna Menny & Dr. Anna Neovesky (Institut für die Geschichte der deutschen Juden (Hamburg))

Neben der rein wissenschaftlichen Arbeit gewinnt die Vermittlung und Präsentation von Forschungsinhalten für Institutionen und Einzelforscher*innen immer mehr an Bedeutung. Dabei geht es um die Frage, wie Daten wissenschaftlich adäquat und zugleich ästhetisch/visuell ansprechend für eine breitere Öffentlichkeit aufbereitet werden können, um die Wahrnehmung von Forschungsergebnissen und -diskussionen über die Fachcommunity hinaus zu gewährleisten. Die digitalen Medien und Methoden bieten vielfältige Möglichkeiten, Inhalte darzustellen und dabei herkömmliche Präsentationsschemata aufzubrechen. Besonders bei digitalen Quellensammlungen und -editionen gilt es dabei die wissenschaftlichen Forschungsdaten mit den Präsentationsformen zu verknüpfen. So lassen sich etwa mit Hilfe digitaler Karten, Daten direkt mit einem Ort verknüpfen, eine Online-Ausstellung erlaubt die Zusammenschau und individuelle Navigation durch ausgewähltes Quellenmaterial entlang vorstrukturierter Narrative und eine Online-Interview-Plattform kann sich als Präsentationsumgebung für Video- und Audiosequenzen aus lebensgeschichtlichen Interviews anbieten. Dr. Anna Menny und Dr. Anna Neovesky geben Einblick in verschiedene Online-Angebote des Institutes für die Geschichte der deutschen Juden in Hamburg und erläutern, was die Besonderheiten digitaler Vermittlungsangebote sind und was bei der Wahl der passenden Präsentationsform zu beachten ist. Im Anschluss können die Teilnehmenden in einer Hands-on-Session ein Präsentationskonzept entwerfen und dieses in der Gruppe diskutieren.

Generationsgegensätze? Ein digitaler Blick über die Schulter zur Analyse qualitativer Daten mit MAXQDA - 15.12.23
Dr. Katrin Moeller & Dr. Olaf Simons (MLU Halle-Wittenberg)

Für den Praxisteil ist eine Anmeldung notwendig. Bitte tragen Sie sich bei Interesse bis zum 10.12.2023 hier ein.

Der digitale Workshop bietet eine umfassende Einführung in die Analyse qualitativer Interviews mit MAXQDA, einer leistungsstarken Software für die qualitative Datenanalyse. Genutzt werden dazu Interviews aus dem Jahr 1968, die sich mit Generationengegensätzen befassen.

Teilnehmer werden in die Grundlagen der qualitativen Forschung und Interviewanalyse eingeführt, wobei der historische Kontext der späten 1960er Jahre als Schlüsselkomponente für das Verständnis der Generationenkonflikte dient.

Ein wesentlicher Schwerpunkt des Workshops liegt auf der praktischen Anwendung von MAXQDA und die Aufbereitung unterschiedlicher Daten. Die Teilnehmer lernen, wie sie ihre Daten in die Software importieren, codieren und analysieren können. Besondere Aufmerksamkeit wird der Arbeit mit Dictionären und kontrollierten Vokabularen geschenkt, um eine effektive und möglichst konsistente Codierung von Daten vorzunehmen und mit den Ergebnissen eigener Codierungsbemühungen zu vergleichen. Die Verwendung von Vokabularen ermöglicht es den Forschern, Schlüsselbegriffe und Themen in den Interviews systematisch zu identifizieren, während Normdaten, den Kontext und die Hintergrundinformationen für die Analyse liefern.
Dieser Workshop ist ideal für geisteswissenschaftliche Forscher*innen, Historiker*innen und Sozialwissenschaftler*innen oder auch für Fachexpert*innen dieser Zeit, die sich nicht nur für Generationskonflikte der späten 1960er Jahre interessieren, sondern auch ihre digitalen Analysefähigkeiten erweitern möchten.

Die digitale Re-Edition gemeinfreier Bücher - 26.01.2024
Daniel Burckhardt (MMZ Potsdam)

Die Digitale Bibliothek verbrannter Bücher (https://www.verbrannte-buecher.de/#digital-library) präsentiert 90 Jahre nach den Bücherverbrennungen im nationalsozialistischen Deutschland eine erste Auswahl von 10 repräsentativen Büchern, und wird in den nächsten Monaten weiter ergänzt. Die Werke werden als Faksimile und Transkript zeitgenössischer Ausgaben präsentiert. Die Ergebnisse stehen unter einer freien Lizenz in standardisierten Formaten zur freien Weiternutzung und maschinellen Auswertung zur Verfügung.
Im Workshop wird zunächst gezeigt, welche Schritte - von der Beschaffung der Scans über die Texterkennung (Tesseract/Rescribe OCR) bis zur Transformation nach TEI und der Nachkorrektur - eine digitale Re-Edition umfasst. Die einzelnen Schritte werden in der Folge für einzelne Kapitel selbst erprobt. Dank freier Software ist eine solche digitale Transformation gemeinfreier Werke auch für Einzelpersonen oder kleine Forschungsgruppen ohne aufwändige Infrastruktur zu leisten.
Daniel Burckhardt ist Wissenschaftlicher Mitarbeiter am MMZ, Forschungsschwerpunkt Digitalisierungsstrategie.
https://mmz-potsdam.de/team/daniel-burckhardt
https://burckhardt.name/books2bytes/

Analyse und Visualisierung von Netzwerken mit Gephi - 23.02.2024
Prof. Dr. Frederik Elwert (RUB Bochum)

Ein metaphorischer Gebrauch von Netzwerk-Konzepten wie „Netzwerke“, „Verflechtungen“, „Knotenpunkte“ und ähnliche spielen in den Kultur- und Geisteswissenschaften seit längerem eine Rolle. Das Feld der Historischen Netzwerkforschung beschäftigt sich dem gegenüber damit, wie sich diese Konzepte formalisieren und so der Netzwerkanalyse zugänglich machen lassen. Die Netzwerkanalyse im formalen Sinne ist ein disziplinenübergreifender Methodenansatz, der auf einem Grundmodell von Entitäten (Knoten) und ihren Beziehungen (Kanten) basiert. Entitäten in diesem Sinne können Personen sein, aber auch Organisationen, Orte oder sogar abstrakte Konzepte. Die Kanten zwischen ihnen ergeben sich aus der jeweiligen Fragestellung und sind in der Regel Ergebnis eines Operationalisierungsprozesses. Als Beziehungen können etwa dokumentierte Akte wie Korrespondenzen oder Zitationen verstanden werden, aber auch gemeinsame Mitgliedschaften oder räumliche Nähe. Auf dieser Grundlage können auf mathematischem Wege Informationen über Netzwerkeigenschaften, Gruppen innerhalb des Netzwerkes sowie die strukturelle Position einzelner Entitäten erlangt werden. Darüber hinaus lassen sich die Netzwerke und ihre Eigenschaften ansprechend visualisieren und ermöglichen so eher explorative Zugänge. Dieser Vortrag führt in die Grundzüge der formalen Netzwerkanalyse anhand des Programms Gephi ein.

Data modelling and processing for historical Scholarship: How Research Design and Methodolgy affect Data Management - 22.03.2024
Dr. Jaap Geraerts (IEG Mainz)

Broadly speaking, this seminar will address the application of digital methods in historical research. More specifically, it will tease out how the various components of designing a research project – the research questions, the corpus or corpora of (primary) sources, and the digital tools and methods used – mutually influence each other. Which data is necessary to answer specific research questions and how will these shape the ways in which the data should be structured and modelled? What are the advantages and limitations of existing digital tools and how can they be applied most effectively in relation to the project’s data and the questions it seeks to address and answer? How, in other words, can the humanities side of a project on the one hand, and its digital side on the other, be engaged in a fruitful dialogue?
Touching upon the larger topic of data literacy, this seminar aims to discuss and work out together with the participants about how digital methods can be integrated into historical research projects. It will do so on the basis of some research projects that are currently undertaken at the Digital Humanities Lab at IEG Mainz. This project-based approach allows us to highlight theoretical and practical issues when it comes to the application of digital tools and methods, and to show the links between the former and the project’s research design.

ENTFÄLLT WEGEN KRANKHEIT - Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement - 26.04.2024
Katharina Hering (GHI Washington)

Zotero ist als kostenlose, open-source Software zur Verwaltung bibliografischer Daten und damit verknüpfter Forschungsliteratur nicht nur in den USA, sondern auch im deutschsprachigen Raum sehr beliebt. Als Software ist Zotero sehr anpassungsfähig und kann auch als niedrigschwelliges Werkzeug zur Verwaltung der eigenen Forschungsdaten eingesetzt werden. In diesem Workshop werden wir anhand von Datensätzen, die die Teilnehmer/innen mitbringen, Strategien zum Management unterschiedlicher Forschungsdaten mit Hilfe von Zotero diskutieren und ausprobieren. Wie können wir unsere Forschungsdaten organisieren, so dass wir sie über einen längeren Zeitraum selbst verwalten und ggf. zur Übermittlung an ein Datenrepositorium vorbereiten können? Im Workshop entwerfen wir auch eine Handreichung, die wir mit Kolleginnen und Kollegen im 4Memory Konsortium teilen können.

Kenntnis von Zotero ist für den Workshop hilfreich, aber keine Vorausssetzung.

+++ACHTUNG+++
Leider muss die für den 26.042024 geplante "From Books to Bytes" Session zum Thema "Zotero als Werkzeug zum persönlichen Forschungsdatenmanagement" wegen kurzfristiger Erkrankung der Referentin entfallen.
Wir versuchen den Termin nachzuholen, oder zumindest die Präsentation zur Verfügung zu stellen.
Der Zoom Raum wird für den informellen Austausch dennoch geöffnet sein.
Wir bitten um Euer Verständnis!

Nodegoat als Tool für die historisch arbeitenden Wissenschaften - 24.05.2024
Dr. Kathleen Schlütter (Uni Leipzig)

Nodegoat ist ein Daten-Management-Tool, das speziell für die Bedürfnisse von geistes- und sozialwissenschaftlichen Forschungsprojekten konzipiert wurde (https://nodegoat.net). Um es zu nutzen, entwickelt man aus den eigenen Forschungsfragen ein Datenmodell und legt sie in Nodegoat als Beziehungen von Objekten und Sub-Objekte an. Eingepflegte Daten können umgehend analysiert und visualisiert werden. Möglich sind u.a. eine geographische Visualisierung inklusive Zeitverlauf, Netzwerkanalysen oder chronologische Visualisierung. Weitere Vorteile sind die Nutzerfreundlichkeit, die Möglichkeit zur Datenveröffentlichung, die integrierten Import- und Export-Schnittstellen sowie der Open Source-Charakter. Nodegoat wird von LAB1100 entwickelt und bietet neben einer kostenlosen Version auch die Option, es auf einem eigenen Server zu betreiben (kostenpflichtig).

Im Vortrag werden die Grundfunktionen des Tools vorgestellt und Nutzer-Erfahrungen inklusive der Herausforderungen geteilt. Anhand eines Demo-Projekts wird die Möglichkeit zum Ausprobieren geboten.

LEAF-Writer: Ein online-Editor zum Annotieren von XML-Dateien und Einbinden von Normdaten - 28.06.2024
Dr. Stefan Büdenbender (Hochschule Darmstadt)

Die eindeutige Identifikation von Orten, Personen, Ereignissen und weiteren Entitäten ist fester Bestandteil einer zeitgemäßen Digitalisierungsstrategie und ein Anliegen gleich mehrerer Measures in NFDI4Memory.
LEAF Writer ist eine Webapplikation, die genau hier einen Schwerpunkt setzt. Als Teil einer Editionsumgebung für digitale Texte bietet sie umfangreiche Möglichkeiten der XML-Auszeichnung, kann aber auch als Stand-alone-Tool zur interaktiven Anreicherung mit Normdaten verwendet werden. Zurzeit wird die Webapplikation an der Hochschule Darmstadt weiterentwickelt und durch die Anbindung an die GND, eine deutsche Übersetzung und ein erweitertes User-Management einem größeren Nutzerkreis erschlossen.
Der Vortrag möchte die Grundfunktionen der Normdatenauszeichnung vorstellen und im Rahmen einer Hands-on-Session Gelegenheit zum Testen und zur Diskussion von Verbesserungswünschen geben.
LEAF Writer ist in seiner ursprünglichen Version unter https://leaf-writer.leaf-vre.org/ erreichbar; zur Nutzung des vollen Funktionsumfangs ist ein github-account notwendig.