Task area

Ein Jahr NFDI4Memory!

NFDI4Memory feiert dieser Tage einjähriges Bestehen – Anlass genug, um gemeinsam auf einige Highlights des ersten Projektjahres zu blicken.

Ein besonderer Höhepunkt war das erste NFDI4Memory Community Forum am 20.11. mit über 150 Teilnehmenden. Das digital abgehaltene Community Forum ermöglichte den Austausch mit der Community in sieben thematischen Breakout Sessions. Übrigens: Auch in diesem Jahr lädt 4Memory zum Community Forum ein. Wir freuen uns, euch am 18.09. im Vorfeld zur Tagung ‚Digital History & Citizen Science‘ in Halle (Salle) begrüßen zu dürfen.

Der direkte und persönliche Austausch mit der NFDI4Memory Community war unter anderem auf Tagungen und Konferenzen möglich, bei denen NFDI4Memory mit einem Infostand vertreten war, wie beispielsweise bei der CoRDI in Karlsruhe, dem 54. Historikertag in Leipzig sowie gemeinsam mit der Memorandum of Understanding (MoU)-Gruppe auf der DHd2024 in Passau. Die MoU-Gruppe setzt sich aus den vier geistes- und kulturwissenchaftlichen Konsortien der NFDI zusammen: NFDI4Culture, NFDI4Objects, Text+ und NFDI4Memory.

Beim Historikertag und auf der CoRDI war das Konsortium auch durch viele inhaltliche Vorträge und Workshops vertreten. Auf dem 54. Historikertag zum Beispiel leitete Torsten Hiltmann von der Task Area Data Culture eine eindrucksvolle Sektion zur ‚Geschichte aus der Maschine. Potenziale, Herausforderungen und Gefahren der „Künstlichen Intelligenz“ für unser Fach‘, nachzusehen bei L.I.S.A..

Neben der MoU-Gruppe bietet die Mitarbeit in NFDI-Sektionen die Möglichkeit zum Austausch und zur Zusammenarbeit mit anderen NFDI-Konsortien. So wirkte NFDI4Memory über die Sektion ‚ELSA‘ an der Stellungnahme zum Forschungdatengesetz mit. Ein weiteres Highlight unseres ersten Projektjahres war ein ausführliches Interview bei L.I.S.A., in dem Dr. Marie von Lüneburg, apl. Prof. Dr. John C. Wood und Dr. Cord Pagenstecher unser Konsortium mit seinen Zielen und Aufgaben vorstellen konnten.

Zentrales Anliegen unseres Konsortiums ist es, unsere Dienste und Angebote aus den Bedarfen der Community abzuleiten. Hierzu wurde untere anderem eine Umfrage sowie eine Interviewreihe zu den im Bereich von Data Quality bestehenden Bedarfen erhoben.

Ebenfalls an die Bedarfe der Community knüpfen die 4Memory Incubator Funds an. Diese fördern innovative und experimentelle Projektideen aus der Community. 2024 werden sieben Projekte gefördert, die aktuell bei ‚Lunch Break @ 4Memory Incubator Funds‘ vorgestellt werden.

Eine weitere Online-Veranstaltungsreihe sind die monatlich stattfindenden ‚From Books to Bytes‘, bei denen Expert:innen aus dem Bereich Forschungsdatenmanagement in Vorträgen und Workshops aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre vorstellen.

Und nun noch ein Highlight für Euch – unsere Community: Als Geschenk zu unserem einjährigem Bestehen ermöglicht NFDI4Memory mit der Ausschreibung der 4Memory FAIR Data Fellowships, die Unterstützung bei der Bearbeitung von erhobenen Datensets zur historischen Forschung.Die Bewerbungen ist bis 02.04.2024 möglich.

Wir freuen uns auf unser zweites Projektjahr gemeinsam mit der NFDI4Memory Community und vielen weiteren Highlights!

Veranstaltungstipp: Daten-Drama & Glücksrad-Gaudi: 4Memory-FDM-Märchenrätsel Edition.

Daten-Drama & Glücksrad-Gaudi: 4Memory-FDM-Märchenrätsel Edition.

Tauche ein in eine Welt voller Datenzauber und Rätsel. Erfahre live beim Dreh am Glücksrad, wer die glücklichen Gewinner:innen der Data Literacy Umfrage sind, während wir zur Abwechslung gemeinsam spannende FDM-Märchenrätsel von TKFDM lösen.

Glücksrad-Gaudi: die Gewinner:innen unserer Data Literacy-Umfrage durch Dreh am Glücksrad ermitteln
FDM-Märchenrätsel: Gemeinsam FDM-Scarytale-Rätsel lösen
Spiel & Spaß: Rate mit und erfahre auf unterhaltsame Weise mehr über die Tücken des Forschungsdatenmanagements und wie man sie vermeiden kann
Gewinne: unter den Teilnehmenden verlosen wir ein weiteres 4Memory-Paket

Wann: 12.12.2023, 16:00-17:00
Wo: Online, https://www.4memory.uni-trier.de/anmeldung-daten-drama-glucksrad-gaudi-4memory-fdm-marchenratsel-editionanmeldung/

Die Teilnahme ist kostenlos und für alle, die Spaß an Rätseln und eine entspannte Atmosphäre haben.
Die Veranstaltung soll aufgezeichnet werden. Die Version der Veröffentlichung wird ausschließlich die Moderator*innen zeigen

Neue Veranstaltungsreihe "Von Büchern zu Bytes"

Wir laden herzlich zu unserer neuen Veranstaltungsreihe "Von Büchern zu Bytes: Die digitale Transformation in der Geschichtswissenschaft - Lernen, Lehren und Forschen im Zeitalter der Digitalisierung" ein!

Der professionelle Umgang mit Daten ist ein virulentes Thema über die Grenzen aller Disziplinen hinweg. NFDI4Memory greift dies auf, um die Datenkompetenz in den Geschichtswissenschaften und geschichtsarbeitenden Fächern (weiter) zu entwickeln und die Community bei der Bewältigung des digital turn zu unterstützen.

Die Veranstaltungsreihe "From Books to Bytes" startet im Oktober 2023 und wird regelmäßig aktuelle Themen und relevante Anwendungsfelder in Forschung und Lehre mit Experten, Forschern und Lehrenden vorstellen. Sie ist so konzipiert, dass die Teilnehmerinnen und Teilnehmer nach kurzen thematischen Einführungen die Möglichkeit haben, sich in Hands-on-Sessions selbstständig mit den vorgestellten Inhalten auseinanderzusetzen. Wir freuen uns über Ihre Teilnahme, sowohl für einzelne Termine als auch für die gesamte Veranstaltungsreihe.

Die Veranstaltung findet digital um 10 Uhr statt, eine Übersicht über die Termine finden Sie hier: https://4memory.de/task-areas/task-area-4-data-literacy/veranstaltungsreihe-from-books-to-bytes/

Präsentationsraum
Meeting-ID: 691 4856 0192
Kenncode: M0gcpwTh

Empfehlung: Clio-Guides. Digitale Ressourcen für die Geschichtswissenschaften

Die Clio-Guides. Ein Handbuch zu digitalen Ressourcen für die Geschichtswissenschaften wurde in der dritten Auflage veröffentlicht.

Ziel des Clio-Guides ist es einen Einstieg in das Feld der digitalen geschichtswissenschaftlichen Fachinformation in seiner ganzen thematischen Breite zu geben. Hierzu gehört die Kompetenzausbildung in der Recherche, der selbsständigen Fähigkeit sich eine Übersicht zum Stand der Forschung zu erarbeiten, dem Finden einschlägiger Quellen.

Eine Neuerung gegenüber den vergangenen Auflagen ist, dass der Guide als genuine Online-Publikation kontinuierlich ausgebaut und aktualisiert werden wird.
Zudem soll das Online-Handbuch in den kommenden Jahren auch im Rahmen des Teilprojektes Data Culture von NFDI4Memory konzeptionell weiterentwickelt werden.

Hier geht's zum Clio-Guide.

Call for Papers: Datafication

A central aim of 4Memory is to spark a thorough evaluation of the nature of digital data and how they have the potential to change the methods of historically oriented humanities disciplines. Our Task Area 5 (Data Culture) has a primary responsibility for encouraging reflection upon and the (re)use of research data (and corresponding digital methods) and fostering a distinct data culture in our community.

That’s why we are working together with the German Historical Institute Washington and several other partners (the Luxembourg Centre for Contemporary and Digital History (C2DH), the Chair of Digital History at Humboldt Universität zu Berlin, the Roy Rosenzweig Center for History and New Media, and the Department of History at Stanford University) to present the conference “Datafication in the Historical Humanities: Reconsidering Traditional Understandings of Sources and Data” (December 9-11, 2021) at the GHI.

The conference is as of now being planned as an on-site event, with contingency plans being developed in case this should turn out not to be possible.

The conference’s call for papers can be viewed here.

Paper proposals will be accepted until 1 April 2021 through the online portal specified in the CfP.

95 Suchen von digitalisierten Zeitungen und Zeitschriften

< Back to problem stories

Ich beschäftige mich mit Schriftstellerinnen um 1820 und recherchiere nach Artikeln dieser Frauen in Zeitungen und Zeitschriften. Bibliotheken bieten ihre digitalisierten Bestände auf eigenen Plattformen an. Als Bibliothekarin verstehe ich die Angebote, als Forschende habe ich jedoch eine andere Sicht. Bibliothekssicht: Wir bieten eine einfache Suche und eine erweiterte Suche auf unserer Plattform. Forschende: Ich suche eher bei https://de.wikisource.org, welches Heft, welche Ausgabe digitalisiert vorliegt. Dann erst betrete ich das digitale Angebot einer Bibliothek. Der Ansatz von Bibliotheken nun häuserübergreifende digitale Plattformen für Zeitungen und Zeitschriften aufzubauen, scheint seltsam, da es dieses Angebot mit wikisource eigentlich bereits gibt. Hilfreich wäre es, sie würden ihre Daten dort einpflegen.

Posted on

94 Tiefenerschließung von digitalisierten Urkundenbüchern

< Back to problem stories

In einem Regional-Portal, das von einem Institut betrieben ist, dessen historischen Bereich ich leite, ist unter anderem ein landesgeschichtliches Urkundenbuch eingestellt. Es besteht aus derzeit 27 gedruckten Bänden, deren Volltext-Urkunden in digitalisierter Form bandweise und innerhalb dessen nach Urkundennummern abrufbar sind. Die gedruckten Register sind beigegeben, doch gibt es keine elektronische Verknüpfung der Registereinträge mit dem Textteil. Suchmöglichkeiten in den Daten bestehen derzeit nicht. Um die Nutzbarkeit des Urkundenbuchs in zeitgemäßer Weise zu erhöhen, bieten sich zwei Wege an: 1) Der Aufbau einer bandübergreifenden Volltextsuche – idealerweise mit Booleschen Operatoren, schreibweisentolerant und mit Umgebungs- und Phrasensuchmöglichkeit etwa nach den Vorbildern der »Library of Latin Texts« oder der »Migne«-Datenbanken. Doch wären in diesem Fall sehr hohe Investitionen in die notwendige IT erforderlich. Zudem zielt das landesgeschichtliche Interesse auch weniger auf die Durchsuchung des Wortschatzes als auf die enthaltenen historischen Orte und Personen. An dieser Stelle bieten sich – Weg 2) – die gedruckten Register an, in denen ein beachtlicher Teil der historisch-kritischen Arbeit der Herausgeber überliefert ist, die nun auch für die Online-Fassung des Urkundenbuches genutzt werden könnte. Dazu müssten allerdings – so stellt sich das Problem derzeit für uns dar – die Orts- und Personennamensregister jedes der 27 Bände händisch in eine datenbanktaugliche Form (Excel-Dateien) überführt werden. Anschließend würden die erfassten Registereinträge mit den bereits vorhandenen, online gestellten Bilddateien der Urkunden verlinkt. Schließlich könnten die digitalisierten und verlinkten Registereinträge der einzelnen Bände zu einer Gesamt-Datenbank verbunden werden. NutzerInnen könnten dann bandübergreifend von lediglich einem einzigen Suchportal aus nach Orts- und Personennamen recherchieren und die Suchergebnisse gesammelt abrufen. Bei Weg 2) fielen allerdings ähnlich wie bei Weg 1) hohe Kosten an –vor allem aufgrund der benötigten Arbeitszeit, was die Erreichung des Ziels auch hier in Frage stellt (Blocker: Ressourcenaufwand). Mögliche technische Lösungen: Gibt es beispielweise OCR-Technik für die Aufschlüsselung von komplex strukturierten Registern und für die Verknüpfung der dort genannten Nummern mit den zugehörigen Textdokumenten?

Posted on

93 Wikidata-Abgleich

< Back to problem stories

Ein außeruniversitäres, landesfinanziertes Forschungsinstitut, dessen geschichtswissenschaftlichen Bereich ich leite, betreibt ein regionales Online-Datenportal mit mehreren thematischen Angeboten. Dazu gehört auch eine ortsgeschichtliche Datenbank, die ca. 6000 Siedlungen der Referenzregion mit thematisch geordneten Kerndaten ihrer Geschichte vom Mittelalter bis zu Gegenwart umfasst. Der in diesem digitalen historischen Ortsverzeichnis benutzte Code wurde mittlerweile als Eigenschaft in Wikidata angelegt und wird bei vielen Orten auch bereits benutzt. Wir unterstützen diese Verlinkung mit Wikidata und arbeiten aktiv daran mit, weil wir der Ansicht sind, dass Wikidata bei der digitalen Datenverwaltung weltweit eine Schlüsselposition gewonnen hat und, was von zunehmender Bedeutung ist, den automatischen Datenaustausch zwischen Datenbanken enorm erleichtert. Um gleichwohl auch einen von Wikidata unabhängigen Qualitätsmaßstab der eigenständig erhobenen Forschungsdaten zu wahren, halten wir es für sehr wichtig, ein Abgleichs-Tool zwischen den eigenen Daten und den Wikidata-Daten zur Verfügung zu haben und zu nutzen. Über unser eigenes Projekt hinaus entspricht ein solches Tool aus unserer Sicht den allgemeinen Zielen einer nationalen Dateninfrastruktur. Unsere Suche nach geeigneten Tools war bisher ergebnislos (Blocker). Wir haben die Hoffnung, dass die NFDI-Initiative mit ihrer Koordinations-Aufgabe bei der Etablierung von Standards in diesem Bereich eine zentrale Rolle spielen könnte.

Posted on

92 Metadaten aus Forschungsprojekten: Singuläres vs. Standardisierung. Zum Problem der kategorialen Erschließung von Daten

< Back to problem stories

Auch im Bereich der philosophiehistorischen Grundlagenforschung wird zunehmend die Digitalisierung von Daten (Editionen, Zeitschriften, Kompendien, Archive) vorangetrieben. Dabei stellt sich die Frage, wie die entstehenden Datenmengen auszuwerten sind. Neben der Überlegung zu den technischen Möglichkeiten tritt auch ein hermeneutisches Problem: Wie ist ein sinnvoller kategorialer Zugriff auf die Daten möglich? Die klassischen Werkzeuge sind: Kategorien, Termini, Begriffe usw., aber auch Textsorten (Monographie, Zeitschriftenbeitrag, Nachlassmaterial usw.). Neue Werkzeuge des distant readings treten hinzu, bspw. die Makroanalyse, die computerbasierte Formanalyse von Textualität usw. In diesem Zusammenhang fehlt es bisher an einem Forum für eine vorgeschaltete Methodenreflexion. Es scheint kein guter Rat zu sein, ein Maximum an Werkzeugen in der Analyse der Datenmengen anzuwenden, oder sich ohne weiteres gegen die alten und für die neuen Werkzeuge zu entscheiden. Ein Vorteil der qualitativen Datenanalyse war und ist, dass singuläre Einheiten (Episoden) der Philosophiegeschichte bewahrt werden konnten; ein Nachteil der quantitativen Analyse könnte sein, dass im Verfahren der Standardisierung die Möglichkeit qualitativer Differenzierung von Episodischen und Generalisierendem verloren geht. Darüberhinaus besteht auch die Gefahr, dass durch die Erfassung der Daten im Prozess der Digitalisierung die alten Wissensspeicher - wie bspw. Lexika der Wörter, Begriffe, Metaphern, Kompendien systematischer und historischer Fragen an die Philosophiegeschichte - für obsolet erklärt werden und die Suggestion der für sich selbst sprechenden Daten (der alte "Mythos der Gegebenheit") sich festsetzt. Um hier Klarheit zu schaffen, sollte es als eine dringliche Aufgabe markiert werden, einen Weg zu finden, die alten und die neuen Werkzeuge zu kombinieren und andere Methoden, eventuell verscuhsweise Hybrid-Methoden zu entwickeln. So ist davon auszugehen, dass bspw. ein Historisches Wörterbuch der Philosophie (Erstauflage in den 1970er Jahren) für eine Neubearbeitung seinen Werkzeugkasten neu bestücken wird. Was das heißt und wie unsere Forschung als historisch arbeitende Geisteswissenschaftler*innen nicht nur in der Philosophie, sondern auch in den benachbarten Wissensdisziplinen aussehen wird, vor welchen Herausforderungen/ Möglichkeiten wir stehen und wie ein angemessener hermeneutischer Zugriff auf die digitalisierten Datenmengen (for Memory!) aussehen kann, darüber sollte eine Debatte stattfinden.

Posted on

91 Im Forschungsverbund – Der steinige Weg zum Geodaten-Repositorium

< Back to problem stories

Als An-Institut einer Universität sind wir Akteur in einem langhin etablierten Verbund unabhängiger Projekte der Grundlagenforschung, die zum Nutzen der interdisziplinären Städteforschung historisches Kartenmaterial edieren. Nach wie vor sind Printprodukte der traditionelle Output. Inzwischen aber haben sich Geoinformationssysteme (GIS) in den benachbarten Arbeitsbereichen Geografie und Archäologie so weit durchgesetzt, dass die Umstellung der Projektarbeiten von konventioneller Zeichensoftware hin zu GIS der nächste logische Schritt war, zumal dies auch eine Ausgangsbasis dafür bot, online die Verbreitung der Arbeitsergebnisse aus den Projekten zu verbessern. Bei der Koordinierung dieses Übergangsprozesses innerhalb des Forschungsverbundes, die bei uns im Haus erfolgt, treten für die internationale Scientific Community vielfältige Herausforderungen zutage. Während verschiedene Projekte in experimentellen Schritten die Datenproduktion erfolgreich auf Geodaten umgestellt und in Workshops ihre Ergebnisse verglichen haben, ist deutlich geworden, dass die anfänglichen ‚handwerklichen‘ Startschwierigkeiten (Knowhow, User Skills) tieferliegende, wissenschaftliche Probleme überdeckten. Unser Ziel der Schaffung eines domänenspezifischen (aber disziplinenübergreifenden) Forschungsdaten-Repositoriums für die Dissemination der Projektgeodaten, verstärkt dies noch. Einerseits ist der Schritt hin zu einem ‚Forschungsdatenbewusstsein‘ in der Scientific Community und zu einer Kultur, die neben der Datenproduktion auch die Bereitstellung der Basisdaten für die interdisziplinäre, länderübergreifende und vergleichende Forschung mitplant, größer als gedacht. Andererseits macht sich der Mangel an Standards für die Produktion und Verwendung von Geodaten in den Geschichtswissenschaften bemerkbar. Auch in diesem ‚Digital Turn‘, der primär die Historischen Grundwissenschaften Kartografie und Geografie tangiert, mündet die Quellenproblematik (Uneinheitlichkeit der Quellenüberlieferung, Uneindeutigkeit der Quellenbefunde) direkt in eine Datenproblematik. Etablierte Metadatenstandards müssen zudem für Geodaten mit historischem Bezug angepasst werden. Die Schaffung einer gemeinsamen Ontologie in einem angeschlossenen Forschungsprojekt steht vor eigenen inhaltlichen Herausforderungen. Letztlich wird ihre Verwendung im Repositorium dabei helfen, die Vergleichbarkeit der Daten über Disziplinen- und Ländergrenzen hinweg herzustellen, jedoch ist ihre Berücksichtigung im Workflow der Datenproduktion innerhalb der einzelnen Projekte eine weitere Hürde.

Posted on