dataprocessing

95 Suchen von digitalisierten Zeitungen und Zeitschriften

< Back to problem stories

Ich beschäftige mich mit Schriftstellerinnen um 1820 und recherchiere nach Artikeln dieser Frauen in Zeitungen und Zeitschriften. Bibliotheken bieten ihre digitalisierten Bestände auf eigenen Plattformen an. Als Bibliothekarin verstehe ich die Angebote, als Forschende habe ich jedoch eine andere Sicht. Bibliothekssicht: Wir bieten eine einfache Suche und eine erweiterte Suche auf unserer Plattform. Forschende: Ich suche eher bei https://de.wikisource.org, welches Heft, welche Ausgabe digitalisiert vorliegt. Dann erst betrete ich das digitale Angebot einer Bibliothek. Der Ansatz von Bibliotheken nun häuserübergreifende digitale Plattformen für Zeitungen und Zeitschriften aufzubauen, scheint seltsam, da es dieses Angebot mit wikisource eigentlich bereits gibt. Hilfreich wäre es, sie würden ihre Daten dort einpflegen.

Posted on

94 Tiefenerschließung von digitalisierten Urkundenbüchern

< Back to problem stories

In einem Regional-Portal, das von einem Institut betrieben ist, dessen historischen Bereich ich leite, ist unter anderem ein landesgeschichtliches Urkundenbuch eingestellt. Es besteht aus derzeit 27 gedruckten Bänden, deren Volltext-Urkunden in digitalisierter Form bandweise und innerhalb dessen nach Urkundennummern abrufbar sind. Die gedruckten Register sind beigegeben, doch gibt es keine elektronische Verknüpfung der Registereinträge mit dem Textteil. Suchmöglichkeiten in den Daten bestehen derzeit nicht. Um die Nutzbarkeit des Urkundenbuchs in zeitgemäßer Weise zu erhöhen, bieten sich zwei Wege an: 1) Der Aufbau einer bandübergreifenden Volltextsuche – idealerweise mit Booleschen Operatoren, schreibweisentolerant und mit Umgebungs- und Phrasensuchmöglichkeit etwa nach den Vorbildern der »Library of Latin Texts« oder der »Migne«-Datenbanken. Doch wären in diesem Fall sehr hohe Investitionen in die notwendige IT erforderlich. Zudem zielt das landesgeschichtliche Interesse auch weniger auf die Durchsuchung des Wortschatzes als auf die enthaltenen historischen Orte und Personen. An dieser Stelle bieten sich – Weg 2) – die gedruckten Register an, in denen ein beachtlicher Teil der historisch-kritischen Arbeit der Herausgeber überliefert ist, die nun auch für die Online-Fassung des Urkundenbuches genutzt werden könnte. Dazu müssten allerdings – so stellt sich das Problem derzeit für uns dar – die Orts- und Personennamensregister jedes der 27 Bände händisch in eine datenbanktaugliche Form (Excel-Dateien) überführt werden. Anschließend würden die erfassten Registereinträge mit den bereits vorhandenen, online gestellten Bilddateien der Urkunden verlinkt. Schließlich könnten die digitalisierten und verlinkten Registereinträge der einzelnen Bände zu einer Gesamt-Datenbank verbunden werden. NutzerInnen könnten dann bandübergreifend von lediglich einem einzigen Suchportal aus nach Orts- und Personennamen recherchieren und die Suchergebnisse gesammelt abrufen. Bei Weg 2) fielen allerdings ähnlich wie bei Weg 1) hohe Kosten an –vor allem aufgrund der benötigten Arbeitszeit, was die Erreichung des Ziels auch hier in Frage stellt (Blocker: Ressourcenaufwand). Mögliche technische Lösungen: Gibt es beispielweise OCR-Technik für die Aufschlüsselung von komplex strukturierten Registern und für die Verknüpfung der dort genannten Nummern mit den zugehörigen Textdokumenten?

Posted on

93 Wikidata-Abgleich

< Back to problem stories

Ein außeruniversitäres, landesfinanziertes Forschungsinstitut, dessen geschichtswissenschaftlichen Bereich ich leite, betreibt ein regionales Online-Datenportal mit mehreren thematischen Angeboten. Dazu gehört auch eine ortsgeschichtliche Datenbank, die ca. 6000 Siedlungen der Referenzregion mit thematisch geordneten Kerndaten ihrer Geschichte vom Mittelalter bis zu Gegenwart umfasst. Der in diesem digitalen historischen Ortsverzeichnis benutzte Code wurde mittlerweile als Eigenschaft in Wikidata angelegt und wird bei vielen Orten auch bereits benutzt. Wir unterstützen diese Verlinkung mit Wikidata und arbeiten aktiv daran mit, weil wir der Ansicht sind, dass Wikidata bei der digitalen Datenverwaltung weltweit eine Schlüsselposition gewonnen hat und, was von zunehmender Bedeutung ist, den automatischen Datenaustausch zwischen Datenbanken enorm erleichtert. Um gleichwohl auch einen von Wikidata unabhängigen Qualitätsmaßstab der eigenständig erhobenen Forschungsdaten zu wahren, halten wir es für sehr wichtig, ein Abgleichs-Tool zwischen den eigenen Daten und den Wikidata-Daten zur Verfügung zu haben und zu nutzen. Über unser eigenes Projekt hinaus entspricht ein solches Tool aus unserer Sicht den allgemeinen Zielen einer nationalen Dateninfrastruktur. Unsere Suche nach geeigneten Tools war bisher ergebnislos (Blocker). Wir haben die Hoffnung, dass die NFDI-Initiative mit ihrer Koordinations-Aufgabe bei der Etablierung von Standards in diesem Bereich eine zentrale Rolle spielen könnte.

Posted on

92 Metadaten aus Forschungsprojekten: Singuläres vs. Standardisierung. Zum Problem der kategorialen Erschließung von Daten

< Back to problem stories

Auch im Bereich der philosophiehistorischen Grundlagenforschung wird zunehmend die Digitalisierung von Daten (Editionen, Zeitschriften, Kompendien, Archive) vorangetrieben. Dabei stellt sich die Frage, wie die entstehenden Datenmengen auszuwerten sind. Neben der Überlegung zu den technischen Möglichkeiten tritt auch ein hermeneutisches Problem: Wie ist ein sinnvoller kategorialer Zugriff auf die Daten möglich? Die klassischen Werkzeuge sind: Kategorien, Termini, Begriffe usw., aber auch Textsorten (Monographie, Zeitschriftenbeitrag, Nachlassmaterial usw.). Neue Werkzeuge des distant readings treten hinzu, bspw. die Makroanalyse, die computerbasierte Formanalyse von Textualität usw. In diesem Zusammenhang fehlt es bisher an einem Forum für eine vorgeschaltete Methodenreflexion. Es scheint kein guter Rat zu sein, ein Maximum an Werkzeugen in der Analyse der Datenmengen anzuwenden, oder sich ohne weiteres gegen die alten und für die neuen Werkzeuge zu entscheiden. Ein Vorteil der qualitativen Datenanalyse war und ist, dass singuläre Einheiten (Episoden) der Philosophiegeschichte bewahrt werden konnten; ein Nachteil der quantitativen Analyse könnte sein, dass im Verfahren der Standardisierung die Möglichkeit qualitativer Differenzierung von Episodischen und Generalisierendem verloren geht. Darüberhinaus besteht auch die Gefahr, dass durch die Erfassung der Daten im Prozess der Digitalisierung die alten Wissensspeicher - wie bspw. Lexika der Wörter, Begriffe, Metaphern, Kompendien systematischer und historischer Fragen an die Philosophiegeschichte - für obsolet erklärt werden und die Suggestion der für sich selbst sprechenden Daten (der alte "Mythos der Gegebenheit") sich festsetzt. Um hier Klarheit zu schaffen, sollte es als eine dringliche Aufgabe markiert werden, einen Weg zu finden, die alten und die neuen Werkzeuge zu kombinieren und andere Methoden, eventuell verscuhsweise Hybrid-Methoden zu entwickeln. So ist davon auszugehen, dass bspw. ein Historisches Wörterbuch der Philosophie (Erstauflage in den 1970er Jahren) für eine Neubearbeitung seinen Werkzeugkasten neu bestücken wird. Was das heißt und wie unsere Forschung als historisch arbeitende Geisteswissenschaftler*innen nicht nur in der Philosophie, sondern auch in den benachbarten Wissensdisziplinen aussehen wird, vor welchen Herausforderungen/ Möglichkeiten wir stehen und wie ein angemessener hermeneutischer Zugriff auf die digitalisierten Datenmengen (for Memory!) aussehen kann, darüber sollte eine Debatte stattfinden.

Posted on

87 Probleme bei Erfassung und Verarbeitung historischer Datumsangaben

< Back to problem stories

Das Entstehungsdatum einer Quelle anzugeben, ist nicht einfach, denn es ist nicht immer direkt auf Quellen verzeichnet. So hat man ggf. kein exaktes Tagesdatum, kann dieses nur aus Kontexten erschließen (z.B. aus Ereignis- oder Feiertagsangaben) oder nur anmerken, dass es um, vor oder nach einem anderen Datum entstanden ist. So können manchmal nur Jahreszahlen oder Monate angeben werden, ggf. mit einer zusätzlichen Angabe wie Anfang, Mitte oder Ende des Zeitraums, den man erschlossen hat. Datenbanken auf der anderen Seite erfordern ein exaktes Datum in der Form JJJJ-MM-TT. Nur dann können diese Daten weiterverarbeitet und z.B. für Suchzugriffe oder Sortieralgorithmen genutzt werden. Ein weiteres Problem ist, dass Standardisierungen nicht auf historische Belange angepasst sind. Die Unixzeit, die jedes Datum in Sekunden ab dem 1. Januar 1970 umrechnet, wird von vielen Computerprogrammen zur Datumsberechnungen verwendet. In der Microsoft-Welt werden alle Daten ab dem 1. Januar 1900 unterstützt. Die Norm ISO 8601 gilt nur für Daten ab 15. Oktober 1582. Für Daten davor müssen die Austauschpartner weitere Vereinbarung untereinander treffen (z.B. für v.Chr. ein Minus vor der Jahreszahl). Die Problematik des Jahres Null stellt für Computerverarbeitung ein weiteres Hürde dar. Die Eingabe ungenauer oder erschlossener Daten ist eigentlich nicht vorgesehen. Meistens wird es durch die Eingabe mehrerer Daten (z.B. weiteres Feld für Sortierdatum oder Angabe eines Zeitraums) und weiterer Felder, mit denen man die Art bzw. Qualität der Daten angibt (erschlossen, wahrscheinlich, etc.), umgangen. Dies ist aber individuell in Softwaren oder durch Datenmodelle festgelegt und kann dann nur schwer und nicht ohne weitere Absprache/Anpassungen in der digitalen Welt ausgetauscht werden. Auch besteht die Gefahr, dass das maschinenlesbare Datum, das nur aus Sortier- oder Verarbeitungszweck dem Digitalisat mitgegeben wurde, zum "eigentlichen" Datum der Quelle mutiert, da dieses Datum digital gelesen und verarbeitet werden kann.

Posted on

84 Forschungsdaten als Vertrauenssache

< Back to problem stories

Als Leiter des Programmbereichs Forschungsinfrastrukturen an einem zeithistorischen Forschungsinstitut bin ich auf verschiedenen Ebenen mit den Bedürfnissen der Forschenden hinsichtlich Archivierung, Erschließung und Bereitstellung, der von ihnen produzierten Forschungsdaten, aber auch gleichzeitig auch mit einer ganzen Reihe von Unsicherheiten und Befürchtungen konfrontiert. Beim Aufbau eines institutsweiten Verfahrens und Regelsystem für den Umgang mit Forschungsdaten haben sich folgende Probleme gezeigt, die für den Aufbau übergreifender Infrastrukturen von Bedeutung sind: 1. Forschungsdaten sind eine "Vertrauenssache" und ein Feld von hoher Sensibilität für die Forschenden. Gegenüber forschungsfernen zentralen Infrastrukturen gibt es daher zahlreiche Vorbehalte, die durch intermediäre Strukturen des Datenmanagements aufgefangen werden müssen 2. Forschungsdatenmanagement setzt einen Kulturwandel in der Disziplin voraus. Wer seine Daten erschließt, archiviert und zur Nachnutzung bereitstellt muss daraus fachlichen Reputationsgewinn ziehen können. 3. Als Praxis muss Forschungsdatenmanagement bereits von Anfang an in den Prozess der Projektbearbeitung implementiert werden. Entsprechende Infrastrukturen sollten als Arbeitsumgebung funktionieren und Werkzeuge für die Bearbeitung der Daten bereitstellen. 4. Es müssen fachliche Standards für die Qualität von Forschungsdatensammlungen etabliert werden und ein Instrumentarium für die fachliche Kritik solcher Ergebnisformen etabliert werden ("H-Soz-Kult für Forschungsdaten") 5. Bislang fehlt es in den meisten Einrichtungen an Personal und Ressourcen für das Forschungsdatenmanagement. Neben dem Aufbau einer nationalen Infrastruktur muss diese Aufgaben in den Bereichen vor Ort als Feld fachlicher Wertschätzung und strategische Aufgabe etabliert werden, wofür entsprechende Ressourcen bereitgestellt werden. 6. Um eine Kultur im Umgang mit Forschungsdaten zu etablieren braucht es neben der zentralen Infrastruktur fachdisziplinbezogenen Wissensplattformen mit Tutorials, Ratgebern, Musterverträgen und Best-Practice Beispielen. Dazu sollten die etablierten Plattformen der Fachinformation und -Kommunikation weiterentwickelt werden 7. Es bedarf einer Aufklärungskampagne über Fragen des Datenschutzes bei Forschungsdaten, die Rechtssicherheit etablieren hilft. Auch dies eine Aufgabe für Data Culture

Posted on

81 Nachnutzung von zeitgeschichtlichen Interviews

< Back to problem stories

Zu einem zeitgeschichtlichen Thema wurden in den letzten Jahrzehnten viele Interviews im Rahmen von wissenschaftlichen Arbeiten zum Thema geführt. Ich würde gerne diese Interviews mit dem heutigen zeitlichen Abstand darauf untersuchen, welchen Einfluss sie auf die allgemeine Wahrnehmung des Gegenstands ausgeübt haben und wie der jeweilige zeitgeschichtliche Kontext der Interviewsituation sich in dieser und den (nicht) gestellten Fragen niedergeschlagen hat. Leider gibt es keine zentrale Stelle, an der solche Interviews verzeichnet sind, geschweige denn ein zentrales oder auch virtuelles Archiv. Viele Interviews sind in privaten Regalen der Forschenden oder kaum erschlossen an den beteiligten Institutionen gelagert, andere finden sich verteilt über verschiedene Archive. Manche Originalaufnahmen sind nicht mehr existent. In den seltensten Fällen ist die Frage der Nachnutzung rechtlich eindeutig geklärt. Oft hängt die Möglichkeit der Nachnutzung an persönlichen oder institutionellen Beziehungen und dem Vertrauen der Urheber*innen in die Nachnutzenden. Um die Ausgangssituation für solche Fragestellungen zu verbessern, sehe ich verschiedene Ansatzpunkte: 1. Ein Archivübergreifendes digitales Verzeichnis von Interviews, das die Auffindbarkeit verbessert. Vorhaben wie das DFG Projekt „Oral History digital“ mit dem das ZZF kooperiert sollten deshalb unbedingt in den NFDI-Prozess einbezogen werden. 2. Ein vereinheitlichtes Set von Metadaten, um die Recherche über Archivgrenzen hinweg zu vereinfachen. 3. Archivierungsangebote für einzelne Forschende und kleinere Institutionen, die eine angemessene Archivierung inkl. Aufbereitung des Materials für die Archivierung nicht selber leisten können. 4. Vorlagen für rechtliche Erklärungen (Einverständniserklärung,…), die auch die Möglichkeit der Nachnutzung einbeziehen und für alle Seiten transparent und praktikabel regeln. 5. Eine Debatte um den Wert von Interviews über den eigenen Forschungskontext hinaus als originäre Forschungsdaten. 6. Die Entwicklung einer Wissenschaftskultur der verantwortlichen Nachnutzung, die berücksichtigt, dass a) ein Interview nur auf Grundlage einer Vertrauensbeziehung zwischen Interviewenden und Interviewten entstanden ist und dieses Vertrauen nicht einfach übertragbar ist. b) ein Interview auch viel über den/die Forschende verrät und damit verletzbar/angreifbar macht.

Posted on

72 Interdisziplinäre Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt wollen Kunsthistoriker*innen, Historiker*innen und Musikwissenschaftler*innen die Geschichte, Rezeption und Präsentation eines epochalen Ereignisses erforschen. Sie suchen nun für die Entwicklung des Antrags und die Planung der Aufgaben Ansprechpartner*innen und Infrastruktureinrichtungen, die ihnen sagen können, wie sie mit den entstehenden Datenmengen (Bilddaten, digitale Editionen, Textdatenbanken, annotierte Digitalisate, etc.) umgehen sollen. Sie möchten z.B. wissen: • Was sind die besten Vorgehensweisen zur Benennung der Daten und ihrer Verwaltung? • Welche Datenformate sind besonders geeignet? • Wo können sie die Daten nach Abschluss des Projektes sichern? • Wie und wo sie können sie diese Daten für andere Wissenschaftler*innen ihrer Disziplinen gut auffindbar machen? Bei der Suche nach Informationen finden sie viele sehr allgemeine und wenige genauere Hinweise, die dann aber aus der Sicht nur einer der beteiligten Disziplinen verfasst sind. Das Team findet keine Best Practices und keine Beratungen, die auf die Herausforderungen interdisziplinärer Vorhaben in ihren Wissenschaften eingehen. Potentielle Lösung Arbeitskreis Digital Humanities als ein institutionalisiertes Gremium von Digital Humanists aus der Projektpraxis in den verschiedenen Geistes- und Sozialwissenschaften

Posted on

71 Grenzübergreifende Forschung

< Back to problem stories

Story In einem gemeinsamen Projekt italienischer, französischer und deutscher Wissenschaftler*innen werden die Berichte, Korrespondenzen und Sachzeugnisse dreier Reisender auf ihrer Grand Tour erforscht. Die Quellen befinden sich in Archiven und Museen in Italien, Frankreich, Deutschland und in der Schweiz. Viele dieser Quellen sind nicht digitalisiert, sollen aber durch das Projekt digitalisiert werden. Von Beginn an möchte das Team, dass: • die Digitalisate anschließend übergreifend auffindbar und verwendbar sind, • die Daten zu den Stationen der Grand Tour in allen beteiligten Ländern einfach auffindbar sind, • die Daten und Digitalisate im Rahmen des Wissenstransfers frei und einfach genutzt werden können. Das Projektteam findet aber in jedem Land unterschiedliche Ansprechpartner*innen, zum Beispiel sind mal die Archive und mal Forschungsinstitute zuständig. Die Wissenschaftler*innen können bei den Auskünften nicht einschätzen, inwieweit die vorgeschlagenen Lösungen auch für das andere Land passend sind. Insgesamt fehlen Best Practices und Ansprechpartner*innen für den Umgang mit Forschungsdaten in grenzübergreifenden Projekten in der Geschichtswissenschaft. Potentielle Lösung Kompetenzbereich der Max Weber Stiftung: traditionsreiche bi- und multinationale Projektarbeit

Posted on

70 Sozialdaten als Quellen der Zeitgeschichte

< Back to problem stories

Im Rahmen eines geförderten Projekts beteiligt sich das DHI London daran, Richtlinien für eine von zeithistorischen ForscherInnen dringend benötigte Infrastruktur zur Erfassung, Langzeitarchivierung, Zugänglichkeit und Auswertung neuartiger Datenbestände (sogenannter „Sozialdaten“) aufzubauen. Bei Sozialdaten handelt es sich um die seit der 2. Hälfte des 20. Jahrhunderts zunehmend erzeugten Datensammlungen einerseits staatlicher Behörden, andererseits (im breitesten Sinne) sozialwissenschaftlicher Forschungen. Dies sind heterogene, oft fragmentarisch überlieferte, quantitative und qualitative Daten. Ziel der laufenden Machbarkeitsstudie ist, vorhandene Sozialdatenbestände zu evaluieren, die Bedarfe zeithistorischer Forschung zu erfassen und Umsetzungsmodelle für den Aufbau einer solchen Forschungsdateninfrastruktur herauszuarbeiten und in der Fachcommunity breit zu verankern. Die Forschungsinfrastruktur soll unter anderem zum Erreichen folgender Ziele beitragen: • Sozialdaten sollen als historische Quellen erschlossen und langzeitarchiviert werden können; • diese Datenbestände sollen für die historische Forschung sichtbar dokumentiert und zentral recherchierbar sein; • Metadatenformate zur Kontextualisierung sollen bereitgestellt werden; • es sollen fortlaufend Tools zur optimalen Nutzung der Sozialdaten gemäß den historischen Forschungsinteressen entwickelt und betreut werden; • Beratungs- und Schulungsangebote zu Sozialdaten sollen angeboten werden; • Bedingungen einer rechtskonformen Nachnutzung von Sozialdaten in Bezug auf Datenschutz, Nutzungsbedingungen und Eigentum an den Daten sollen erkundet werden; • Plattformen für die Kommunikation zwischen DatennutzerInnen und DatenhalterInnen sowie zwischen sozial- und geschichtswissenschaftlichen Forschenden sollen entstehen; • die Verknüpfung mit anderen nationalen und internationalen Infrastrukturen gleichen Typs soll hergestellt werden, um mittel- bzw. langfristig internationale Forschungsinfrastrukturen aufbauen zu können. Die Forschenden stoßen auf folgende Probleme: • stark fragmentierte Datenbestände; • Fehlen einer leicht auffindbaren und aussagekräftigen Dokumentation der Daten (beispielsweise zum Archivierungsort); • Fehlen einheitlicher Standards zum Kuratieren zeitgeschichtlicher Daten, etwa von Interviews; • rechtliche Unklarheiten, etwa zu Datenschutz, Urheberrecht, Anonymisierung; • hohe Hürden für HistorikerInnen zur Forschung mit Sozialdaten, da frei verfügbare Sozialdatenbestände fehlen und die statistischen Kenntnisse für deren Auswertung nicht in den historischen Curricula der Universitäten verankert sind; • Nichtberücksichtigung von Schnittstellen zu sozialwissenschaftlichen Infrastrukturen und Erschließungstechniken beim bisherigen Aufbau digitaler geisteswissenschaftlicher Forschungsinfrastrukturen.

Posted on