Task Area 4

36 Publizieren im Open Access

< Back to problem stories

Ein Nachwuchswissenschaftler möchte die gesammelten Beiträge einer von ihm organisierten internationalen Konferenz publizieren. Er hat leider keine finanziellen Mittel zur Verfügung, sodass er eine kostenfreie Lösung benötigt. Da die Beiträge von Forschenden aus vielen verschiedenen Ländern mit jeweils eigenen Publikationsmärkten stammen, strebt der Nachwuchswissenschaftler eine Veröffentlichung im Internet an. Diese Publikation soll weltweit kostenfrei zum Download verfügbar sein. Wichtig ist dem Forschenden auch eine redaktionelle Betreuung, da er darin ein Qualitätsmerkmal von Publikationen sieht, das seiner wissenschaftlichen Karriere zuträglich ist. Gleiches gilt für die regelkonforme Erschließung des Bandes nach den gängigen bibliothekarischen Standards und dessen langfristige Erreichbarkeit und Zitierbarkeit. Der Nachwuchswissenschaftler ist jedoch weder mit bibliothekarischen Standards, noch mit den unterschiedlichen Formaten von Veröffentlichungen und Wissenschaftskommunikation im Open Access vertraut. Aufgrund dessen wünscht sich der Nachwuchswissenschaftler eine Publikationsplattform, über die er die gesammelten Beiträge online im Open Access publizieren kann. Diese Plattform soll eine eigene Redaktion besitzen, und umfassende Metadaten aufweisen, die einsehbar und downloadbar sind. Die Redaktion soll den Nachwuchswissenschaftler außerdem zu den unterschiedlichen Formen wissenschaftlicher Dissemination und Publikation sowie den dazugehörigen technischen und informationswissenschaftlichen Hintergründen beraten. Jeder einzelne Beitrag des Sammelbandes soll durch persistente Identifikatoren dauerhaft zitierbar und durch backup-Systeme und digitale Langzeitarchivierung auch langfristig erreichbar sein.

Posted on

35 Bildungs- und Armutsgeschichte im außereuropaeischen Raum

< Back to problem stories

Die Erforschung der Geschichte des betreffenden Landes steht vor grundsätzlichen Problemen hinsichtlich der Quellenlage. Zu nennen ist hier eine langjährige Vernachlässigung der einschlägigen Archivbestände, dann eine unzureichende Finanzierunggrundlage für die Sammlung, sachgerechte Unterbringung und vor allem systematische Katalogisierung und archivarische Erschließung von Quellen. Diese Probleme haben der Geschichtsforschung zu diesem Land nicht nur in Deutschland, sondern weltweit erhebliche Schwierigkeiten bereitet. Um diesem unhaltbaren Zustand in ersten Schritten abzuhelfen, hat ein Pilotprojekt verschiedenes Material gesammelt und dabei einen thematischen Schwerpunkt auf die Bildungsgeschichte gelegt. Dieses Quellenmaterial wurde in einer Zotero basierten Datenbank erschlossen. Des Weiteren ist ein Korpus von Audiomaterial entstanden, das Oral History Interviews zusammenführt. Zu den Tonaufnahmen gibt es auch entsprechende Transkriptionen. Diese Bestände sind in einem Forschungsinstitut aufbewahrt, können dort auf Anfrage kostenlos benutzt werden, was auch regelmäßig und intensiv geschieht. Der Erfolg des Pilotprojekts, in dem wertvolle Datenbestände erschlossen wurden, zeigt sich nicht zuletzt in der intensiven Nachnutzung der erschlossenen Materialien. Daraus leiten sich allerdings weitere Fragen für die fortdauernde Verfügbarkeit der Daten für die Wissenschaft ab: • Wie können die Datenbestände angesichts der intensiven Nutzung besser aufbereitet werden? Und welche Vorkehrungen muss man treffen, um einen erweiterten Nutzerkreis sowohl in Deutschland als auch international zu erreichen? • Welche Maßnahmen sind für eine langfristige Verfügbarkeit und dauerhafte Bereitstellung der Bestände zu ergreifen? • Welche Datenformate kommen hierfür infrage? Müssen also die derzeit vorhandenen Daten nochmals bearbeitet, transformiert und migriert werden? Gibt es für ein solches Szenario musterhafte Workflows? Dies auch, da das Projekt abgeschlossen ist und keine weitere Finanzierung dafür in Aussicht steht?

Posted on

34 Arbeitsgeschichte: Prozess und Alltag in historischer Perspektive

< Back to problem stories

Ein internationales Projekt mit starker außereuropäischer Beteiligung untersucht die Geschichte der Arbeit eines außereuropäischen Landes seit dem 20. Jahrhundert als Prozess- und Erfahrungsgeschichte. Zum einen beinhaltet dies die Untersuchung des Wandels von Arbeitsprozessen, Arbeitswissen und betrieblicher Arbeitsorganisation seit den Anfängen des industriellen Kapitalismus. Zum anderen liegt ein Forschungsschwerpunkt auf der Alltagsgeschichte der modernen Arbeit anhand oraler und schriftlicher Selbstzeugnisse. Da auch die Quellengrundlage auch auf vielen außereuropäischen, nichtlateinischen Sprachen basiert, entsteht im Rahmen des Projekts ein in seiner Art einzigartiger, vielsprachiger Archivbestand. Er soll nicht nur die Projektarbeit dokumentieren, sondern auch der wissenschaftlichen Öffentlichkeit als Ressource zu weiteren Forschungen Open Access zur Verfügung gestellt werden. Das wissenschaftliche Design des Projekts ist fixiert. Doch es gibt offene Fragen im Hinblick auf die Aufnahme, Erschließung und Bereitstellung des mehrsprachigen Archivbestands für eine frei verfügbare digitale Präsentation: • Welche technischen Werkzeuge sind für die Erstellung und Publikation der Daten notwendig? • Gibt es hierfür Standards und Formate, die sich besonders dafür eignen? • Wie kann das Projekt mit Fragen des Datenschutzes bei personenbezogenen Daten umgehen? Hat dies Auswirkungen auf die Lizenzierung, gerade weil eine freie Verfügbarkeit der Daten angestrebt wird? • Was muss man im Projekt beachten, damit die Daten für eine langfristige Zugänglichkeit und eine nachhaltige Speicherung aufbereitet werden?

Posted on

32 Übersicht über ältere Familiendatenbanken aus der akademischen Forschung

< Back to problem stories

Ich bin Vertreter eines überregionalen Arbeitskreises . Etliche unserer Mitglieder haben schon seit den 1970er Jahren mit personen-, haushalts- und familienbezogenen Mikrodaten geforscht. Die entsprechenden Daten liegen in unterschiedlichen Formaten vor, unter anderem in TUSTEP, Kleio, dBase, SPSS und Access. Der Arbeitskreis kann einerseits entsprechende Daten lokalisieren, andererseits auch Wissen darüber zusammentragen, wie die damaligen Projekte gearbeitet haben. Wer kann uns dabei helfen, diese Daten für die aktuelle Forschung nutzbar zu machen und dabei insbesondere mithilfe von Normdaten anschlussfähig für neue Datenbestände zu machen?

Posted on

28 Gibt es wissenschaftliche Standards für die Ahnenforschung?

< Back to problem stories

Ich steige als Privatmann gerade in die Ahnenforschung ein. Ich sehe die Ahnenforschung allerdings nicht nur als Selbstbeschäftigung, auch andere sollen etwas von den Forschungsergebnissen (und -Wegen) haben und sie bestmöglich selbst vollständig nachvollziehen können. Gibt es wissenschaftliche Standards die ich anwenden kann, um dies zu garantieren? Könnte das Forschungsdatenmanagement nicht nur die Forschungsdaten managen, sondern über den gesamten Prozess, wie man solche Daten – z.B. eben über die Vorfahren – zusammenstellt, so klar informiert, schult und berät, dass auch Anfänger den verstehen?

Posted on

23 Selbstentwickelte Tools als Open Source veröffentlichen

< Back to problem stories

Für eine private Website habe ich einen Verwandtschaftsrechner programmiert, der auf den eigenen Datenbestand auf der privaten Seite zugreift und für je 2 beliebige Personen zeigt, wie sie verbunden sind. Wie kann ich dafür sorgen, dass das Tool auch von anderen benutzt werden kann?

Posted on

22 Nutzung eines außerhalb der akademischen Forschung entwickelten Standards in der akademischen Forschung

< Back to problem stories

Unser bürgerwissenschaftlicher Verein hat ein Ortsverzeichnis entwickelt, das mit Bezug auf Deutschland und viele andere Länder Ortsnamen (in variierenden Schreibweisen), kirchliche und staatliche Zugehörigkeiten im Zeitverlauf sowie geographische Koordinaten erfasst. Die Abdeckung auf Ebene der Siedlungsplätze (also unterhalb der Gemeinden) beträgt für das späte Kaiserreich bereits etwa 80%. Das Verzeichnis liegt als Open Data vor und ist über einen Webservice abrufbar. Im bürgerwissenschaftlichen Bereich haben wir damit einen Standard gesetzt. Wie können wir erreichen, dass dieses System sich auch im akademischen Bereich als Standard etabliert?

Posted on

20 Inhaltsanalyse preußischer Regierungsberichte aus dem Rheinland

< Back to problem stories

In einer kleinen Forschergruppe wollen wir die Berichte der rheinischen Provinzialregierungen an den preußischen König in den ersten Jahrzehnten nach der Annektion untersuchen. Uns interessiert dabei, welche Themen die im Aufbau befindliche Verwaltung hatte, wie sie diese Themen an den König herantrug und ob es dabei unterschiede zu den alten preußischen Provinzialverwaltungen gab. Um die große Textmenge bearbeitbar zu machen und um möglichst unvoreingenommen an die Quellen heranzutreten wollen wir eine Inhaltsanalyse mit einem Topicmodell vornehmen. Das erste Problem, das sich dabei stellt ist natürlich die Digitalisierung großer handschriftlicher Textmengen. Dieses Problem lässt sich mit dem Programm Transkribus jedoch schon sehr gut lösen. Als weiteres Problem erweist sich die Frage, wie die Daten gespeichert werden sollen. Auf der einen Seite sollten für die Berechnung des Topicmodells einzelne Textabschnitte als mit Metadaten (Regierungsbezirk, Jahr, Monat) versehene Variablen vorliegen. Auf der anderen Seite sollten die Daten auch in Ihrer Dokumentenstruktur gespeichert und mit einer XML-TEI Auszeichnung versehen werden, um sie als Editon zu veröffentlichen. Hier braucht es eine flexible Datenbanklösung, die mehrere Zuordnungen erlaubt. Zuletzt stellt sich die Frage, mit welchem Programm das Textmining vorgenommen werden soll. Konventionelle Statistikprogramme wie STATA und R sind dazu in der Lage. Der Zugang zu diesen Programmen stellt aber sicherlich für Viele im Fach eine Hürde da. Hilfreich wäre es ein webbasiertes Tool zu haben, das intuitiv zu bedienen ist. Zwar existieren auch hier schon entsprechende Webseiten (bspw. Voyant-Tools, Lexos). Diese sind aber stärker auf die Literaturwissenschaft ausgerichtet und haben für die historische Arbeit einige Nachteile. So ist die Arbeit mit Metadaten (Zeitinformationen) schwierig, außerdem wird der Arbeitsstand auf Fremdservern gespeichert und eine Dokumentation der einzelnen Arbeitsschritte ist nicht vorgesehen. Eine speziell auf das historische Arbeiten zugeschnittene Lösung, die die hier skizzierten Nachteile umgeht wäre sicherlich hilfreich. Grade auch, um die Methoden des Textminings breit im Fach zu verankern.

Posted on

19 Digitale Quellenkritik bedenken

< Back to problem stories

Vor dem Hintergrund meiner Erfahrungen als Hochschullehrerin scheint es mir so zu sein, dass die Geschichtswissenschaften digitale Ressourcen noch kaum als neuen und auch relevanten Lehrinhalt etabliert haben. Das bringt auch mit sich, dass die Quellenkritik bspw. zu digitalisierten und "born digital" Quellen noch zu wenig in der Fachkultur verankert ist. Das bringt Probleme für die Lehre mit sich, wenn es darum geht, Studierenden die Komplexität der digitalen Quellenkritik zu vermitteln, Fragen von Authentizität, Qualität usw. zu diskutieren. Da hilft der reine Bezug auf formale Standards nicht viel weiter. Es braucht einen im Fach verankerten, kritischen Diskurs. Das schließt auch ein viel aktiveres Rezensionswesen ein, als dies bspw. für digitale Quellensammlungen (auch Forschungsdatenpublikationen) bislang der Fall ist. Aber vermutlich müsste das Fach dann auch über die Reputation von digitalen Publikationen und den Aufwand, diese adäquat zu besprechen, diskutieren.

Posted on

18 Erfassung, Geo-Lokalisierung und Visualisierung von handschriftlich verfassten Massendaten

< Back to problem stories

Seit einiger Zeit arbeite ich mit einer kleinen Gruppe an der Zusammenstellung von Glockengussdaten. Dabei handelt es sich um Informationen, die 1940/41 anlässlich der bevorstehenden Einschmelzung der Glocken auf Karteikarten gesammelt wurden, insgesamt etwa 20.000. Für uns von Interesse sind Standort der Glocke (1940/41) und Zeitpunkt des Glockengusses (z.T. zurück bis ins 11. Jh.). Da Glocken fast nie den Standort wechseln, soll im Endergebnis eine Art dynamische Heatmap über die Jahrhunderte gezeigt werden, wann wo besonders viele oder wenig Glocken gegossen wurden. In Ermangelung wirtschaftsstatistischer Daten wäre das eine Art Proxy-Variable für wirtschaftliche Konjunkturen (das ist jetzt alles sehr grob vereinfacht). Alle Karteikarten liegen in digitalisierter Form vor. Unser erstes Problem betrifft die Übertragung der relevanten Daten (v.a. Standort und Glockengussdatum) von der handgeschriebenen Karteikarte in eine Tabelle. Wo finden wir Informationen darüber, welche Software sich für das Einlesen relativ standardisierter, aber eben handgeschriebener Daten eignet? Wieviel Nachkorrekturen sind ungefähr nötig? Um zweitens eine Glocke mit vertretbarem Aufwand georeferenzieren zu können, benötigen wir eine Zuordnung des Ortsnamens von 1940/41 zu einer Geo-Position. Wo finden wir eine Übersicht über entsprechende Datenbanken? Erschwerend kommt hinzu, dass 1940/41 selbständige Gemeinden heute nur noch Stadtteile oder unselbständige Teilgemeinden sind. Drittens schließlich stellt sich die Frage der Visualisierung. Die politischen Grenzen haben sich vom 11. Jahrhundert bis 1941 immer wieder geändert. Gibt es historische Karten, die es erlauben würden, auf der dynamischen heatmap die korrekten jeweiligen Grenzverläufe zu visualisieren (etwa in 50-Jahres-Abständen)?

Posted on