zurück zur Übersicht

HACK THE HERITAGE Ergebnisse

Vom 20.02. bis 21.02.2026 fand der Hackathon HACK THE HERITAGE in der Lichtwerkstatt Jena statt. Der Hackathon entstand aus dem Nucleus Jena Teilvorhaben 10 Kulturerbe bewahren und zielte darauf ab, verschiedene Personengruppen zusammenzubringen, um innovative Lösung für die Digitalisierung von Kulturerbe zu finden.

Studierende, Expert:innen und Kultur-Interessierte haben sich zusammengefunden und vier Challenges aus dem Bereich Digitalisierung von Kulturerbe bearbeitet. Auf dieser Seite veröffentlichen wir die Ergebnisse:


Wer Magazine von Museen, Archiven oder Bibliotheken betritt, begegnet ihnen unweigerlich: dicht gefüllte Karteikästen, deren Inhalte über Jahrzehnte – teils über ein Jahrhundert hinweg – gewachsen sind. Diese Karten sind weit mehr als einfache Verzeichnisse. Sie enthalten oft die einzigen überlieferten Informationen zu Objekten: Erwerbungsdaten, Materialien, Provenienzen oder kontextuelle Notizen, die nirgendwo sonst dokumentiert sind. Gleichzeitig sind sie bedroht – durch Papierzerfall, verblassende Tinte oder mechanische Beschädigung.
Für moderne Sammlungsmanagementsysteme hingegen sind strukturierte, digitale Daten erforderlich. Genau hier setzt ein Projekt der Thüringer Universitäts- und Landesbibliothek (ThULB) Jena an: die Entwicklung einer KI-gestützten Pipeline zur automatisierten Metadatenextraktion aus historischen Karteikarten. Ziel ist es, analoge Wissensspeicher in durchsuchbare, standardisierte Datensätze zu überführen – und damit langfristig zu sichern und nutzbar zu machen.

Ein Projekt mit Umwegen: Vom Hackathon zur Eigenentwicklung

Ein wichtiger Ausgangspunkt war hierbei der HACKTHEHERITAGE Hackathon, bei dem ursprünglich eine eigene Arbeitsgruppe zur Entwicklung einer grafischen Benutzeroberfläche (GUI) entstehen sollte. Diese sollte insbesondere die Nutzung der KI-gestützten Extraktion vereinfachen und für einen breiteren Anwenderkreis zugänglich machen.

Allerdings kam eine solche Working Group während des Hackathons nicht zustande, da die Mindestanzahl eines Teams hier nicht gewährleistet wurde. Die Herausforderung – eine benutzerfreundliche Anwendung für die automatisierte Erschließung historischer Inventarkarten zu entwickeln – blieb jedoch bestehen. In der Folge wurde das Projekt unabhängig vom Hackathon weitergeführt und schließlich in Eigeninitiative von Tom Meißner und Martin Heß umgesetzt.

Die heute vorliegende Anwendung ist damit kein klassisches Hackathon-Ergebnis, sondern das Resultat einer nachgelagerten, kontinuierlichen Entwicklungsarbeit. Dieser Hintergrund erklärt auch ihren aktuellen Status: Sie ist ein funktionsfähiger, aber noch ausbaufähiger Prototyp. Unabhängig vom Status der Entwicklung konnten hiermit jedoch bereits weitere Anwendungsszenarien durchgespeilt werden, so z.B. bei der Verarbeitung von Karteibeständen aus Musikarchiven oder der Erfassung von Beständen aus dem Universitätsarchiv.

Die Ausgangslage: Masse, Materialität und manuelle Grenzen

Die Dimension der Aufgabe wird deutlich, wenn man sich die Zahlen vor Augen führt. Bereits ein einzelner Bestand umfasst zehntausende Karteikarten. Eine manuelle Erfassung würde bei durchschnittlich 60–80 Karten pro Stunde mehrere hundert Arbeitsstunden beanspruchen.

Hinzu kommt die enorme Heterogenität des Materials:

> maschinenschriftliche und handschriftliche Einträge
> unterschiedliche Kartenformate und -farben
> variierende Layouts und Feldstrukturen
> historische Abkürzungen und institutionelle Eigenlogiken

Diese Vielfalt macht deutlich, warum klassische Automatisierungsansätze schnell an ihre Grenzen stoßen.

Digitalisierung als Voraussetzung

Bevor die eigentliche Texterkennung beginnt, müssen die Karten digitalisiert werden. An der ThULB geschieht dies nach klar definierten Standards – hochauflösende Masterdateien, optimierte Arbeitskopien und konsistente Benennung bilden die Grundlage für eine stabile Weiterverarbeitung.

Warum klassisches OCR nicht ausreicht

Klassische OCR-Verfahren erkennen Zeichen, aber keine Bedeutung. Gerade bei historischen Karteikarten führt das zu unstrukturierten Ergebnissen, die für Datenbanksysteme nur bedingt nutzbar sind.

Erst der Einsatz von Vision Language Models (VLMs) ermöglicht es, Bildinhalte nicht nur zu lesen, sondern auch zu verstehen und direkt in strukturierte Daten zu überführen.

Vom Skript zur Anwendung – und zur Benutzeroberfläche

Die technische Entwicklung begann mit einem Python-basierten Batch-Skript, das bereits große Datenmengen effizient verarbeiten konnte. Darauf aufbauend entstand die Webanwendung – und mit ihr ein entscheidender Schritt: die Übersetzung eines komplexen KI-Workflows in eine verständliche, benutzbare Oberfläche.

Gerade hier zeigt sich die eigentliche Stärke der Anwendung. Sie orientiert sich nicht an der technischen Logik der Software, sondern am realen Arbeitsprozess in der Digitalisierung. Die Benutzeroberfläche ist daher in fünf aufeinander aufbauende Schritte gegliedert:

Die fünf Arbeitsschritte der Anwendung

1. Upload – Bilder einlesen 
Zu Beginn werden die eingescannten Karteikarten (meist JPG-Dateien) in die Anwendung geladen. Dies geschieht unkompliziert per Drag-and-Drop oder über die klassische Dateiauswahl. Bereits hier übernimmt die Anwendung erste Kontrollfunktionen, etwa die Prüfung von Dateiformaten und Vollständigkeit.

2. Konfiguration – Anpassen an den Bestand 
Im nächsten Schritt wird festgelegt, wie die KI arbeiten soll. Dazu gehören die Auswahl des verwendeten Modells – etwa lokale OCR, cloudbasierte KI oder eine lokale Infrastruktur – sowie die Definition der zu extrahierenden Felder wie „Komponist“, „Titel“ oder „Signatur“.
Zentral ist dabei der sogenannte Prompt: eine textliche Anweisung, die der KI vorgibt, wie sie die Karte interpretieren und welche Informationen sie zurückgeben soll. Einmal definierte Einstellungen lassen sich als Profile speichern und für weitere Projekte wiederverwenden.

3. Verarbeitung – Die KI arbeitet 
Nach der Konfiguration beginnt die eigentliche Analyse. Die Karten werden einzeln oder parallel an die KI übergeben. Währenddessen bietet die Anwendung eine kontinuierliche Rückmeldung: Fortschritt, Erfolgsquote, Zeitabschätzung und Vorschau der Ergebnisse sind in Echtzeit sichtbar.
Fehlerhafte Karten werden automatisch erkannt, protokolliert und ausgelagert, ohne den Gesamtprozess zu unterbrechen. Gleichzeitig sorgt eine regelmäßige Zwischenspeicherung dafür, dass auch bei technischen Unterbrechungen keine Daten verloren gehen.

4. Ergebnisse – Prüfen, korrigieren, exportieren
 Nach Abschluss der Verarbeitung werden die extrahierten Metadaten in tabellarischer Form dargestellt. Hier zeigt sich ein bewusst hybrider Ansatz: Die KI übernimmt die Vorarbeit, doch die finale Qualitätssicherung liegt beim Menschen.
Einzelne Datensätze können direkt mit dem Originalbild abgeglichen und bei Bedarf korrigiert werden. Anschließend lassen sich die Daten als CSV exportieren und beispielsweise in Systeme wie Augias überführen.

5. Verlauf – Überblick behalten Ein integriertes Verlaufsmodul dokumentiert alle bisherigen Verarbeitungsläufe. Es ermöglicht, unterschiedliche Projekte zu vergleichen, Erfolgsquoten zu analysieren und langfristig aus den gewonnenen Erfahrungen zu lernen.

Ein erfolgreicher Praxistest

Gut zu wissen: Die Leistungsfähigkeit der KI-unterstützten Metadaten-Extraktion wurde bereits vor der GUI-Entwicklung in großem Maßstab erprobt: Über 42.000 Inventarkarten vom Lippmann + Rau Musikarchiv Eisenach konnten in einem Pilot-Projekt in enger Zusammenarbeit mit der ThULB mit einer Erfolgsquote von rund 99,9 % verarbeitet werden – bei einer durchschnittlichen Bearbeitungszeit von etwa 1,3 Sekunden pro Karte und einer Verarbeitungsgebühr der Daten über OpenRouter Backend von knapp 18,- Eur. Damit wird deutlich: Was manuell Monate dauern würde, lässt sich mit KI-Unterstützung und einer gut durchdachten konzeptionellen sowie technischen Vorarbeit binnen weniger Stunden bewältigen. In diesem Testprojekt lief das Skript mit nur wenigen Unterbrechungen knapp 17 Stunden für die Verarbeitung der 42.000 Karten.

GIT: https://github.com/p5hema2/Indexcards_OCR

Dieser Text wird bald veröffentlicht.

Historische Karten sind mehr als nur visuelle Dokumente – sie sind verdichtete Wissensspeicher. In den Repositorien der Thüringer Universitäts- und Landesbibliothek (ThULB) lagern rund 2.000 solcher digitalisierten Karten zur Forstgeschichte Thüringens: detaillierte Bestandsaufnahmen von Wäldern, entstanden zwischen dem späten 19. und der Mitte des 20. Jahrhunderts. Sie zeigen Baumarten, Wege, Gewässer, Reviergrenzen und Ortslagen – ein präzises Abbild historischer Landschaften.

Und doch sind sie in ihrer heutigen Form kaum nutzbar. Die Karten liegen als gescannte Bilder vor, oft fragmentiert, gefaltet und ohne räumliche Verortung. Ihr eigentliches Potenzial – als Grundlage für Forschung, Vergleich und Analyse – bleibt damit weitgehend unerschlossen. Genau hier setzte eine weitere Challenge im Rahmen des HACKTHEHERITAGE Hackathons an.

Das Problem: Eingeschlossenes Wissen

Die Herausforderung ist auf den ersten Blick technisch, im Kern aber strukturell: Die Karten wurden ursprünglich großformatig produziert, anschließend zerschnitten, auf Trägermaterialien aufgebracht und gefaltet. Beim Scannen bleiben diese Spuren sichtbar:

• Faltlinien als regelmäßiges Raster • dunkle Ränder durch den Scanprozess • leichte Verzerrungen im Maßstab • fragmentierte Bildstruktur

Das Ergebnis ist ein Digitalisat, das zwar archiviert, aber nicht direkt weiterverwendet werden kann. Räumliche Analysen, GIS-Integration oder Vergleiche mit heutigen Landschaftsdaten sind so kaum möglich.

Die Idee: Eine (teil-)automatisierte Pipeline

Im Rahmen der Challenge entwickelte ein interdisziplinäres Team eine klare Vision: eine dreistufige Verarbeitungspipeline, die aus einem einfachen Kartenscan einen nutzbaren GIS-Layer erzeugt.

Der Workflow folgt dabei einer logischen Abfolge:

1. Rekonstruktion der Karte (Entfernung von Faltlinien und Rändern) 2. Georeferenzierung (Verortung im heutigen Koordinatensystem) 3. Textextraktion & Geo-Coding (Inhalte erschließen und räumlich nutzbar machen) Damit wird aus einem statischen Bild schrittweise ein analysierbares, digitales Objekt.

Schritt 1: Das Puzzle lösen – Kachel-Rekonstruktion

Der erste Schritt ist zugleich der technisch anspruchsvollste: die Entfernung der Faltlinien. Diese verlaufen meist als regelmäßiges Raster über die gesamte Karte und stören alle weiteren Verarbeitungsschritte erheblich. Die Lösung besteht aus mehreren aufeinander abgestimmten Verfahren:

• automatische Erkennung und Entfernung von Scanrändern • Identifikation der Falzlinien anhand ihres gleichmäßigen Abstands • algorithmische „Begradigung“ leicht gekrümmter Linien • nahtloses Zusammenfügen der Bildteile ohne künstliche Ergänzungen

Das Ergebnis ist bemerkenswert: Eine zuvor sichtbar fragmentierte Karte erscheint plötzlich als geschlossene, homogene Fläche – eine Grundvoraussetzung für alle weiteren Analysen.

Schritt 2: Die Karte verorten – Georeferenzierung

Im nächsten Schritt wird die historische Karte in ein modernes Koordinatensystem überführt. Dieser Prozess – die sogenannte Georeferenzierung – verbindet Punkte auf der alten Karte mit ihren realen geografischen Entsprechungen.

Das Ziel ist ein standardisiertes Referenzsystem (ETRS89 / UTM Zone 32N), das in Mitteleuropa weit verbreitet ist. Das Ergebnis ist ein sogenanntes GeoTIFF – ein Bild, das nicht nur visuelle Informationen enthält, sondern auch präzise geografische Koordinaten.

Im Hackathon wurde dieser Schritt zunächst manuell umgesetzt, um die Machbarkeit zu demonstrieren. Die erzielten Ergebnisse zeigen bereits eine erstaunlich gute Übereinstimmung zwischen historischen und heutigen Landschaftsstrukturen – etwa bei Waldgrenzen oder Wegenetzen. Die vollständige Automatisierung dieses Schritts stellt einen der nächsten Entwicklungsschwerpunkte dar. Ob und wie diese Anforderung jedoch einmal den durch manuelles Referenzieren auf der Karte vollständig ersetzt bleiben kann, bleibt an dieser Stelle offen.

Schritt 3: Inhalte erschließen – Textextraktion & Geo-Coding

Erst durch die Extraktion von Inhalten wird die Karte wirklich „lesbar“. Hier kommt erneut KI zum Einsatz: Ein Vision-Language-Model analysiert die Karte visuell und extrahiert strukturierte Informationen.

Dabei entstehen Datensätze im Geo-JSON-Format, die unter anderem enthalten:
• Kartentitel, Datum und Maßstab • Ortsnamen und Gemarkungen • Wege, Gewässer und Bestandsbezeichnungen • weitere kartografische Elemente und Beschriftungen Besonders wichtig ist dabei der Umgang mit historischen Besonderheiten: alte Schreibweisen, verblasste Tinte oder schwer lesbare Passagen. Statt fehlerhafte Interpretationen zu liefern, markiert das System unsichere Stellen bewusst als „unleserlich“ – ein wichtiger Beitrag zur Datenqualität.

Vom Datensatz zur Anwendung: ein interaktives Web-Interface

Ein zentrales Ergebnis der Challenge war nicht nur die Pipeline selbst, sondern auch ein prototypisches Web-Interface. Dieses verbindet die einzelnen Verarbeitungsschritte zu einer erlebbaren Anwendung:
• ein Backend stellt die Verarbeitungslogik bereit • ein webbasiertes Frontend visualisiert die Ergebnisse • georeferenzierte Karten können direkt auf modernen Karten dargestellt werden • extrahierte Informationen lassen sich interaktiv erkunden Damit wird aus einer rein technischen Lösung ein Werkzeug, das auch für Fachanwenderinnen und -anwender zugänglich ist.

Technischer Hintergrund – bewusst pragmatisch

Die Umsetzung kombiniert etablierte Open-Source-Technologien mit modernen KI-Ansätzen:
• Bildverarbeitung (OpenCV, NumPy) • Geodatenverarbeitung (GDAL, QGIS) • KI-gestützte Texterkennung (VLMs) • Webtechnologien (FastAPI, Vue.js, Leaflet) Diese Kombination zeigt, dass Innovation im Kulturerbe-Bereich oft weniger von einzelnen Technologien abhängt, sondern vom Zusammenspiel verschiedener Werkzeuge.

Fazit: Ein Blick in die digitale Landschaft der Vergangenheit

Die Challenge zur Forstgeschichte macht eindrücklich sichtbar, welches Potenzial in historischen Karten steckt – und wie moderne Technologien dieses Potenzial erschließen können. Innerhalb kurzer Zeit entstand ein funktionierender Prototyp, der den Weg von einem beschädigten Kartenscan hin zu einem analysierbaren GIS-Layer weitgehend automatisiert. Was zuvor Jahre manueller Arbeit bedeutet hätte, lässt sich nun systematisch und skalierbar angehen.

Wie schon bei anderen Projekten aus dem Hackathon gilt auch hier: Der entwickelte Ansatz ist kein fertiges Produkt, sondern ein Ausgangspunkt. Doch er zeigt, wie sich kulturelles Erbe nicht nur digitalisieren, sondern auch neu kontextualisieren lässt. Die Wälder Thüringens erzählen ihre Geschichte – und mit den richtigen Werkzeugen können wir sie wieder sichtbar machen.

Challenge Sieg beim Hackathon

Das Challenge-Team um Daria Zhukova, Johannes Häuser, Frank Nussbaum und Tom Meißner konnte hier mit ihrem Erfahrungsschatz aus den Bereichen angewandter Mathematik, Informatik, Datenmanagement und LLM/VLM Workarounds früh die perfekte Schnittmenge an Wissen etablieren, um diese Herausforderung zu meistern.

Das Format war hierbei dynamisch: kleine Teams, umherstreifende Mentoren und praktisches Co-Working machten sich besonders bezahlt. Am zweiten und wichtigsten Tag konnte ein Teil der einstigen Teamkollegen leider nicht mehr teilnehmen, dennoch setzte Daria das Projekt eigenständig fort und wurde zeitnah durch die zwei genannten Mentoren Johannes und Tom unterstützt. Tom Meißner und Johannes Häuser begleiteten von nun an auch aktiv die Challenge! Auch Frank Nussbaum unterstützte bei der Challenge allen voran am Vortag im Bereich des Karten-Croppings und -Stitchings und steuerte hier einen wichtigen Workflow bei.

Schnell entwickelte sich gerade in der Endphase der Challenge die Zusammenarbeit zu einer starken gemeinsamen Anstrengung! Gemeinsam verfeinerten Daria, Johannes und Tom das Konzept, entwickelten einen soliden technischen Ansatz und gewannen schließlich den Hackathon!

Hierbei entstand auch ein umfangreiches Git-Repo, in dem sowohl die Abschluss-Präsentation des Teams als auch alle relevanten Teil-Skripte zum Lösen der Anordnungen und Beispieldaten dokumentiert vorliegen und öffentlich zugänglich sind.

Git: https://github.com/KI-ThULB/Historical_Thuringian_Forest_Maps_FFK

Dieser Text wird bald veröffentlicht.