schließen
Vergrößertes Bild

Zeitungsdigitalisierung

26. Juni 2025


Collage zu historischen Zeitungen

Bild von freepik

Die hier niedergelegten Gedanken erheben keinen Anspruch auf Vollständigkeit, können aber gewiss einige Fragen beantworten und/oder Lösungen aufzeigen und dadurch eine Hilfe bei der Planung und Durchführung von Digitalisierungsvorhaben sein.

Außerdem kann eine PowerPoint-Präsentation heruntergeladen werden, die ebenfalls die Herausforderungen und Lösungen, die mit der Zeitungsdigitalisierung verbunden sind, thematisiert.

Während meiner insgesamt etwa 11-jährigen Tätigkeit an der Staatsbibliothek zu Berlin – Stiftung Preußischer Kulturbesitz (SBB) habe ich mich vor allen Dingen mit der Digitalisierung, Volltext-Erschließung und Präsentation historischer Zeitungen befasst.
Dadurch konnte ich mir umfangreiche Kenntnisse zu diesem Themenkomplex aneignen, lernte Schwierigkeiten bei der Durchführung kennen und erarbeitete Methoden, diese möglichst zu umgehen.

Die ersten Jahre war ich mit dem Aufbau des DDR-Zeitungsportals befasst, welches leider inzwischen wegen technischer Gründe einige Alleinstellungsmerkmale eingebüßt hat. Nichtsdestotrotz ist es eine wertvolle Quelle für Historiker und die interessierte Öffentlichkeit.
In der Zeit von Mitte 2021 bis Mitte 2024 betreute ich ein durch die DFG (Deutsche Forschungsgemeinschaft) gefördertes Zeitungs-Digitalisierungs-Projekt zur deutschen Presselandschaft im „langen“ 19. Jahrhundert und konnte dies auch erfolgreich zum Abschluss bringen.

Dieser Erfahrungsschatz soll an dieser Stelle öffentlich zugänglich gemacht werden, um möglichst zu verhindern, dass bereits gemachte Fehler erneut begangen werden. Dies ist nicht zuletzt deshalb so wichtig, weil Zeitungen als Medium, sowie die Digitalisierung und Erschließung derselben ein sehr umfangreiches Thema mit vielen Ausnahmen darstellen. Nicht zuletzt wird dafür oft sehr viel Geld ausgegeben, so dass es wünschenswert ist, damit so effektiv wie nur möglich nutzbringende Ergebnisse zu erzielen.

Weitere Informationen:


Das Medium Zeitung

Die Zeitungen sind der Sekundenzeiger der Geschichte.

Arthur Schopenhauer, (1788 - 1860), deutscher Philosoph

Zeitungen werden nicht für die Ewigkeit hergestellt: sie sollen Aktuelles transportieren, danach sind die Texte nicht mehr wichtig („Nichts ist so alt wie die Zeitung von gestern.“), alte Zeitungen werden dann anderen Verwendungen zugeführt, z.B. früher als Makulatur unter den Tapeten oder zum Einwickeln von Lebensmitteln oder als Füllmaterial beim Versand von Waren.

Und damit haben wir schon die ersten Herausforderungen:

  • oft gibt es keine vollständigen Bestände (mehr) oder
  • einzelne Seiten fehlen und
  • der Erhaltungszustand aufgrund des billigen Papiers ist oft sehr schlecht, so dass Textteile fehlen oder unleserlich sind.

Aber gerade die Tatsache, dass in Zeitungen tagesaktuelle Ereignisse behandelt werden, machen sie so wertvoll für Historiker! Oft werden – vor allem politiische – Dinge später völlig anders eingeschätzt und publiziert, wer erinnert sich dann noch daran, was ursprünglich (und warum) passierte?

Eine weitere Herausforderung (für die Präsentation) ist die Tatsache, dass die Verlage ihre Blätter nicht einheitlich organisieren. Die erste Idee ist natürlich, einen Kalender als Zugangs-Beginn anzubieten, aber manchmal stimmt das aufgedruckte Datum nicht mit dem tatsächlichen Erscheinungstag überein oder der Tag des Erscheinens ist gar nicht mehr festzustellen. Was tun in solchen Fällen? Auch die Jahrgangszählung stimmt nicht zwingend mit den Kalenderjahren überein, ein weiterer Anlass zu Überlegungen, wie die Präsentation möglichst sinnvoll zu organisieren ist.

Warum überhaupt digitalisieren?

Ein ganz wichtiger Grund ist der Bestandsschutz: das billige Zeitungspapier ist wenig widerstandfähig und wird durch (nicht immer auszuschließende) negative Umwelteinflüsse wie Feuchtigkeit oder sogar Schädlingsbefall angegriffen. Durch die Digitalisierung kann also das in den Zeitungen vorhandene Wissen dauerhafter (ich vermeide die Annahme, dass die Verfügbarkeit für immer gegeben ist!) erhalten werden.
Ein zweiter Aspekt ist, dass die digitalen Bestände weltweit zur Verfügung gestellt werden können. Das spart Forschenden viel Zeit, Mühe und nicht zuletzt auch Kosten. Da solche Vorhaben in der Regel mit öffentlichen Geldern durchgeführt werden, ist der Zugriff meistens kostenfrei.

Nicht vergessen werden darf die Tatsache, dass auch die Aufbewahrung der Digitalisate einen Aufwand erfordert: es muss (sicherer) Speicherplatz vorgehalten werden, was Stromkosten verursacht und regelmäßige Wartungsarbeiten nötig macht.


Schritt 1: Festellung der Bestände

Um ein Digitalisierungsprojekt zu planen, ist es notwendig, die vorhandenen Bestände festzustellen und gegebenenfalls Lücken zu schließen. Ziel muss immer sein, möglichst vollständige Bestände digital zur Verfügung zu stellen.
Erste Anlaufstellen dafür sind der Katalog der Zeitschriftendatenbank und die Kataloge (OPACs) der verschiedenen Bibliotheken, die Zeitschriften sammeln. Leider zeigt sich sehr schnell, dass die in den Katalogen zur Verfügung stehenden Informationen nicht immer mit den tatsächlichen Gegebenheiten übereinstimmen.

Eine konkrete Nachfrage (und/oder der Gang ins Archiv) ist also bereits bei der Planung zu empfehlen, außerdem ist zu erfragen, in welcher Weise die Digitalisierung erfolgen kann (Ausleihe der Originale [Papier bzw. Mikrorollfilm] und eigene Digitalisierung oder Digitalisierung durch die fremde Bibliothek) und ob ggf. Kosten entstehen.

Beispiel:

Im Katalog ist angegeben, dass ein bestimmtes Jahr (mit Lücken) vorhanden sei.
Eine Nachfrage und die Prüfung des Bestands im Archiv ergibt, dass tatsächlich nur eine Sondernummer vorhanden ist.

Selbst erlebt!

Dieser erste Schritt erfordert einen erheblichen – nicht zuletzt auch zeitlichen – Aufwand - je nach Umfang kann das einige Monate in Anspruch nehmen, was unbedingt bei der zeitlichen Planung zu berücksichtigen oder bereits in der Vorbereitungsphase zu erledigen ist!


Schritt 2: Metadaten, Speicherung

Die Metadaten gewährleisten die sinnvolle Speicherung und einen zielführenden Zugang zu den zu erzeugenden digitalen Objekten. Folgende Daten sollten erfasst werden:

  • Erforderliche Metadaten:
    • Titel (bzw. ZDB-ID
    • Erscheinungsdatum
    • Ausgabe (Jahrgang, Nummer, Morgen-, Mittags, Abend-Ausgabe, Region, Hauptausgabe oder Beilage …)
    • Seitennummer
  • Weitere Metadaten:
    • Erscheinungsort, -region
    • Genre, Rubrik
    • Verfasser, Bildinformationen (Titel, Fotograf/Künstler, Agentur …)
    • ggf. Anmerkungen (wie z.B. abweichendes/falsches aufgedrucktes Erscheinungsdatum, falsche aufgedruckte Seiten-Nummer …)
    • weitere …

An diesem Punkt der Überlegungen sind die Erfordernisse der Datenhaltung und der geplanten Präsentation zu berücksichtigen. Es ist sinnvoll, auch Daten zu erfassen, die vielleicht (im Moment?) in der Präsentation noch nicht verwendet werden (können) – spätere Erweiterungen einer vorhandenen Datenstruktur sind immer schwierig und vor allem auch fehleranfällig!

In der Praxis hat sich gezeigt, dass folgende Hierarchie der Datenablage tragfähig ist und sich leicht handhaben lässt:

  • ZDB-ID
    • Jahr
      • Monat
        • Tag
          • Sequenznummer (für mehrere Tages-Ausgaben, Beilagen)
            • Datentyp (z.B. Image, Volltext)

Die Dateinamen sollten voll qualifiziert sein und per se eine sinnvolle Sortierung gestatten (ich bin absoluter Verfechter dieser Benennungsmethode!) Damit ist eine eindeutige Zuordnung auch bei möglicherweise falscher Ablage nachträglich möglich. Mir hat das einige Male geholfen – der Mensch macht (leider) schnell Fehler!

[zdb-id]_[jjjj-mm-dd]_[sequenz]_[seite]

Korrespondierende Dateien sollten den gleichen Namen tragen und sich nur durch die Dateiendung unterscheiden. Dabei kann es sinnvoll sein, vom Standard abweichende Dateientdungen zu benutzen, weil z.B. METS- und ALTO-Dateien beide XML-Dateien sind.
Als Datentypen eignen sich (und haben sich etabliert): TIFF bzw. JPEG für die Images, METS/MODS für die Strukturbeschreibung und ALTO für die Volltexte (zur Entscheidung, welches Bildformat Verwendung findet, werde ich im folgenden Abschnitt noch einige Überlegungen beisteuern).

An dieser Stelle sollte auch der benötigte Speicherplatz für das Digitalisierungs-Projekt kalkuliert – und gegebenenfalls Erweiterungen des verfügbaren bestellt! – werden. Aufgrund der zu erwartenden Anzahl an Dateien (Sicherheit wegen z.B. unterschiedlicher Ausgaben-Stärken mit einkalkulieren) ergeben sich die bereit zu stellenden Speichervolumen für:

  • Originalbilder
  • Präsentations-Derivate
  • Strukturdaten (METS/MODS)
  • Volltexte (ALTO) und
  • Werkbank (Größe abhängig vom zu erwartenden Durchsatz).

Alle bisher angesprochenen Überlegungen sollten vor der Beantragung von Geldern möglichst fundiert angestellt werden. Allerdings kann die Bestands-Klärung auch später erfolgen, wenn zunächst nur geschätzt wird, um einen ungefähren Rahmen für alle weiteren Betrachtungen zu haben.


Schritt 3: Digitalisierung, Erzeugung der Bilder

Die Diskussionen darüber, in welchem Datenformat die Original-Bilder abgelegt werden, mutet gelegentlich wie ein „Glaubenskrieg“ an. Von der DFG gibt es die Praxisregeln „Digitalisierung“ und darin unter „1.2 Technische Parameter der digitalen Reproduktion“ folgende Vorgaben:

  • Auflösung von 300 dpi
  • Farbtiefe von 8 Bit pro Kanal, d. h. 24 Bit
  • Speicherung als unkomprimierte Baseline-TIFF-Dateien (auch TIFF-LZW oder JPEG2000 in seiner verlustfreien Form)

Die SBB erhielt für die oben genannten Digitalisierungsprojekte und die Massendigitalisierung vierer Berliner Zeitungen im Rahmen eines EFRE-Projekts die Erlaubnis, die Originale (Master-Digitalisate) im JPEG-Format mit einer Qualität von 95 % zu speichern, denn Untersuchungen vor Ort hatten ergeben, dass bei dieser hohen Qualitäts-Einstellung (also geringer Kompression) auch bei massiver Vergrößerung keine Artefakte in den Bildern entstehen.

Ökonomische Überlegungen lassen kleinere Dateigrößen wichtig erscheinen, da TIFF-Dateien um ein Vielfaches größer sind als JPEG-Dateien (bei 95 % Qualität): Professioneller Speicher ist sowohl in der Anschaffung (z.B. 1 TB: ~14.000 €) als auch im Betrieb teuer! Die beiden nachfolgend angeführten Dateien belegen ~84 MB bzw. ~11 MB.

Trotzdem hält sich hartnäckig sowohl die Forderung nach verlustfreier Speicherung der originalen Bilddateien als auch die Diskussion darüber. Nachfragen meinerseits, welche Auswertungen der Bilder denn diese Forderungen begründen, konnten nicht beantwortet werden. Da die Auswertungsmethoden der Bilderkennung – nicht zuletzt durch den Einsatz von maschinellem Lernen – sich ständig und rasant verbessern, scheint mir diese Forderung nicht mehr zeitgemäß.

Betrachten wir identische Ausschnitte aus einer TIFF- und einer JPEG-Datei und versuchen, Unterschiede zu erkennen:

Da es sich hier natürlich wieder „nur“ um Screenshots handelt, lassen sich die Originaldateien mittels der Links unter den Bildern herunterladen, so dass Interessierte selbst entsprechende Untersuchungen anstellen können.

Anderes Thema, ähnliche Überlegungen:
Bezüglich der Forderungen des Landesdenkmalamts Berlin an die Fotodokumentation denkmalpflegerischer Gutachten habe ich einige Überlegungen und auch Versuche (im Zusammenhang mit einer möglichst guten Wiedergabe der Bilder in den PDFs meiner Datenbank für Denkmalpflege-Projekte) angestellt und in meinem Wiki veröffentlicht.


Schritt 4: Digitalisierung, Erfassung der Metadaten

Im Schritt 2 wurden bereits Überlegungen zu den Metadaten angestellt, aber noch nichts zu deren Erfassung ausgeführt. Bei der Digitalisierung entstehen in der Regel zunächst durchnumerierte Bilddateien. Es ist sinnvoll und empfehlenswert, diese strukturiert abzulegen. Um diese Strukturdaten effektiv erfassen zu können, bietet sich der Einsatz unterstützender Software an.

Im Bibliotheksbereich wird häufig KITODO dafür verwendet, ein Workflow-System, welches genau für diesen Zweck entwickelt wurde. Für die Digitalisierung von Monographien (also Büchern, Handschriften und dergleichen) ist diese auch gut einsetzbar, leider weniger geeignet (Stand: Juni 2025) für die Verarbeitung von Zeitungsdigitalisaten. Das liegt an der viel komplizierteren Struktur derselben und der damit verbundenen sehr viel größeren Zahl an Metadaten (Verlauf), die sich nicht sinnvoll erfassen lassen, wenn sie einzeln festgelegt werden müssen.

Um diese sowohl aufwändige als auch eintönige Arbeit zu vereinfachen und zu beschleunigen, war die Idee, die durchnumerierten Bilder als „Teppich“ anzuzeigen, dann jeweils ein Titelblatt zu markieren und die nötigen Metadaten (Jahrgang, Datum, ggf. Sequenz, Seitennummer) zuzuordnen. Titelblätter von Zeitungen sind in der Regel auch als kleines Bild gut zu erkennen. Ebenso können Dubletten entdeckt und entsprechend gekennzeichnet werden. Anhand der so erzeugten Liste von „Numerierungs-Marken“ kann ein Skript die Benennung der Dateien gemäß der getroffenen Festlegungen (siehe: Schritt 2) umbenennen.

Screenshot Sara

Für den Arbeitsgang der Metadaten-Zuordnung kommt ein PC-Programm zum Einsatz, welches von Ronald Rüdiger in der SBB entwickelt wurde und auf den schönen Namen Sara hört. Auf dem Screenshot erkennt man links den Bereich, in dem die Daten festgelegt werden und rechts die kleinen Bilder der Seiten und oben einen größeren Ausschnitt, damit Datum und Ausgabennummer gelesen werden können. Viele Funktionen des Programms lassen sich mittels der Tastatur bedienen, was flüssiges Arbeiten ermöglicht und damit hohe Effizienz zur Folge hat.

Die Nutzung dieses Verfahrens macht vorbereitende als auch nachfolgende Aktionen notwendig:

  • (automatische) Erzeugung der Vorschaubilder, die in Sara angezeigt werden und
  • (automatische) Abarbeitung der generierten Listen:
    • Originale in die Archivablage kopieren
    • Präsentations-Derivate erzeugen (sofern notwendig)
    • Erfassung der Strukturinformationen in einer Datenbank (für die Navigation).

In der SBB werden beide Aktionen durch nachts ablaufende Skripte realisiert, so dass dafür kein bzw. wenig manuelles Eingreifen notwendig ist. Die Bilder eines gescannten Mikrofilms können also am Folgetag mit Metadaten versorgt werden und am darauf folgenden Tag bereits der Präsentation zur Verfügung stehen (zunächst ohne Volltexte).


Schritt 5: Volltext-Erschließung, OCR

Um den Nutzen digitalisierter Zeitungen noch weiter zu erhöhen (wobei bereits die Bereitstellung der Bilder z.B. für die Forschung einen großen Nutzen darstellt) werden in der Regel auch die Texte in durchsuchbarer Form angeboten. Dazu müssen die Bilder mit OCR (Optical Character Recognition) prozessiert werden. Dies ist ein zeitaufwändiger Verfahrensschritt. Nimmt man nur 30 Sekunden pro Seite an, ergibt sich für 100.000 Seiten bereits mehr als ein Monat Prozesszeit! Wenn dann noch etwas Unvorhergesehenes (wie z.B. ein Hardware-Problem auftritt — leider selbst erlebt!) passiert, ist schnell die Planung obsolet.

Zeitungsseite mit Spalten

Die Erfassung von Zeitungstexten mittels OCR stellt eine weitere Herausforderung dar, da diese – im Gegensatz zu Buchtexten – meist in Spalten gesetzt ist und auch die Lesereihenfolge oft nicht geradlinig ist. Dazu kommt die häufig schlechte Bildqualität. Ein weiteres Problem stellt das Vorkommen verschiedener Schriftschnitte (Fraktur, Antiqua, künstlerische Schriften) dar, weil dadurch kein einheitliches Erkennungsmodell angewandt werden kann bzw. ein sehr leistungsfähiges Modell angewandt werden muss.

Im hier gezeigten Beispiel ist die Seite sowohl horizontal (Spalten) als auch vertikal (Fortsetzungsroman unten) geteilt. Oft wird der Fließtext auch durch Bilder oder Tabellen (diese werden momentan in der Regel noch nicht richtig erkannt) unterbrochen. Eine falsch erkannte Textreihenfolge kann zu drastischer Verschlechterung der Worterkennungsrate führen und verringert außerdem die Trefferquote bei einer späteren Phrasensuche.

Eine manuelle Korrektur solcher Erkennungsfehler ist äußerst aufwendig und damit teuer, deshalb wird sie in den meisten Fällen nicht vorgenommen.

Für diesen Verarbeitungsschritt kann eine Kooperation mit ReadCOOP Innsbruck empfohlen werden. Die Genauigkeit der Texterkennung durch die dort verwendete Software Transkribus ist – bei konkurrenzlos günstigen Kosten – hervorragend!

Selbst für kleinere Projekte oder auch private Vorhaben lohnt sich ein Blick auf das Leistungs- und Preisverzeichnis dieses genossenschaftlich geführten Unternehmens.
Für kleinere Projekte wird auch ein Desktop-Client angeboten.

Die Qualitätskontrolle kann wegen der großen Datenmenge nur anhand von Stichproben durchgeführt werden. Um die Erkennungsraten bewerten zu können, ist ein fehlerfreier Vergleichstext (Ground Truth) erforderlich. Dieser wurde erzeugt, indem die OCR-Ergebnisse mittels Alethia (Stanford University Manchester) fehlerbereinigt wurden. Anschließend wurden die Fehlerraten mittels dinglehopper ermittelt. Diese Software steht im Rahmen des Qurator-Projekts auf GitHub kostenlos zur Verfügung.

Folgende Werte können erwartet werden:

Mittelwert
Median
Betrachtete Objekte
CER1
WER2
CER
WER
Gesamtbestand
0,0173
0,0316
0,0102
0,0174
Mikro-Rollfilm (MR)
0,0170
0,0327
0,0107
0,0189
Papieroriginale
0,0162
0,0240
0,0067
0,0106
Differenz MR / Papier
0,0008
0,0087
0,0040
0,0083

1 CER = character error rate (Zeichen-Fehler-Rate), 2 WER = word error rate (Wort-Fehler-Rate)

Anhand obiger Tabelle ist zu erkennen, dass die Genauigkeit der Zeichenerkennung bei ca. 99 % liegt, die der Worterkennung bei ca. 97 % und dass kein signifikanter Unterschied dieser Werte in Abhängigkeit des Ausgangsmaterials (Papieroriginal oder Mikro-Rollfilm) zu verzeichnen ist.

Die zu verabeitenden Daten wurden per FTP mit dem Dienstleister ausgetauscht, wobei das Hochladen der einzelnen Lose in der Regel mehrere Stunden in Anspruch nahm und gelegentlich auch Abbrüche (Internet-Verbindung) zu beklagen waren. Dank Protokollierung konnte dann jedoch an der Stelle des Abbruchs weitergemacht werden. Der Transfer der Ergebnisse war wegen der viel kleineren Datenmengen deutlich schneller.


Letzter Schritt: Veröffentlichung / Präsentation

Das Ziel aller oben beschriebenen Schritte ist die Bereitstellung der Digitalisate und Volltexte für die Öffentlichkeit. Besonders für Historiker sind Zeitungen eine wertvolle Quelle, wie am Anfang bereits erwähnt wurde. Damit dies alles sinnvoll genutzt werden kann, muss überlegt (oder in Erfahrung gebracht) werden, in welcher Weise sich den Inhalten genähert werden wird. Bei Zeitungen ist natürlich ein Zugang über einen Kalender bestimmt eine sinnvolle Einstiegsmöglichkeit, wobei eine Möglichkeit zur Einschränkung auf einen oder bestimmte Titel den Nutzen erhöhen dürfte. Auch die Eingrenzung einer bestimmten Region wird bei bestimmten Fragestellungen den Zugang erleichtern.
Die nächste Überlegung gilt der Art, wie Bilder und Texte präsentiert werden sollen und ob ggf. eine Anreicherung der Präsentation durch weiterführende Inhalte erfolgen soll. Allerdings erfordern solche Angebote einen hohen Entwicklungs- und auch Wartungsaufwand, so dass die Entscheidung eher für eine fertige Anzeigelösung, wie zum Beispiel den DFG-Viewer getroffen wird.

Diese Überlegungen sind erforderlich, wenn ein eigenes Portal angeboten werden soll, wie zum Beispiel das Zeitungs-Informations-System ZEFYS der SBB. Eine andere (oder auch weitere) Möglichkeit besteht darin, die Digitalisate in übergreifenden Portalen zur Verfügung zu stellen, wie es das Deutsche Zeitungsportal darstellt, ein Angebot der Deutschen Digitalen Bibliothek.

Screenshot Deutsches Zeitungsportal

Hier werden die Digitalisate von unterschiedlichen Datengebern (Bibliotheken, Archiven) unter einer gemeinsamen Oberfläche angeboten. Erkennbar sind hier auch die verschiedenen Möglichkeiten, eine Recherche zu beginnen. Solche übergreifenden Portale haben für den Anwender den Vorteil, dass wahrscheinlich ein breiteres Angebot an Zeitungen zur Verfügung gestellt wird als in einem regionalen Portal. Aber auch für den Betrieb sind solche Angebote von Vorteil — sie bündeln Kompetenz und Resourcen.

Zum Abschluss noch eine Auswahl weiterer regionaler Zeitungsportale:

Viel Spaß beim Stöbern …


zur Übersicht der Beiträge

Sie wollen mir etwas zu diesem Thema mitteilen? Dann schreiben Sie bitte eine Nachricht zu diesem Beitrag.

18 weitere Beiträge:
Künstliche Intelligenz (KI, AI) (22. Juni 2025, akt. 12. April 2026)  •  Balkonkraftwerk (12. Juni 2025, akt. 12. April 2026)  •  Revisionssichere Archivierung (16. Juni 2025, akt. 27. März 2026)  •  Stirbt der gute Manitu? (7. Dezember 2025)  •  Digitale Vorsorge, digitaler Nachlass (5. November 2025)  •  Energiebedarf modernen Lebens (31. Oktober 2025, akt. 4. November 2025)  •  Ist das Internet kostenlos? (4. November 2025)  •  Zwangsbeglückung (7. Juni 2025, akt. 31. Oktober 2025)  •  Erlebnisse in der DDR (14. Juni 2025, akt. 30. Oktober 2025)  •  Mobilfunk und Strahlung – eine Richtigstellung (8. Juni 2025, akt. 29. Oktober 2025)  •  Angriff auf Wordpress (5. Juni 2025, akt. 3. September 2025)  •  Energieversorgung Deutschland (1. August 2025)  •  Datenschutz in Europa (15. Juli 2025)  •  Kennworte (25. Juni 2025)  •  Elektromobilität / Lithiumabbau (21. Juni 2025)  •  Elektrosmog (9. Juni 2025, akt. 10. Juni)  •  Schwibbogenbau (Dezember 2024)  •  Gefahr durch Induktionsherde? (17. Dezember 2024)