- KI-generierte Bilder zum Holocaust sind oft täuschend echt, aber keine historischen Dokumente – sie untergraben die Beweiskraft echter Quellen.
- Plattform-Logiken verstärken die Verbreitung; teilweise wird mit solchen Inhalten Geld verdient.
- Die Masse an „AI Slop“ verzerrt Wahrnehmung und Erinnerung – kritische Prüfung wird zentral.
Ein Mann, abgemagert bis auf die Knochen, kahlrasierter Schädel, Stacheldraht in Hintergrund. Das schwarz-weiße Bild soll einen Gefangenen in einem Konzentrationslager während des Nationalsozialismus zeigen. Aber: Dieses Bild ist keine Fotografie. Es wurde mit künstlicher Intelligenz gemacht. Auch den gezeigten Mann gibt es nicht.
Trotzdem kursiert es wie viel andere auf den algorithmischen Plattformen, wird geliked, geteilt und kommentiert auf Instagram, Facebook, TikTok. Was viele nicht wissen, die mit diesen Inhalten interagieren und damit für eine noch weitere Verbreitung sorgen: Einige der Menschen, die diese Deep Fakes veröffentlichen, verdienen mit dem Leid der damals Verfolgten Geld. Zum Beispiel, weil vor einem Video Werbung geschaltet wird. In diesen Fällen verdienen auch die kommerziellen sozialen Plattformen mit. Darum haben sie auch kein Interesse, solche Inhalte zu unterbinden.
Scheinbar dokumentarische Bilder
Nun kann man sagen: Mit Büchern und Spielfilmen über den Nationalsozialismus wird auch Geld verdient. Das stimmt natürlich. Wenn ich aber einen Roman lese oder einen Spielfilm sehe, habe ich nicht die Anforderung an den Inhalt, dass er der Realität entspricht. Bei den Deep Fakes ist das Problem, dass sie wie eine Fotodokumentation aussehen, aber genau das nicht sind. Wenn gefälschte Bilder wie Fotos wirken, verlieren echte Dokumente an Beweiskraft. So ist es übrigens auch bei Texten.
Hinzu kommt die Flut an entsprechenden Inhalten, AI Slop genannt, also Schrott oder Abfall. Dabei generieren KI-Systeme Bilder auf Basis von Trainingsdaten – und reproduzieren dabei häufig Stereotype, Klischees und Vereinfachungen. Was durch KI entsteht, entspricht eben nicht der historischen Realität, sondern einer algorithmischen Vorstellung davon. Je mehr dieser Bilder im Internet frei verfügbar sind und wieder in das Training der KI-Tools einfließen, desto eher ändert sich die Wahrnehmung der Rezipient*innen. So werden über kurz oder lang Dinge falsch erinnert werden. Die Rede ist hier häufig von der „Ästhetik des digitalen Faschismus“.
KI-generierte Bilder legen sich als AI-Slop als Schicht über wichtige Informationen
Gleichzeitig führt die AI-Slop-Schwemme dazu, dass wirklich wichtige Informationen beispielsweise aus dem Journalismus oder der Politik nicht mehr wahrgenommen werden. Und es kommen Zweifel auf: Was kann ich noch glauben? „Das könnte ja auch KI sein“ in Bezug auf authentische Zeitzeugnisse der Geschichte stellt den gesellschaftlichen Diskurs, das Allgemeinwissen infrage.
Man könnte eventuell erkennen, dass die Bilder KI-generiert sind. Die Deutsche Welle macht in einem Video https://www.dw.com/de/ki-fakes-zum-holocaust-verf%C3%A4lschen-geschichte/video-77005626 zum Thema beispielsweise darauf aufmerksam, dass die Geige des abgemagerten Mannes zu wenig Saiten hat und dass die Kleidung nicht der von ehemaligen KZ-Häftlingen entspricht. Aber wer nimmt sich die Zeit, so genau hinzusehen? Und wer hat das nötige Wissen, um diese Fehler als solche zu erkennen?
Schließlich gibt es auch Menschen, die bewusst diese Inhalte teilen. Denn es gibt gesellschaftliche Akteur*innen, die KI-Fakes nutzen, um Narrative zu verschieben, Empathie zu instrumentalisieren oder Verharmlosung salonfähig zu machen.
KI und Multimedia: Audio, Video, Bild (PDF)
Praxisnaher Leitfaden für Medienschaffende, die mit KI Bilder, Videos und Audio erstellen oder visualisieren möchten. Das PDF erklärt wichtige Tools, zeigt konkrete Anwendungsbeispiele und enthält Prompts sowie Übungen für den direkten Einsatz im Arbeitsalltag.
Was wir tun können
- Innehalten, bevor wir liken, teilen, kommentieren. Ist das Bild oder Video wirklich historisch? Woher kommt es? Gibt es eine Quellenangabe? Wer unsicher ist, sollte nicht darauf reagieren.
- Umgekehrte Bildersuche nutzen. Tools wie Google Lens oder TinEye nutzt, kann eventuell die Herkunft des Bildes überprüfen.
- Gedenkstätten und Bildungseinrichtungen folgen. Wer echte historische Quellen kennt, erkennt Fälschungen leichter.
- Melden. Auf jeder Plattform gibt es die Möglichkeit, irreführende Inhalte zu melden – und das sollte auch genutzt werden.
- Medienkompetenz fördern – bei Kindern, Jugendlichen, aber auch bei Erwachsenen.
Zum Weiterlesen und -schauen sowie zum Folgen
- Video bei der Deutschen Welle
- Steffen Jost, Head of Digital and Publishing at the Jewish Museum Berlin
- Anne Frank Video Tagebuch
- Survivor Stories
- Lediz
- Young again, never again
Hinweis:
Ich hatte in meinem WhatsApp-Kanal über drei Themen abstimmen lassen. Dieses bekam die meisten Stimmen. Die beiden anderen Themen werde ich in den kommenden Wochen aufarbeiten.
Kurz und knapp
Es gibt keine sichere Anleitung. Hinweise sind unlogische Details (falsche Kleidung, unpassende Objekte), anatomische Fehler oder inkonsistente Schatten. Verlässlicher ist die Kontextprüfung: Gibt es eine nachvollziehbare Quelle, Archivangaben oder eine bekannte Urheberschaft? Eine umgekehrte Bildersuche (z. B. mit Google Lens oder TinEye) kann helfen, frühere Verwendungen zu finden.
Weil sie wie Fotodokumente wirken. Dadurch verschwimmen Grenzen zwischen Fiktion und Beleg. Das schwächt die Autorität echter historischer Aufnahmen und kann langfristig die kollektive Erinnerung verzerren – ein zentrales Problem in der Geschichtskommunikation.
Algorithmen bevorzugen Inhalte mit hoher Interaktion. Emotional aufgeladene Bilder – auch Fakes – verbreiten sich schneller. Wenn vor oder neben solchen Inhalten Werbung läuft, entsteht ein ökonomischer Anreiz. Das senkt die Motivation, problematische Inhalte konsequent zu begrenzen.


