Ein KI-generiertes Bild im „heute journal“ wird zum Auslöser einer Debatte über Vertrauen im Journalismus. Der Vorfall zeigt eine strukturelle Verantwortungslücke: KI verändert nicht nur redaktionelle Produktionsprozesse, sondern auch die Bedingungen öffentlicher Wirklichkeitsdeutung. Kennzeichnungspflichten allein greifen zu kurz. Wenn Journalismus seine gemeinwohlorientierte Funktion als verlässliche Infrastruktur öffentlicher Orientierung bewahren will, müssen Redaktionen Verantwortung, Entscheidungswege und Transparenz unter KI-Bedingungen neu organisieren.
Von Leif Kramp und Stephan Weichert
An einem Sonntagabend geschieht im „heute journal“ etwas, das im Grunde seit Monaten absehbar war. Dass es passieren würde, war nur eine Frage der Zeit. Unklar war nur, wen es treffen würde – und wann: Ein Beitrag über die US-Einwanderungsbehörde ICE enthält KI-generierte Bilder – dramatische Szenen, sorgfältig montiert, in sich plausibel. Das Problem ist bloß: Die Kennzeichnung fehlt. Eine weitere TV-Sequenz ist zudem mehrere Jahre alt und stammt aus einem anderen Zusammenhang. Schlimmer hätte es für einen öffentlich-rechtlichen Sender wohl kaum kommen können.
Denn was folgt, ist das vertraute Ritual: erst die Verharmlosung des KI-Sündenfalls als „technische Panne”, dann die öffentliche Entschuldigung durch die ZDF-Chefredaktion, schließlich folgt die Abberufung der verantwortlichen New-York-Korrespondentin Nicola Albrecht. Um den bereits entstandenen Reputationsschaden nicht noch auszuweiten, braucht es ein Bauernopfer.
Der Vorfall entfaltet sofort politische Sprengkraft. Politiker melden sich zu Wort, Kommentatoren warnen vor dem Vertrauensverlust, intern spricht man vom „Glaubwürdigkeits-GAU”. Beim ZDF herrscht dem Vernehmen nach seitdem Ausnahmezustand.
Irrwitzigerweise überdecken die Empörungswellen eine tieferliegende Wahrheit: Der ZDF-Fall ist kein bloßer Regelverstoß. Er legt vielmehr eine strukturelle Verwundbarkeit offen. Die Debatte dreht sich bislang vor allem um Kennzeichnungspflichten, Kontrollmechanismen und redaktionelle Standards.
Auch das ZDF kündigte fast reflexhaft Nachjustierungen an: einen schnell zusammengeklöppelten Maßnahmenkatalog, strengere Verifikationsabläufe, verpflichtende Schulungen. Zugleich verweist der Sender auf einen Grundsatz, der bisher öffentlich gar nicht dokumentiert war: KI-generierte Bilder von Menschen, Ereignissen oder politischen Zusammenhängen seien im Nachrichten-Genre grundsätzlich nicht erlaubt. Ob diese Regel neu formuliert oder bislang nur intern geführt wurde, bleibt unklar.
Klar ist hingegen, dass es sich um kein ZDF-spezifisches Versagen handelt. Das zeigt ein Blick auf die vergangenen zwei Jahre. Die Fälle häufen – und ähneln sich: Ein peinlicher ChatGPT-Prompt bleibt im fertigen „Spiegel“-Artikel stehen, weil niemand mehr gegenliest. „Frankfurter Rundschau“ und „Merkur“ deklarieren eine KI-gestützte Übersetzung einer „Guardian“-Reportage als Eigenleistung. Bei „Business Insider“ und „Wired“ schreibt eine vollständig KI-generierte Persona unter erfundenem Namen Dutzende Artikel – mit teils konstruierten Quellen.
Es werden in Deutschland – anders als in den USA – noch lange keine journalistischen KI-Orgien gefeiert. Aber auch bei uns werden LLMs in den Redaktionen beliebter: Viele Journalisten nutzen die Chatbots inzwischen regelmäßig, aber nur wenige gehen offen damit um, in der Regel wird die ‚KI-fizierung‘ von Inhalten tabuisiert.
Und in vielen Fällen zeigt sich fast immer dasselbe Muster: KI beschleunigt den redaktionellen Produktionsprozess immens, was viele Controller und Verlagsmanager für vorteilhaft halten. In dieser Perspektive erscheint KI vor allem als Effizienzwerkzeug – als etwas, das man beliebig oft einsetzen kann, um Kosten zu senken und Personal einzusparen. Doch genau das greift zu kurz: Denn KI ist längst keine Software mehr, die man wie ein neues Content-Management-System oder Schnittprogramm in bestehende Routinen integriert. Sie ist längst zur Infrastruktur digitaler Wirklichkeitsproduktion geworden, die eigene Kontrollmechanismen erfordert. Und auch neue ethische Regeln.
Mit professionsbezogener Eklektik ist es daher nicht getan, wenn wir den Sinnzusammenhang erhalten wollen, den der unabhängige Journalismus nach wie vor leisten soll. Wer nun aus den bisherigen KI-Fehltritten schlussfolgert, es sei vor allem mit mehr oder eindeutigeren Kennzeichnungspflichten getan, hat die Funktionsweise der KI nicht vollständig erfasst.
Denn sie verändert nicht nur schleichend die Produktionsweisen, unter denen Bilder, Texte und Videos entstehen – sondern ordnet auch die Zusammenhänge neu, welche Inhalte für viele Menschen als ‚wirklich‘ gelten. Trotzdem wird KI vorrangig als Werkzeug diskutiert – als Tool, das man korrekt oder auch falsch einsetzen kann. Und weil synthetische Bilder, Textvorschläge, Avatare oder automatisierte Verdichtungen immer häufiger Einzug in redaktionelle Abläufe halten, ohne dass diese für das Publikum erkennbar sind, bleibt die eigentliche Frage unbeantwortet: Wer trägt die Letztverantwortung – und lässt sich das unter KI-Bedingungen auf lange Sicht noch verlässlich organisieren?
Die Antwort darauf ist keine technische, sondern eine des professionellen Selbstverständnisses. Statt immer neuer Regelwerke braucht es einen verlässlichen Ordnungsrahmen, den man KI-Resilienz nennen könnte – ein Begriff, der keine technische Robustheit meint, sondern die organisationale Urteilskraft unter unsichereren Bedingungen zum Ausgangspunkt erklärt. Das unterscheidet unser Konzept von den meisten KI-Leitlinien, die viele Häuser bereits vorhalten. Leitlinien sollen den Einsatz regeln, so wie ein Kochrezept die Zutaten und die Zubereitung erklärt, bei dem aber viele Köche zu unterschiedlichen Gerichten kommen können.
Ein Resilienz-Framework setzt anders an und leistet deutlich mehr – es regelt Verantwortung, und zwar in struktureller Hinsicht. Das lässt sich in der Redaktion an drei Elementen veranschaulichen. Erstens muss es eine klare Verantwortungszuweisung dort geben, wo KI redaktionelle Entscheidungen vorbereitet oder mitprägt. Beim ZDF wäre die Frage gewesen: Wer hat das Bildmaterial zuerst freigegeben – und nach welchem Recherchestand? Wer hat den Schnitt verantwortet – und möglicherweise weitere Umschnitte? Wer die Vertonung? Wer hat die ZDF-Moderatorin gebrieft? Dass die meisten dieser Fragen erst nach der Panne gestellt wurden, ist das eigentliche Versagen.
Zweitens sollte es transparente Entscheidungswege für ein Publikum geben, das sich inzwischen in einer digitalen Welt zurechtfinden muss, in der Medieninhalte zunehmend ohne erkennbare Beipackzettel zirkulieren. Woher stammt das ursprüngliche Bild? Hat es jemand verifiziert? Wurde bei der Verifikation ein KI-gestütztes Werkzeug eingesetzt? Diese Fragen gehören unseres Erachtens in die Berichterstattung, zumindest für Interessierte in die Kommentare oder Fußnoten. Ein Publikum, das von Tag zu Tag mit immer mehr künstlich erzeugtem „AI Slop“ zugemüllt wird, goutiert meist, ob eine Redaktion auf solche Fragen antwortet.
Drittens braucht es eine offensive Fehlerkultur. Das ZDF löschte den Beitrag (zunächst), entschuldigte sich mehrfach, kündigte Vorkehrungen an, um Ähnliches künftig zu vermeiden. Das ist vor allem Krisenkommunikation. Eine resiliente Redaktion würde den Fehler nicht kleinreden, sondern öffentlich diskutieren: An welcher Stelle hat die Kontrolle versagt? Wie hätte der Fehler im Produktionsprozess vermieden werden können? Was hat die Medienorganisation daraus gelernt, welche strukturellen Verbesserungen gibt es? Erst diese Fähigkeit zur Selbstkritik macht eine Redaktion souverän, weil aus einem Einzelfall wertvolle Lerneffekte für die gesamte Branche gewonnen werden. Auch die Entschuldigung wirkt dann glaubwürdiger.
KI ist kein vorübergehender Trend, sondern eine neue Bedingung. Der Journalismus befindet sich nicht in einer Phase vorübergehender Turbulenz, die bald wieder vorüber ist. Er erlebt durch KI einen digitalen Strukturwandel. Der Clou im Sinne einer resilienten Branche liegt nun darin, die KI nicht ausschließlich als Produktivitätsmaschinerie für den Journalismus oder als Totalbedrohung für die Menschheit zu interpretieren. Sie stellt vielmehr ein akutes Risiko dar – für Medienvertrauen, unser demokratisches Miteinander, aber auch die menschliche Handlungsfähigkeit. Mit jeder synthetischen Sequenz verschiebt sich – oft kaum merklich – die Grenze zwischen Dokumentation und Konstruktion. Für das Publikum bleibt meist unsichtbar, wo menschliches Urteil endet und maschinelle Vorstrukturierung beginnt. Genau dort entsteht eine Verantwortungslücke.
Ein KI-resilientes Medienhaus wartet nicht auf die nächste Panne. Es klärt Zuständigkeiten, dokumentiert Entscheidungswege und macht transparent, wo KI beteiligt ist – nicht als nachträgliche Schadensbegrenzung, sondern als Teil professioneller Selbstvergewisserung. Es erklärt, wie es arbeitet, bevor es sich erklären muss. Journalismus hat nie von technischer Überlegenheit gelebt, sondern von nachvollziehbarer Verantwortung. Es ist die älteste Anforderung des Metiers – unter KI-Bedingungen nur dringlicher denn je.

Whitepaper: KI-Resilienz im Journalismus: Framework und Handlungsempfehlungen für mehr Vertrauen, Verantwortung und digitale Souveränität
Das Whitepaper von Dr. Leif Kramp und Dr. Stephan Weichert versucht, die aktuelle KI-Debatte aus einer neuen, systemischen Perspektive zu betrachten. Statt über Tools oder Risiken zu sprechen, rückt die Studie die strukturelle Frage in den Mittelpunkt: Wie bleibt Journalismus unter KI-Bedingungen resilient, vertrauenswürdig und gesellschaftlich relevant?
Die Autoren entwickeln ein neues KI-Resilienz-Framework für Redaktionen mit sieben zentralen Handlungsfeldern – von strategischer Orientierung über Organisation und Kompetenzen bis hin zu Transparenz, Ethik und Publikumsbeziehungen.
Die Publikation gibt es hier zum kostenlosen Download: https://ki-resilienz.digitale-resilienz.org
Bildnachweise: DALL-E / VOCER-Institut für Digitale Resilienz
Dr. Leif Kramp

Foto: Beate C. Koehler
Dr. Stephan Weichert

Dr. Stephan Weichert ist Medienwissenschaftler und Publizist. Seit 2020 leitet er das gemeinnützige VOCER-Institut für Digitale Resilienz, einen gemeinnützigen Think & Do Tank, der sich für einen souveränen Umgang von digitaler Technologie im Journalismus einsetzt. Weichert arbeitet seit über 25 Jahren als Dozent und Lehrbeauftragter (TU Dortmund, City University of New York und FH Graz). Zuvor lehrte er als Professor für Digitalen Journalismus an der Macromedia University, der Hamburg Media School sowie als Gastprofessor an der Universität der Künste in Berlin. Der Medienexperte engagiert sich in zahlreichen Verbänden und Jurys; aktuell ist er Beirat im „Forum für gemeinnützigen Journalismus“. Für seine Arbeit wurde er mit dem „Medienethik Award“ ausgezeichnet.
Foto: Martin Kunze
Forum & Debatte
Was macht gemeinnützigen Journalismus aus? Warum braucht es ihn? Wie können seine wirtschaftlichen und juristischen Rahmenbedingungen verbessert werden? Was macht seine gesellschaftliche Akzeptanz aus? In dieser Rubrik bieten wir Gastautor:innen ein offenes Forum für einordnende Debattenbeiträge, Essays, Berichte und Interviews. Die unterschiedlichen Sichtweisen, Positionen und Perspektiven sollen die Debatte über die Sinnhaftigkeit und die Zielsetzungen des gemeinnützigen Journalismus in Deutschland beleben. Es handelt sich um einordnende Gastbeiträge, deren Auswahl durch die NPJ.news-Redaktion erfolgt, die aber nicht zwingend die Meinung der Redaktion wiedergeben.







