Die globale KI-Debatte pendelt sich zwischen Heilsversprechen und Kontrollverlust ein – und offenbart weniger über das Algorithmen-Gefängnis als über die Urängste und Sehnsüchte unserer Gesellschaft. Es gibt ein Leben nach der KI – aber nur, wenn wir Medien uns publizistisch behaupten.
Von Stephan Weichert
Es ist gerade zwei Jahrzehnte her, da verblüffte das US- Prognosegenie Ray Kurzweil mit einer für die damaligen Verhältnisse waghalsigen, in der breiten Öffentlichkeit kaum wahrgenommenen These: In „The Singularity is Near“ verkündete er, dass bis spätestens 2045 der große „Showdown“ stattfinden werde – ein gesellschaftlicher Wendepunkt, an dem eine synthetisch erzeugte Intelligenz milliardenfach klüger sein würde als ihre biologischen Schöpfer. Für Kurzweil war das keine New-Age-Spinnerei, sondern schlicht das Ergebnis exponentiellen Wachstums von Rechenleistung, Nanotechnologie und Robotik. „Wir werden uns mit nicht-biologischer Intelligenz vermischen“, sagte Kurzweil damals dem SPIEGEL.
Inzwischen dünkt einen, dass dieser mathematische Futurismus womöglich früher eintrifft, als ihn selbst die tollkühnsten Utopisten erwarteten. Kurzweils Vorhersagen zur Weiterentwicklung der KI haben sich überraschend schnell bewahrheitet. In „The Singularity is Nearer“ (2024), dem Sequel der Tech-Bibel von 2005, erklärt der „Director of Engineering“ von Google, warum seine Vorhersagen längst keine Zukunftsmusik mehr sind. Seit den großen Sprachmodellen ab GPT-4 befänden wir uns längst im „Endspurt“ in die Singularität: Smartphones, LLMs, Genetik – das seien für ihn überfällige Wegmarken der Verschmelzung von Mensch und Maschine.
Dass diese „Singularität“ im Valley längst als gängige Praxis gilt und einen realen geistespolitischen Nährboden liefert, zeigt sich nicht nur an Kurzweils Büchern: Bereits 2008 gründete er mit Peter Diamandis im NASA Ames Research Park, nahe der Alphabet-Zentrale „Googleplex“, die „Singularity University“, einen gewaltigen Campus aus Glas, Stahl und Beton, der von weitem wie ein gestrandetes Spaceship aus einem Christopher-Nolan-Film wirkt. Die von der Tech-Industrie durchgesponserte Bildungsstätte verleiht keine akademischen Abschlüsse – bietet aber immerhin Executive Programme mit schicken Verkaufs-Slogans mit einwöchigen Kursen für 15.900 Dollar Euro an.
Auf dieser Kathedrale des kalifornischen Transhumanismus baut nun die internationale Geldaristokratie ihren Technikaltar – und zelebriert die Weltenrettung. Sie steht sinnbildlich für das Grundmuster des überhitzten KI-Diskurses. In diesem Kulturkampf spiegeln sich weniger der technologische Fortschritt als vielmehr unsere kollektiven Sehnsüchte und Urängste. Wer die Debatte um KI verstehen will, muss in diese Scheinwelt zwischen institutionalisierten Erlösungsfantasien und Technohysterie eintauchen.
Schizophren anmutende Narrative
Seit geraumer Zeit geistert nun die Idee einer „Menschheit 2.0“ – jenseits von Sterblichkeit, Schmerz und geistiger Begrenztheit – umher, viele aus der Gründerriege des amerikanischen Tech-Imperialismus benutzen sie als Glaubensdogma. Der frühere Google-Chef Eric Schmidt etwa lässt keine Gelegenheit verstreichen, um zu betonen, dass KI „underhyped“ sei: Er hält das künftige Leben mit KI für genauso selbstverständlich wie das menschliche Dasein selbst.
Parallel dazu preisen die Big-Tech-Bosse ihre KI-Produkte als Alleskönner, nur um im gleichen Atemzug vor deren Risiken zu warnen. Sam Altman (OpenAI) etwa, dem Mathias Döpfner stolz den Axel-Springer-Award erst kürzlich in Berlin überreichte, spricht von Seelenheil und beschwört im nächsten Satz den Untergang der Schöpfung. Tim Cook (Apple) inszeniert „Apple Intelligence“ als digitale Erlösung, warnt jedoch vor einem globalen Datenschutz-Desaster. Mark Zuckerberg (Meta) lässt seine neuesten LLaMA-Modelle auf die Menschheit los, nur um sie anderntags als trojanische Pferde zu brandmarken. Und Mustafa Suleyman (Microsoft) hat mit „The Coming Wave“ letztes Jahr einen Branchenbestseller verfasst, der sich liest wie das Drehbuch einer postapokalyptischen Netflix-Serie – eine Erde bevölkert von Menschen, die sich wie willenlose Zombies dem übermächtigen KI-Kult unterwerfen.
Diese schizophren anmutenden Narrative der Vorreiter der KI-Apokalypse sind längst zum einträglichen Geschäftsmodell geworden: Die KI-Industrie verkauft Angst und Erlösung im Doppelpack – und verwandelt den Countdown zur eigenen Gottwerdung in ein Spektakel globaler Selbstvermarktung. Dazwischen bleibt kaum noch Raum für Nüchternheit, nämlich dort, wo unsere Fähigkeit zur Selbstbehauptung im digitalen Zeitalter verläuft: entlang der Grauzone zwischen Euphorie und Dystopie.
Denn spätestens hier lohnt der Blick auf die eigene Handlungsfähigkeit, auf ein Konzept, das ich KI-Resilienz nenne: eine Haltung, die weder in Technikgläubigkeit noch in Zukunftsangst gipfelt. Sie beschreibt die Fähigkeit, inmitten der digitalen Umbrüche handlungsfähig, kritisch und menschlich zu bleiben.
Ja, wir erleben eine Epoche, in der sich gesellschaftliche Macht, ökonomische Interessen und existentielle Sinnsuche aufs Merkwürdigste überlagern. KI ist aber nicht allmächtige Technologie, sondern vielmehr Projektionsfläche – für die einen mit der Hoffnung auf Unsterblichkeit verbunden, für die anderen mit der Furcht vor dem Ende unserer Existenz. In dieser emotional aufgeladenen Gemengelage verschwimmt, was real ist mit dem, was wir zu glauben hoffen oder zu fürchten gelernt haben. Damit wir ins Handeln kommen sollten wir uns schleunigst aus dieser Schockstarre befreien.
Das Imperium der KI
Dies sind keine unbilligen Wünsche. Denn vieles, was die Schattenseiten des KI-Zeitalters betrifft, spielt sich unweigerlich in den USA ab – in jenem Land, das technologische Heilslehren so routiniert abspult wie Fast Food. So kämpft ausgerechnet die New York Times, einst das Flaggschiff des Liberalismus, heute an vorderster Front gegen die Vereinnahmung durch KI. Ende 2023 verklagte sie OpenAI wegen Urheberrechtsverletzungen – ein symbolträchtiger Versuch, ihren Journalismus gegen die Ausbeutung durch maschinelles Lernen zu verteidigen.
Dieser noch andauernde Rechtsstreit ist genügend Beweis dafür, wo die Grenze zwischen öffentlicher Hysterie und politischer Einflussnahme verläuft: KI wirkt wie ein Brandbeschleuniger in einer ohnehin überhitzten Medienökologie, in der Macht und Meinung, Kontrolle und Anarchie zum toxischen Amalgam werden. Generative KI, so hat es der Medienforscher Martin Andree treffend formuliert, sei „nur die letzte Stufe einer in sich konsistenten Entwicklung, die durch unsere massive Fehlregulierung des digitalen Raums überhaupt erst möglich wurde – und die nun die Grundpfeiler von Journalismus und Demokratie infrage stellt“.
Was hierbei auf dem Spiel steht, ist also nichts weniger als die Resilienz unserer Demokratie. Denn während in Washington die freiheitliche Presse im Gerichtssaal verhandelt wird, entlarvt die Ex-Journalistin („Wall Street Journal“) Karen Hao das wahre Machtzentrum im Silicon Valley – die KI-Industrie selbst. In ihrem jüngsten Buch „Empire of AI“ (2025) rechnet sie schonungslos mit den Big-Tech-Eliten ab: KI, so Hao, sei weder künstlich noch intelligent, sondern ein „imperiales Projekt“, vorangetrieben von einer kleinen, einflussreichen Clique. Sie beschreibt bis ins Kleinste, wie OpenAI und andere KI-Player Ressourcen und Daten ausbeuten, Content-Moderation in den Globalen Süden auslagern und mit Serverfarmen gewaltige ökologische Verwerfungen verursachen.
Resilienz journalistischer Arbeit
Offenkundig verschärft die KI-Revolution die Lage zusehends: Immer mehr Menschen fragen ChatGPT, statt verlässliche journalistische Quellen zu konsultieren. Es sieht so aus, als würden wir in weniger als fünf Jahren eine digitale Gesellschaft erleben, die sich grundlegend von der heutigen unterscheidet. Aber was bedeutet das für Redaktionen und Medien? Dass es umso wichtiger ist, journalistische Qualitätsarbeit sichtbarer, resilienter zu machen – damit sie nicht verschwindet. Denn aus der opaken Funktionsweise von KI erwachsen Folgen, die unsere demokratischen Grundfesten erschüttern.
Dabei entstehen auch neue Abhängigkeiten – mentale wie professionelle. Generative KI schafft kognitive Bequemlichkeitszonen, in denen das mühsame Geschäft der Recherche und Reflexion zunehmend ausgelagert wird. Zwischen Mensch und Maschine entsteht zugleich ein paradoxes Vertrauensverhältnis: Weil die Systeme schnell, höflich und scheinbar neutral reagieren, entwickeln wir emotionale Bindungen, die im Moment technischer Fehler in Frustration oder Hilflosigkeit umschlagen.
Die Logik der Plattformen verschiebt sich von Eyeball-Attention zu emotionaler Vereinnahmung. Das Wettrennen um Engagement ist längst ein „Wettrennen um Intimität“ (sagt der Digitalethiker Tristan Harris in diesem sehr sehenswerten Ted Talk auf YouTube), bei dem der eigentliche Gegner nicht mehr andere Medien sind – sondern unser Schlaf, der Zweifel, die menschlichen Freunde. „KI-Freundinnen“ und sogar „KI-Liebe“ sind inzwischen so real wie „KI-Therapeuten“ – und gefährlich: Sie trösten, verstärken aber auch Einsamkeit und Suizidalität. KI ahmt parasoziale Beziehungen so gut nach, dass Vertrauen zum knappen Gut digitaler Selbstbespiegelung wird.
Hinzu kommt die Wahrheitstäuschung: Was aus der Black Box KI stammt, erscheint glaubwürdig, weil es den Anschein von Objektivität wahrt. Wahrheit wird so zur Wahrscheinlichkeitsrechnung, die sich als Gewissheit tarnt. Und je häufiger wir die Maschine befragen, desto stärker tritt die Kulturtechnik des Zweifelns in den Hintergrund: das Prüfen, Abwägen, Kontextualisieren. „Medienkompetenz“, dereinst als pädagogische Maßnahme gegen Medienmanipulation ersonnen, wird ihre Grundlage entzogen.
Die öffentliche Sprengkraft der KI-Systeme
Der aktuelle Konflikt um das Für und Wider von KI ist also kein Exotenthema von Techno-Nerds mehr. Sondern vielfältiger Projektionsraum für Ängste, Sehnsüchte und Hoffnungen. Die eigentliche Sprengkraft der KI liegt nicht in den düsteren Visionen der „Tech-Bros“, sondern darin, dass die KI schleichend in unsere Mediennutzung einsickert. Während Kurzweil, Altman und Co. den übermenschlichen Cyborg propagieren, sieht die Realität in deutschen Medienhäusern, auf die es jetzt ankäme, vergleichsweise bieder aus: Wer bekommt Zugang zur KI? Wer darf experimentieren, mit welchen Daten?
Utopien zerbröseln schnell an Sicherheitsprotokollen, Betriebsratsvereinbarungen, unübersichtlichen Regelwerken. In manchen Redaktionen werden Prompts wie Geheimrezepte gehütet, als ginge es um Betriebsgeheimnisse; anderswo sperrt man die Tools gleich ganz weg, aus Angst vor Datenlecks oder Urheberrechtsverstößen. So entstehen Informationsasymmetrien im Inneren der Organisationen mit Folgen: Während das Management die goldene Zukunft beschwört, stolpern die unteren Etagen durch halbgare Experimente – desorientiert, ängstlich vor dem Verlust des eigenen Jobs.
Und draußen, im Netz, da verschiebt sich das Machtgefüge aufs Tragischste. Mit dem Aufstieg der sogenannten „Google Zero“-Suche, bei der Antworten direkt aus den KI-Systemen generiert werden, ohne dass jemand mehr auf die Originalquelle klickt, droht der weitverbreitete Linkjournalismus zu kollabieren. Wenn die Maschine den Umweg über den Journalismus erspart, verlieren Medien nicht nur Reichweite – sondern auch ihre ökonomische Grundlage.
Wer also von „Superintelligenz“ schwärmt, verwechselt technologische Beschleunigung mit einer Projektion tiefsitzender Urängste und Sehnsüchte in eine Maschine, die weder Bewusstsein hat noch Gefühle kennt. Man könnte sagen: Es gibt eigentlich keine „künstliche Intelligenz“, solange sie auf statistischer Wahrscheinlichkeit, menschlicher Kreativität, Daten und Energie beruht. KI ist, präziser ausgedrückt, nur ein Werkzeug, das unsere gesellschaftlichen Stärken und Schwächen schamlos ausnutzt.
Journalismus first, KI second
Im Journalismus zeigt sich das mit tragischer Klarheit. Die Branche, ohnehin angeschlagen durch ökonomische Schieflage, Vertrauensverluste und den permanenten Strukturwandel, reagiert auf KI wie auf jede neue Welle: mit Misstrauen, halben Experimenten, ohne klare Strategie. Doch was im ersten Moment wie Vorsicht wirkt, könnte sich als demokratietheoretischer Bumerang erweisen. Denn wenn Redaktionen nicht offensiv markieren, wer die Verantwortung trägt, und welche Grenzen gezogen werden, wird das Feld den Plattformen und Konzernen überlassen – und damit jenen Kräften, die in unserer Mediennutzung ausschließlich Dollarzeichen sehen.
KI-Resilienz heißt daher keinesfalls, möglichst viele Tools bedienen zu können, sondern die Kompetenz des Zweifelns zu stärken: Was zeigt mir die Maschine – und was verschweigt sie? Wo endet die Statistik, wo beginnt die Interpretation? Wer den kritischen Umgang mit KI einübt, verteidigt aber nicht nur journalistische Standards, sondern stärkt auch seine digitale Souveränität. Für eine „Responsible AI“ sollten wir nicht erst einen neuen Relotius-Skandal unter KI-Vorzeichen abwarten. Wir müssen jetzt Transparenzregeln, Nutzungskennzeichnungen und klare rote Linien formulieren nach dem Motto: Journalismus first, KI second.
Gibt es ein Leben nach der KI? Ja – aber nur, wenn wir uns (endlich) von der Illusion lösen, KI sei eine Naturgewalt. Denn die durch sie erzeugten Assoziationstsunamis spiegeln vor allem politische Interessen und Kapitalströme. Wer sie „intelligent“ nennt, verklärt sie. Das Leben nach der KI beginnt dort, wo wir sie als das begreifen, was sie ist und was nicht: weder Heilsversprechen noch Weltuntergang, sondern ein Kampfplatz um Deutungshoheit, Öffentlichkeit und Demokratie. Dorthin gehört die KI-Debatte – dorthin sollten wir sie jetzt führen.
Der Beitrag ist in einer kürzeren Version zuvor in der taz vom 22. Oktober 2025 erschienen.

Bildnachweise: AITOMIC DREAMSCAPES © 2025-2026 Stephan Weichert / VOCER-Institut für Digitale Resilienz
Dr. Stephan Weichert

Dr. Stephan Weichert ist Medienwissenschaftler und Publizist. Seit 2020 leitet er das gemeinnützige VOCER-Institut für Digitale Resilienz, einen gemeinnützigen Think & Do Tank, der sich für einen souveränen Umgang von digitaler Technologie im Journalismus einsetzt. Weichert arbeitet seit über 25 Jahren als Dozent und Lehrbeauftragter (TU Dortmund, City University of New York und FH Graz). Zuvor lehrte er als Professor für Digitalen Journalismus an der Macromedia University, der Hamburg Media School sowie als Gastprofessor an der Universität der Künste in Berlin. Der Medienexperte engagiert sich in zahlreichen Verbänden und Jurys; aktuell ist er Beirat im „Forum für gemeinnützigen Journalismus“. Für seine Arbeit wurde er mit dem „Medienethik Award“ ausgezeichnet.
Fotos: VOCER-Institut/ Martin Kunze
Forum & Debatte
Was macht gemeinnützigen Journalismus aus? Warum braucht es ihn? Wie können seine wirtschaftlichen und juristischen Rahmenbedingungen verbessert werden? Was macht seine gesellschaftliche Akzeptanz aus? In dieser Rubrik bieten wir Gastautor:innen ein offenes Forum für einordnende Debattenbeiträge, Essays, Berichte und Interviews. Die unterschiedlichen Sichtweisen, Positionen und Perspektiven sollen die Debatte über die Sinnhaftigkeit und die Zielsetzungen des gemeinnützigen Journalismus in Deutschland beleben. Es handelt sich um einordnende Gastbeiträge, deren Auswahl durch die NPJ.news-Redaktion erfolgt, die aber nicht zwingend die Meinung der Redaktion wiedergeben.







