Zwischen Desinformation und Nachrichtenmangel: Informationskrise der digitalen Öffentlichkeit

Was steckt hinter Deepfakes, Verzerrung und News-Deprivation?

Es gibt Diagnosen, die so oft wiederholt werden, dass ihre Wiederholung selbst zum Beweis ihrer Richtigkeit wird. Die Rede von der Desinformation ist im Grunde selbst eine solche. Kaum ein Begriff hat in den vergangenen Jahren ähnlich viel Aufmerksamkeit erhalten – in Leitartikeln und Regierungserklärungen, in wissenschaftlichen Konferenztiteln und medienpolitischen Strategiepapieren, in den Selbstbeschreibungen von Faktencheck-Initiativen und den Pressemitteilungen von Plattformkonzernen, die erklären, wie entschieden sie das Problem bekämpfen.

Das World Economic Forum stufte Desinformation in seinem Global Risks Report 2024 als das größte globale Risiko ein – noch vor Klimawandel, geopolitischen Konflikten und wirtschaftlicher Instabilität (WEF 2024). Die Europäische Union hat mit dem Digital Services Act und dem AI Act eigene Regulierungsarchitekturen errichtet. Nationale Medienanstalten haben Monitoring-Einheiten eingesetzt. Stiftungen fördern Faktenchecks in industriellem Maßstab. Zudem wurden Lehrstühle gegründet, Fachzeitschriften lanciert und Förderprogramme aufgelegt. Der Desinformationsdiskurs ist längst selbst eine Infrastruktur – mit eigenen Institutionen, Förderlogiken, Karrierepfaden, Konferenzen und einem Arsenal an Begriffen, die den Phänomenbereich immer weiter ausdifferenzieren: Misinformation, Des- oder Disinformation, Malinformation, Influence Operations oder Computational Propaganda.

Desinformation ist nachweislich ein Risiko demokratischer Öffentlichkeit und nimmt Erscheinungsformen an, die an Reichweite und Raffinesse gewinnen. Die dringliche Frage ist: Erfassen wir das Phänomen in seiner vollen Breite – und blenden wir dabei andere, strukturell ebenso schwerwiegende Gefährdungen stabiler Öffentlichkeiten systematisch aus? Desinformation ist real, und sie ist nicht das einzige Symptom einer tieferen Krise unserer modernen Informationsgesellschaft. Die Herausforderung liegt darin, ihre Krisenphänomene zu erfassen, die sich gegenseitig verstärken und überlagern.

Ein Beitrag des Wissenschaftsportals defacto hat diese Frage im April 2026 mit ungewohnter analytischer Schärfe formuliert und dabei ein Gegenkonzept in den Vordergrund gerückt, das im öffentlichen Diskurs bisher wenig thematisiert wurde: News-Deprivation – gemeint ist die zunehmende Abkehr und Unterversorgung weiter Bevölkerungsteile mit Nachrichten überhaupt. Dies betrifft somit nicht allein die Frage, welche Informationen Menschen aufnehmen, sondern ob sie überhaupt noch welche aufnehmen (defacto 2026). Die These ist provokant, jedoch nicht unbegründet. Sie verdient eine ernsthafte Auseinandersetzung – nicht jedoch als Widerlegung des bestehenden Desinformationsproblems, sondern als dessen dringliche Ergänzung.

Zunehmende Abkehr und Vermeidung von Nachrichten

Der Reuters Institute Digital News Report, die weltweit umfassendste jährliche Studie zur Nachrichtennutzung mit Datenbasis aus mittlerweile 48 Ländern und fast 100.000 Befragten, dokumentiert seit Jahren einen eindrücklichen Trend: Der Anteil derjenigen, die Nachrichten aktiv zu vermeiden versuchen, steigt kontinuierlich und beschleunigt sich. In Deutschland gaben 2024 bereits 69 Prozent der erwachsenen Internetnutzer:innen an, Nachrichten mindestens gelegentlich aktiv zu vermeiden – ein Anstieg von vier Prozentpunkten gegenüber dem Vorjahr, der 2025 mit 71 Prozent eine neue Rekordmarke erreichte (Behre et al. 2025; Leibniz-HBI 2024). 41 Prozent der Befragten fühlen sich von der Menge verfügbarer Nachrichten erschöpft – ein Wert, der 2019 noch bei 26 Prozent lag. In der jüngsten Altersgruppe empfindet mittlerweile jede:r Zweite diese Erschöpfung. Und die international vergleichende Perspektive verstärkt den Befund: Weltweit vermeiden 39 Prozent der Befragten Nachrichten manchmal oder oft – zehn Prozentpunkte mehr als 2017 (Newman et al. 2024). Der Rückgang ist in fast jedem Land zu beobachten, besonders stark in Spanien, Brasilien, Deutschland und Finnland.

Das sind keine Randnotizen. Das sind Zeichen eines gesellschaftlichen Rückzugs aus dem Informationsraum, der in seiner Breite und Beschleunigung bemerkenswert ist – und der sich nicht allein durch individuelle Präferenzen erklären lässt. Menschen vermeiden Nachrichten nicht in erster Linie, weil sie nicht erkennen können, was wahr ist. Die Motivationslage ist offenbar eine andere: Sie vermeiden sie häufiger, weil die permanente Konfrontation mit Kriegen, Krisen und Katastrophen emotional überwältigt, weil die gefühlte Handlungsohnmacht wächst, weil die Dauerbeschallung des Alltags nicht mehr als Orientierung erlebt wird, sondern als Last. Als wichtigsten Grund für Nachrichtenvermeidung nennen 48 Prozent der Deutschen die negativen Auswirkungen auf die eigene Stimmung; 39 Prozent empfinden schlicht zu viel über Kriege und Konflikte berichtet – und fühlen sich von der Nachrichtenmenge erschöpft (Behre et al. 2025). Das ist kein bloßer Rückzug aus Gleichgültigkeit. Es ist oft ein Rückzug aus Überforderung, Reizüberflutung und Selbstschutz. Und er hat strukturelle Konsequenzen, die weit über individuelle Wellnessentscheidungen hinausgehen.

Denn das Desinformationsnarrativ setzt implizit voraus, dass Menschen Nachrichten konsumieren, dabei falsche Informationen aufnehmen und dadurch in ihren Überzeugungen fehlgeleitet werden. Das Gegenmodell, das sich aus den Reuters-Daten aufdrängt, verschiebt diese Perspektive: Ein wachsender Teil der Bevölkerung verlässt den Informationsraum nicht durch den falschen Eingang – er verlässt ihn überhaupt. Welche Falschinformationen erreichen jemanden, der praktisch keine Nachrichten mehr liest? Welche Demokratiegefährdung geht von diesem Problem aus, dass immer mehr Menschen aus dem öffentlichen Diskurs aussteigen, bevor sie überhaupt auf potenzielle Desinformation in Nachrichten stoßen? Diese Frage ist nicht bloß rhetorischer Art. Sie verweist auf Informationskrisen demokratischer Öffentlichkeit, die gemeinsam betrachtet werden müssen.

Hier liegt ein epistemisches Grundproblem, das für das Verständnis des Desinformationsdiskurses entscheidend ist. Desinformation ist, strukturell gesehen, ein vergleichsweise besser messbares Phänomen. Bestimmte Inhalte lassen sich identifizieren, nach Merkmalen klassifizieren, in ihrer Verbreitung tracken. Es gibt „Faktenchecker“ mit etablierten Methoden, automatisierte Erkennungssysteme, Datenbankabgleiche, Netzwerkanalysen sozialer Medien. Das macht Desinformation längst nicht vollständig sicht- und kontrollierbar, aber politisch zumindest adressierbar – als Problem, das sich benennen lässt. Man kann Monitoring-Einheiten einrichten, Transparenzberichte veröffentlichen, Gesetze formulieren, Fördermittel beantragen – wie transparent und wirksam diese letztlich sind, ist eine andere Frage.

News-Deprivation entzieht sich dieser Logik auf fast strukturell komplementäre Weise. Die Abwesenheit von etwas ist schwerer zu messen als seine Präsenz. Wer Nachrichten nicht liest, taucht in keiner Reichweitenstatistik auf – er oder sie ist einfach nicht da, kein Klick, kein View, kein Kommentar ist sicht- oder messbar. Wer aus dem Informationsraum ausgestiegen ist, hinterlässt keine digitale Spur, die sich in einem Dashboard visualisieren ließe. Wer keine politischen Urteile auf Basis von Informationen bildet, weil er schlicht keine Information aufnimmt, produziert kein Datum, das sich in Konferenzvorträgen präsentieren oder in Drittmittelanträgen verwerten ließe. Das ist kein zufälliger epistemischer Unterschied, sondern ein struktureller. Und er erklärt, warum der Desinformationsdiskurs sichtbarer ist als das Strukturproblem der Nachrichtenabkehr, welches in der medienpolitischen Debatte vergleichsweise wenig Raum einnimmt: Wir reden fast zwangsläufig über das, was sichtbar ist. Was sich nicht zeigt, bleibt nicht nur unsichtbar – es bleibt auch folgenlos für Förderagenden, Institutionendesign und politische Agenda.

Hinzu kommt eine Asymmetrie der institutionellen Logiken, die diesen Effekt verstärkt. Desinformation lässt sich zumindest als Problem benennen, für das externe Akteur:innen verantwortlich gemacht werden können. Die Rede ist etwa von intransparenten Algorithmen und Plattformen, die zu wenig moderieren, von staatlichen oder halbstaatlichen Stellen, die einseitige Informationen streuen, von politischen oder privaten Akteur:innen, die irreführende Inhalte produzieren. Die Problembekämpfung liegt dann bei Regulierungsmaßnahmen oder technischen Systemen, bei zivilgesellschaftlicher Faktencheckerarbeit und kritischer Medienkompetenz. News-Deprivation verweist demgegenüber auch auf die Qualität und Relevanz des Journalismus selbst, auf redaktionelle Prioritäten, auf die Frage, wen Medien eigentlich noch ansprechen und für wen sie produzieren. Das ist eine unbequeme Diagnose – und sie trifft nicht bloß „externe Demokratiegefährder:innen“, sondern auch den Journalismus selbst.

Auch Framing und Diskursverzerrung kann zu Desinformation führen

Desinformationsforschung ist ohne Frage ein wichtiges und wachsendes Feld. Das betrifft nicht nur die Wirkung von Desinformation, sondern vor allem ihre Reichweite und ihre gesellschaftliche Verortung. Studien, die die Exposition gegenüber sogenannten Fake-News-Websites im US-Wahlkampf 2016 ausgewertet haben, zeigten, dass solche Inhalte zwar von bestimmten Gruppen konsumiert wurden – ihr Anteil am gesamten Medienmix der meisten Nutzer:innen blieb jedoch marginal (Guess et al. 2019; Allcott & Gentzkow 2017). Andrew Guess und Kollegen haben zudem gezeigt, dass die Exposition gegenüber Falschinformationen stark auf politisch bereits mobilisierte und ideologisch voreingenommene Gruppen konzentriert war – Personen, deren Überzeugungen durch die Inhalte weniger geformt als bestätigt wurden (Guess et al. 2019). Solche Befunde schärfen den Blick dafür, dass das Phänomen vielschichtiger ist, als die politische Debatte es oft darstellt.

Doch wäre es ein Fehler zu glauben, Desinformation sei bloß ein Randgruppenphänomen. Der Begriff selbst ist enger gefasst als das eigentliche Problem es verlangt: Diskursverzerrung, politisches Framing und die Engführung öffentlicher Debatten sind keine Spezialität extremistischer Akteur:innen – sie sind tief in den Strukturen des Mainstreams verankert. Wie selektiv Nachrichtenagenden gesetzt werden, welche Stimmen Sichtbarkeit erhalten und welche systematisch ausgeblendet werden, welche Deutungsrahmen als selbstverständlich gelten und welche als erklärungsbedürftig – das sind Fragen, die sich nicht erst an den Rändern des Diskurses stellen. Die mediale Corona-Berichterstattung hat das mit einer Deutlichkeit gezeigt, die noch längst nicht vollständig aufgearbeitet ist: Die gesellschaftliche Polarisierung jener Jahre war nicht bloß das Werk von Falschinformations-Netzwerken. Sie wurde maßgeblich durch das Framing von Leitmedien mitgeprägt – durch affektsteigernde und spaltende Darstellungen, durch Engführungen des vertretbaren Meinungskorridors, durch explizite oder implizite Delegitimierung kritischer Positionen, bevor diese überhaupt sachlich diskutiert worden waren. Auch Akzentuierung, Weglassung und Tonalität sind die subtileren, schwerer fassbaren Formen der Diskursverzerrung, die gerade deshalb besonders wirkmächtig sind.

Aus medienpsychologischer Perspektive entfalten falsche oder verzerrende Informationen ihre größte Wirkung unter spezifischen Bedingungen: dort, wo Unsicherheit und Orientierungslosigkeit herrschen, wo bestehende Ressentiments durch die Inhalte anknüpf- und bestätigbar sind und wo der „Illusory Truth Effect“ zum Tragen kommt – jene kognitive Neigung, häufig wiederholte Aussagen für wahrer zu halten, unabhängig von ihrem tatsächlichen Wahrheitsgehalt (Steinebach et al. 2020). Dieser Mechanismus ist nicht auf explizite Falschinformation beschränkt. Er greift ebenso dort, wo dieselben einseitigen Narrative, verdichteten Frames und die gleiche selektive Faktenauswahl durch bloße Wiederholung an Überzeugungskraft gewinnen – dies geschieht in sozialen Medien ebenso wie in Qualitätszeitungen. Sie legen nicht nur fest, welche Themen Relevanz verdienen, ihre Deutungsrahmen erläutern uns auch, wo die Probleme liegen, wer oder was als verantwortlich für diese gilt und welche – impliziten oder expliziten – Denkmuster oder Handlungsempfehlungen daraus folgen. Filterblasen und Echokammern, die lange primär als Phänomen von Extremgruppen diskutiert wurden, sind auch in der Mitte der Gesellschaft zu finden: digitale Fragmentierung betrifft nicht eine randständige Minderheit, sondern strukturiert die Informationsräume großer Bevölkerungsteile – quer durch politische Lager, Generationen und Milieus.

Verstärkt wird dieser Effekt unter Bedingungen, die generative KI mittlerweile in bislang unbekanntem Ausmaß herzustellen vermag: Sprachlich kohärente, scheinbar kompetente, emotional anschlussfähige Texte – präzise auf Wirkung optimiert, massenhaft skalierbar und nahezu ohne redaktionellen Aufwand produzierbar – können Überzeugungen verschieben, ohne dass dies den Rezipierenden bewusst ist (Illia et al. 2025; Dahm & Hermeneit 2025). Hier liegt eine neue, qualitativ andere Dimension des Informationsproblems: KI-gestützte Desinformation als industrialisierte Überzeugungsarchitektur – eine, die bestehende Mechanismen der Diskursverzerrung in ihrer Reichweite potenziert und zugleich die Erkennbarkeit des Problems weiter erschwert.

Gleichzeitig verweist die Forschung auf indirekte Effekte, die sich nicht auf einzelne Falschinformationen und ihre Wirkung auf Einzelpersonen reduzieren lassen. Die massenhafte Verbreitung von Inhalten, die Journalismus imitieren, ohne seine Standards zu teilen, produziert eine atmosphärische Verschiebung: Sie normalisiert bestimmte Kommunikationsformen – Zuspitzung, Empörung, Verdächtigungsrhetorik –, erodiert geteilte Wirklichkeitsannahmen und macht die politische Instrumentalisierung von Misstrauen gegenüber etablierten Medien leichter (Steinebach et al. 2020; Neuberger 2022). Das Chemnitz-Beispiel von 2018 illustriert das mit einiger Präzision: Nicht eine einzelne Falschinformation hat dort die öffentliche Auseinandersetzung destabilisiert, sondern ein Gemenge aus Gerüchten, Halbwahrheiten und strategischen Deutungsangeboten. Seine Wirksamkeit bestand gerade darin, dass selbst die Widerlegung einzelner Elemente das Misstrauen nicht auflöste, sondern bloß verlagerte (Steinebach et al. 2020). Desinformation funktioniert in Krisen oft weniger als direkte Überzeugungsmaschine denn als Vertrauenszerstörer. Und ein schwindendes Vertrauen in Medien und öffentliche Institutionen ist seinerseits eine der wichtigsten Triebkräfte von News-Deprivation – womit sich der Kreis zwischen beiden Phänomenen schließt.

Ist der Diskurs der Desinformation selbst eine Verzerrung?

An dieser Stelle lohnt ein Schritt zurück, der zugleich ein Schritt nach vorne ist. Was leistet der Desinformationsdiskurs selbst als gesellschaftliche Rahmung? Welche Realitäten konstruiert er, welche blendet er aus, wer beansprucht die Deutungshoheit über Wirklichkeit – und wessen Interessen bedient er, ob gezielt oder unbeabsichtigt? Die klassische Debatte zur Desinformation digitaler Gesellschaft konstruiert eine Welt, in der das Grundproblem demokratischer Öffentlichkeit vor allem ein Problem identifizierbarer Akteur:innen, falscher Inhalte und zu wenig medienkompetenter Bürger:innen ist – und damit eines, das sich möglicherweise durch bestimmte Maßnahmen lösen lässt.

Was in dieser Perspektive auch aus dem Blick gerät, sind die strukturellen Dimensionen: Aufmerksamkitsökonomien, Plattformlogiken, wirtschaftlich ausgezehrte Redaktionen, wachsende soziale Fragmentierung, politische Entfremdung – und jene subtileren Formen der Informationsverzerrung, die nicht durch bloße Faktenchecks erfasst werden, weil sie durch Gewichtungen, Rahmungen, Auslassungen und Leerstellen entstehen. Konsequenzen, die aus dieser Rahmung fast zwangsläufig folgen, sind nicht nur unabhängige Faktenchecks, sondern auch Plattformregulierung, Medienkompetenzprogramme und technische Erkennungssysteme. All das kann sinnvoll sein – und ist zum Teil auch dringend nötig. Aber es adressiert noch nicht die Frage, warum wachsende Teile der Bevölkerung aus dem Informationsraum aussteigen, welche strukturellen Ursachen dafür verantwortlich sind und wie eine demokratische Öffentlichkeit damit umgeht, dass sie immer größere Teile des demos strukturell nicht mehr erreicht – nicht bloß wegen falscher Nachrichten und Informationen, sondern wegen der Abkehr von diesen.

Diese Verschiebung hat handfeste institutionelle Konsequenzen. Politische Aufmerksamkeit, Forschungsförderung und regulatorische Energie folgen den Problemen, die man benennen und in Erfolgskennzahlen übersetzen kann. Ein Mediensystem, das entschieden gegen Desinformation kämpft, aber die Ursachen von News Avoidance strukturell nicht adressiert, könnte Nachrichten möglicherweise zuverlässiger machen – für ein Publikum, das dennoch schrumpft. Während Plattformunternehmen Aufmerksamkeit systematisch absorbieren, verlieren journalistische Angebote nicht nur ökonomisch, sondern auch gesellschaftlich massiv an Einfluss und Sichtbarkeit (Haarkötter 2024). Das ist nicht bloß eine düsteres Szenario kulturkritischer Stimmen, es wird durch die Reuters-Daten, Branchenerhebungen und Nutzungsdaten digitaler Nachrichtenangebote gestützt.

Hier entsteht ein Paradox, das im Desinformationsdiskurs zu selten ausgesprochen wird: Die Plattformen, die als Hauptverbreitungswege von Desinformation identifiziert und regulatorisch adressiert werden, sind zugleich maßgeblich verantwortlich für den strukturellen Rückgang klassischer Nachrichtenrezeption. Diese konkurrieren um Aufmerksamkeit nicht bloß mit anderen News-Inhalten, sondern mit sämtlichen Angeboten – von Unterhaltung, sozialer Vernetzung, Kurzvideos über Spiele-Apps – und verlieren diese zunehmend. Wer Desinformation auf Plattformen bekämpft, ohne deren Aufmerksamkeitsarchitektur zu verändern, bekämpft bloß ein Symptom innerhalb einer Struktur, die jene Probleme erst produziert.

Algorithmen, die Realität und Sichtbarkeit verzerren

Um das vollständig zu verstehen, muss der Blick auf etwas gelenkt werden, das im Desinformationsdiskurs systematisch unterbelichtet bleibt: die Architektur der Plattformen selbst, und was diese Architektur mit öffentlicher Kommunikation macht – unabhängig davon, ob die kursierenden Inhalte wahr oder falsch sind. Denn das Problem ist nicht allein, dass auf Plattformen falsche Informationen kursieren, sondern dass die Infrastruktur digitaler Öffentlichkeit nach Logiken gebaut ist, die mit demokratischer Informationsversorgung strukturell wenig zu tun haben – und dass diese Logiken sowohl Desinformation als auch Diskursverzerrung und News Avoidance gleichermaßen begünstigen.

Algorithmen priorisieren keine gesellschaftliche Relevanz, sondern Engagement. Engagement entsteht durch emotionale Aktivierung, durch Zuspitzung, durch das Auslösen von Empörung, Bestätigung oder Angst. Das ist keine Verschwörung, sondern Optimierungslogik: Was Menschen länger auf Plattformen hält, wird sichtbarer gemacht. Neuberger beschreibt diese Entwicklung als strukturelle Verdrängung publizistischer durch ökonomische Selektionslogiken – Plattformen entscheiden über Sichtbarkeit nicht nach journalistischen Qualitätskriterien, sondern nach Wahrscheinlichkeit von Aufmerksamkeit, Interaktion und Verweildauer (Neuberger 2022). In diesem Umfeld profitieren Falschinformationen nicht deshalb, weil Plattformen sie bewusst bevorzugen, sondern weil sie besonders gut in die Engagement-Architektur passen: emotional aufgeladen, einfach, bestätigend oder überraschend. Sie sind algorithmisch optimiert für eine Umgebung, in der Wahrheit oder Qualität keine entscheidenden Rankingfaktoren sind. Was hier wirkt, ist nicht nur Fehlinformation im engeren Sinne – es ist die Beschleunigung und Radikalisierung einer Diskursform, in der Vereinfachung und Emotion belohnt werden, Differenzierung hingegen strukturell benachteiligt ist.

Doch dieselbe Architektur produziert zugleich jene Erschöpfung und Überforderung, die News Avoidance antreibt. Wer täglich mit einer algorithmisch sortierten Flut aus Krisenberichten, Empörungswellen, Katastrophenmeldungen und polarisierenden Zuspitzungen konfrontiert wird, ohne dass diese Flut je beendet oder geordnet wird, entwickelt verständlicherweise Vermeidungsstrategien – nicht als irrationale Reaktion, sondern als nachvollziehbarer Schutzmechanismus. Der Rückzug aus dem Informationsraum ist so gesehen kein Versagen der Bürger:innen, sondern eine rationale Antwort auf eine dysfunktionale Informationsumgebung. Desinformation, Diskursverzerrung und News-Deprivation sind, aus dieser Perspektive, nicht drei voneinander unabhängige Phänomene, sondern drei Ausdrucksformen derselben strukturellen Krise – hervorgegangen aus einer Plattformarchitektur, die auf Maximierung von Engagement optimiert ist und demokratische Öffentlichkeit bestenfalls als Nebenprodukt erzeugt.

Gleichzeitig verschiebt sich die Kontrolle über Sichtbarkeit strukturell und mit wachsender Geschwindigkeit. Inhalte werden produziert, aber ihre Reichweite wird algorithmisch vergeben. Journalistische Einordnung kann in einer Informationsflut verschwinden, die nach völlig anderen Kriterien sortiert. Dass die SPIEGEL-Gruppe – nach eigenen Angaben – sinkenden Traffic bei bestimmten Themen registriert, weil KI-gestützte Suchübersichten Nutzer:innen Zusammenfassungen liefern, ohne dass diese das journalistische Angebot selbst aufrufen (Zimmer 2025), ist nur das sichtbare Ende einer tieferen Verschiebung: Die Kontrolle über Öffentlichkeit wandert weg von redaktionellen Entscheidungen, hin zu intransparenten Systemen, die weder demokratischer Kontrolle noch publizistischen Werten verpflichtet sind (Nölleke-Przybylski et al. 2025; Ingold 2025). Das ist keine Desinformationsfrage allein. Es ist eine Machtfrage. Und sie verdient im medienpolitischen Diskurs mehr Platz, als sie bekommt.

Was folgt – und was nicht?

Was folgt aus alledem? Nicht die Empfehlung, das Thema Desinformation zu relativieren. Koordinierte Desinformationskampagnen im Vorfeld von Wahlen, KI-generierte Deepfakes, die politischen Akteur:innen falsche Worte in den Mund legen, die industrialisierte Produktion synthetischer Inhalte, die journalistische Formate imitieren, politisches Framing, das öffentliche Debatten in Perspektiven und Möglichkeiten einengt – das sind reale Phänomene mit demokratischen Risiken (Steinebach et al. 2020; Dahm & Hermeneit 2025). Ihr Potenzial, durch generative KI in Reichweite, Überzeugungskraft und Produktionsgeschwindigkeit zu wachsen, ist kaum zu überschätzen. Die technologische Entwicklung verändert hier die Rahmenbedingungen grundlegend: Was früher erheblichen Aufwand erforderte – täuschend echte Falschaussagen herzustellen, sie in glaubwürdigem Kontext zu verbreiten und sie zielgruppengenau zu variieren –, ist heute mit wenigen Klicks erreichbar (Dahm & Hermeneit 2025).

Was folgt, ist nicht nur eine bloße Warnung, sondern eine Perspektiverweiterung: Der Desinformationsdiskurs ist zu eng gerahmt. Er erfasst nicht die ganze Breite des Problems: nicht das strukturelle Framing durch (Leit-)Medien, nicht die algorithmische Verstärkung medialer Verzerrung, nicht die Erschöpfung und den Rückzug wachsender Bevölkerungsteile aus dem Informationsraum. Und er läuft Gefahr, sich selbst zu immunisieren. Eine demokratische Öffentlichkeit, die ihre Gefährdungen in ihrer vollen Reichweite begreifen will, braucht deshalb einen erweiterten Blick: auf die gesellschaftliche Breite der digitalen Informationskrise – von organisierten Manipulation­skampagnen bis zu offenen oder subtilen Diskursverengungen des Mainstreams. Auf die algorithmischen Strukturen, die beides verstärken und auf das wachsende Schweigen jener, die aus einem Informationsraum ausgestiegen sind, der sie nicht mehr erreicht. Diese Phänomene sind nicht Konkurrenten um den Status des wichtigsten Problems medialer Kommunikation, sie sind Dimensionen derselben Krise.

Haarkötters pessimistisches Bild vom Online-Journalismus als „Friedhof“ meint nicht, dass dort nichts mehr produziert würde. Es meint, dass Reichweite und gesellschaftliche Resonanz auseinandergefallen sind – dass Inhalte entstehen und gleichzeitig verschwinden, in einer Informationslandschaft, die von Erschöpfung, Misstrauen, Informationsverzerrung und algorithmischer Unsichtbarkeit geprägt ist. In diesem Bild steckt auch eine Frage, die jenseits des Desinformationsdiskurses gestellt werden muss: Wie erreicht eine demokratische Gesellschaft jene, die nicht mehr zuhören – und warum haben sie sich abgewendet? Keine dieser Fragen lässt sich beantworten, ohne die andere mitzudenken. Und genau darin liegt der Ausgangspunkt für eine Medienpolitik, die dem tatsächlichen Ausmaß der Informationskrise gerecht wird.

Im Text verwendete Quellen

· Allcott, H. & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. In: Journal of Economic Perspectives, 31(2), S. 211–236. DOI: 10.1257/jep.31.2.211.

· Behre, J., Hölig, S., Stöwing, E. & Möller, J. (2025). Reuters Institute Digital News Report 2025 – Ergebnisse für Deutschland. Hamburg: Verlag Hans-Bredow-Institut. DOI: 10.21241/ssoar.102887.

· Dahm, M. & Hermeneit, S. (2025). Künstliche Intelligenz im Journalismus. Wiesbaden: Springer VS. DOI: 10.1007/978-3-658-50090-0.

· defacto (2026). Zwischen Alarm und Evidenz: Desinformation im Zeitalter von KI. 16.04.2026. URL: https://www.defacto.expert/2026/04/16/zwischen-alarm-und-evidenz-desinformation-im-zeitalter-von-ki/

· Guess, A. M., Nyhan, B. & Reifler, J. (2019). Exposure to untrustworthy websites in the 2016 US election. In: Nature Human Behaviour, 4, S. 472–480. DOI: 10.1038/s41562-019-0701-0.

· Haarkötter, H. (2024). Das Ende des Onlinejournalismus? In: Publizistik, 69, S. 541–554. DOI: 10.1007/s11616-024-00868-1.

· Illia, L., Ballester-Ripoll, R. & Clausen, A. K. (2025). Fabricating CSR authenticity: The Illusory Truth Effect of CSR communication on social media in the AI era. In: Public Relations Review, 51(3). DOI: 10.1016/j.pubrev.2025.102588.

· Ingold, A. (2025). Medien- und Plattformregulierung als Demokratievorsorge. In: DuD – Datenschutz und Datensicherheit, 49(12), S. 783–788. DOI: 10.1007/s11623-025-2183-3.

· Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (2024). Reuters Institute Digital News Report 2024 – Ergebnisse für Deutschland. URL: https://leibniz-hbi.de/hbi-publications/reuters-institute-digital-news-report-2024-ergebnisse-fuer-deutschland/

· Neuberger, C. (2022). Journalismus und Plattformen als vermittelnde Dritte in der digitalen Öffentlichkeit. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 74 (Suppl 1), S. 159–181. DOI: 10.1007/s11577-022-00832-9.

· Newman, N. et al. (2024). Reuters Institute Digital News Report 2024. Oxford: Reuters Institute for the Study of Journalism. URL: https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2024

· Nölleke-Przybylski, P. et al. (2025). Kommunikative Interventionen in, im und durch Journalismus. In: Publizistik, 70, S. 613–648. DOI: 10.1007/s11616-025-00908-4.

· Steinebach, M., Bader, K., Rinsdorf, L., Krämer, N. & Roßnagel, A. (Hrsg.) (2020). Desinformation aufdecken und bekämpfen. Baden-Baden: Nomos. DOI: 10.5771/9783748904816.

· World Economic Forum (2024). Global Risks Report 2024. Genf: WEF. URL: https://www.weforum.org/publications/global-risks-report-2024/

· Zimmer, C. (2025). Einsatz von KI in der SPIEGEL-Gruppe. In: Medienwirtschaft / MW. Perspektiven der digitalen Transformation, 22(3), S. 6–8.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

nach oben