Der neue (und alte) Traum vom künstlichen Denken

Die KI-Revolution begann nicht mit einem Paukenschlag. Lange bevor der Begriff ins Zentrum gesellschaftlicher Debatten rückte, hatten algorithmische Systeme den Alltag längst umzustrukturieren begonnen – in Suchmaschinen, sozialen Netzwerken, Navigationsdiensten, Übersetzungsprogrammen, digitalen Werbesystemen. Doch all das blieb weitgehend abstrakt. Künstliche Intelligenz galt als Spezialgebiet von Technologiekonzernen, Forschungslaboren und Zukunftskonferenzen: faszinierend, vielversprechend, aber noch nicht wirklich Teil des eigenen Lebens. Erst als KI begann, Sprache selbst zu beherrschen – oder zumindest überzeugend zu imitieren –, kippte die Wahrnehmung.

Im November 2022 machte OpenAI mit ChatGPT erstmals ein leistungsfähiges Sprachmodell frei und niedrigschwellig für die breite Öffentlichkeit zugänglich. Was zuvor überwiegend in Entwicklerkreisen kursiert hatte, wurde plötzlich millionenfach ausprobiert: Eine Maschine beantwortete komplexe Fragen, formulierte flüssige Texte, schrieb Bewerbungen, programmierte, übersetzte, strukturierte Informationen – und imitierte sprachliche Kreativität mit einer Qualität, die wenige Jahre zuvor kaum vorstellbar gewesen wäre. Zwei Monate später nutzten bereits über hundert Millionen Menschen das System – schneller als TikTok, schneller als Instagram, schneller als jede andere Konsumentenanwendung zuvor (Altman et al. 2023).

Die eigentliche Tragweite zeigte sich allerdings nicht in diesem Moment selbst, sondern in der Geschwindigkeit seiner Normalisierung. Innerhalb erstaunlich kurzer Zeit begann künstliche Intelligenz in Büros, Universitäten, Redaktionen und Alltagsanwendungen einzusickern – leise, pragmatisch, fast beiläufig. Texte wurden zusammengefasst, Präsentationen automatisiert erstellt, Programmcodes generiert, Bilder erzeugt, Informationen verdichtet. Vieles davon wirkte zunächst wie eine neue Form digitaler Bequemlichkeit. Doch nach und nach wurde deutlicher, dass hier weit mehr entstand als ein weiteres technologisches Werkzeug. Denn anders als frühere digitale Umbrüche greift generative KI nicht nur in Arbeitsabläufe ein, sondern in jene Bereiche, über die moderne Gesellschaften Wissen organisieren, Öffentlichkeit herstellen und Wirklichkeit deuten: Sprache, Kommunikation, Kreativität, menschliche Urteilskraft.

Seitdem überbieten sich Konzerne, Regierungen und Investor*innen mit Milliardenprogrammen, Innovationsversprechen und geopolitischen Zukunftsszenarien. Der Tonfall vieler Debatten wirkt dabei eigentümlich entgrenzt – als ließe sich gesellschaftliche Komplexität durch Rechenleistung ordnen oder menschliches Denken schrittweise automatisieren und ersetzen. Gleichzeitig wächst die Verunsicherung. Denn je tiefer KI-Systeme in Bildung, Wissenschaft, Medien, Verwaltung und politische Kommunikation eindringen, desto drängender werden Fragen, auf die bislang niemand überzeugende Antworten besitzt: Was geschieht mit gesellschaftlicher Öffentlichkeit, wenn synthetische Inhalte massenhaft erzeugt werden können? Wie verändert sich Denken, wenn immer mehr geistige Prozesse an Maschinen ausgelagert werden? Welche Macht entsteht dort, wo wenige Konzerne die Infrastruktur kontrollieren, über die künftig Information, Kommunikation und Sichtbarkeit vermittelt werden?

Neu ist die Faszination für die denkende Maschine nicht. Sie begleitet die Moderne seit Langem – als Hoffnung, als Projektion, als Gefahr, immer wieder auch als kulturelle Verunsicherung. Schon Alan Turing stellte 1950 die berühmte Frage: „Können Maschinen denken?“ Bemerkenswert war weniger die Frage selbst als seine Vorsicht im Umgang mit ihr. Turing beantwortete sie nicht. Er verwandelte sie in ein Gedankenexperiment über Sprache, Wahrnehmung und Täuschbarkeit – und ließ sie damit offen (Turing 1950; Werner & Arzig 2026). Wenige Jahre später zeigte Joseph Weizenbaum mit seinem Programm ELIZA, wie erstaunlich leicht Menschen dazu neigen, Maschinen Verständnis oder gar Empathie zuzuschreiben, obwohl das System im Kern lediglich regelbasierte Textmuster kombinierte. Weizenbaum reagierte darauf mit Unbehagen. Ihn irritierte weniger die Maschine als die menschliche Reaktion auf diese – und die Bereitschaft, ihr allzu bereitwillig Vertrauen entgegenzubringen. Diese Irritation wirkt heute beinahe prophetisch. Denn je flüssiger und überzeugender KI-Systeme kommunizieren, desto schwieriger wird die Frage, worauf Menschen eigentlich reagieren: auf Verstehen – oder auf dessen sprachlich perfekte Simulation. Und vieles spricht dafür, dass sie bei dieser maschinengestützten Kommunikation nicht selten ein quasimenschliches Gegenüber in die KI projizieren.

Die Geschichte der künstlichen Intelligenz ist deshalb keine lineare Fortschrittsverzählung. Eher gleicht sie einer Abfolge wiederkehrender Übertreibungen, Enttäuschungen und Wiederauferstehungen. Euphorische Phasen wurden immer wieder durch sogenannte KI-Winter abgelöst – Perioden, in denen Erwartungen kollabierten, Investitionen versiegten und große Zukunftsversprechen plötzlich verfrüht wirkten (Russell & Norvig 2021). Dass die gegenwärtige Welle dennoch anders erscheint als frühere, liegt am Zusammentreffen mehrerer Faktoren: enormer Rechenkapazität spezialisierter Chips, gewaltiger Datenmengen und der Transformer-Architektur, die 2017 bei Google entwickelt wurde und seither das technische Fundament moderner Sprachmodelle bildet (Vaswani et al. 2017; Werner & Arzig 2026). Der Physiker László Kovács beschreibt KI deshalb nicht als singulären Einschnitt, sondern treffend als „Booster-Technologie“ – als etwas, das bestehende gesellschaftliche Prozesse verstärkt, beschleunigt und skaliert (Kovács 2023). Eine Beschreibung, die zunächst einmal weder positiv noch negativ konnotiert ist – KI macht die Welt nicht automatisch besser oder schlechter. Aber sie ist in der Lage, bestehende Dynamiken mit einer Geschwindigkeit und Reichweite zu intensivieren, auf die weder Individuen noch gesellschaftliche Institutionen wirklich vorbereitet sind.

Was Künstliche Intelligenz eigentlich ist – und was nicht

Der Begriff „Künstliche Intelligenz“ gehört zu jenen Formulierungen, die zugleich faszinieren und in die Irre führen. Denn vieles von dem, was gegenwärtig darunter verhandelt wird, hat mit menschlicher Intelligenz nur begrenzt zu tun. Die derzeit dominierenden Systeme – sogenannte Large Language Models wie GPT-4, Claude oder Gemini – sind keine digitalen „Supergehirne“. Sie besitzen kein Bewusstsein, keine Selbstwahrnehmung, keine Erfahrung von Welt. Was sie tun, ist ebenso komplex wie banal: Sie berechnen Wahrscheinlichkeiten über Wortfolgen, trainiert auf gigantischen Mengen menschlicher Sprache und darauf spezialisiert, jene sprachliche Antwort zu erzeugen, die im jeweiligen Kontext plausibel erscheint (Brown et al. 2020). Wenn ein Modell erklärt, warum die Weimarer Republik scheiterte oder wie eine Krebszelle funktioniert, produziert es keine Erkenntnis im eigentlichen Sinn. Es errechnet Anschlussfähigkeit. Gerade weil diese Systeme sprachlich so überzeugend wirken, verschwimmt diese Unterscheidung im öffentlichen Diskurs zunehmend.

Die Kognitionswissenschaftlerin Emily Bender prägte dafür den Begriff „stochastischer Papagei“ – zugespitzt, aber analytisch aufschlussreich (Bender et al. 2021): Sprachmodelle operieren nach statistischen Mustern, nicht auf Grundlage von Weltverständnis. Das menschliche Gehirn funktioniert fundamental anders: an Körperlichkeit gebunden, an Sinneseindrücke, Erfahrungen, Emotionen, soziale Beziehungen und physische Umwelt. Menschen lernen nicht aus Korrelationen allein, sondern durch Handlung, Erfahrung, Erinnerung, Irrtum und Bedeutungszusammenhänge (Clark 1997; Damasio 2006). John Searles berühmtes Gedankenexperiment vom „Chinesischen Zimmer“ zielte genau auf diese Differenz: eine Person sitzt in einem abgeschlossenen Zimmer und erhält von außen Texte und Fragen aus chinesischen Schriftzeichen zugereicht. Sie versteht kein Wort Chinesisch, besitzt aber ein Regelbuch, das ihr exakt vorgibt, wie sie die Zeichen passend und kontextbezogen kombinieren kann – ohne dass sie deren Sinn versteht. Nach außen wirkt die Kommunikation perfekt; von innen ist sie bedeutungslos. Genau so, argumentiert Searle, verhält es sich mit Sprachmodellen: Die korrekte Verarbeitung von Symbolen ist noch kein Verstehen, Syntax erzeugt keine Semantik – und kein noch so flüssiger Satz beweist, dass hinter ihm irgendetwas denkt (Searle 1984).

Gleichwohl wäre es zu einfach, moderne KI-Systeme bloß als raffinierte Täuschungsmaschinen abzutun. Darin liegt eine der eigentümlichen Spannungen dieser Technologie: Sprachmodelle „verstehen“ nicht im eigentlichen Sinn – und entfalten dennoch reale gesellschaftliche Wirkung. Sie schreiben Bewerbungen, unterstützen medizinische Diagnostik, analysieren Daten, erzeugen Bilder, strukturieren Informationen und greifen zunehmend in Arbeitsprozesse ein, die lange hochqualifizierten Tätigkeiten vorbehalten waren. Die philosophische Frage nach Bewusstsein beantwortet deshalb noch nicht die gesellschaftliche Frage nach Macht, Abhängigkeit und Veränderung. Selbst Systeme ohne menschliches Verständnis können menschliche Institutionen tiefgreifend verändern. Das ist keine Entwarnung – im Gegenteil.

Gerade dort, wo moderne KI-Systeme am überzeugendsten erscheinen, zeigen sich ihre strukturellen Grenzen besonders deutlich. Sie halluzinieren – ein beinahe verharmlosender Begriff dafür, dass sie uns mit verblüffender sprachlicher Sicherheit immer wieder falsche Informationen, erfundene Quellen oder nie geschehene Ereignisse als Fakten präsentieren. Und sie reproduzieren gesellschaftliche Vorurteile und politische Machtasymmetrien, weil ihr Trainingsmaterial aus menschlich erzeugten Daten besteht – mitsamt allen Widersprüchen und Schieflagen, die darin enthalten sind (Ji et al. 2023; Bender et al. 2021). Die Vorstellung, KI sei ein neutrales Werkzeug, sagt mehr über technologische Wunschbilder aus als über die Realität.

Hinzu kommt ein Problem, das weit über einzelne KI-Fehler hinausreicht: die zunehmende Undurchschaubarkeit hochkomplexer Modelle. Selbst Entwickler*innen können vielfach nicht mehr präzise nachvollziehen, warum ein System zu einem bestimmten Ergebnis gelangt. Damit entstehen sogenannte Black-Box-Strukturen in Bereichen, die gesellschaftlich hochsensibel sind – bei Kreditvergaben, Bewerbungsverfahren, Sicherheitsanalysen, medizinischen Einschätzungen, automatisierten Entscheidungssystemen staatlicher Institutionen. Je stärker KI in solche Infrastrukturen integriert wird, desto drängender wird die Frage nach Letztverantwortung. Wer haftet für algorithmische Fehlentscheidungen? Wer kontrolliert die Systeme? Wer darf ihre Regeln definieren? Und was geschieht mit demokratischer Öffentlichkeit, wenn immer größere Teile digital vermittelter Wirklichkeit von wenigen, hochkomplexen und weitgehend undurchschaubaren Modellen geprägt werden?

Kovács‘ Bild der „Booster-Technologie“ gewinnt hier eine unbequeme Schärfe: KI verstärkt bestehende Dynamiken – produktive ebenso wie zerstörerische (Kovács 2023). Gerade diese Gleichzeitigkeit macht die gegenwärtige Entwicklung so schwer einzuordnen. Die Unsicherheit, die viele Debatten prägt, ist nicht Ausdruck irrationaler Technikangst. Sie speist sich aus der Erfahrung, dass hier eine Technologie entsteht, deren gesellschaftliche Reichweite enorm sein könnte – während ihre langfristigen Folgen selbst unter führenden Forscher*innen hoch umstritten bleiben. Nicht nur ihre Fähigkeiten machen die KI-Revolution historisch besonders. Sondern die Tatsache, dass sie grundlegende Fragen nach Wissen, Kontrolle, Verantwortung und Menschlichkeit neu öffnet – zu einem Zeitpunkt, an dem kaum jemand seriös behaupten kann, ihre Konsequenzen bereits zu überblicken.

Die unsichtbare Revolution: KI in Alltag, Beruf und Bildung

Das Bemerkenswerte an künstlicher Intelligenz besteht nicht zuletzt in der Tatsache, wie unauffällig sie sich in den Alltag integriert hat. Viele Menschen nutzen längst täglich KI-Systeme, ohne sie als solche wahrzunehmen: Empfehlungsalgorithmen sortieren Nachrichten und Unterhaltung, Navigationsdienste lenken Verkehrsströme, Plattformen filtern Bewerbungen, Banken berechnen Kreditwürdigkeit, soziale Netzwerke entscheiden darüber, welche Inhalte sichtbar werden und welche verschwinden. Die öffentliche Aufmerksamkeit konzentriert sich meist auf Chatbots und Bildgeneratoren, weil sie sichtbar mit Menschen interagieren. Folgenreiche Systeme arbeiten aber auch im Hintergrund – und gerade deshalb mit besonderer Macht. Denn wer digitale Informationsräume organisiert, strukturiert nicht bloß Inhalte, sondern zunehmend auch Wahrnehmung.

Die digitale Öffentlichkeit des 21. Jahrhunderts ist längst keine neutrale Infrastruktur mehr. Was Menschen online sehen, lesen oder diskutieren, entsteht heute meist in algorithmisch kuratierten Umgebungen, deren innere Logiken für Außenstehende weitgehend unsichtbar bleiben. Plattformen sortieren Informationen nicht nach gesellschaftlicher Relevanz, sondern nach Wahrscheinlichkeit von Aufmerksamkeit, Interaktion und Verweildauer. Genau daraus entstehen Dynamiken, die politisch hochbrisant sind. Empörung erzeugt Reichweite. Zuspitzung erzeugt Engagement. Emotionale Reaktionen lassen sich besser monetarisieren als differenzierte Berichte. Studien zeigen, dass Empfehlungsalgorithmen maßgeblich zur Verbreitung von Desinformation beitragen – nicht weil sie dies beabsichtigen, sondern weil Engagement-Maximierung algorithmisch häufig durch emotionale Aufmerksamkeit erreicht wird, die extreme Inhalte besonders effektiv erzeugen (Ribeiro et al. 2020; Vosoughi et al. 2018). Selbst wenn die Systeme an sich keine Ideologie verfolgen, verstärken sie Kommunikationsformen, die Polarisierung, Vereinfachung und Dauererregung begünstigen. Gerade deshalb greift die Vorstellung zu kurz, Desinformation oder Radikalisierung ließen sich ausschließlich als Problem einzelner Akteur*innen verstehen. Die Architektur digitaler Öffentlichkeit verändert die Bedingungen gesellschaftlicher Kommunikation selbst.

Hinzu kommt, dass der Rohstoff dieser Systeme menschliches Verhalten ist. Suchanfragen, Bewegungsprofile, Klickmuster, Schreibgewohnheiten, Kommunikationsdaten – moderne KI-Systeme lernen aus gigantischen Mengen digitaler Verhaltensspuren. Nutzer*innen liefern diese Daten meist beiläufig, oft ohne realistische Vorstellung davon, welche Rückschlüsse daraus gezogen werden können. Zarcone und Leschanowsky sprechen in diesem Zusammenhang von einem „wachsenden Datenhunger“ moderner Sprachsysteme, der mit einer tief eingewurzelten Asymmetrie einhergeht: Nutzer*innen geben Daten ab – an Systeme, über deren Funktionsweise und Entscheidungslogiken sie keine Kontrolle haben (Zarcone & Leschanowsky 2023). Die digitale Ökonomie basiert deshalb längst nicht mehr nur auf Aufmerksamkeit, sondern auf Vorhersagbarkeit. Wer Verhalten prognostizieren kann, gewinnt ökonomische und politische Macht. Nicht mehr allein Informationen werden zur strategischen Ressource – sondern die Fähigkeit, menschliches Verhalten statistisch modellierbar zu machen.

Besonders sichtbar werden diese Verschiebungen in der Arbeitswelt. Generative KI greift erstmals in großem Umfang in Bereiche ein, die lange als vergleichsweise sicher vor Automatisierung galten: Wissensarbeit, kreative Prozesse, Analyse, Verwaltung, Kommunikation. Systeme schreiben Texte, erstellen Präsentationen, generieren Programmcodes, analysieren Verträge oder produzieren Marketinginhalte in Sekunden. Das verändert nicht nur Arbeitsabläufe, sondern auch Vorstellungen von Expertise. Denn automatisiert werden zunehmend Tätigkeiten, über die Menschen bislang berufliche Identität, Anerkennung und sozialen Status entwickelt haben. Das McKinsey Global Institute schätzte 2023, dass generative KI zwischen 2,6 und 4,4 Billionen US-Dollar Wertschöpfung pro Jahr freisetzen könnte – maßgeblich durch Automatisierung von Wissensarbeit in Bereichen wie Recht, Finanzen, Marketing und Softwareentwicklung (McKinsey 2023). Das Weltwirtschaftsforum prognostiziert bis 2027 rund 83 Millionen wegfallende und 69 Millionen neu entstehende Stellen – ein Nettoeffekt, der auf dem Papier überschaubar erscheint, in der Realität aber eine massive Verschiebung von Qualifikationsprofilen bedeutet (WEF 2023). Die Frage lautet deshalb nicht bloß, welche Berufe verschwinden könnten. Sie lautet auch, wie sich gesellschaftliche Vorstellungen von Leistung, Qualifikation und geistiger Arbeit verändern, wenn Maschinen immer mehr anspruchsvolle Tätigkeiten übernehmen.

Disselkamp und Schmiedchen betonen dabei, dass KI menschliche Urteilskraft in Entscheidungsprozessen weder ersetzen kann noch soll: Zu sehr hängen strategische Entscheidungen von informellen Machtstrukturen, Unternehmenskulturen und sozialen Dynamiken ab, die sich einer KI-Analyse grundsätzlich entziehen (Disselkamp & Schmiedchen; Schmiedchen et al. 2026). Dies ist die entscheidende Gegenstimme zum Automatisierungsdeterminismus. Denn die Debatte wird häufig vorschnell euphorisch oder zu oberflächlich geführt, während fundamentale Fragen nach wie vor ungeklärt sind: Was geschieht, wenn menschliche Arbeit zunehmend darin besteht, algorithmische Systeme zu überwachen und mit Daten zu versorgen, während zentrale analytische und kreative Prozesse maschinell vorstrukturiert werden? Historisch betrachtet verändern technologische Umbrüche nicht bloß einzelne Berufe. Sie verändern das Verhältnis von Menschen zu ihrer eigenen Tätigkeit – und damit Fragen von Selbstwert, Autonomie und gesellschaftlicher Teilhabe.

Am sensibelsten aber ist diese Entwicklung im Bildungsbereich. Schulen und Hochschulen stehen inzwischen vor einer Herausforderung, die weit über klassische Fragen von Täuschungsversuchen oder Plagiaten hinausgeht. Was bedeutet Bildung noch in einer Welt, in der Maschinen Aufsätze schreiben, Programmcodes generieren und wissenschaftliche Texte imitieren können? Schreiben ist nicht bloß eine Technik zur Produktion fertiger Sätze. Für viele Menschen ist es ein Denkprozess – wer Gedanken sprachlich ordnet, überprüft und umformuliert, entwickelt dabei häufig erst jene Klarheit, die später als Urteil erscheint. Auf der einen Seite eröffnet KI beeindruckende Möglichkeiten der Personalisierung: KI-gestützte Lernsysteme können auf individuelle Lernstände eingehen und schwächere Schüler*innen gezielt fördern, mit Lerneffekten, die in bestimmten Fächern mit menschlicher Einzelbetreuung vergleichbar sind (Koedinger et al. 2023). Gruber verweist darauf, dass KI-Schreibassistenz beim Fremdsprachenlernen neue Chancen bietet – und zugleich pädagogische Fragen aufwirft, die bislang unbeantwortet sind (Gruber 2023). Auf der anderen Seite droht – wenn nicht konzeptionell gegengesteuert wird – eine schleichende Erosion zentraler kognitiver Fähigkeiten: Schreibfähigkeit als Denkinstrument, kritisches Lesen, argumentatives Strukturieren. Eine Bildung, die KI unreflektiert toleriert, ohne die Kompetenzen zu stärken, die Menschen unabhängig von Maschinen machen, produziert keine kompetente nächste Generation – sondern gut ausgestattete Konsument*innen fremdproduzierter Gedanken.

Wird dieser Prozess dauerhaft an Maschinen delegiert, könnte sich langfristig nicht nur der Umgang mit Wissen verändern, sondern auch das Verhältnis zum eigenen Denken. Die KI-Revolution betrifft deshalb nicht nur Arbeitsmärkte oder Technologien. Sie berührt den Menschen in einem sehr viel tieferen Sinn – als lernendes, urteils- und entscheidungsfähiges und sozial eingebettetes Wesen.

Weitreichendes Potenzial: Wo KI Großes leisten könnte

Verkürzt wäre es zugleich, die Technologie ausschließlich als Bedrohung zu betrachten. Gerade die ernsthafte Auseinandersetzung mit ihren Risiken verlangt, ihr Potenzial nicht reflexhaft kleinzureden. Denn KI-Systeme eröffnen in einigen Bereichen Möglichkeiten, die noch vor wenigen Jahren rechnerisch, organisatorisch oder wissenschaftlich kaum realisierbar gewesen wären. Jenseits von Technikeuphorie und Kulturpessimismus liegt die Erkenntnis, dass diese Technologie reale gesellschaftliche Probleme deutlich verschärfen und zugleich erhebliche Fortschritte ermöglichen kann.

Sichtbar wird dieses Spannungsverhältnis etwa in der biomedizinischen Forschung: Als DeepMind 2021 mit AlphaFold 2 die Vorhersage dreidimensionaler Proteinstrukturen in bislang unerreichter Präzision gelang, sprach die Fachwelt nicht zufällig von einem Durchbruch historischen Ausmaßes. Jahrzehntelang galt die Berechnung komplexer Proteinstrukturen als eines der schwierigsten Probleme der Molekularbiologie – ein Problem, für das Forscher*innen oft Jahre experimenteller Arbeit benötigten. KI-Systeme können solche Prozesse nun drastisch beschleunigen, die Ergebnisse stehen in einer frei zugänglichen Datenbank weltweit zur Verfügung (Jumper et al. 2021). Das bedeutet allerdings nicht, dass Maschinen plötzlich „wissenschaftlich denken“. Entscheidender ist etwas anderes: Sie verändern die Geschwindigkeit, Reichweite und Kombinationsfähigkeit moderner Forschung. In einer Zeit, in der wissenschaftlicher Fortschritt zunehmend von Datenmengen, Simulationen und Modellierungsprozessen abhängt, ist genau das von enormer Bedeutung.

Ähnliches zeigt sich in der medizinischen Diagnostik. KI-gestützte Systeme analysieren radiologische Bilddaten inzwischen in manchen Bereichen mit einer Genauigkeit, die mit der erfahrener Fachärzt*innen vergleichbar ist oder diese punktuell sogar übertrifft – nicht weil die Maschine klüger wäre, sondern weil sie keine Ermüdung kennt und auf erheblich größeren Fallzahlen trainiert wurde (McKinney et al. 2020). Doch auch hier führt die öffentliche Debatte oft in die Irre. Medizinische Entscheidungen bestehen nicht nur aus Mustererkennung. Sie betreffen Verantwortung, Kommunikation, Abwägung, Unsicherheit und Vertrauen. Gaube und Lermer betonen deshalb, dass die Einführung KI-gestützter Entscheidungssysteme im Gesundheitswesen auch die Frage der Erklärbarkeit aufwirft: Ein Diagnosevorschlag, den weder Mediziner*in noch Patient*in nachvollziehen kann, stellt tiefgreifende ethische Fragen – selbst wenn er statistisch korrekt sein sollte (Gaube & Lermer 2023). Gerade deshalb erzeugen KI-Systeme in sensiblen Bereichen neue Probleme: zwischen statistischer Präzision und menschlicher Verantwortlichkeit, zwischen Effizienz und Nachvollziehbarkeit, zwischen technischer Leistungsfähigkeit und gesellschaftlicher Kontrolle.

In den Klimawissenschaften könnte künstliche Intelligenz eine ähnlich zentrale Rolle spielen. Präzisere Klimamodelle, effizientere Steuerung erneuerbarer Energienetze, optimierte Verkehrsflüsse, verbesserte Frühwarnsysteme für Extremwetterereignisse – all das sind Bereiche, in denen algorithmische Systeme helfen könnten, hochkomplexe Datenlagen besser auszuwerten (Rolnick et al. 2022). Gerade dort, wo menschliche Analysekapazitäten an Grenzen stoßen, entsteht reales Potenzial. Allerdings zeigt sich auch hier eine eigentümliche Ambivalenz der technologischen Gegenwart: Ausgerechnet jene Systeme, die ökologische Prozesse effizienter organisieren könnten, benötigen selbst enorme Mengen Energie, Wasser und Rechenkapazität. Das Training großer Sprachmodelle erzeugt laut Schätzungen des Allen Institute for AI hunderte Tonnen CO₂-Äquivalente pro Modell; Microsofts Wasserverbrauch stieg 2023 um 34 Prozent, maßgeblich durch KI-Workloads (Strubell et al. 2019; Microsoft 2023). KI erscheint deshalb häufig zugleich als Teil möglicher Lösungen und als Verstärker bestehender Probleme. Das ist kein pauschales Argument gegen die Technologie – aber eines gegen ihre unkritische Skalierung.

Darüber hinaus verändert künstliche Intelligenz den Zugang zu Wissen selbst. Menschen ohne juristische Vorbildung können sich rechtliche Orientierung verschaffen; Personen ohne Programmiererfahrung erstellen einfache Softwareanwendungen; komplexe wissenschaftliche Informationen lassen sich in Sekunden übersetzen, strukturieren und erklären. Brynjolfsson und Kollegen sprechen von einem empirisch nachweisbaren „Leveling-Effekt“ – dem Nivellieren von Wissensasymmetrien, das KI-Systeme in bestimmten Bereichen tatsächlich bewirken (Brynjolfsson et al. 2023). Gerade darin liegt ein demokratisches Potenzial, das in manch einer technikkritischen Debatte vorschnell übersehen wird. Wissenszugang war historisch oft an soziale Herkunft, institutionelle Bildung oder ökonomische Ressourcen gebunden. KI-Systeme könnten bestimmte Formen geistiger Exklusivität tatsächlich teilweise aufbrechen.

Doch auch hier lohnt Vorsicht gegenüber einfachen Fortschrittsnarrativen. Informationen leichter verfügbar zu machen bedeutet nicht automatisch, Wissen zu demokratisieren. Entscheidend bleibt, wer die Infrastruktur kontrolliert, nach welchen Regeln sie funktioniert und welche Interessen in ihre Systeme eingeschrieben sind. Wenn wenige Plattformen darüber entscheiden, welche Informationen sichtbar werden, welche Antworten plausibel erscheinen oder welche Inhalte algorithmisch priorisiert werden, entstehen neue Formen von Wissens- und Deutungsmacht – und der „Leveling-Effekt“ droht von Konzentrations- und Ausschlussdynamiken überlagert zu werden, die ihm strukturell entgegenwirken (Crawford 2021).

Hinzu kommt ein Grundmuster, das in vielen Debatten erstaunlich selten ausgesprochen wird: Technologischer Fortschritt ist historisch fast nie eindeutig verlaufen. Nahezu jede große technische Revolution hat zugleich neue Freiheiten und neue Abhängigkeiten hervorgebracht. Das Internet demokratisierte Informationszugang – und schuf zugleich gigantische Plattformmonopole. Soziale Netzwerke ermöglichten neue Formen gesellschaftlicher Vernetzung – und veränderten zugleich Öffentlichkeit, Aufmerksamkeit und politische Kommunikation tiefgreifend. Künstliche Intelligenz ist von dieser historischen Ambivalenz nicht ausgenommen – und sie greift noch weitreichender in individuelle Alltagserfahrungen ebenso wie sämtliche gesellschaftlichen Bereiche ein. Die Herausforderung liegt darin, die Widersprüche der Technologie ernst zu nehmen – auch und gerade dort, wo sie sich nicht einfach auflösen lassen.

Auf dem Grat: Risiken, Grenzen und blinde Flecken

Die größten Risiken der KI-Revolution beginnen nicht dort, wo Science-Fiction-Szenarien von autonomen Superintelligenzen oder außer Kontrolle geratenen Maschinen entworfen werden. Viele ihrer folgenreichsten Effekte sind zunächst sehr viel versteckter – sie entstehen schleichend, im Alltag, in Gewohnheiten, in kleinen Verschiebungen dessen, was Menschen selbst tun und was sie zunehmend an Systeme delegieren. Technologische Umbrüche verändern selten nur Werkzeuge. Sie verändern Wahrnehmung, Aufmerksamkeit, Verhalten – und langfristig sogar Vorstellungen davon, was als menschliche Fähigkeit überhaupt noch notwendig erscheint.

Besonders deutlich zeigt sich das dort, wo KI beginnt, kognitive Prozesse zu übernehmen. Bereits heute lassen viele Menschen Texte formulieren, Argumente strukturieren, Zusammenfassungen erstellen oder Entscheidungen vorbereiten. Das spart Zeit, reduziert Reibung und erscheint zunächst als weitreichende Erleichterung. Doch gerade darin liegt eine tiefere Veränderung. Denn Denken entsteht nicht erst im fertigen Ergebnis, sondern im mühsamen Prozess der Auseinandersetzung, Formulierung, Verwerfung und gedanklichen Präzisierung. Wer schreibt, trainiert nicht nur kognitive und kreative Fähigkeiten – er entwickelt dabei häufig erst Klarheit über die eigene Position. Wer argumentiert, wägt ab, entdeckt Widersprüche, verändert bisweilen den eigenen Blick auf die Welt. KI-Systeme reduzieren genau diese Eigenleistung – und damit einen Teil jener geistigen Anstrengung, aus der Urteilskraft überhaupt erst entsteht. Dieses Phänomen des „Deskilling“ ist empirisch belegt: Wer GPS-Navigation täglich nutzt, verliert nachweislich räumliche Orientierungskompetenz; wer das Schreiben dauerhaft delegiert, verkümmert in seiner Fähigkeit, Gedanken sprachlich zu präzisieren. Das ist kein Argument gegen Technik – technische Werkzeuge haben menschliche Fähigkeiten immer verändert. Aber es ist ein Argument für die bewusste Gestaltung der Mensch-Maschine-Interaktion, gerade weil KI noch deutlich weitreichender in sämtliche Denk-, Schreib- und Entscheidungsprozesse eingreift als jede frühere Technologie.

Hinzu kommt eine Entwicklung, die gesellschaftlich häufig unterschätzt wird: die zunehmende Vermischung menschlicher und synthetischer Kommunikation. Sprachmodelle erzeugen Texte, Bilder, Stimmen und Videos inzwischen mit einer Qualität, die für viele Menschen kaum noch zuverlässig von menschlich erzeugten Inhalten zu unterscheiden ist. Damit gerät etwas unter Druck, das für moderne Öffentlichkeit zentral ist: die stillschweigende Annahme, dass sich Authentizität zumindest grundsätzlich überprüfen lässt. Deepfakes, synthetische Stimmen oder KI-generierte Desinformation bedrohen deshalb nicht bloß einzelne Informationsräume. Sie könnten langfristig das Vertrauen in digitale Öffentlichkeit selbst untergraben.

Gerade darin liegt eine Gefahr, die weit über klassische Falschinformationen hinausgeht. Wenn prinzipiell alles manipulierbar erscheint, entsteht nicht automatisch mehr Skepsis im aufklärerischen Sinn – sondern möglicherweise eine Kultur allgemeiner Unsicherheit. Bilder verlieren ihren Beweischarakter. Stimmen verlieren ihre Zuverlässigkeit. Dokumente werden potenziell verdächtig. In einer solchen Umgebung gewinnen paradoxerweise oft nicht die glaubwürdigsten Informationen an Macht, sondern jene Akteur*innen, die Aufmerksamkeit, Reichweite und emotionale Mobilisierung am effektivsten kontrollieren. Die Krise digitaler Öffentlichkeit könnte dadurch eine neue Qualität erreichen: Nicht mehr nur die Verbreitung falscher Inhalte wird zum Problem, sondern die schleichende Erosion gemeinsamer Wirklichkeitsgrundlagen.

Gleichzeitig verschiebt sich Macht in einem Ausmaß, dessen politische Tragweite bislang unterschätzt wird. Einige wenige Technologiekonzerne kontrollieren zentrale Teile der globalen KI-Infrastruktur – Rechenkapazitäten, Trainingsdaten, Cloudsysteme, Basismodelle und Plattformen, über die digitale Kommunikation vermittelt wird. Wer diese Infrastruktur kontrolliert, entscheidet nicht bloß über Produkte oder Dienstleistungen. Er prägt mit, welche Informationen sichtbar werden, welche Inhalte priorisiert werden und welche Formen von Wissen gesellschaftliche Reichweite erhalten. Crawford beschreibt KI deshalb nicht als neutrales Werkzeug, sondern als Infrastruktur von Macht – mit planetaren Kosten, die in der öffentlichen Debatte kaum sichtbar werden (Crawford 2021). Schmiedchen skizziert dabei drei strukturell verschiedene Entwicklungsmodelle: In den USA ist KI-Entwicklung überwiegend profitgetrieben; in China dient sie der Ausweitung staatlicher Kontrolle; Europa schaut zuvorderst auf Risiken und Regulierung – mit dem realen Risiko, dabei technologisch zurückzufallen (Schmiedchen 2026). KI ist damit längst nicht mehr nur ein Technologiethema. Sie wird zunehmend zur Frage demokratischer und geopolitischer Souveränität.

Besonders heikel ist dabei die Undurchschaubarkeit moderner Systeme. Selbst Entwickler*innen können vielfach nicht mehr vollständig nachvollziehen, wie komplexe Modelle zu bestimmten Ergebnissen gelangen. Damit entstehen Black-Box-Strukturen in Bereichen, die gesellschaftlich hochsensibel sind – von Kreditvergaben über Sicherheitsanalysen bis hin zu medizinischen Einschätzungen oder automatisierten Verwaltungssystemen. Je stärker KI in solche Entscheidungsprozesse integriert wird, desto drängender wird die Frage nach Verantwortung. Wer haftet für algorithmische Fehlentscheidungen? Wer kontrolliert Trainingsdaten? Wer definiert die Regeln? Und wie lässt sich demokratische Kontrolle aufrechterhalten, wenn zentrale digitale Infrastrukturen von Systemen geprägt werden, die selbst Fachleute nur teilweise verstehen?

Besonders brisant ist die Entwicklung im militärischen Bereich. Autonome Waffensysteme, die ohne menschliche Freigabe folgenreiche Entscheidungen treffen, sind technologisch bereits möglich und werden in verschiedenen Staaten entwickelt – ohne dass ein verbindlicher internationaler Regulierungsrahmen existiert (Schmiedchen et al. 2026; ICRC 2021). Die ethische Frage dahinter wirkt beinahe erschreckend schlicht: Darf eine Maschine über Leben und Tod entscheiden? Doch gerade ihre Schlichtheit verdeckt die politische Realität. Selbst Staaten, die solche Systeme moralisch problematisch finden, dürften im geopolitischen Wettbewerb kaum dauerhaft bereit sein, auf entsprechende Technologien zu verzichten. Die Bletchley-Erklärung von 2023, bei einem KI-Sicherheitsgipfel von 28 Ländern und der EU unterzeichnet, ruft zu stärkerer internationaler Zusammenarbeit auf – ist aber angesichts dieser Spannungen eher Absichtserklärung als verbindlicher Rahmen.

Hinzu kommt ein Widerspruch, der in vielen Debatten erstaunlich lange unsichtbar blieb: die materielle Seite der digitalen Welt. KI erscheint oft immateriell – als reine Information, als Software, als virtueller Raum scheinbar grenzenloser Möglichkeiten. Tatsächlich beruht der globale KI-Boom auf gigantischen Rechenzentren, enormem Energieverbrauch, seltenen Rohstoffen und komplexen Lieferketten. Große Sprachmodelle entstehen nicht im digitalen Nichts. Sie stehen auf Beton, Kupfer, Lithium, Halbleitern und globalen Infrastrukturen, deren ökologische und geopolitische Kosten erheblich sind (Strubell et al. 2019; Crawford 2021). Gerade darin zeigt sich ein Grundmuster technologischer Moderne: Fortschritt verschiebt Probleme oft nicht aus der Welt, sondern in andere Bereiche – häufig dorthin, wo sie gesellschaftlich weniger sichtbar sind.

Daneben zeigen erste Studien besorgniserregende Befunde zur psychischen Gesundheit. Chatbots, die für emotionale Begleitung eingesetzt werden – in Apps wie Replika wurden Ende 2022 täglich rund zehn Millionen solcher Gespräche geführt –, können kurzfristig Einsamkeit lindern, langfristig aber soziale Rückzugstendenzen verstärken (Shum et al. 2023). Kovács weist darauf hin, dass gerade sozial schwächere Gruppen besonders gefährdet sind: nicht mehr jene, die wenig besitzen, sondern jene, denen die Kompetenz fehlt, neue Technologien in ihrem eigenen Interesse einzusetzen – und deren Daten möglicherweise genutzt werden, um ihre Entscheidungen zu ihrem Nachteil zu beeinflussen (Kovács 2023).

Vielleicht liegt genau darin die eigentliche Schwierigkeit der gegenwärtigen KI-Debatte. Die Risiken dieser Technologie lassen sich weder seriös kleinreden noch eindeutig beziffern. Manche Befürchtungen mögen sich als überzogen erweisen – andere könnten sich im Rückblick als bemerkenswert nüchterne Warnungen herausstellen. Geoffrey Hinton, lange einer der einflussreichsten Verfechter neuronaler Netze, hat Google verlassen und öffentlich vor existenziellen Risiken gewarnt (Hinton 2023). Yann LeCun hingegen hält solche Warnungen für überzogen und lenkt den Blick auf konkrete, lösbare Sicherheitsprobleme (LeCun 2023). Diese Spaltung innerhalb der Forschungsgemeinschaft ist aufschlussreich – nicht weil sie Beliebigkeit signalisiert, sondern weil sie zeigt, wie fundamental offen die Fragen noch sind. Gerade weil die langfristigen Folgen so offen sind, wirken sowohl technologische Heilsgewissheit als auch vorschnelle Entwarnung zunehmend fehl am Platz. Die eigentliche Herausforderung besteht darin, mit einer historischen Situation umzugehen, deren Tragweite bereits spürbar ist – obwohl ihre Konsequenzen noch kaum verstanden werden.

Der Mensch vor dem Spiegel: Was KI über uns verrät

Die Debatte über künstliche Intelligenz ist, bei näherer Betrachtung, immer auch eine Debatte über natürliche Intelligenz – über das, was den Menschen ausmacht und was sich nicht ersetzen lässt. Je überzeugender Maschinen kommunizieren, analysieren und entscheiden, desto drängender wird die Gegenfrage: Was bleibt? Nicht als defensive Schutzbehauptung, sondern als genuine philosophische Frage, die die KI-Revolution mit einer Schärfe neu stellt, die frühere Technologien nicht erreichten.

Weizenbaum erkannte dieses Problem bereits 1966 – und seine Beobachtung hat sich seither eher bestätigt als widerlegt. Nicht die Maschine war das eigentliche Rätsel, sondern die menschliche Bereitschaft, ihr zu vertrauen. Je flüssiger KI-Systeme kommunizieren, desto stärker wird die Versuchung, ihnen Eigenschaften zuzuschreiben, die sie nicht besitzen: Verständnis, Anteilnahme, Urteilskraft, Verantwortung. Kovács formuliert diese Grenze präzise: KI-Systeme können keine Anstrengung leisten – und damit keine Wertschätzung ausdrücken; sie sind nicht authentisch – und damit keine Partner in dem Sinne, der moralische Anerkennung begründet; sie haben keine Autonomie – und damit keine eigenen Lebensziele, um deren Willen sie handeln (Kovács 2023). Das ist beruhigend und beunruhigend zugleich: Was geschieht, wenn wir zunehmend mit Systemen interagieren, die dies perfekt simulieren – mit dem Wissen, dass der Mensch bereitwillig das Menschliche in der Maschine zu erkennen sucht?

Der Wirtschaftsethiker Thomas Beschorner beschreibt die Digitalisierung als kulturellen Transformationsprozess, der nicht nur Praktiken verändert, sondern die philosophischen Fragen nach Subjektivität, Beziehung und Würde neu stellt (Beschorner 2026). Das ist keine abstrakte Sorge. Was passiert mit menschlichen Gemeinschaften, wenn emotionale Bindung, Beratung und Trost maschinell verfügbar werden? Was macht es mit Sozialisation, wenn Heranwachsende einen erheblichen Teil ihrer kommunikativen Erfahrungen mit Systemen machen, die nie müde werden, nie ungeduldig sind, nie eigene Bedürfnisse haben? Erste Studien deuten darauf hin, dass KI-basierte Gesprächsbegleitung kurzfristig Einsamkeit lindern, langfristig aber soziale Rückzugstendenzen verstärken kann (Shum et al. 2023). Ob das eine Randerscheinung bleibt oder sich als strukturelle Dynamik erweist, ist eine der offensten Fragen der gegenwärtigen Forschung.

Gethmann argumentiert aus wissenschaftsphilosophischer Perspektive, dass technische Systeme zwar kognitive Teilfunktionen übernehmen können – aber grundsätzlich nicht als Akteure in Begründungsdiskursen auftreten können. Ihnen fehlen die pragmatischen Merkmale von Handlungsurheberschaft und Zurechenbarkeit (Gethmann 2026). Erfahrung, Einfallsreichtum, Urteilsvermögen, kommunikative Kompetenz – das sind, so die Formulierung des Deutschen Ethikrats, Fähigkeiten der „praktischen Vernunft“, die sich nicht algorithmisieren lassen (Deutscher Ethikrat 2023). Das ist mehr als philosophische Vergewisserung. Es markiert eine strukturelle Grenze, die gesellschaftlich ernst genommen werden muss – gerade dort, wo KI-Systeme zunehmend in Bereiche vordringen, die Verantwortung, Rechenschaft und moralisches Urteil verlangen.

Hierin liegt das eigentliche Risiko – nicht bloß in der Maschine als Black Box, sondern insbesondere in der gesellschaftlichen Bereitschaft, ihr Entscheidungen zu übertragen, für die sie keine Verantwortung tragen kann und darf. „Human in the Loop“ ist eine Formel, die in Debatten über KI-Governance allzu leichtfertig verwendet wird – als wäre das Problem damit gelöst. Entscheidend ist nicht, ob formal irgendwo noch ein Mensch eingebunden bleibt. Entscheidend ist, ob Menschen tatsächlich urteils- und entscheidungsfähig bleiben – oder ob sie zunehmend nur noch algorithmisch vorbereitete Prozesse bestätigen, deren innere Logik sie selbst kaum nachvollziehen können. Besonders dort, wo Grundrechte, Bildung, medizinische Entscheidungen, Justiz oder politische Öffentlichkeit betroffen sind, wird diese Frage existenziell.

Vielleicht ist es kein Zufall, dass ausgerechnet der Spiegel als kulturelles Motiv immer wieder auftaucht, wenn Menschen über Maschinen nachdenken, die ihnen (scheinbar) ähneln. Der Spiegel zeigt das Vertraute – und macht es zugleich fremd. Er wirft zurück, was man hineingibt – aber seitenverkehrt, ohne eigene Geschichte. KI-Systeme funktionieren in bestimmter Hinsicht ähnlich: Sie sind aus menschlicher Sprache destilliert, spiegeln menschliches Denken mit verblüffender Präzision – und offenbaren dabei auch, was in dieser Sprache steckt: Wissen und Vorurteil, Kreativität und Klischee, Differenzierungsvermögen und ideologische Schieflage. Die KI-Revolution ist in diesem Sinn nicht nur eine technologische Herausforderung. Sie ist ebenso eine Aufforderung zur individuellen wie gesellschaftlichen Selbstbefragung – darüber, wo wir stehen, was Denken, Verstehen und Verantwortung bedeutet. Darüber, was wir bereit sind, an Maschinen abzugeben – und was nicht.

Wer gestaltet, wer trägt Verantwortung, wer die Lasten?

Wer in den Debatten über KI-Chancen und -Risiken fragt, wessen Chancen und wessen Risiken eigentlich gemeint sind, stößt rasch auf strukturelle Asymmetrien. Die Gewinne aus KI-gestützter Produktivitätssteigerung fließen derzeit überproportional an Kapitaleigentümer*innen und hochqualifizierte Beschäftigte in Hochlohnländern. Die Lasten – Jobverlust, Datenschutzverletzungen, ökologische Kosten, psychologische Folgekosten algorithmischer Steuerung – konzentrieren sich stärker auf sozial schwächere Gruppen und Länder des Globalen Südens, wo häufig auch Content-Moderation und Datenannotation durch schlecht bezahlte Clickworker*innen stattfinden (Gray & Suri 2019; Perrigo 2023). Diese globale Ungleichheitsstruktur der KI-Ökonomie ist keine unvermeidliche Naturgewalt. Sie ist das Ergebnis politischer Entscheidungen und regulatorischer Leerstellen.

Die Europäische Union hat mit dem AI Act von 2024 – dem weltweit ersten umfassenden gesetzlichen Rahmen für KI – versucht, einen risikobewussten Ordnungsrahmen zu schaffen (EU 2024). Ob dieser Ansatz ausreicht, ist mehr als fraglich. In einem internationalen Wettbewerb, in dem Regulierung als Standortnachteil diskutiert wird und US-amerikanische sowie chinesische Akteur*innen kaum vergleichbare Beschränkungen kennen, droht eine Dynamik des gegenseitigen Unterbietens – ein Wettlauf nach unten, bei dem die Schwächsten die Zeche zahlen. Die Enquetekommission des Deutschen Bundestages zu KI, 2018 eingesetzt und 2020 abgeschlossen, hat wichtige Impulse gesetzt, deren politische Wirkung jedoch begrenzt blieb: Handlungsempfehlungen solcher Kommissionen werden in der politikwissenschaftlichen Literatur häufig als folgenlos eingestuft (Durz & Kuntze 2023). Dass die erste Erwähnung von KI im Deutschen Bundestag bereits 1984 fiel – verbunden mit der Frage, wie im Angesicht technischen Fortschritts ein aufgeklärtes Menschenbild gewahrt werden könne –, zeigt: Die Fragen sind nicht neu. Die Dringlichkeit ihrer Beantwortung aber ist es.

Hinzu kommt eine tieferliegende Herausforderung, die den gesamten öffentlichen Diskurs prägt. Die gesellschaftliche Debatte über KI findet unter Bedingungen ungleicher Informationsverhältnisse statt: Die Unternehmen, die die mächtigsten Systeme entwickeln, besitzen das detaillierteste Wissen über deren Fähigkeiten und Risiken. Die Öffentlichkeit, die demokratisch über Regulierung entscheiden soll, ist auf Pressemitteilungen und journalistische Interpretation angewiesen. Der öffentliche Diskurs über KI oszilliert dabei häufig zwischen Techno-Euphorie und Panik – während die dringlichen Fragen kaum die politische Agenda dominieren: Wer kontrolliert die Daten? Wer haftet bei Schäden? Wie werden Betroffene einbezogen? Naiver Fortschrittsoptimismus ebenso wie dystopische Untergangsszenarien sind hier eher Formen der Verantwortungsflucht: die eine als Machbarkeitsrausch, die andere als lähmende Ohnmachtserfahrung. Am Ende steht nicht die Frage, ob KI kommt – sie ist bereits da, tief eingewoben in die Infrastrukturen des Alltags, des Wirtschaftens und des Regierens.

Kritische Kompetenz zwischen Optimismus und Sorge

Die Frage bleibt, wie Gesellschaften mit Künstlicher Intelligenz umgehen: ob sie zu Konsument*innen einer Technologie werden, die von wenigen entwickelt und kontrolliert wird, oder ob sie die Bedingungen ihrer Anwendung infrage stellen und demokratisch aushandeln. Das setzt mindestens dreierlei voraus: erstens eine breite, öffentlich geförderte KI-Alphabetisierung; zweitens einen regulatorischen Rahmen, der international koordiniert, risikoorientiert und demokratisch legitimiert ist; und drittens eine Wissenschafts- und Medienpolitik, die den pluralen Diskurs über KI-Risiken fördert, statt ihn in Konsens-Narrative zu überführen. Kovács‘ Forderung, die gestalterische Verantwortung für diese Technologie „mit Verantwortung in die Hand zu nehmen und über unsere Erkenntnisse mit der Öffentlichkeit zu diskutieren“, gilt nicht nur für Hochschulen – sie gilt für alle demokratisch relevanten Institutionen (Kovács 2023).

KI ist kein bloßes Schicksal. Sie ist auch das Ergebnis von Entscheidungen: darüber, welche Forschung gefördert wird, welche Anwendungen unter welchen Bedingungen erlaubt sind, welche Daten verwendet werden, welche Werte in Trainingsprozesse eingeschrieben werden – und wer bei alledem ein Wort mitreden darf. Die KI-Revolution ist, trotz der inflationären Verwendung des Begriffs, tatsächlich tiefgreifend und umwälzend – nicht weil Maschinen zu denken begonnen hätten, sondern weil sie Machtverhältnisse, Wissenshierarchien und Arbeitsteilungen in massiver Geschwindigkeit verschieben und Institutionen herausfordern, die für langsamere Wandlungsprozesse gebaut wurden. Ob diese Revolution wirklich mehr Befreiung und Nutzen für die Allgemeinheit oder mehr Abhängigkeit und Ungleichheit produziert – das ist keine vorderrangig technologische Frage. Es ist vor allem eine politische.

Denkende Gesellschaften, nicht denkende Maschinen – das ist der eigentliche Einsatz dieser Epoche. Kritische Kompetenz wird entscheidend: die Fähigkeit, das Versprechen und Potenzial zu sehen und gleichzeitig die Widersprüche und Risiken zu benennen; das Werkzeug zu nutzen und gleichzeitig zu fragen, wessen Werkzeug es ist und welchen Interessen es dient. Turing stellte 1950 die spannende Frage, ob Maschinen denken können. Die dringlichere Frage für das 21. Jahrhundert ist jedoch, ob wir uns noch die Zeit nehmen, selbst zu denken – über das, was wir kreieren, unter welchen Bedingungen wir es einsetzen und zulassen. Und wo wir ethische, technologische, wissenschaftliche wie politische Grenzen setzen.

„Wir müssen aufpassen, dass wir die erwünschten Effekte verstärken, die unerwünschten hingegen vermeiden, abschwächen oder durch geeignete Maßnahmen ausgleichen.“ – László Kovács, KI als Booster-Technologie (2023)

Im Text genannte Quellen und weiterführende Literatur

Monographien und Sammelbände

Bostrom, N. (2014): Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Clark, A. (1997): Being There: Putting Brain, Body, and World Together Again. MIT Press.

Crawford, K. (2021): Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Damasio, A. (2006): Descartes‘ Irrtum. Fühlen, Denken und das menschliche Gehirn. List Taschenbuch.

Gray, M. L. / Suri, S. (2019): Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt.

Kovács, L. (Hrsg.) (2023): Künstliche Intelligenz und menschliche Gesellschaft. De Gruyter, Berlin/Boston. DOI: https://doi.org/10.1515/9783111034706. [Open Access]

— Kovács, L. (2023a): KI als Booster-Technologie – Zur Einleitung. In: Kovács 2023, Kap. 1.

— Kovács, L. (2023b): Was wird die KI nie können? In: Kovács 2023, Kap. 15.

— Gaube, S. / Lermer, E. (2023): KI-gestützte Entscheidungsunterstützungssysteme im Gesundheitswesen. In: Kovács 2023, Kap. 9.

— Gruber, A. (2023): KI im Kontext Fremdsprachenlernen. In: Kovács 2023, Kap. 11.

— Zarcone, A. / Leschanowsky, A. (2023): Sprachassistenten zwischen Datenhunger und Datenschutz. In: Kovács 2023, Kap. 12.

— Durz, H. / Kuntze, J.-H. (2023): Politische Mittel zur Steuerung von KI. In: Kovács 2023, Kap. 14.

Marcus, G. / Davis, E. (2019): Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books.

Russell, S. / Norvig, P. (2021): Artificial Intelligence: A Modern Approach. 4. Auflage. Pearson.

Schmiedchen, F. / von Gernler, A. / Hafner, M. / Kratzer, K. P. (Hrsg.) (2026): Künstliche Intelligenz und Wir. Stand, Nutzung und Herausforderungen der KI. Springer Vieweg, Berlin. ISBN 978-3-662-71566-6. [Open Access]

— Schmiedchen, F. (2026): Der Beginn einer neuen Epoche. In: Schmiedchen et al. 2026, Kap. 1.

— Werner, S. / Arzig, C. (2026): Künstliche Intelligenz – ein Überblick. In: Schmiedchen et al. 2026, Kap. 3.

— Gethmann, C. F. (2026): Lösen digitale Agenten die menschlichen Forscher künftig ab? In: Schmiedchen et al. 2026, Kap. 15.

— Beschorner, T. (2026): Wenn der Mensch mit der Maschine: Beziehungen und Sex. In: Schmiedchen et al. 2026, Kap. 16.

— Disselkamp, M. / Schmiedchen, F. (2026): Strategischer KI-Einsatz in Unternehmen. In: Schmiedchen et al. 2026, Kap. 18.

Wissenschaftliche Artikel und Berichte

Altman, S. et al. (2023): GPT-4 Technical Report. OpenAI. https://openai.com/research/gpt-4

Bender, E. M. et al. (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: Proceedings of the 2021 ACM FAccT Conference, S. 610–623.

Brown, T. et al. (2020): Language Models are Few-Shot Learners. NeurIPS 2020. arXiv:2005.14165.

Brynjolfsson, E. / Li, D. / Raymond, L. R. (2023): Generative AI at Work. NBER Working Paper No. 31161.

Deutscher Ethikrat (2023): Stellungnahme: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Berlin. https://www.ethikrat.org

EU (2024): Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates (AI Act). Amtsblatt der Europäischen Union, 12. Juli 2024.

Hinton, G. (2023): Interview mit MIT Technology Review: The „Godfather of AI“ Leaves Google and Warns of Danger Ahead. Mai 2023.

ICRC (2021): ICRC Position on Autonomous Weapon Systems. International Committee of the Red Cross, Geneva.

Ji, Z. et al. (2023): Survey of Hallucination in Natural Language Generation. ACM Computing Surveys 55(12), S. 1–38.

Jumper, J. et al. (2021): Highly Accurate Protein Structure Prediction with AlphaFold. Nature 596, S. 583–589.

Koedinger, K. R. et al. (2023): An Astonishing Regularity in Student Learning Rate. PNAS 120(13), e2221311120.

LeCun, Y. (2023): A Path Towards Autonomous Machine Intelligence. Preprint. https://openreview.net/pdf?id=BZ5a1r-kVsf

McKinney, S. M. et al. (2020): International Evaluation of an AI System for Breast Cancer Screening. Nature 577, S. 89–94.

McKinsey Global Institute (2023): The Economic Potential of Generative AI: The Next Productivity Frontier. McKinsey & Company.

Microsoft (2023): 2023 Environmental Sustainability Report. Microsoft Corporation.

Perrigo, B. (2023): OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. TIME Magazine, Januar 2023.

Ribeiro, M. H. et al. (2020): Auditing Radicalization Pathways on YouTube. In: Proceedings of the 2020 ACM FAccT Conference.

Rolnick, D. et al. (2022): Tackling Climate Change with Machine Learning. ACM Computing Surveys 55(2), S. 1–96.

Searle, J. (1984): Minds, Brains and Science. Cambridge University Press.

Shum, H.-Y. et al. (2023): From Eliza to ChatGPT: The Evolution of Conversational AI. IEEE Spectrum.

Strubell, E. / Ganesh, A. / McCallum, A. (2019): Energy and Policy Considerations for Deep Learning in NLP. ACL 2019. arXiv:1906.02629.

Turing, A. M. (1950): Computing Machinery and Intelligence. Mind NS, 59, S. 433–460.

Vaswani, A. et al. (2017): Attention Is All You Need. NeurIPS 2017. arXiv:1706.03762.

Vosoughi, S. / Roy, D. / Aral, S. (2018): The Spread of True and False News Online. Science 359(6380), S. 1146–1151.

WEF (2023): Future of Jobs Report 2023. World Economic Forum, Geneva.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

nach oben