Es ist ein unscheinbares Programm mit einem mächtigen Versprechen: alles sehen, alles verknüpfen, alles verstehen. Die Analyseplattform „Gotham“ des US‑Unternehmens Palantir kann Millionen Datensätze in Sekunden durchsuchen, Querverbindungen herstellen und Muster sichtbar machen, die menschlichen Ermittler*innen verborgen bleiben würden. Für Polizei und Sicherheitsbehörden klingt das nach einer Revolution – für Kritiker*innen nach dem Beginn einer Überwachungsgesellschaft, die sich langsam, aber unaufhaltsam etabliert.

Mehrere Bundesländer in Deutschland setzen Palantir bereits ein, oft unter eigenen Namen wie Hessendata (Hessen), DAR (Nordrhein‑Westfalen) oder VeRA (Bayern). Die Befürworter*innen sprechen von einem Durchbruch in der Polizeiarbeit: effizientere Ermittlungen, gezieltere Fahndung und schnellere Erfolge. Kritische Stimmen hingegen warnen: Hier entstehe eine Infrastruktur, die mehr könne, als den Verantwortlichen lieb sei – und deren Ausweitung kaum zu stoppen wäre, sobald sie erst einmal im Einsatz ist.

Vom CIA‑Projekt zum deutschen Polizeialltag

Palantir begann Anfang der 2000er‑Jahre als Projekt mit direkter CIA‑Beteiligung, finanziert von der hauseigenen Investment‑Tochter In‑Q‑Tel (ProPublica 2018). Ziel war es, Datenfluten so zu ordnen, dass Terrornetzwerke leichter identifiziert werden können. Der Name stammt aus Tolkiens „Herr der Ringe“ – dort sind Palantíri Sehsteine, die in ferne Orte blicken lassen. Schon diese Symbolik spricht für sich: ein Instrument totaler Sichtbarkeit.

Heute wird Gotham von Sicherheitsbehörden in aller Welt genutzt. Die Plattform verknüpft Daten aus Polizeiregistern, Funkzellendaten, Social‑Media‑Profilen, Finanztransaktionen, Mautdaten und Videoüberwachung. Sie erstellt daraus interaktive Karten und Beziehungsnetzwerke. Für Ermittlungsbehörden bedeutet das: Ein Verdächtiger lässt sich binnen Sekunden in seinen sozialen und räumlichen Kontext einordnen – inklusive seiner Kontakte, Bewegungsmuster und möglicher Tatorte.

Erste Erfolge – und wachsende Kritik

Hessen führte Palantir 2017 ein, NRW folgte 2020. Offiziell gilt das System als Erfolg: Bei der Aufklärung des Missbrauchskomplexes Bergisch Gladbach soll Hessendata entscheidend geholfen haben, Täter*innen zu identifizieren und Netzwerke aufzudecken (Welt 2023). Die Befürworter*innen argumentieren, dass solche Analysen ohne Palantir deutlich länger gedauert hätten. Kritiker*innen bezweifeln jedoch, dass der Nutzen in diesem Ausmaß belegt ist – und warnen davor, Erfolgsgeschichten unkritisch zu übernehmen, ohne sie unabhängig zu evaluieren. Ist Palantir wirklich ein „Gamechanger“ – oder ein teures Prestigeprojekt, das einige Gefahren birgt?

Palantir kann nicht nur gezielt Verdächtige analysieren, sondern verknüpft auch Informationen über Menschen, die nie selbst im Fokus standen: Zeug*innen, Opfer, lose Kontaktpersonen. Dadurch entstehen digitale Schattenprofile, die dauerhaft gespeichert und in späteren Ermittlungen erneut herangezogen werden können – selbst ohne konkreten Anlass. Datenschützer*innen sehen darin einen Paradigmenwechsel: weg von punktueller, anlassbezogener Ermittlungsarbeit hin zu einer potenziell flächendeckenden Dauerbeobachtung (GFF 2024). Eine solche Infrastruktur schafft Macht, die – einmal etabliert – kaum mehr zurückgedreht werden kann. Wer schützt uns vor der allmählichen Normalisierung solcher Methoden?

Digitale Souveränität und Abhängigkeit

2023 erklärte das Bundesverfassungsgericht Teile der hessischen und hamburger Gesetze zum automatisierten Datenabgleich für verfassungswidrig (BVG 2023). Die Richter*innen betonten: Eine anlasslose, massenhafte Auswertung personenbezogener Daten verletzt Grundrechte. Solche Eingriffe seien nur bei klarer, konkreter Gefahr erlaubt.

Doch hier beginnt das Problem: Was genau ist eine „konkrete Gefahr“? Kritiker*innen befürchten, dass diese Definition im Laufe der Zeit immer weiter gefasst wird – bis aus der Ausnahme die Regel geworden ist. Wenn der Gesetzgeber die Hürden schrittweise senkt, bleibt von den Schutzmechanismen am Ende wenig übrig. Ein weiterer Kritikpunkt ist die Herkunft der Software. Palantir ist ein US‑Konzern und unterliegt amerikanischem Recht. Selbst wenn Daten physisch in Deutschland gespeichert werden, könnten US‑Behörden unter bestimmten Umständen Zugriff verlangen (Fraunhofer SIT 2023).

Befürworter*innen verweisen darauf, dass bislang keine Anzeichen für einen solchen Zugriff existieren. Kritiker*innen halten dagegen: Die bloße Möglichkeit unterminiere die digitale Souveränität Deutschlands. Gerade im sensiblen Bereich der inneren Sicherheit sei Abhängigkeit von einem ausländischen Anbieter riskant. Sollten wir uns im sicherheitspolitischen Kern wirklich von externen Akteuren abhängig machen?

Politische Fronten und gesellschaftliche Debatte

Die Fronten verlaufen quer durch Parteien und Institutionen. Innenminister*innen, die Palantir nutzen, betonen Erfolge und warnen vor einem „Technologie‑Rückschritt“, falls man die Systeme nicht weiter ausbaut. Auf Bundesebene jedoch fordern SPD‑Politiker*innen klare gesetzliche Leitplanken und Zurückhaltung, während CSU‑Vertreter*innen den Einsatz ausweiten wollen (netzpolitik.org 2025).

Zivilgesellschaftliche Organisationen wie die GFF oder netzpolitik.org mahnen, dass es nicht nur um Datenschutz geht, sondern um die demokratische Grundordnung. Die eigentliche Debatte müsse lauten: Wollen wir in einem Land leben, in dem polizeiliche Ermittlungen weitgehend algorithmisch gesteuert werden – und wenn ja, unter welchen Bedingungen? Die Antwort auf diese Frage entscheidet, wie viel Freiheit wir in Zukunft haben.

In den USA wird Palantir seit Jahren genutzt, unter anderem in Los Angeles und New Orleans. Dort kam es zu umstrittenen Anwendungen, etwa zur Erstellung von Gefahrenprognosen für ganze Stadtviertel (ProPublica 2018). Kritiker*innen werfen den Behörden vor, dass solche Systeme systematisch marginalisierte Bevölkerungsgruppen überproportional ins Visier nehmen.

Auch in Großbritannien gab es vergleichbare Fälle: Polizeibehörden nutzten Analysewerkzeuge, um „potenzielle Täter*innen“ zu identifizieren – und stützten sich dabei auf historische Daten, die bereits gesellschaftliche Vorurteile enthielten (The Guardian 2020). Das Ergebnis: eine algorithmisch verstärkte Diskriminierung. Wenn wir aus diesen Erfahrungen nichts lernen, wiederholen wir dieselben Fehler – nur unter deutschem Recht.

Wenn Technologie zur stillen Machtprobe wird

Die Auseinandersetzung um Palantir ist kein rein technisches oder juristisches Detail, sondern ein Gradmesser dafür, wie wir als Gesellschaft mit Macht, Unsicherheit und dem Versprechen absoluter Kontrolle umgehen. Sie zeigt, wie schnell ein Instrument, das mit dem Ziel entwickelt wurde, Gefahren abzuwehren, selbst zu einer Gefahr für demokratische Prinzipien werden kann.

Gerade weil Palantir so leise arbeitet, weil es im Hintergrund und ohne sichtbare Präsenz wirkt, ist die Versuchung groß, es nicht als echten Eingriff zu empfinden. Es gibt keine Kameras auf den Straßen, die uns anstarren, keine Stasi‑Spitzel, die uns beschatten – und doch kann das Ergebnis dasselbe sein: eine nahezu lückenlose Aufzeichnung und Analyse unseres Lebens.

Die Befürworter*innen sagen, man müsse nur vertrauen: auf gesetzliche Grenzen, auf die Vernunft der Behörden, auf die Integrität derer, die Zugriff haben. Die Kritiker*innen entgegnen: Vertrauen allein ist keine Kontrollinstanz. Die Geschichte der Überwachung – ob in Demokratien oder Autokratien – lehrt, dass technologische Möglichkeiten, einmal geschaffen, fast immer ausgeweitet werden.

Wer schützt uns vor Palantir?

Die zentrale Frage lautet daher nicht nur, ob Palantir uns nützt, sondern: Wer schützt uns vor diesem Überwachungssystem? Wer garantiert, dass es nicht schleichend vom Ausnahme‑ zum Alltagsinstrument wird? Wer stellt sicher, dass die Grenzen, die heute gelten, morgen nicht aus politischen, ökonomischen oder sicherheitsstrategischen Gründen verschoben werden?

Wenn wir diese Fragen nicht beantworten, bevor Palantir im gesamten Sicherheitsapparat etabliert ist, riskieren wir eine stille Machtverschiebung: weg von einer Gesellschaft, die ihre Sicherheitsorgane kontrolliert, hin zu einer, in der die Technologie diese Kontrolle umkehrt. Am Ende ist Palantir nicht nur ein Test für unseren Datenschutz, sondern auch für unsere Demokratie. Und dieser Test wird nicht allein in Gerichtssälen entschieden, sondern in der politischen Öffentlichkeit, in den Medien, in einer kritischen Zivilgesellschaft. Dabei ist entscheidend, den Blick genauer dorthin zu wenden, wo Macht wächst – und wo sie scheinbar unsichtbar bleibt.

Im Text genannte Quellen:

  • Bundesverfassungsgericht (BVG 2023). Urteil zu automatisierter Datenanalyse in Hessen und Hamburg.
  • Fraunhofer SIT (2023). Gutachten zu Palantir Gotham im Auftrag des Landes Hessen.
  • netzpolitik.org (2025). Verfassungsbeschwerde: Das Problem heißt nicht nur Palantir.
  • Welt (2023/2024). Palantir in NRW und Bayern: Polizeisoftware zwischen Erfolg und Kritik.
  • Gesellschaft für Freiheitsrechte (GFF 2024). Analyse zu Risiken der automatisierten Datenanalyse.
  • The Guardian (2020). Predictive Policing in Los Angeles: How Data‑Driven Policing Harms Minority Communities.
  • ProPublica (2018). Palantir Knows Everything About You – And The Police Use It Every Day.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

nach oben