« Back to Glossary Index

Als Black Box bezeichnet man technische Systeme, deren Entscheidungen oder Ergebnisse nur schwer nachvollziehbar sind. Viele moderne KI-Systeme funktionieren auf diese Weise: Sie liefern zwar Ergebnisse, doch selbst Entwickler:innen können oft nicht genau erklären, wie diese zustande kommen. Das wird besonders problematisch, wenn KI über Bewerbungen, Kredite oder medizinische Diagnosen mitentscheidet. Kritiker:innen warnen deshalb vor fehlender Transparenz und mangelnder Kontrolle. Beispiel: Eine Bank nutzt ein KI-System zur Kreditvergabe, kann aber nicht genau erklären, warum bestimmte Personen abgelehnt werden.

« Zurück zum Lexikonindex
nach oben