« Back to Glossary Index

Verzerrung oder Bias bezeichnet im KI-Kontext systematische Fehler in Algorithmen oder Datensätzen, die zu ungerechten oder diskriminierenden Ergebnissen führen. Bias entsteht häufig, wenn Trainingsdaten bestehende gesellschaftliche Ungleichheiten widerspiegeln oder bestimmte Gruppen über- bzw. unterrepräsentiert sind. KI-Systeme können so bestehende Diskriminierung verstärken, etwa bei Kreditvergabe, Personalentscheidungen oder Strafverfolgung. Die Erkennung und Korrektur von Bias ist ein zentrales Forschungsfeld der KI-Ethik. Beispiel: Ein automatisiertes Bewerbungsauswahlsystem eines großen Unternehmens wurde abgeschaltet, nachdem sich zeigte, dass es Frauen systematisch schlechter bewertete – weil es auf historischen Einstellungsdaten trainiert worden war, in denen Männer überwogen.

« Zurück zum Lexikonindex
nach oben