« Back to Glossary Index
Als Halluzination bezeichnet man in der KI-Forschung falsche oder erfundene Aussagen eines KI-Systems. Sprachmodelle können dabei Informationen erzeugen, die überzeugend klingen, aber sachlich falsch oder frei erfunden sind. Das liegt daran, dass solche Systeme Wahrscheinlichkeiten berechnen und nicht wirklich „wissen“, ob eine Aussage stimmt. Halluzinationen gelten als eines der größten Probleme moderner KI-Systeme, besonders in Bereichen wie Medizin, Bildung oder Journalismus. Beispiel: Ein Chatbot erfindet eine wissenschaftliche Studie oder nennt Quellen, die in Wirklichkeit gar nicht existieren.
« Zurück zum Lexikonindex