Halluzinationen
4. September 2025
|By Annika Koppold
Generative KI-Modelle können Inhalte erzeugen, die faktisch falsch oder frei erfunden sind – sogenannte Halluzinationen. Anders als Suchmaschinen liefern sie oft nur eine Antwort, ohne transparente Quellen. Da die Modelle Informationen aus gelernten Mustern ableiten, entstehen dabei teils fehlerhafte Aussagen oder erfundene Quellen, die kritisch geprüft und durch eigene Recherchen abgesichert werden müssen. (vgl. Universität Osnabrück 2025)