Bias

Sprachmodelle wie ChatGPT spiegeln häufige Muster in ihren Trainingsdaten wider – darunter auch gesellschaftliche Vorurteile. Dazu zählen etwa rassistische, sexistische oder homo- und transfeindliche Tendenzen. Diese Verzerrungen (Bias) können sich unbeabsichtigt in den generierten Texten zeigen, da das Modell Inhalte auf Basis statistischer Wahrscheinlichkeiten erzeugt, ohne deren gesellschaftliche Bedeutung zu bewerten. (vgl. Universität Osnabrück 2025)