Token

Tokens sind die kleinsten Einheiten, die von Sprachmodellen zur Analyse und Erzeugung von Text genutzt werden. Sie bilden die grundlegenden Bausteine für das Verstehen und Generieren menschlicher Sprache. Ein Token kann ein ganzes Wort, ein Satzzeichen oder auch nur ein Teil eines Wortes darstellen. (vgl. AIHandwerk 2025)


Validität

Das Gütekriterium der Validität (Gültigkeit) gibt Auskunft dazu, ob eine Prüfung genau das misst, was sie zu messen beabsichtigt – also das Ausmaß, in welchem eine Leistungskontrolle der Studierenden eine aussagekräftige Einschätzung des Erreichens der Lernziele ermöglicht.

 

Quelle:

Bandtel, Matthias; Baume, Matthias; Brinkmann, Elena; Bedenlier, Svenja; Budde, Jannica, Eugster, Benjamin; Ghoneim, Andrea; Halbherr, Tobias; Persike, Malte; Rampelt, Florian; Reinmann, Gabi; Sari, Zaim; Schulz, Alexsander (Hrsg.) (2021): Digitale Prüfungen in der Hochschule. Whitepaper einer Community Working Group aus Deutschland, Österreich und der Schweiz. Stifterverband für die Deutsche Wissenschaft, Berlin: Hochschulforum Digitalisierung.