AI Literacy
Nach Long und Magerko (2020) umfasst AI Literacy eine Reihe von Kompetenzen, die es Personen erlaubt, KI-Technologien kritisch zu hinterfragen, effektiv mit ihnen zu interagieren und zusammenzuarbeiten sowie KI in verschiedenen Lebensbereichen als Werkzeug zu nutzen.
Bias
Sprachmodelle wie ChatGPT spiegeln häufige Muster in ihren Trainingsdaten wider – darunter auch gesellschaftliche Vorurteile. Dazu zählen etwa rassistische, sexistische oder homo- und transfeindliche Tendenzen. Diese Verzerrungen (Bias) können sich unbeabsichtigt in den generierten Texten zeigen, da das Modell Inhalte auf Basis statistischer Wahrscheinlichkeiten erzeugt, ohne deren gesellschaftliche Bedeutung zu bewerten. (vgl. Universität Osnabrück 2025)
Chatbot
Ein Chatbot ist ein digitales Dialogsystem, das die Kommunikation zwischen Mensch und Maschine ermöglicht – entweder per Text oder Sprache, meist über ein Chatfenster (Widget).
Chatbots arbeiten entweder regelbasiert oder mit künstlicher Intelligenz (KI):
- Regelbasierte Chatbots arbeiten mit vordefinierten Fragen-Antwort-Katalogen. Weicht eine Eingabe von den hinterlegten Optionen ab, kann der Chatbot nicht sinnvoll reagieren.
- KI-basierte Chatbots nutzen KI und Natural Language Processing (NLP), um natürliche Sprache zu verstehen. Sie erkennen die Absicht hinter auch komplexen oder langen Nutzeranfragen und ermöglichen so eine menschenähnliche, intelligente Unterhaltung.
(vgl. Zukunftszentrum Sachsen 2025)
An Hochschulen und Universitäten kommen Chatbots bereits in vielfältigen Anwendungsbereichen zum Einsatz. Zu den zentralen Nutzungsszenarien zählen unter anderem:
- Studienberatung und Informationsservice: Chatbots unterstützen Studierende sowie Studieninteressierte rund um die Uhr bei allgemeinen Fragen zu Studiengängen, Bewerbungsfristen, Zulassungsvoraussetzungen oder organisatorischen Abläufen. Sie bieten damit eine niedrigschwellige, jederzeit verfügbare Ergänzung zu klassischen Beratungsangeboten.
Lernunterstützung und Tutor: In der Lehre fungieren Chatbots zunehmend als digitale Lernassistenten – etwa in Form interaktiver Selbsttests, adaptiver Quizformate oder personalisierter Lernpfade. Diese Systeme können auf den individuellen Wissensstand eingehen, Inhalte gezielt wiederholen und somit auch eine gezielte Vorbereitung auf Prüfungen ermöglichen. In einigen Fällen übernehmen sie sogar eine tutorähnliche Funktion, indem sie bei konkreten Aufgabenstellungen oder Fachfragen unterstützend zur Seite stehen.
ChatGPT
ChatGPT (Chat Generative Pre-trained Transformer) ist ein textbasiertes Dialogsystem, das auf einem großen Sprachmodell (Large Language Model, LLM) namens Generative Pre-trained Transformer (GPT) basiert. Entwickelt wurde ChatGPT von OpenAI und wurde erstmals im November 2022 veröffentlicht. Man kann über eine Texteingabe mit dem System interagieren. Dabei ist ChatGPT in der Lage, auf unterschiedlichste textbasierte Anfragen zu reagieren und Antworten zu generieren, die denen eines Menschen sprachlich sehr nahekommen. (vgl. e-teaching 2025)
Generative KI
Als generative KI werden Systeme bezeichnet, die auf Basis umfangreicher Trainingsdaten eigenständig Inhalte, wie zum Beispiel Texte, Bilder, Audio oder Videos erzeugen können. Sie beruhen auf Verfahren des maschinellen Lernens und dem Einsatz neuronaler Netze – weshalb sie der künstlichen Intelligenz zugeordnet werden. Verschiedene Anbieter stellen eine Vielzahl von Tools bereit, mit denen sich Inhalte mithilfe dieser Technologien effizient erstellen lassen. (vgl. KI:EDU.NRW 2025)
Halluzinationen
Generative KI-Modelle können Inhalte erzeugen, die faktisch falsch oder frei erfunden sind – sogenannte Halluzinationen. Anders als Suchmaschinen liefern sie oft nur eine Antwort, ohne transparente Quellen. Da die Modelle Informationen aus gelernten Mustern ableiten, entstehen dabei teils fehlerhafte Aussagen oder erfundene Quellen, die kritisch geprüft und durch eigene Recherchen abgesichert werden müssen. (vgl. Universität Osnabrück 2025)
KI-Detektoren
KI-Detektoren konzentrieren sich bei ihrer Analyse vor allem auf die Textanalyse und die Identifikation neuronaler Sprachmuster.
- Textanalyse: Da Maschinen Texte nicht auf dieselbe Weise wie Menschen verstehen, stützen sich ihre Analysen auf statistische Methoden. Dabei wird unter anderem die Häufigkeit bestimmter Wörter, ihre Grundformen (Lemmata), inhaltlich verwandte Begriffe sowie sogenannte N-Gramme – also Wortfolgen – berücksichtigt. Ergänzend fließen Kennzahlen wie der Lesbarkeitsindex und der Gunning-Fog-Index in die Bewertung ein. Letzterer gibt an, wie viele Jahre formaler Schulbildung nötig sind, um einen Text bereits beim ersten Lesen vollständig zu erfassen.
Identifikation neuronaler Sprachmuster: Zusätzlich zur Textanalyse sind KI-Detektoren in der Lage, Texte anhand ihrer zugrunde liegenden Sprachmodelle zu identifizieren. Wird ein Text mithilfe künstlicher Intelligenz erzeugt, folgt er typischerweise bestimmten Mustern – etwa in Satzbau, Wortwahl oder Rhythmus –, die das zugrunde liegende neuronale Sprachmodell beim Training erlernt hat. Genau diese typischen Strukturen können als Erkennungsmerkmal dienen, wenn es darum geht, KI-generierte Texte von Menschen verfassten zu abzugrenzen.
(vgl. Lehrerinsel 2023)
Es gibt eine Vielzahl von KI-Detektoren – zu den bekanntesten zählen etwa ZeroGPT und QuillBot. Diese Werkzeuge arbeiten jedoch nicht mit absoluter Sicherheit, sondern liefern lediglich Wahrscheinlichkeitsaussagen darüber, ob ein Text von einer KI oder einem Menschen verfasst wurde. Dabei sind sowohl falsch-positive Ergebnisse möglich – also Fälle, in denen von Menschen geschriebene Texte fälschlicherweise als KI-generiert eingestuft werden – als auch falsch-negative Einschätzungen, bei denen KI-generierte Inhalte als von einem Menschen verfasst durchgehen.
KI-Kompetenzen
Die Entwicklung von Kompetenzen im Umgang mit KI umfasst nach Alles et al. (2025) vier zentrale Dimensionen: Verstehen, Anwenden, Reflektieren und Mitgestalten. Diese betreffen Lehrende und Lernende gleichermaßen und bilden die Grundlage eines praxisnahen Kompetenzmodells:
- Verstehen
Die Basis jeder KI-Kompetenz ist das Verständnis für die technischen Grundlagen und Funktionsweisen von KI-Systemen. Nur wer nachvollziehen kann, wie KI „denkt“ und arbeitet, ist in der Lage, ihr Potenzial realistisch einzuschätzen – ebenso wie ihre Grenzen und Risiken.
- Anwenden
Dies bedeutet, KI-Tools zunächst auszuprobieren und später gezielt in eigene Lern- oder Arbeitsprozesse zu integrieren. Anwendung ist nicht nur die technische Bedienung, sondern auch ein bewusster, kontextbezogener Einsatz.
- Reflektieren
Reflexion ist essenziell, um die Auswirkungen von KI auf das eigene Lernen sowie auf gesellschaftliche Zusammenhänge kritisch zu hinterfragen – insbesondere im Hinblick auf ethische, soziale und rechtliche Aspekte. Die Reflexion vertieft das Verständnis und schafft die Grundlage für einen verantwortungsvollen und anpassungsfähigen Umgang mit KI.
- Mitgestalten
Schließlich geht es darum, KI nicht nur zu konsumieren, sondern sie aktiv mitzugestalten – durch Feedback, neue Ideen oder Beiträge zum gesellschaftlichen Diskurs.
Künstliche Intelligenz (KI) / Artifical Intelligence (AI)
Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik und wird als empirische Disziplin verstanden, die sich mit der Entwicklung und Erforschung intelligenter Computersysteme befasst. Solche Systeme sind in der Lage, eigenständig und effizient Probleme zu lösen und verhalten sich dabei so, dass ihre Reaktionen kaum von menschlichen Handlungen zu unterscheiden sind. Der Grad ihrer Intelligenz hängt von mehreren Faktoren ab – insbesondere von ihrer Autonomie, der Komplexität der zu bewältigenden Probleme und der Effizienz der eingesetzten Lösungsstrategien. Aktuelle KI-Ansätze basieren vor allem auf der Analyse großer Datenmengen (Big Data) sowie auf dem Einsatz intelligenter, lernfähiger Algorithmen. (vgl. e-teaching 2025)
Large Language Model (LLM)
Large Language Models (LLMs) sind KI-Modelle, die speziell für die Erzeugung von Texten entwickelt wurden. Sie werden mit riesigen Mengen an Textdaten – etwa aus dem Internet – trainiert und lernen dabei, statistische Muster zwischen Wörtern zu erkennen. Auf dieser Basis können sie auf Eingaben hin neue Texte generieren, die in Stil und Inhalt oft menschlichen Formulierungen erstaunlich nahekommen. Anwendung finden LLMs beispielsweise in Chatbots oder digitalen Sprachassistenten, wie ChatGPT, DeepL etc. (vgl. e-teaching 2025)
