Ein KI-Tutor, der die Antwort nicht sagt
Studius ist auf dem entgegengesetzten Prinzip zu ChatGPT aufgebaut: Verweigerung ist die Kernkompetenz. Die KI stellt sokratische Fragen, gibt aber nie die endgültige Antwort.
Was heute schiefläuft
Schüler, die ChatGPT für Hausaufgaben verwenden, bestehen Prüfungen bis sie in einem Testraum sitzen.
Wie EduVlaanderen das löst
Studius läuft lokal (Ollama, EU-souverän) mit einem System-Prompt, der finale Antworten explizit verbietet. Ein Post-Filter erkennt versehentlich durchgesickerte Antworten. Drei Versuche, die Antwort zu bekommen, eskalieren an den Klassenlehrer.
Sicherheitsschichten
- Pre-Filter: Signale für Selbstverletzung/Missbrauch (NL+EN). Match → unterstützende Antwort + Eskalation.
- Missbrauchserkennung: 3 Antwortanfragen → Konversation sperren + Benachrichtigung.
- System-Prompt pro Altersband: Kindergarten gesperrt, Grundschule kurz, Sekundarstufe vollständig.
- Post-Filter: Regex auf "die Antwort ist", "= [Zahl]" → Sokratische Umschreibung.
- Audit-Log: jede Runde mit refusal-reason + safety-flag.
Verweigerung als Pädagogik
Ein guter Lehrer antwortet selten direkt auf eine Schülerfrage — die erste Reaktion ist fast immer eine Gegenfrage.