Von Stunden zu Minuten: Agentisches Korrigieren für Texte
Lehrkräfte benötigten genaue, konsistente Bewertungen für Essays und Kurzantworten – ohne LMS-Umbauten. Geliefert wurde eine datenschutzbewusste Erweiterung, die Fragen und Antworten erkennt, Rubriken anwendet und konstruktives Feedback entwirft.
Stunden → Minuten
Konsistent & rubrik-konform
Keine Plattform-Änderungen
Automatisierter Bewertungs-Assistent für Freitextantworten
Executive Summary
Ein Produkt- und AI-Engineering-Team lieferte einen schlanken Bewertungs-Assistenten, der Punktevergabe und Rückmeldungen für Freitextaufgaben automatisiert. Als Browser-Erweiterung liest das System Bewertungsseiten, erkennt Aufgaben und Antworten und wendet Bewertungsraster mit großen Sprachmodellen an, um Vorschläge für Punkte und präzise Kommentare zu erzeugen. Die Freigabe bleibt bei der Lehrkraft, während datensparsame Architektur ohne LMS-Änderungen auskommt.
Problem
Multiple-Choice ist schnell automatisiert, Essays und Kurzantworten hingegen binden überproportional Zeit. Bestehende Tools liefern oft uneinheitliche Ergebnisse, berücksichtigen Rubriken unzureichend oder erzwingen Medienbrüche. Unter Zeitdruck fällt Feedback häufig aus – mit Nachteilen für den Lernerfolg. Benötigt wurde eine Lösung, die rubrikbasiert bewertet, sinnvolles, konkretes Feedback generiert, direkt auf bestehenden Bewertungsseiten arbeitet und ohne zusätzliches Personal skaliert.
Lösung
Der Assistent greift dort ein, wo Lehrkräfte ohnehin arbeiten. Ein Content-Script analysiert die Seite, segmentiert Prompts und Antworten und extrahiert – sofern vorhanden – Rubrik-Kriterien. Eine Orchestrierung übergibt minimal, redaktionell bereinigte Ausschnitte an ein LLM mit strukturiertem Prompt: Gewichte, Punktebereiche und evidenzbasierte Kommentare sind vorgegeben. Die Rückgabe füllt Punktefelder und Feedback-Texte automatisch, bereit zur schnellen Korrektur. Regler steuern Strenge und Tonalität; per Klick lassen sich Vorschläge neu generieren. Plattform-Funktionen umfassen Audit-Logs, rollenbasierte Rechte und ein Admin-Panel für Institutionseinstellungen. Technisch: TypeScript-Extension (MV3), serverloses Backend, gesicherte Authentifizierung und konformer Dokumenten-Store; anbieterneutrale LLM-Provider arbeiten hinter datensparenden Schutzmaßnahmen.
Outcome
Lehrkräfte wechseln vom mühsamen Einzelabgleich zum geführten Review. Zeit pro Abgabe sinkt deutlich, Feedback-Quote und Rubrik-Konsistenz steigen. Studierende erhalten schneller klare Hinweise zu Stärken und Lücken. Einrichtungen bewältigen höhere Prüfungsvolumina ohne LMS-Umbauten; Nachvollziehbarkeit bleibt durch editierbare Begründungen gewahrt.
Was Sie von einer Zusammenarbeit mit Dreamloop Studio erwarten können
Die Produkt- und AI-Teams von Dreamloop Studio entwerfen Assistenten, die sich nahtlos in akademische Abläufe einfügen. Erwartbar sind rubrikbewusste Prompts, Datenschutz-First-Architekturen und Human-in-the-Loop-Kontrollen, die Lehrkräfte am Steuer lassen. Ergebnis ist ein skalierbarer Bewertungsprozess mit besserem Feedback – und mehr Zeit für Lehre.
Planen Sie Ihren KI-Bewertungs-Pilot
Book a conversation with Dreamloop Studio to explore how we can deliver similar ROI for your organisation.
Buchen Sie ein kostenfreies Erstgespräch
In einem kurzen Anruf beraten wir Sie zu unseren Leistungen.
