logo
EdTech | Prüfungswesen

Von Stunden zu Minuten: Agentisches Korrigieren für Texte

Lehrkräfte benötigten genaue, konsistente Bewertungen für Essays und Kurzantworten – ohne LMS-Umbauten. Geliefert wurde eine datenschutzbewusste Erweiterung, die Fragen und Antworten erkennt, Rubriken anwendet und konstruktives Feedback entwirft.

Korrekturtempo

Stunden → Minuten

Feedback-Abdeckung

Konsistent & rubrik-konform

LMS-Integration

Keine Plattform-Änderungen

Bildung & EdTechAI AgentsAngewandte KI & LLMsMobile & Web Entwicklung

Automatisierter Bewertungs-Assistent für Freitextantworten

Executive Summary

Ein Produkt- und AI-Engineering-Team lieferte einen schlanken Bewertungs-Assistenten, der Punktevergabe und Rückmeldungen für Freitextaufgaben automatisiert. Als Browser-Erweiterung liest das System Bewertungsseiten, erkennt Aufgaben und Antworten und wendet Bewertungsraster mit großen Sprachmodellen an, um Vorschläge für Punkte und präzise Kommentare zu erzeugen. Die Freigabe bleibt bei der Lehrkraft, während datensparsame Architektur ohne LMS-Änderungen auskommt.

Problem

Multiple-Choice ist schnell automatisiert, Essays und Kurzantworten hingegen binden überproportional Zeit. Bestehende Tools liefern oft uneinheitliche Ergebnisse, berücksichtigen Rubriken unzureichend oder erzwingen Medienbrüche. Unter Zeitdruck fällt Feedback häufig aus – mit Nachteilen für den Lernerfolg. Benötigt wurde eine Lösung, die rubrikbasiert bewertet, sinnvolles, konkretes Feedback generiert, direkt auf bestehenden Bewertungsseiten arbeitet und ohne zusätzliches Personal skaliert.

Lösung

Der Assistent greift dort ein, wo Lehrkräfte ohnehin arbeiten. Ein Content-Script analysiert die Seite, segmentiert Prompts und Antworten und extrahiert – sofern vorhanden – Rubrik-Kriterien. Eine Orchestrierung übergibt minimal, redaktionell bereinigte Ausschnitte an ein LLM mit strukturiertem Prompt: Gewichte, Punktebereiche und evidenzbasierte Kommentare sind vorgegeben. Die Rückgabe füllt Punktefelder und Feedback-Texte automatisch, bereit zur schnellen Korrektur. Regler steuern Strenge und Tonalität; per Klick lassen sich Vorschläge neu generieren. Plattform-Funktionen umfassen Audit-Logs, rollenbasierte Rechte und ein Admin-Panel für Institutionseinstellungen. Technisch: TypeScript-Extension (MV3), serverloses Backend, gesicherte Authentifizierung und konformer Dokumenten-Store; anbieterneutrale LLM-Provider arbeiten hinter datensparenden Schutzmaßnahmen.

Outcome

Lehrkräfte wechseln vom mühsamen Einzelabgleich zum geführten Review. Zeit pro Abgabe sinkt deutlich, Feedback-Quote und Rubrik-Konsistenz steigen. Studierende erhalten schneller klare Hinweise zu Stärken und Lücken. Einrichtungen bewältigen höhere Prüfungsvolumina ohne LMS-Umbauten; Nachvollziehbarkeit bleibt durch editierbare Begründungen gewahrt.

Was Sie von einer Zusammenarbeit mit Dreamloop Studio erwarten können

Die Produkt- und AI-Teams von Dreamloop Studio entwerfen Assistenten, die sich nahtlos in akademische Abläufe einfügen. Erwartbar sind rubrikbewusste Prompts, Datenschutz-First-Architekturen und Human-in-the-Loop-Kontrollen, die Lehrkräfte am Steuer lassen. Ergebnis ist ein skalierbarer Bewertungsprozess mit besserem Feedback – und mehr Zeit für Lehre.

Planen Sie Ihren KI-Bewertungs-Pilot

Book a conversation with Dreamloop Studio to explore how we can deliver similar ROI for your organisation.

Talk to our team

Buchen Sie ein kostenfreies Erstgespräch

In einem kurzen Anruf beraten wir Sie zu unseren Leistungen.