Scoring-Prompt: Confidence-Scores für LLM-Bewertungen einführen #49
Loading…
Add table
Add a link
Reference in a new issue
No description provided.
Delete branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Beschreibung
Der Scoring-Prompt um Confidence-Scores erweitern, damit erkennbar ist wie sicher sich das LLM bei seiner Bewertung ist. Niedrig-Confidence-Scores sollten anders behandelt werden als Hochsichere.
Hintergrund
Der Scoring-Prompt liefert Scores (0-100) für drei Dimensionen, aber keine Information über die Unsicherheit der Bewertung. Ein Score von 65 mit hoher Confidence ist anders zu behandeln als 65 mit niedriger Confidence (z.B. weil das Ticket mehrdeutig ist).
Akzeptanzkriterien
confidence: "high" | "medium" | "low"lowConfidence in einer kritischen Dimension: Ticket automatisch als Klärfall markieren (unabhängig vom Score)score_detailsJSON gespeichertLOW_CONFIDENCE_FORCES_KLAERFALL(Default: true)Technische Hinweise
backend/prompts/scoring_prompt.py— JSON-Schema umconfidenceFeld erweiternbackend/services/scoring_engine.py— Confidence auswerten bei Klassifikationfrontend/src/components/ScoreDisplay.tsx— Confidence-Anzeigescore_detailsJSON gespeichert)Aufwand: S
Superseded by #88 (Post-Merge Verification & Automated Testing). Confidence-Scoring ist dort als Teilbereich abgedeckt.