# 🏃 Sprint-Planung: Sprint 1 (V3.1) **Fokus:** Intelligenz & Gedächtnis ## 🎯 Sprint-Ziel Mindnet kann sich an den Kontext des aktuellen Gesprächs erinnern und seine Retrieval-Logik basierend auf historischen Feedback-Daten anpassen. ## 🛠️ Aufgaben & Lösungsskizzen ### Aufgabe 1: SQLite Session Management (Backend) * **Datei:** `app/core/retrieval/session_manager.py` (Neu) * **Details:** Erstelle eine DB-Struktur für `sessions` und `messages`. * **Logik:** Jede Anfrage im `chat.py` Endpunkt muss eine `session_id` verarbeiten. ### Aufgabe 2: Context Injection in DecisionEngine * **Datei:** `app/core/retrieval/decision_engine.py` * **Details:** 1. Abruf der letzten 5 Nachrichten aus dem `SessionManager`. 2. Verdichtung der Historie auf max. 500 Token via `llm_service.generate_raw_response(prompt_key="compression_template", ...)`. 3. Injection in `_generate_final_answer` als Variable `history`. ### Aufgabe 3: Das Tuning-Modul (Self-Calibration) * **Datei:** `app/services/tuning_service.py` (Neu) * **Details:** 1. Parser für `logs/feedback.jsonl`. 2. Logik: Wenn `negative_feedback` + `intent == 'CODING'`, erhöhe `tech_stream` boost um 0.5. 3. Persistenz in `config/tuning_registry.yaml`. ## 📦 Definition of Done (DoD) - [ ] Test A: Rückfrage "Was meinst du damit?" bezieht sich auf das vorherige Ergebnis. - [ ] Test B: Tuning-Werte werden nach manuellem Feedback in den Logs berücksichtigt. - [ ] Test C: `[PROMPT-TRACE]` zeigt korrekte Level-1/2 Matches für Memory-Prompts.