All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
29 lines
1.5 KiB
Markdown
29 lines
1.5 KiB
Markdown
# 🏃 Sprint-Planung: Sprint 1 (V3.1)
|
|
**Fokus:** Intelligenz & Gedächtnis
|
|
|
|
## 🎯 Sprint-Ziel
|
|
Mindnet kann sich an den Kontext des aktuellen Gesprächs erinnern und seine Retrieval-Logik basierend auf historischen Feedback-Daten anpassen.
|
|
|
|
## 🛠️ Aufgaben & Lösungsskizzen
|
|
|
|
### Aufgabe 1: SQLite Session Management (Backend)
|
|
* **Datei:** `app/core/retrieval/session_manager.py` (Neu)
|
|
* **Details:** Erstelle eine DB-Struktur für `sessions` und `messages`.
|
|
* **Logik:** Jede Anfrage im `chat.py` Endpunkt muss eine `session_id` verarbeiten.
|
|
|
|
### Aufgabe 2: Context Injection in DecisionEngine
|
|
* **Datei:** `app/core/retrieval/decision_engine.py`
|
|
* **Details:** 1. Abruf der letzten 5 Nachrichten aus dem `SessionManager`.
|
|
2. Verdichtung der Historie auf max. 500 Token via `llm_service.generate_raw_response(prompt_key="compression_template", ...)`.
|
|
3. Injection in `_generate_final_answer` als Variable `history`.
|
|
|
|
### Aufgabe 3: Das Tuning-Modul (Self-Calibration)
|
|
* **Datei:** `app/services/tuning_service.py` (Neu)
|
|
* **Details:** 1. Parser für `logs/feedback.jsonl`.
|
|
2. Logik: Wenn `negative_feedback` + `intent == 'CODING'`, erhöhe `tech_stream` boost um 0.5.
|
|
3. Persistenz in `config/tuning_registry.yaml`.
|
|
|
|
## 📦 Definition of Done (DoD)
|
|
- [ ] Test A: Rückfrage "Was meinst du damit?" bezieht sich auf das vorherige Ergebnis.
|
|
- [ ] Test B: Tuning-Werte werden nach manuellem Feedback in den Logs berücksichtigt.
|
|
- [ ] Test C: `[PROMPT-TRACE]` zeigt korrekte Level-1/2 Matches für Memory-Prompts. |