All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
1.5 KiB
1.5 KiB
🏃 Sprint-Planung: Sprint 1 (V3.1)
Fokus: Intelligenz & Gedächtnis
🎯 Sprint-Ziel
Mindnet kann sich an den Kontext des aktuellen Gesprächs erinnern und seine Retrieval-Logik basierend auf historischen Feedback-Daten anpassen.
🛠️ Aufgaben & Lösungsskizzen
Aufgabe 1: SQLite Session Management (Backend)
- Datei:
app/core/retrieval/session_manager.py(Neu) - Details: Erstelle eine DB-Struktur für
sessionsundmessages. - Logik: Jede Anfrage im
chat.pyEndpunkt muss einesession_idverarbeiten.
Aufgabe 2: Context Injection in DecisionEngine
- Datei:
app/core/retrieval/decision_engine.py - Details: 1. Abruf der letzten 5 Nachrichten aus dem
SessionManager. 2. Verdichtung der Historie auf max. 500 Token viallm_service.generate_raw_response(prompt_key="compression_template", ...). 3. Injection in_generate_final_answerals Variablehistory.
Aufgabe 3: Das Tuning-Modul (Self-Calibration)
- Datei:
app/services/tuning_service.py(Neu) - Details: 1. Parser für
logs/feedback.jsonl. 2. Logik: Wennnegative_feedback+intent == 'CODING', erhöhetech_streamboost um 0.5. 3. Persistenz inconfig/tuning_registry.yaml.
📦 Definition of Done (DoD)
- Test A: Rückfrage "Was meinst du damit?" bezieht sich auf das vorherige Ergebnis.
- Test B: Tuning-Werte werden nach manuellem Feedback in den Logs berücksichtigt.
- Test C:
[PROMPT-TRACE]zeigt korrekte Level-1/2 Matches für Memory-Prompts.