3.8 KiB
3.8 KiB
Branch Merge Commit: WP-25b
Branch: WP25b
Target: main
Version: v3.1.1
Date: 2026-01-02
Commit Message
feat: Lazy-Prompt-Orchestration & Full Resilience (v3.1.1)
### Hierarchisches Prompt-Resolution-System
- Dreistufige Auflösungs-Logik: Level 1 (Modell-ID) → Level 2 (Provider) → Level 3 (Default)
- Modell-spezifische Optimierungen für Gemini 2.0, Llama 3.3, Qwen 2.5
- PROMPT-TRACE Logging für vollständige Transparenz
- Implementierung in `app/services/llm_service.py` (v3.5.5)
### Lazy-Prompt-Orchestration
- Prompts werden erst zur Laufzeit geladen, basierend auf aktivem Modell
- Parameter: `prompt_key` und `variables` statt vorformatierter Strings
- Maximale Resilienz bei Modell-Fallbacks (Cloud → Local)
- Vollständige Integration in Chat, Ingestion und DecisionEngine
### Ultra-robustes Intent-Parsing
- Regex-basierter Parser bereinigt Modell-Artefakte (z.B. `CODING[/S]` → `CODING`)
- Implementierung in `app/core/retrieval/decision_engine.py` (v1.3.2)
- Fehlerresistenz gegen Stop-Marker, Newlines oder Modell-Plaudereien
### Differenzierte Ingestion-Validierung
- Unterscheidung zwischen transienten (Netzwerk) und permanenten (Config) Fehlern
- Transiente Fehler erlauben Kante (Datenverlust vermeiden)
- Permanente Fehler lehnen Kante ab (Graph-Qualität schützen)
- Implementierung in `app/core/ingestion/ingestion_validation.py` (v2.14.0)
### Code-Komponenten
- `app/services/llm_service.py`: v3.5.5 (Hierarchische Prompt-Resolution, Lazy-Loading)
- `app/core/retrieval/decision_engine.py`: v1.3.2 (Ultra-robustes Intent-Parsing)
- `app/core/ingestion/ingestion_validation.py`: v2.14.0 (Lazy-Prompt-Integration)
- `app/routers/chat.py`: v3.0.3 (Lazy-Prompt-Loading für Chat-Synthese)
### Konfiguration
- `config/prompts.yaml`: v3.2.2 (Hierarchische Struktur mit Modell-spezifischen Overrides)
- 100% Erhalt der Original-Prompts aus v3.1.2 für Provider-Ebene
- Integration von Modell-spezifischen Overrides
- Hinzufügen von `compression_template`
### Dokumentation
- `03_tech_chat_backend.md`: Hierarchisches Prompt-Resolution-System
- `03_tech_configuration.md`: prompts.yaml hierarchische Struktur
- `02_concept_ai_personality.md`: Lazy-Prompt-Orchestration Konzept
- `03_tech_ingestion_pipeline.md`: Differenzierte Validierung
- `00_glossary.md`: Neue Begriffe (Lazy-Prompt, PROMPT-TRACE)
- `05_developer_guide.md`: Lazy-Prompt-Orchestration für Entwickler
- `06_active_roadmap.md`: WP25b als abgeschlossen markiert
### Breaking Changes
- Keine Breaking Changes für Endbenutzer
- Vorformatierte Prompts werden weiterhin unterstützt (Abwärtskompatibilität)
- Neue API-Parameter `prompt_key` und `variables` optional
### Migration
- Keine Migration erforderlich
- System funktioniert ohne Änderungen
- Optional: Modell-spezifische Prompts können in `prompts.yaml` definiert werden
---
**Status:** ✅ WP-25b ist zu 100% implementiert und audit-geprüft.
**Nächster Schritt:** WP-25c (Kontext-Budgeting & Erweiterte Prompt-Optimierung).
Zusammenfassung
Dieser Merge führt die Lazy-Prompt-Orchestration in MindNet ein. Das System nutzt nun eine hierarchische Prompt-Auflösung mit Lazy-Loading, die Prompts erst zur Laufzeit lädt, basierend auf dem exakt aktiven Modell.
Kern-Features:
- Hierarchisches Prompt-Resolution-System (3-stufig)
- Lazy-Prompt-Orchestration mit modell-spezifischem Tuning
- Ultra-robustes Intent-Parsing via Regex
- Differenzierte Ingestion-Validierung
- PROMPT-TRACE Logging für vollständige Transparenz
Technische Integrität:
- Alle LLM-Aufrufe nutzen nun Lazy-Prompt-Loading
- Modell-Artefakte werden zuverlässig bereinigt
- Fehlerbehandlung differenziert zwischen transienten und permanenten Fehlern
Dokumentation:
- Vollständige Aktualisierung aller relevanten Dokumente
- Neue Begriffe im Glossar
- Konfigurations-Referenz erweitert
- Developer Guide aktualisiert