# Branch Merge Commit: WP-25b **Branch:** `WP25b` **Target:** `main` **Version:** v3.1.1 **Date:** 2026-01-02 --- ## Commit Message ``` feat: Lazy-Prompt-Orchestration & Full Resilience (v3.1.1) ### Hierarchisches Prompt-Resolution-System - Dreistufige Auflösungs-Logik: Level 1 (Modell-ID) → Level 2 (Provider) → Level 3 (Default) - Modell-spezifische Optimierungen für Gemini 2.0, Llama 3.3, Qwen 2.5 - PROMPT-TRACE Logging für vollständige Transparenz - Implementierung in `app/services/llm_service.py` (v3.5.5) ### Lazy-Prompt-Orchestration - Prompts werden erst zur Laufzeit geladen, basierend auf aktivem Modell - Parameter: `prompt_key` und `variables` statt vorformatierter Strings - Maximale Resilienz bei Modell-Fallbacks (Cloud → Local) - Vollständige Integration in Chat, Ingestion und DecisionEngine ### Ultra-robustes Intent-Parsing - Regex-basierter Parser bereinigt Modell-Artefakte (z.B. `CODING[/S]` → `CODING`) - Implementierung in `app/core/retrieval/decision_engine.py` (v1.3.2) - Fehlerresistenz gegen Stop-Marker, Newlines oder Modell-Plaudereien ### Differenzierte Ingestion-Validierung - Unterscheidung zwischen transienten (Netzwerk) und permanenten (Config) Fehlern - Transiente Fehler erlauben Kante (Datenverlust vermeiden) - Permanente Fehler lehnen Kante ab (Graph-Qualität schützen) - Implementierung in `app/core/ingestion/ingestion_validation.py` (v2.14.0) ### Code-Komponenten - `app/services/llm_service.py`: v3.5.5 (Hierarchische Prompt-Resolution, Lazy-Loading) - `app/core/retrieval/decision_engine.py`: v1.3.2 (Ultra-robustes Intent-Parsing) - `app/core/ingestion/ingestion_validation.py`: v2.14.0 (Lazy-Prompt-Integration) - `app/routers/chat.py`: v3.0.3 (Lazy-Prompt-Loading für Chat-Synthese) ### Konfiguration - `config/prompts.yaml`: v3.2.2 (Hierarchische Struktur mit Modell-spezifischen Overrides) - 100% Erhalt der Original-Prompts aus v3.1.2 für Provider-Ebene - Integration von Modell-spezifischen Overrides - Hinzufügen von `compression_template` ### Dokumentation - `03_tech_chat_backend.md`: Hierarchisches Prompt-Resolution-System - `03_tech_configuration.md`: prompts.yaml hierarchische Struktur - `02_concept_ai_personality.md`: Lazy-Prompt-Orchestration Konzept - `03_tech_ingestion_pipeline.md`: Differenzierte Validierung - `00_glossary.md`: Neue Begriffe (Lazy-Prompt, PROMPT-TRACE) - `05_developer_guide.md`: Lazy-Prompt-Orchestration für Entwickler - `06_active_roadmap.md`: WP25b als abgeschlossen markiert ### Breaking Changes - Keine Breaking Changes für Endbenutzer - Vorformatierte Prompts werden weiterhin unterstützt (Abwärtskompatibilität) - Neue API-Parameter `prompt_key` und `variables` optional ### Migration - Keine Migration erforderlich - System funktioniert ohne Änderungen - Optional: Modell-spezifische Prompts können in `prompts.yaml` definiert werden --- **Status:** ✅ WP-25b ist zu 100% implementiert und audit-geprüft. **Nächster Schritt:** WP-25c (Kontext-Budgeting & Erweiterte Prompt-Optimierung). ``` --- ## Zusammenfassung Dieser Merge führt die **Lazy-Prompt-Orchestration** in MindNet ein. Das System nutzt nun eine hierarchische Prompt-Auflösung mit Lazy-Loading, die Prompts erst zur Laufzeit lädt, basierend auf dem exakt aktiven Modell. **Kern-Features:** - Hierarchisches Prompt-Resolution-System (3-stufig) - Lazy-Prompt-Orchestration mit modell-spezifischem Tuning - Ultra-robustes Intent-Parsing via Regex - Differenzierte Ingestion-Validierung - PROMPT-TRACE Logging für vollständige Transparenz **Technische Integrität:** - Alle LLM-Aufrufe nutzen nun Lazy-Prompt-Loading - Modell-Artefakte werden zuverlässig bereinigt - Fehlerbehandlung differenziert zwischen transienten und permanenten Fehlern **Dokumentation:** - Vollständige Aktualisierung aller relevanten Dokumente - Neue Begriffe im Glossar - Konfigurations-Referenz erweitert - Developer Guide aktualisiert