mindnet/docs/99_Archive/WP25b_merge_commit.md

3.8 KiB

Branch Merge Commit: WP-25b

Branch: WP25b
Target: main
Version: v3.1.1
Date: 2026-01-02


Commit Message

feat: Lazy-Prompt-Orchestration & Full Resilience (v3.1.1)

### Hierarchisches Prompt-Resolution-System
- Dreistufige Auflösungs-Logik: Level 1 (Modell-ID) → Level 2 (Provider) → Level 3 (Default)
- Modell-spezifische Optimierungen für Gemini 2.0, Llama 3.3, Qwen 2.5
- PROMPT-TRACE Logging für vollständige Transparenz
- Implementierung in `app/services/llm_service.py` (v3.5.5)

### Lazy-Prompt-Orchestration
- Prompts werden erst zur Laufzeit geladen, basierend auf aktivem Modell
- Parameter: `prompt_key` und `variables` statt vorformatierter Strings
- Maximale Resilienz bei Modell-Fallbacks (Cloud → Local)
- Vollständige Integration in Chat, Ingestion und DecisionEngine

### Ultra-robustes Intent-Parsing
- Regex-basierter Parser bereinigt Modell-Artefakte (z.B. `CODING[/S]` → `CODING`)
- Implementierung in `app/core/retrieval/decision_engine.py` (v1.3.2)
- Fehlerresistenz gegen Stop-Marker, Newlines oder Modell-Plaudereien

### Differenzierte Ingestion-Validierung
- Unterscheidung zwischen transienten (Netzwerk) und permanenten (Config) Fehlern
- Transiente Fehler erlauben Kante (Datenverlust vermeiden)
- Permanente Fehler lehnen Kante ab (Graph-Qualität schützen)
- Implementierung in `app/core/ingestion/ingestion_validation.py` (v2.14.0)

### Code-Komponenten
- `app/services/llm_service.py`: v3.5.5 (Hierarchische Prompt-Resolution, Lazy-Loading)
- `app/core/retrieval/decision_engine.py`: v1.3.2 (Ultra-robustes Intent-Parsing)
- `app/core/ingestion/ingestion_validation.py`: v2.14.0 (Lazy-Prompt-Integration)
- `app/routers/chat.py`: v3.0.3 (Lazy-Prompt-Loading für Chat-Synthese)

### Konfiguration
- `config/prompts.yaml`: v3.2.2 (Hierarchische Struktur mit Modell-spezifischen Overrides)
  - 100% Erhalt der Original-Prompts aus v3.1.2 für Provider-Ebene
  - Integration von Modell-spezifischen Overrides
  - Hinzufügen von `compression_template`

### Dokumentation
- `03_tech_chat_backend.md`: Hierarchisches Prompt-Resolution-System
- `03_tech_configuration.md`: prompts.yaml hierarchische Struktur
- `02_concept_ai_personality.md`: Lazy-Prompt-Orchestration Konzept
- `03_tech_ingestion_pipeline.md`: Differenzierte Validierung
- `00_glossary.md`: Neue Begriffe (Lazy-Prompt, PROMPT-TRACE)
- `05_developer_guide.md`: Lazy-Prompt-Orchestration für Entwickler
- `06_active_roadmap.md`: WP25b als abgeschlossen markiert

### Breaking Changes
- Keine Breaking Changes für Endbenutzer
- Vorformatierte Prompts werden weiterhin unterstützt (Abwärtskompatibilität)
- Neue API-Parameter `prompt_key` und `variables` optional

### Migration
- Keine Migration erforderlich
- System funktioniert ohne Änderungen
- Optional: Modell-spezifische Prompts können in `prompts.yaml` definiert werden

---

**Status:** ✅ WP-25b ist zu 100% implementiert und audit-geprüft.  
**Nächster Schritt:** WP-25c (Kontext-Budgeting & Erweiterte Prompt-Optimierung).

Zusammenfassung

Dieser Merge führt die Lazy-Prompt-Orchestration in MindNet ein. Das System nutzt nun eine hierarchische Prompt-Auflösung mit Lazy-Loading, die Prompts erst zur Laufzeit lädt, basierend auf dem exakt aktiven Modell.

Kern-Features:

  • Hierarchisches Prompt-Resolution-System (3-stufig)
  • Lazy-Prompt-Orchestration mit modell-spezifischem Tuning
  • Ultra-robustes Intent-Parsing via Regex
  • Differenzierte Ingestion-Validierung
  • PROMPT-TRACE Logging für vollständige Transparenz

Technische Integrität:

  • Alle LLM-Aufrufe nutzen nun Lazy-Prompt-Loading
  • Modell-Artefakte werden zuverlässig bereinigt
  • Fehlerbehandlung differenziert zwischen transienten und permanenten Fehlern

Dokumentation:

  • Vollständige Aktualisierung aller relevanten Dokumente
  • Neue Begriffe im Glossar
  • Konfigurations-Referenz erweitert
  • Developer Guide aktualisiert