WP25b #21

Merged
Lars merged 6 commits from WP25b into main 2026-01-03 15:12:58 +01:00
Owner

feat: Lazy-Prompt-Orchestration & Full Resilience (v3.1.1)

Hierarchisches Prompt-Resolution-System

  • Dreistufige Auflösungs-Logik: Level 1 (Modell-ID) → Level 2 (Provider) → Level 3 (Default)
  • Modell-spezifische Optimierungen für Gemini 2.0, Llama 3.3, Qwen 2.5
  • PROMPT-TRACE Logging für vollständige Transparenz
  • Implementierung in app/services/llm_service.py (v3.5.5)

Lazy-Prompt-Orchestration

  • Prompts werden erst zur Laufzeit geladen, basierend auf aktivem Modell
  • Parameter: prompt_key und variables statt vorformatierter Strings
  • Maximale Resilienz bei Modell-Fallbacks (Cloud → Local)
  • Vollständige Integration in Chat, Ingestion und DecisionEngine

Ultra-robustes Intent-Parsing

  • Regex-basierter Parser bereinigt Modell-Artefakte (z.B. CODING[/S]CODING)
  • Implementierung in app/core/retrieval/decision_engine.py (v1.3.2)
  • Fehlerresistenz gegen Stop-Marker, Newlines oder Modell-Plaudereien

Differenzierte Ingestion-Validierung

  • Unterscheidung zwischen transienten (Netzwerk) und permanenten (Config) Fehlern
  • Transiente Fehler erlauben Kante (Datenverlust vermeiden)
  • Permanente Fehler lehnen Kante ab (Graph-Qualität schützen)
  • Implementierung in app/core/ingestion/ingestion_validation.py (v2.14.0)

Code-Komponenten

  • app/services/llm_service.py: v3.5.5 (Hierarchische Prompt-Resolution, Lazy-Loading)
  • app/core/retrieval/decision_engine.py: v1.3.2 (Ultra-robustes Intent-Parsing)
  • app/core/ingestion/ingestion_validation.py: v2.14.0 (Lazy-Prompt-Integration)
  • app/routers/chat.py: v3.0.3 (Lazy-Prompt-Loading für Chat-Synthese)

Konfiguration

  • config/prompts.yaml: v3.2.2 (Hierarchische Struktur mit Modell-spezifischen Overrides)
    • 100% Erhalt der Original-Prompts aus v3.1.2 für Provider-Ebene
    • Integration von Modell-spezifischen Overrides
    • Hinzufügen von compression_template

Dokumentation

  • 03_tech_chat_backend.md: Hierarchisches Prompt-Resolution-System
  • 03_tech_configuration.md: prompts.yaml hierarchische Struktur
  • 02_concept_ai_personality.md: Lazy-Prompt-Orchestration Konzept
  • 03_tech_ingestion_pipeline.md: Differenzierte Validierung
  • 00_glossary.md: Neue Begriffe (Lazy-Prompt, PROMPT-TRACE)
  • 05_developer_guide.md: Lazy-Prompt-Orchestration für Entwickler
  • 06_active_roadmap.md: WP25b als abgeschlossen markiert

Breaking Changes

  • Keine Breaking Changes für Endbenutzer
  • Vorformatierte Prompts werden weiterhin unterstützt (Abwärtskompatibilität)
  • Neue API-Parameter prompt_key und variables optional

Migration

  • Keine Migration erforderlich
  • System funktioniert ohne Änderungen
  • Optional: Modell-spezifische Prompts können in prompts.yaml definiert werden

Status: WP-25b ist zu 100% implementiert und audit-geprüft.
Nächster Schritt: WP-25c (Kontext-Budgeting & Erweiterte Prompt-Optimierung).

feat: Lazy-Prompt-Orchestration & Full Resilience (v3.1.1) ### Hierarchisches Prompt-Resolution-System - Dreistufige Auflösungs-Logik: Level 1 (Modell-ID) → Level 2 (Provider) → Level 3 (Default) - Modell-spezifische Optimierungen für Gemini 2.0, Llama 3.3, Qwen 2.5 - PROMPT-TRACE Logging für vollständige Transparenz - Implementierung in `app/services/llm_service.py` (v3.5.5) ### Lazy-Prompt-Orchestration - Prompts werden erst zur Laufzeit geladen, basierend auf aktivem Modell - Parameter: `prompt_key` und `variables` statt vorformatierter Strings - Maximale Resilienz bei Modell-Fallbacks (Cloud → Local) - Vollständige Integration in Chat, Ingestion und DecisionEngine ### Ultra-robustes Intent-Parsing - Regex-basierter Parser bereinigt Modell-Artefakte (z.B. `CODING[/S]` → `CODING`) - Implementierung in `app/core/retrieval/decision_engine.py` (v1.3.2) - Fehlerresistenz gegen Stop-Marker, Newlines oder Modell-Plaudereien ### Differenzierte Ingestion-Validierung - Unterscheidung zwischen transienten (Netzwerk) und permanenten (Config) Fehlern - Transiente Fehler erlauben Kante (Datenverlust vermeiden) - Permanente Fehler lehnen Kante ab (Graph-Qualität schützen) - Implementierung in `app/core/ingestion/ingestion_validation.py` (v2.14.0) ### Code-Komponenten - `app/services/llm_service.py`: v3.5.5 (Hierarchische Prompt-Resolution, Lazy-Loading) - `app/core/retrieval/decision_engine.py`: v1.3.2 (Ultra-robustes Intent-Parsing) - `app/core/ingestion/ingestion_validation.py`: v2.14.0 (Lazy-Prompt-Integration) - `app/routers/chat.py`: v3.0.3 (Lazy-Prompt-Loading für Chat-Synthese) ### Konfiguration - `config/prompts.yaml`: v3.2.2 (Hierarchische Struktur mit Modell-spezifischen Overrides) - 100% Erhalt der Original-Prompts aus v3.1.2 für Provider-Ebene - Integration von Modell-spezifischen Overrides - Hinzufügen von `compression_template` ### Dokumentation - `03_tech_chat_backend.md`: Hierarchisches Prompt-Resolution-System - `03_tech_configuration.md`: prompts.yaml hierarchische Struktur - `02_concept_ai_personality.md`: Lazy-Prompt-Orchestration Konzept - `03_tech_ingestion_pipeline.md`: Differenzierte Validierung - `00_glossary.md`: Neue Begriffe (Lazy-Prompt, PROMPT-TRACE) - `05_developer_guide.md`: Lazy-Prompt-Orchestration für Entwickler - `06_active_roadmap.md`: WP25b als abgeschlossen markiert ### Breaking Changes - Keine Breaking Changes für Endbenutzer - Vorformatierte Prompts werden weiterhin unterstützt (Abwärtskompatibilität) - Neue API-Parameter `prompt_key` und `variables` optional ### Migration - Keine Migration erforderlich - System funktioniert ohne Änderungen - Optional: Modell-spezifische Prompts können in `prompts.yaml` definiert werden --- **Status:** ✅ WP-25b ist zu 100% implementiert und audit-geprüft. **Nächster Schritt:** WP-25c (Kontext-Budgeting & Erweiterte Prompt-Optimierung).
Lars added 6 commits 2026-01-03 15:12:44 +01:00
Lars merged commit 548c503e7c into main 2026-01-03 15:12:58 +01:00
Sign in to join this conversation.
No reviewers
No Label
No Milestone
No project
No Assignees
1 Participants
Notifications
Due Date
The due date is invalid or out of range. Please use the format 'yyyy-mm-dd'.

No due date set.

Dependencies

No dependencies set.

Reference: Lars/mindnet#21
No description provided.