64 lines
2.1 KiB
YAML
64 lines
2.1 KiB
YAML
# config/llm_profiles.yaml
|
|
# VERSION: 1.3.0 (WP-25a: Global MoE & Fallback Cascade)
|
|
# STATUS: Active
|
|
# DESCRIPTION: Zentrale Definition der LLM-Rollen inkl. Ausfall-Logik (Kaskade).
|
|
|
|
profiles:
|
|
# --- CHAT & SYNTHESE ---
|
|
# Der "Architekt": Hochwertige Synthese. Fällt bei Fehlern auf den Backup-Cloud-Experten zurück.
|
|
synthesis_pro:
|
|
provider: "openrouter"
|
|
model: "google/gemini-2.0-flash-exp:free"
|
|
temperature: 0.7
|
|
fallback_profile: "synthesis_backup"
|
|
|
|
# Der "Vize": Leistungsstarkes Modell bei einem anderen Provider (Resilienz).
|
|
synthesis_backup:
|
|
provider: "openrouter"
|
|
model: "meta-llama/llama-3.3-70b-instruct:free"
|
|
temperature: 0.5
|
|
fallback_profile: "identity_safe" # Letzte Instanz: Lokal
|
|
|
|
# Der "Ingenieur": Fachspezialist für Code. Nutzt bei Ausfall den Generalisten.
|
|
tech_expert:
|
|
provider: "openrouter"
|
|
model: "qwen/qwen-2.5-vl-7b-instruct:free"
|
|
temperature: 0.3
|
|
fallback_profile: "synthesis_pro"
|
|
|
|
# Der "Dampfhammer": Schnell für Routing und Zusammenfassungen.
|
|
compression_fast:
|
|
provider: "openrouter"
|
|
model: "mistralai/mistral-7b-instruct:free"
|
|
temperature: 0.1
|
|
fallback_profile: "identity_safe"
|
|
|
|
# --- INGESTION EXPERTEN ---
|
|
# Spezialist für die Extraktion komplexer Datenstrukturen aus Dokumenten.
|
|
ingest_extractor:
|
|
provider: "openrouter"
|
|
model: "mistralai/mistral-7b-instruct:free"
|
|
temperature: 0.2
|
|
fallback_profile: "synthesis_backup"
|
|
|
|
# Spezialist für binäre Prüfungen (YES/NO). Muss extrem deterministisch sein.
|
|
ingest_validator:
|
|
provider: "openrouter"
|
|
model: "mistralai/mistral-7b-instruct:free"
|
|
temperature: 0.0
|
|
fallback_profile: "compression_fast"
|
|
|
|
# --- LOKALER ANKER & PRIVACY ---
|
|
# Der "Wächter": Lokales Modell für maximale Privatsphäre. Ende der Kaskade.
|
|
identity_safe:
|
|
provider: "ollama"
|
|
model: "phi3:mini"
|
|
temperature: 0.2
|
|
# Kein fallback_profile definiert = Terminaler Endpunkt
|
|
|
|
# --- EMBEDDING EXPERTE ---
|
|
# Zentralisierung des Embedding-Modells zur Entfernung aus der .env.
|
|
embedding_expert:
|
|
provider: "ollama"
|
|
model: "nomic-embed-text"
|
|
dimensions: 768 |