# config/llm_profiles.yaml # VERSION: 1.3.0 (WP-25a: Global MoE & Fallback Cascade) # STATUS: Active # DESCRIPTION: Zentrale Definition der LLM-Rollen inkl. Ausfall-Logik (Kaskade). profiles: # --- CHAT & SYNTHESE --- # Der "Architekt": Hochwertige Synthese. Fällt bei Fehlern auf den Backup-Cloud-Experten zurück. synthesis_pro: provider: "openrouter" model: "google/gemini-2.0-flash-exp:free" temperature: 0.7 fallback_profile: "synthesis_backup" # Der "Vize": Leistungsstarkes Modell bei einem anderen Provider (Resilienz). synthesis_backup: provider: "openrouter" model: "meta-llama/llama-3.3-70b-instruct:free" temperature: 0.5 fallback_profile: "identity_safe" # Letzte Instanz: Lokal # Der "Ingenieur": Fachspezialist für Code. Nutzt bei Ausfall den Generalisten. tech_expert: provider: "openrouter" model: "qwen/qwen-2.5-vl-7b-instruct:free" temperature: 0.3 fallback_profile: "synthesis_pro" # Der "Dampfhammer": Schnell für Routing und Zusammenfassungen. compression_fast: provider: "openrouter" model: "mistralai/mistral-7b-instruct:free" temperature: 0.1 fallback_profile: "identity_safe" # --- INGESTION EXPERTEN --- # Spezialist für die Extraktion komplexer Datenstrukturen aus Dokumenten. ingest_extractor: provider: "openrouter" model: "mistralai/mistral-7b-instruct:free" temperature: 0.2 fallback_profile: "synthesis_backup" # Spezialist für binäre Prüfungen (YES/NO). Muss extrem deterministisch sein. ingest_validator: provider: "openrouter" model: "mistralai/mistral-7b-instruct:free" temperature: 0.0 fallback_profile: "compression_fast" # --- LOKALER ANKER & PRIVACY --- # Der "Wächter": Lokales Modell für maximale Privatsphäre. Ende der Kaskade. identity_safe: provider: "ollama" model: "phi3:mini" temperature: 0.2 # Kein fallback_profile definiert = Terminaler Endpunkt # --- EMBEDDING EXPERTE --- # Zentralisierung des Embedding-Modells zur Entfernung aus der .env. embedding_expert: provider: "ollama" model: "nomic-embed-text" dimensions: 768