Update LLM profiles in llm_profiles.yaml: Change models for 'synthesis_pro', 'synthesis_backup', and 'tech_expert' profiles to enhance performance and capabilities, reflecting the latest advancements in AI model offerings.

This commit is contained in:
Lars 2026-01-02 13:46:50 +01:00
parent ac26cc4940
commit 5541ceb13d

View File

@ -8,21 +8,21 @@ profiles:
# Der "Architekt": Hochwertige Synthese. Fällt bei Fehlern auf den Backup-Cloud-Experten zurück. # Der "Architekt": Hochwertige Synthese. Fällt bei Fehlern auf den Backup-Cloud-Experten zurück.
synthesis_pro: synthesis_pro:
provider: "openrouter" provider: "openrouter"
model: "gemini-1.5-mistralai/mistral-7b-instruct:free" model: "google/gemini-2.0-flash-exp:free"
temperature: 0.7 temperature: 0.7
fallback_profile: "synthesis_backup" fallback_profile: "synthesis_backup"
# Der "Vize": Leistungsstarkes Modell bei einem anderen Provider (Resilienz). # Der "Vize": Leistungsstarkes Modell bei einem anderen Provider (Resilienz).
synthesis_backup: synthesis_backup:
provider: "openrouter" provider: "openrouter"
model: "mistralai/mistral-large" model: "meta-llama/llama-3.3-70b-instruct:free"
temperature: 0.5 temperature: 0.5
fallback_profile: "identity_safe" # Letzte Instanz: Lokal fallback_profile: "identity_safe" # Letzte Instanz: Lokal
# Der "Ingenieur": Fachspezialist für Code. Nutzt bei Ausfall den Generalisten. # Der "Ingenieur": Fachspezialist für Code. Nutzt bei Ausfall den Generalisten.
tech_expert: tech_expert:
provider: "openrouter" provider: "openrouter"
model: "anthropic/claude-3.5-sonnet" model: "qwen/qwen-2.5-vl-7b-instruct:free"
temperature: 0.3 temperature: 0.3
fallback_profile: "synthesis_pro" fallback_profile: "synthesis_pro"