-
v2.8.2 „Dynamic Resilience“ (WP20a)
StableAll checks were successfulDeploy mindnet to llm-node / deploy (push) Successful in 4sreleased this
2025-12-26 17:25:23 +01:00 | 200 commits to main since this release🚀 Release Notes v2.8.2 „Dynamic Resilience“
Status & Versionierung
- Version: 2.8.2
- Codename: Dynamic Resilience
- Datum: 2025-12-26
- Basis: WP-20 "Deep Resilience" (v2.8.1)
💎 Zusammenfassung
Das Release v2.8.2 überführt die in v2.8.1 eingeführten Stabilitäts-Fixes in eine vollständig konfigurierbare Ebene. Es entkoppelt die technischen Schutzmechanismen (Kontext-Drosselung, Timeouts) vom Quellcode und erlaubt eine feingranulare Steuerung über Umgebungsvariablen.
🛠 Änderungen seit v2.8.1
1. Dynamische Kontext-Drosselung (Chat API)
Die Begrenzung des Kontext-Fensters für lokale LLM-Anfragen ist nicht länger statisch im Code verankert.
- Implementierung:
chat.py(v2.7.9) nutzt nunget_settings().MAX_OLLAMA_CHARSzur Laufzeit-Drosselung. - Flexibilität: Das Limit kann ohne Code-Änderung an die verfügbare Hardware (VRAM/RAM) angepasst werden.
- Safety: Standardmäßig ist ein Sicherheitswert von 10.000 Zeichen hinterlegt, um
decode: cannot decode batchesFehler zu verhindern.
2. Synchronisierter LLM-Dispatch (v3.3.7)
Der
LLMServicewurde final auf das "Fail-Fast"-Prinzip des Echtzeit-Chats optimiert.- Retry-Management: Strikte Beachtung des
max_retries=0Parameters bei Chat-Anfragen zur Vermeidung von kumulativen Timeouts. - Rate-Limit Sync: Die interne Cloud-Warteschleife (429 Handling) wird nun durch den
max_retriesWert des Aufrufers begrenzt. - Memory Guard: Festschreibung von
num_ctx: 8192im Ollama-Payload zur Stabilisierung der lokalen Inferenz.
3. Gehärtete Konfigurationsschicht (v0.6.7)
Die zentrale Konfiguration wurde um neue Parameter und Validierungen erweitert.
- Typ-Casting: Alle kritischen Performance-Parameter (
TIMEOUT,RETRIES,WAIT) werden nun strikt in numerische Typen konvertiert. - Override-Support:
load_dotenv(override=True)stellt sicher, dass manuelle Änderungen in der.envsofort nach dem Dienst-Neustart aktiv werden.
⚙️ Erforderliche Konfiguration (.env)
Folgende Parameter müssen für die volle Funktionalität in der
.envdefiniert sein:Variable Empfohlener Wert Zweck MAX_OLLAMA_CHARS10000Maximale Zeichenanzahl für Ollama-Kontext. MINDNET_LLM_TIMEOUT60.0Maximalzeit für API-Antworten (verhindert 300s Hänger). MINDNET_LLM_RATE_LIMIT_RETRIES0oder1Verhindert lange Cloud-Wartezeiten im Chat. MINDNET_LLM_MODELphi3:stableVerweis auf das stabilisierte lokale Modell.
📦 Deployment-Checkliste
- Docker: Sicherstellen, dass
ulimits(nofile: 65535) in derdocker-compose.yamlaktiv sind. - Dateien: Einspielen von
chat.py(v2.7.9),llm_service.py(v3.3.7) undconfig.py(v0.6.7). - Restart: Ausführen von
sudo systemctl restart mindnet-prod, um die Konfiguration neu zu laden.
Downloads