-
Mindnet v2.8.1 "Deep Resilience" (WP20)
StableAll checks were successfulDeploy mindnet to llm-node / deploy (push) Successful in 5sreleased this
2025-12-25 22:24:23 +01:00 | 207 commits to main since this releasedoc_type version codename date status release_notes 2.8.1 Deep Resilience 2025-12-25 active Release Notes: Mindnet v2.8.1 "Deep Resilience"
Dieses Release markiert die Transformation von Mindnet von einem lokalen RAG-System zu einer hybriden Intelligenz-Plattform. Durch den Abschluss von Arbeitspaket WP-20 kombiniert das System nun die Verarbeitungsgeschwindigkeit globaler Cloud-Modelle mit der Ausfallsicherheit und Datensouveränität lokaler Infrastruktur.
🚀 Strategische Highlights
1. Hybride LLM-Landschaft & Provider-Kaskade
Mindnet v2.8.1 führt eine intelligente Orchestrierung verschiedener KI-Provider ein:
- Multi-Provider Support: Nahtlose Integration von OpenRouter (Mistral), Google Gemini und lokalem Ollama.
- Bulletproof Prompt-Auflösung: Ein neues Kaskaden-System in
get_prompt()garantiert die Rückgabe eines validen Strings durch automatisches Zurückfallen auf kompatible Templates (Aktiver Provider->Gemini->Ollama), was Systemabstürze (HTTP 500) verhindert. - Task-Mapping: Die Konfiguration erlaubt nun spezialisierte Modelle pro Aufgabe (z. B. Mistral für strukturierte Extraktion, Gemini für RAG-Chat mit großem Kontext).
2. Deep Fallback Mechanismus (v2.11.14)
Die Ingestion-Pipeline wurde grundlegend gehärtet, um inhaltliche Blockaden der Cloud zu umgehen:
- Skeptische Ingestion: Das System validiert nun nicht mehr nur die JSON-Struktur, sondern prüft, ob die Cloud inhaltlich verwertbare Daten geliefert hat.
- Silent Refusal Detection: Erkennt proaktiv, wenn Cloud-Provider (z. B. wegen Policy Violations wie "No data training") eine technisch erfolgreiche, aber inhaltlich leere Antwort senden.
- Erzwungener lokaler Sprung: In solchen Fällen wird automatisch ein Deep Fallback auf Ollama ausgelöst. Dies stellt sicher, dass auch sensible oder "schwierige" Dokumente (z. B. Leitbilder, Protokolle) ihre strukturellen Kanten im Graphen erhalten.
3. Speed Mode: Turbo Ingestion
Die Nutzung von Cloud-Ressourcen ermöglicht eine massive Beschleunigung des Vault-Imports:
- Holistische Extraktion: Das System verarbeitet bis zu 6.000 Zeichen Kontext pro Note für die KI-gestützte Kanten-Zuweisung.
- Hintergrund-Drosselung: Ein globaler Semaphor begrenzt parallele Import-Tasks (
MINDNET_LLM_BACKGROUND_LIMIT), um Cloud-Quoten zu schonen und lokale Hardware-Überlastung zu verhindern, während Chat-Anfragen priorisiert vorbeigeleitet werden.
🛠️ Technische Details & Härtung
LLM Service (v3.3.6)
- Quoten-Resilienz: Automatisierte Erkennung von HTTP 429 (Rate-Limit) mit intelligentem Backoff (
LLM_RATE_LIMIT_WAIT) und bis zu drei Cloud-Retries vor dem Ollama-Fallback. - API-Stabilität: Erzwungene Nutzung der
v1-Version für die Google GenAI Integration zur Erhöhung der Zuverlässigkeit.
Ingestion Pipeline (v2.11.14)
- Mistral-safe Parsing: Der JSON-Extraktor bereinigt nun aktiv technische Steuerzeichen (
<s>,</s>) und Framework-Tags ([OUT],[/OUT]). - Dictionary Recovery: Erweiterte Logik zur Rettung von Kanten-Listen aus verschachtelten JSON-Objekten (Suche nach Keys wie
matches,results,edge_list). - Multi-Hash Logic: Präzise Änderungserkennung durch getrennte Hashes für
body(Inhalt) undfull(inkl. Metadaten) zur Vermeidung redundanter KI-Aufrufe.
⚙️ Neue Konfigurationsparameter (.env)
Für den vollen Funktionsumfang von v2.8.1 müssen folgende Parameter in der Umgebung definiert sein:
# Resilience & Fallback LLM_FALLBACK_ENABLED=true # Aktiviert den Sprung zu Ollama MINDNET_LLM_RATE_LIMIT_WAIT=60 # Sekunden Wartezeit bei HTTP 429 MINDNET_LLM_RATE_LIMIT_RETRIES=3 # Anzahl der Cloud-Wiederholungsversuche # Multi-LLM Mapping MINDNET_LLM_PROVIDER=openrouter # Globaler Standard-Provider OPENROUTER_MODEL=mistralai/mistral-7b-instruct:free GEMINI_MODEL=gemini-2.0-flash-lite-preview-02-05
📖 Dokumentations-Status
Folgende Dokumente wurden auf den Stand v2.8.1 aktualisiert:
00_glossary.md: Definitionen für Deep Fallback und Silent Refusal hinzugefügt.02_concept_ai_personality.md: Konzept der hybriden Resilienz integriert.03_tech_chat_backend.md: Detaillierung der Prompt-Kaskade und Traffic-Control.03_tech_ingestion_pipeline.md: Dokumentation des 16-Schritte-Workflows inkl. Deep Fallback.06_active_roadmap.md: WP-20 als abgeschlossen markiert.
Administrator-Hinweis:
Durch die neue Deep-Fallback-Logik kann die Import-Dauer bei umfangreichen Vaults steigen, da blockierte Cloud-Anfragen nun geduldig lokal abgearbeitet werden. Dies ist ein gewollter Prozess zur Sicherstellung der Datenintegrität.Downloads