• v2.8.1-DeepResilienceMultiLLM f6f3213b84

    Mindnet v2.8.1 "Deep Resilience" (WP20)
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 5s
    Stable

    Lars released this 2025-12-25 22:24:23 +01:00 | 207 commits to main since this release

    doc_type version codename date status
    release_notes 2.8.1 Deep Resilience 2025-12-25 active

    Release Notes: Mindnet v2.8.1 "Deep Resilience"

    Dieses Release markiert die Transformation von Mindnet von einem lokalen RAG-System zu einer hybriden Intelligenz-Plattform. Durch den Abschluss von Arbeitspaket WP-20 kombiniert das System nun die Verarbeitungsgeschwindigkeit globaler Cloud-Modelle mit der Ausfallsicherheit und Datensouveränität lokaler Infrastruktur.

    🚀 Strategische Highlights

    1. Hybride LLM-Landschaft & Provider-Kaskade

    Mindnet v2.8.1 führt eine intelligente Orchestrierung verschiedener KI-Provider ein:

    • Multi-Provider Support: Nahtlose Integration von OpenRouter (Mistral), Google Gemini und lokalem Ollama.
    • Bulletproof Prompt-Auflösung: Ein neues Kaskaden-System in get_prompt() garantiert die Rückgabe eines validen Strings durch automatisches Zurückfallen auf kompatible Templates (Aktiver Provider -> Gemini -> Ollama), was Systemabstürze (HTTP 500) verhindert.
    • Task-Mapping: Die Konfiguration erlaubt nun spezialisierte Modelle pro Aufgabe (z. B. Mistral für strukturierte Extraktion, Gemini für RAG-Chat mit großem Kontext).

    2. Deep Fallback Mechanismus (v2.11.14)

    Die Ingestion-Pipeline wurde grundlegend gehärtet, um inhaltliche Blockaden der Cloud zu umgehen:

    • Skeptische Ingestion: Das System validiert nun nicht mehr nur die JSON-Struktur, sondern prüft, ob die Cloud inhaltlich verwertbare Daten geliefert hat.
    • Silent Refusal Detection: Erkennt proaktiv, wenn Cloud-Provider (z. B. wegen Policy Violations wie "No data training") eine technisch erfolgreiche, aber inhaltlich leere Antwort senden.
    • Erzwungener lokaler Sprung: In solchen Fällen wird automatisch ein Deep Fallback auf Ollama ausgelöst. Dies stellt sicher, dass auch sensible oder "schwierige" Dokumente (z. B. Leitbilder, Protokolle) ihre strukturellen Kanten im Graphen erhalten.

    3. Speed Mode: Turbo Ingestion

    Die Nutzung von Cloud-Ressourcen ermöglicht eine massive Beschleunigung des Vault-Imports:

    • Holistische Extraktion: Das System verarbeitet bis zu 6.000 Zeichen Kontext pro Note für die KI-gestützte Kanten-Zuweisung.
    • Hintergrund-Drosselung: Ein globaler Semaphor begrenzt parallele Import-Tasks (MINDNET_LLM_BACKGROUND_LIMIT), um Cloud-Quoten zu schonen und lokale Hardware-Überlastung zu verhindern, während Chat-Anfragen priorisiert vorbeigeleitet werden.

    🛠️ Technische Details & Härtung

    LLM Service (v3.3.6)

    • Quoten-Resilienz: Automatisierte Erkennung von HTTP 429 (Rate-Limit) mit intelligentem Backoff (LLM_RATE_LIMIT_WAIT) und bis zu drei Cloud-Retries vor dem Ollama-Fallback.
    • API-Stabilität: Erzwungene Nutzung der v1-Version für die Google GenAI Integration zur Erhöhung der Zuverlässigkeit.

    Ingestion Pipeline (v2.11.14)

    • Mistral-safe Parsing: Der JSON-Extraktor bereinigt nun aktiv technische Steuerzeichen (<s>, </s>) und Framework-Tags ([OUT], [/OUT]).
    • Dictionary Recovery: Erweiterte Logik zur Rettung von Kanten-Listen aus verschachtelten JSON-Objekten (Suche nach Keys wie matches, results, edge_list).
    • Multi-Hash Logic: Präzise Änderungserkennung durch getrennte Hashes für body (Inhalt) und full (inkl. Metadaten) zur Vermeidung redundanter KI-Aufrufe.

    ⚙️ Neue Konfigurationsparameter (.env)

    Für den vollen Funktionsumfang von v2.8.1 müssen folgende Parameter in der Umgebung definiert sein:

    # Resilience & Fallback
    LLM_FALLBACK_ENABLED=true             # Aktiviert den Sprung zu Ollama
    MINDNET_LLM_RATE_LIMIT_WAIT=60        # Sekunden Wartezeit bei HTTP 429
    MINDNET_LLM_RATE_LIMIT_RETRIES=3      # Anzahl der Cloud-Wiederholungsversuche
    
    # Multi-LLM Mapping
    MINDNET_LLM_PROVIDER=openrouter       # Globaler Standard-Provider
    OPENROUTER_MODEL=mistralai/mistral-7b-instruct:free
    GEMINI_MODEL=gemini-2.0-flash-lite-preview-02-05
    

    📖 Dokumentations-Status

    Folgende Dokumente wurden auf den Stand v2.8.1 aktualisiert:

    • 00_glossary.md: Definitionen für Deep Fallback und Silent Refusal hinzugefügt.
    • 02_concept_ai_personality.md: Konzept der hybriden Resilienz integriert.
    • 03_tech_chat_backend.md: Detaillierung der Prompt-Kaskade und Traffic-Control.
    • 03_tech_ingestion_pipeline.md: Dokumentation des 16-Schritte-Workflows inkl. Deep Fallback.
    • 06_active_roadmap.md: WP-20 als abgeschlossen markiert.

    Administrator-Hinweis:
    Durch die neue Deep-Fallback-Logik kann die Import-Dauer bei umfangreichen Vaults steigen, da blockierte Cloud-Anfragen nun geduldig lokal abgearbeitet werden. Dies ist ein gewollter Prozess zur Sicherstellung der Datenintegrität.

    Downloads