• V2.6.0 d2e0b48aa5

    Major Stability & Intelligence Update (WP-15 Completion)
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-13 06:44:36 +01:00 | 371 commits to main since this release

    Mindnet Release Notes v2.6.0: Stabilität & Präzision

    Datum: 2025-12-12
    Status: Major Stability & Intelligence Update (WP-15 Completion)


    🚀 Highlights des Releases

    Dieses Update macht Mindnet nicht nur intelligenter (durch präzisere Verknüpfungen), sondern vor allem stabiler (durch Traffic Control). Der parallele Betrieb von Chat und rechenintensiven Importen ist nun robust möglich.

    1. Smart Edge Allocation (Präzision)

    Das System nutzt nun LLMs (Smart Analyzer) im Hintergrund, um zu prüfen, ob ein Link im Text wirklich relevant für den jeweiligen Abschnitt ist.

    • Vorher: Jeder Textabschnitt (Chunk) erbte alle Links der Notiz (unpräzise).
    • Jetzt: Ein Chunk erhält nur die Kanten, die der LLM-Filter als relevant bestätigt.
    • Ergebnis: Massiv reduzierte irrelevante Treffer ("Beifang") im Retrieval.

    2. Fundamentale Chunking-Strategie (Flexibilität)

    Die Art und Weise, wie Notizen in abrufbare Einheiten (Chunks) zerlegt werden, wurde grundlegend überarbeitet und flexibler gestaltet.

    • Neue Profile: Der Importer unterstützt nun verschiedene Strategien, darunter das sliding window (mit überlappenden Kontexten) für fließenden Text und by_heading (in structured_smart_edges integriert) für strikt nach Überschriften getrennte, logische Einheiten.
    • Ergebnis: Die Retrieval-Qualität für strukturierte Dokumente (z.B. Protokolle, Entscheidungen) wird deutlich gesteigert, da logische Abschnitte nicht mehr mittendrin abgeschnitten werden.

    3. Traffic Control (Stabilität)

    Ein neues Priorisierungs-System schützt die Chat-Funktionalität vor LLM-Überlastung durch Hintergrundprozesse (Import).

    • Realtime Lane: Chat-Anfragen haben Vorfahrt und antworten sofort.
    • Background Lane: Importe werden gedrosselt (Semaphore) und warten geduldig auf freie LLM-Ressourcen, statt abzubrechen oder das gesamte System zu blockieren.
    • Konfigurierbar: Die maximale Parallelität ist über MINDNET_LLM_BACKGROUND_LIMIT in der .env steuerbar.

    4. UX & Robustheit

    • Healing Parser: Das Web-Interface kann nun beschädigtes YAML (z. B. fehlende --- Trenner) in LLM-generierten Drafts automatisch reparieren, was das Speichern deutlich zuverlässiger macht.
    • Hybrid Router v5: Die Intent-Erkennung wurde optimiert, um Fragen ("Bin ich werteorientiert?") nicht mehr fälschlicherweise als Befehle ("Neues Objekt anlegen") zu interpretieren.

    🔧 Technische Änderungen (Für Admins)

    • LLMService v2.8.0: Implementierung des asyncio.Semaphore für Prioritäts-Steuerung.
    • Neue Chunking-Profile: Die Profile wurden von der alten Nomenklatur auf die präziseren, finalen Bezeichnungen umgestellt (sliding_short, structured_smart_edges etc.).
    • Environment Variable: Neu ist MINDNET_LLM_BACKGROUND_LIMIT (Default: 2) zur Steuerung der Parallelität.
    • Timeout Erhöhung: MINDNET_API_TIMEOUT wurde auf 300s erhöht, um den Smart Edge Prozess im Backend abzuwarten.

    Aktion: Überprüfen Sie Ihre .env und passen Sie ggf. MINDNET_LLM_BACKGROUND_LIMIT an die Leistung Ihrer Hardware an.


    🗓️ Ausblick

    Die abgeschlossenen WP-15 Arbeiten bilden die Grundlage für die nächsten Schritte:

    • WP-13 (MCP): Vorbereitung zur Anbindung an Agenten wie Claude Desktop.
    • WP-17 (Memory): Erweiterung des Chats um ein Dialog-Gedächtnis.
    Downloads