-
Major Stability & Intelligence Update (WP-15 Completion)
StableAll checks were successfulDeploy mindnet to llm-node / deploy (push) Successful in 3sreleased this
2025-12-13 06:44:36 +01:00 | 371 commits to main since this releaseMindnet Release Notes v2.6.0: Stabilität & Präzision
Datum: 2025-12-12
Status: Major Stability & Intelligence Update (WP-15 Completion)
🚀 Highlights des Releases
Dieses Update macht Mindnet nicht nur intelligenter (durch präzisere Verknüpfungen), sondern vor allem stabiler (durch Traffic Control). Der parallele Betrieb von Chat und rechenintensiven Importen ist nun robust möglich.
1. Smart Edge Allocation (Präzision)
Das System nutzt nun LLMs (Smart Analyzer) im Hintergrund, um zu prüfen, ob ein Link im Text wirklich relevant für den jeweiligen Abschnitt ist.
- Vorher: Jeder Textabschnitt (Chunk) erbte alle Links der Notiz (unpräzise).
- Jetzt: Ein Chunk erhält nur die Kanten, die der LLM-Filter als relevant bestätigt.
- Ergebnis: Massiv reduzierte irrelevante Treffer ("Beifang") im Retrieval.
2. Fundamentale Chunking-Strategie (Flexibilität)
Die Art und Weise, wie Notizen in abrufbare Einheiten (Chunks) zerlegt werden, wurde grundlegend überarbeitet und flexibler gestaltet.
- Neue Profile: Der Importer unterstützt nun verschiedene Strategien, darunter das
sliding window(mit überlappenden Kontexten) für fließenden Text undby_heading(instructured_smart_edgesintegriert) für strikt nach Überschriften getrennte, logische Einheiten. - Ergebnis: Die Retrieval-Qualität für strukturierte Dokumente (z.B. Protokolle, Entscheidungen) wird deutlich gesteigert, da logische Abschnitte nicht mehr mittendrin abgeschnitten werden.
3. Traffic Control (Stabilität)
Ein neues Priorisierungs-System schützt die Chat-Funktionalität vor LLM-Überlastung durch Hintergrundprozesse (Import).
- Realtime Lane: Chat-Anfragen haben Vorfahrt und antworten sofort.
- Background Lane: Importe werden gedrosselt (Semaphore) und warten geduldig auf freie LLM-Ressourcen, statt abzubrechen oder das gesamte System zu blockieren.
- Konfigurierbar: Die maximale Parallelität ist über
MINDNET_LLM_BACKGROUND_LIMITin der.envsteuerbar.
4. UX & Robustheit
- Healing Parser: Das Web-Interface kann nun beschädigtes YAML (z. B. fehlende
---Trenner) in LLM-generierten Drafts automatisch reparieren, was das Speichern deutlich zuverlässiger macht. - Hybrid Router v5: Die Intent-Erkennung wurde optimiert, um Fragen ("Bin ich werteorientiert?") nicht mehr fälschlicherweise als Befehle ("Neues Objekt anlegen") zu interpretieren.
🔧 Technische Änderungen (Für Admins)
- LLMService v2.8.0: Implementierung des
asyncio.Semaphorefür Prioritäts-Steuerung. - Neue Chunking-Profile: Die Profile wurden von der alten Nomenklatur auf die präziseren, finalen Bezeichnungen umgestellt (
sliding_short,structured_smart_edgesetc.). - Environment Variable: Neu ist
MINDNET_LLM_BACKGROUND_LIMIT(Default: 2) zur Steuerung der Parallelität. - Timeout Erhöhung:
MINDNET_API_TIMEOUTwurde auf 300s erhöht, um den Smart Edge Prozess im Backend abzuwarten.
Aktion: Überprüfen Sie Ihre
.envund passen Sie ggf.MINDNET_LLM_BACKGROUND_LIMITan die Leistung Ihrer Hardware an.
🗓️ Ausblick
Die abgeschlossenen WP-15 Arbeiten bilden die Grundlage für die nächsten Schritte:
- WP-13 (MCP): Vorbereitung zur Anbindung an Agenten wie Claude Desktop.
- WP-17 (Memory): Erweiterung des Chats um ein Dialog-Gedächtnis.
Downloads