|
All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 3s
Reviewed-on: #9 ### MERGE: WP-15 Smart Edge Allocation & Traffic Control (v2.6.0) **Zusammenfassung:** Dieses Merge Request schließt das Workpackage WP-15 ab. Die Kernziele – präzisere Kanten-Zuweisung und System-Stabilität unter LLM-Last – wurden erreicht. Die Implementierung der LLM-basierten Smart Edges ist damit produktionsreif. **Kern-Features:** 1. **Smart Edge Allocation:** Kanten werden nun LLM-geprüft und nur an die spezifischen Chunks gebunden, in denen der verlinkte Inhalt relevant ist. Das reduziert "Beifang" im Retrieval und erhöht die Präzision. * Steuerung: Über `types.yaml` (`enable_smart_edge_allocation`). 2. **Traffic Control & Resilienz:** Der `LLMService` implementiert Prioritäts-Warteschlangen (`priority="realtime"` vs. `"background"`). * **Ergebnis:** Chat-Anfragen haben Vorfahrt und das System stürzt während rechenintensiver Importe nicht mehr mit Timeouts ab. Die Parallelität des Imports ist über `MINDNET_LLM_BACKGROUND_LIMIT` konfigurierbar. 3. **UI Robustheit:** Der "Healing Parser" im Frontend (`ui.py`) repariert automatisch kaputte YAML-Frontmatter in LLM-generierten Drafts. **Betroffene Komponenten:** * `app/services/llm_service.py` (Traffic Control / Semaphore) * `app/core/chunker.py` / `app/services/semantic_analyzer.py` (Smart Edge Logik / Retry) * `app/routers/chat.py` (Hybrid Router v5 / Question Detection) * `app/frontend/ui.py` (Healing Parser / API-Timeouts) * `config/types.yaml` (Neue Profile & Smart Edge Flag) **Aktionen nach Merge:** * **Admins:** `MINDNET_LLM_BACKGROUND_LIMIT` in der Produktions-.env prüfen und ggf. anpassen. * **Initialisierung:** Bei Änderung der Chunking-Profile ist ein Full Rebuild notwendig. |
||
|---|---|---|
| .gitea/workflows | ||
| .vscode | ||
| app | ||
| config | ||
| docker | ||
| docs | ||
| Programmmanagement | ||
| schemas | ||
| scripts | ||
| tests | ||
| vault | ||
| vault_master/leitbild2025 | ||
| README.md | ||
| requirements.txt | ||
mindnet API (bundle)
This bundle provides a minimal FastAPI app for embeddings and Qdrant upserts/queries plus a Markdown importer.
Quick start
python3 -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt
# Environment (adjust as needed)
export QDRANT_URL=http://127.0.0.1:6333
export MINDNET_PREFIX=mindnet
export MINDNET_MODEL=sentence-transformers/all-MiniLM-L6-v2
# Run API
uvicorn app.main:app --host 0.0.0.0 --port 8001 --workers 1
# (optional) Ensure collections exist (or use setup_mindnet_collections.py you already have)
# python3 scripts/setup_mindnet_collections.py --qdrant-url $QDRANT_URL --prefix $MINDNET_PREFIX --dim 384 --distance Cosine
# Import some notes
python3 scripts/import_markdown.py --vault /path/to/Obsidian
Endpoints
POST /embed→{ "texts": [...] }→ 384-d vectorsPOST /qdrant/upsert_notePOST /qdrant/upsert_chunkPOST /qdrant/upsert_edgePOST /qdrant/query→ semantic search over chunks with optional filters
See scripts/quick_test.sh for a runnable example.
Anmerkung: Diese Datei ist veraltet