|
All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
Reviewed-on: #15 #### PR-Zusammenfassung: WP-14 Modularisierung & WP-15b Two-Pass Ingestion Dieser Merge schließt die technische Konsolidierung der Architektur (WP-14) und die Optimierung der Ingestion-Pipeline (WP-15b) ab. Das System wurde von einer monolithischen Struktur in eine domänengesteuerte Paket-Hierarchie überführt. **Kernänderungen:** * **WP-14 (Modularisierung):** * Aufteilung von `app/core/` in spezialisierte Pakete: `database/`, `ingestion/`, `retrieval/` und `graph/`. * Einführung von Proxy-Modulen (z.B. `graph_adapter.py`, `retriever.py`) zur Sicherstellung der Abwärtskompatibilität. * Zentralisierung neutraler Logik in `app/core/registry.py` zur Beseitigung von Zirkelbezügen. * **WP-15b (Intelligence 2.0):** * Umstellung der Ingestion auf einen **Two-Pass Workflow**. * **Pass 1:** Globaler Pre-Scan zur Befüllung des `LocalBatchCache`. * **Pass 2:** Binäre semantische Validierung von Kanten gegen den Kontext des Caches zur Eliminierung von Halluzinationen. **Betroffene Komponenten:** * `app.core.database`: Qdrant-Infrastruktur & Point-Mapping. * `app.core.retrieval`: Scoring-Engine (WP-22) & Orchestrierung. * `app.core.graph`: Subgraph-Modell & Traversierung. * Sämtliche Dokumentations-Module (v2.9.1 Update). **Teststatus:** ✅ Inkrementelle Ingestion (Pass 2 Skip) verifiziert. ✅ Hybrid-Scoring (WP-22) via isolated package verifiziert. ✅ Circular Import Audit erfolgreich abgeschlossen. |
||
|---|---|---|
| .gitea/workflows | ||
| .vscode | ||
| app | ||
| config | ||
| docker | ||
| docs | ||
| scripts | ||
| tests | ||
| vault | ||
| vault_master | ||
| README.md | ||
| requirements.txt | ||
mindnet API (bundle)
This bundle provides a minimal FastAPI app for embeddings and Qdrant upserts/queries plus a Markdown importer.
Quick start
python3 -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt
# Environment (adjust as needed)
export QDRANT_URL=http://127.0.0.1:6333
export MINDNET_PREFIX=mindnet
export MINDNET_MODEL=sentence-transformers/all-MiniLM-L6-v2
# Run API
uvicorn app.main:app --host 0.0.0.0 --port 8001 --workers 1
# (optional) Ensure collections exist (or use setup_mindnet_collections.py you already have)
# python3 scripts/setup_mindnet_collections.py --qdrant-url $QDRANT_URL --prefix $MINDNET_PREFIX --dim 384 --distance Cosine
# Import some notes
python3 scripts/import_markdown.py --vault /path/to/Obsidian
Endpoints
POST /embed→{ "texts": [...] }→ 384-d vectorsPOST /qdrant/upsert_notePOST /qdrant/upsert_chunkPOST /qdrant/upsert_edgePOST /qdrant/query→ semantic search over chunks with optional filters
See scripts/quick_test.sh for a runnable example.
Anmerkung: Diese Datei ist veraltet und muss auf Stand 2.6.0 gebracht werden