9.5 KiB
mindnet v2.2 – Pipeline Playbook
Datei: docs/mindnet_pipeline_playbook_v2.2.md
Stand: 2025-12-09
Status: FINAL (Inkl. WP06 Decision Engine)
Quellen: mindnet_v2_implementation_playbook.md, Handbuch.md, chunking_strategy.md, docs_mindnet_retriever.md, mindnet_admin_guide_v2.2.md.
📖 Inhaltsverzeichnis (Klicken zum Öffnen)
1. Zweck & Einordnung
Dieses Playbook ist das zentrale operative Handbuch für die mindnet-Pipeline. Es beschreibt, wie Daten vom Markdown-Vault in den Wissensgraphen (Qdrant) gelangen, wie der Retriever betrieben wird und wie die RAG-Generierung (inkl. Decision Engine) funktioniert.
Zielgruppe: Dev/Ops, Tech-Leads. Scope:
- Ist-Stand (WP01–WP06): Import, Chunking, Edge-Erzeugung, Hybrider Retriever, RAG-Chat (Hybrid Router), Feedback Loop.
- Roadmap (Ausblick): Technische Skizze für Self-Tuning (WP08).
2. Die Import-Pipeline (Runbook)
Der Import ist der kritischste Prozess ("Data Ingestion"). Er muss deterministisch und idempotent sein. Wir nutzen scripts/import_markdown.py als zentralen Entrypoint.
2.1 Der 12-Schritte-Prozess
Gemäß WP03-Spezifikation läuft der Import intern wie folgt ab:
- Markdown lesen: Rekursives Scannen des Vaults.
- Frontmatter extrahieren: Validierung von Pflichtfeldern (
id,type,title). - Typauflösung: Bestimmung des
typeviatypes.yaml(Prio: Frontmatter > Pfad > Default). - Note-Payload generieren: Erstellen des JSON-Objekts für
mindnet_notes. - Chunking anwenden: Zerlegung des Textes basierend auf dem
chunk_profiledes Typs. - Inline-Kanten finden: Parsing von
[[rel:...]]im Fließtext. - Callout-Kanten finden: Parsing von
> [!edge]Blöcken. - Default-Edges erzeugen: Anwendung der
edge_defaultsaus der Typ-Registry. - Strukturkanten erzeugen:
belongs_to(Chunk->Note),next/prev(Sequenz). - Chunks upserten: Schreiben in Qdrant (
mindnet_chunks). - Edges upserten: Schreiben in Qdrant (
mindnet_edges). - Diagnose: Automatischer Check der Integrität nach dem Lauf.
2.2 Standard-Betrieb (Inkrementell)
Für regelmäßige Updates (z.B. Cronjob). Erkennt Änderungen via Hash.
export QDRANT_URL="http://localhost:6333"
export COLLECTION_PREFIX="mindnet"
# Import starten (Apply = Schreiben, Purge = Sauberer Upsert)
# Nutzt das Venv der Produktionsumgebung
/home/llmadmin/mindnet/.venv/bin/python3 -m scripts.import_markdown \
--vault ./vault \
--prefix "$COLLECTION_PREFIX" \
--apply \
--purge-before-upsert \
--sync-deletes
--apply: Ohne dieses Flag läuft ein Dry-Run (nur Simulation).--purge-before-upsert: Löscht vor dem Schreiben einer Note ihre alten Chunks/Edges. Essentiell, um "Geister-Chunks" zu vermeiden, wenn Text gekürzt wurde.--sync-deletes: Entfernt Notizen aus Qdrant, die im Vault gelöscht wurden.
2.3 Deployment & Restart (Systemd)
Nach einem Import oder Code-Update muss der API-Prozess neu gestartet werden.
# Neustart des Produktions-Services
sudo systemctl restart mindnet-prod
# Prüfung
sudo systemctl status mindnet-prod
2.4 Full Rebuild (Clean Slate)
Notwendig bei Änderungen an types.yaml (z.B. neue Chunk-Größen) oder Embedding-Modellen.
# 1. Qdrant Collections löschen und neu anlegen (Wipe inkl. Schema)
python3 -m scripts.reset_qdrant --mode wipe --prefix "mindnet" --yes
# 2. Vollständiger Import aller Dateien
python3 -m scripts.import_markdown --vault ./vault --prefix "mindnet" --apply
3. Chunking & Payload-Aufbau
Das Chunking ist profilbasiert und typgesteuert.
3.1 Chunk-Profile
In types.yaml definiert. Standard-Profile (in chunk_config.py implementiert):
short: Max 128 Tokens (z.B. für Logs, Chats).medium: Max 256 Tokens (z.B. für Konzepte).long: Max 512 Tokens (z.B. für Essays, Projekte).by_heading: Trennt strikt an Überschriften.
3.2 Payload-Felder
Jeder Chunk erhält zwei Text-Felder:
text: Der reine Inhalt des Chunks (ohne Overlap). Wird dem Nutzer angezeigt.window: Der Inhalt plus Overlap zu Vorgänger/Nachfolger. Wird für das Embedding genutzt (besserer Kontext).
4. Edge-Erzeugung (Die V2-Logik)
In v2.2 entstehen Kanten nach strenger Priorität.
4.1 Prioritäten & Provenance
Der Importer setzt provenance, rule_id und confidence automatisch:
| Priorität | Quelle | Syntax (Bsp.) | Rule ID | Confidence |
|---|---|---|---|---|
| 1 | Inline | [[rel:depends_on X]] |
inline:rel |
~0.95 |
| 2 | Callout | > [!edge] related_to: [[X]] |
callout:edge |
~0.90 |
| 3 | Wikilink | [[X]] |
explicit:wikilink |
1.00 |
| 4 | Default | (via types.yaml) | edge_defaults:... |
~0.70 |
| 5 | Struktur | (automatisch) | structure:... |
1.00 |
4.2 Typ-Defaults
Wenn in types.yaml für einen Typ edge_defaults definiert sind, werden diese additiv zu expliziten Links erzeugt.
- Beispiel: Note Typ
projectverlinkt[[Tool A]]. - Ergebnis: Kante
references(explizit) UND Kantedepends_on(Default).
5. Retriever, Chat & Generation (RAG Pipeline)
Der Datenfluss endet nicht beim Finden. Er geht weiter bis zur Antwort.
5.1 Retrieval (Hybrid)
Der /chat Endpunkt nutzt Hybrid Retrieval (Semantic + Graph), um auch logisch verbundene, aber textlich unterschiedliche Notizen zu finden (z.B. Decisions zu einem Projekt).
5.2 Intent Router (WP06)
Der Request durchläuft den Hybrid Router:
- Fast Path: Prüfung auf
trigger_keywordsausdecision_engine.yaml. - Slow Path: Falls kein Keyword matched und
llm_fallback_enabled=true, klassifiziert das LLM den Intent (DECISION,EMPATHY,FACT,CODING). - Result: Auswahl der Strategie und der
inject_types(z.B. Values & Goals).
5.3 Context Enrichment
Der Router (chat.py) reichert die gefundenen Chunks mit Metadaten an:
- Typ-Injection:
[DECISION],[PROJECT]. - Reasoning-Infos:
(Score: 0.75). - Zweck: Ermöglicht kleinen Modellen (Phi-3) das Erkennen von logischen Rollen ("Warum?" vs "Was?").
5.4 Generation (LLM)
- Engine: Ollama (lokal).
- Modell:
phi3:mini(Standard). - Prompting: Template wird basierend auf Intent gewählt (
decision_templatevsempathy_template).
6. Feedback & Lernen (WP04c)
Das System schreibt kontinuierlich Logs ("Data Flywheel"):
data/logs/search_history.jsonl: Trainingsdaten (Query + Ergebnisse + Breakdown).data/logs/feedback.jsonl: Labels (User-Rating zurquery_id).
7. Quality Gates & Tests
Diese Tests garantieren die Stabilität der Pipeline.
7.1 Pflicht-Tests vor Commit
-
Payload Dryrun (Schema-Check): Simuliert Import, prüft JSON-Schema Konformität.
python3 -m scripts.payload_dryrun --vault ./test_vault -
Full Edge Check (Graph-Integrität): Prüft Invarianten (z.B.
nextmuss reziprok zuprevsein).python3 -m scripts.edges_full_check
7.2 Smoke-Test (E2E)
Prüft am laufenden System (Prod oder Dev), ob Semantik, Graph und Feedback funktionieren.
# Retriever Test
python scripts/test_retriever_smoke.py --mode hybrid --top-k 5
# Chat / Decision Engine Test (Neu WP06)
python tests/test_wp06_decision.py -p 8002 -e EMPATHY -q "Alles ist grau"
# Feedback Test
python tests/test_feedback_smoke.py --url http://localhost:8001/query
8. Ausblick & Roadmap (Technische Skizzen)
Wie entwickeln wir die Pipeline weiter?
8.1 WP-08: Self-Tuning (Skizze)
Ziel: Die Gewichte in retriever.yaml basierend auf feedback.jsonl optimieren.
Ansatz: Ein Offline-Learning-Skript scripts/optimize_weights.py.
- Load: Liest
search_history.jsonlund joint mitfeedback.jsonlviaquery_id. - Analyze: Korrelation Scores vs. User-Rating.
- Optimize: Vorschlag neuer Gewichte für
retriever.yaml.