7.0 KiB
Mindnet v2.2 – Developer Guide
Datei: docs/mindnet_developer_guide_v2.2.md
Stand: 2025-12-08
Status: FINAL (Inkl. RAG & LLM Setup)
Quellen: mindnet_technical_architecture.md, Handbuch.md, DEV_WORKFLOW.md.
Zielgruppe: Entwickler:innen. Zweck: Anleitung zum Aufsetzen der Entwicklungsumgebung, Verständnis der Modulstruktur und Durchführung von Tests.
1. Projektstruktur (Aktualisiert)
Der Code ist modular in app (Logik), scripts (CLI) und config (Steuerung) getrennt.
mindnet/
├── app/
│ ├── core/ # Kernlogik
│ │ ├── chunker.py # Text-Zerlegung
│ │ ├── derive_edges.py # Edge-Erzeugung (WP03 Logik)
│ │ ├── retriever.py # Scoring & Hybrid Search
│ │ ├── qdrant.py # DB-Verbindung
│ │ └── ...
│ ├── models/ # Pydantic DTOs
│ │ └── dto.py # Zentrale DTO-Definition
│ ├── routers/ # FastAPI Endpoints
│ │ ├── query.py # Suche
│ │ ├── chat.py # RAG-Chat (WP05)
│ │ ├── feedback.py # Feedback (WP04c)
│ │ └── ...
│ ├── services/ # Interne & Externe Dienste
│ │ ├── llm_service.py # Ollama Client (WP05)
│ │ ├── feedback_service.py # Logging (JSONL Writer)
│ │ └── embeddings_client.py
│ └── main.py # Entrypoint der API
├── config/ # YAML-Konfigurationen (Single Source of Truth)
│ ├── types.yaml # Import-Regeln
│ ├── prompts.yaml # LLM Prompts & RAG Templates (WP05)
│ └── retriever.yaml # Scoring-Regeln
├── data/
│ └── logs/ # Lokale Logs (search_history.jsonl, feedback.jsonl)
├── scripts/ # CLI-Tools (Import, Diagnose, Reset)
├── tests/ # Pytest Suite & Smoke Scripts
└── vault/ # Dein lokaler Markdown-Content (Git-ignored)
2. Lokales Setup (Development)
2.1 Voraussetzungen
- Python: 3.10 oder höher.
- Docker: Für Qdrant.
- Ollama: Für lokale LLM-Inference (erforderlich für
/chat). - Vault: Ein Ordner mit Markdown-Dateien (z.B.
./mindnet_v2_test_vaultfür Tests).
2.2 Installation
# 1. Repository klonen & Verzeichnis wechseln
git clone <repo> mindnet
cd mindnet
# 2. Virtual Environment erstellen
python3 -m venv .venv
source .venv/bin/activate
# 3. Abhängigkeiten installieren
pip install -r requirements.txt
# 4. Ollama Setup (Modell laden)
# Wir nutzen Phi-3 Mini für schnelle CPU-Inference
ollama pull phi3:mini
2.3 Konfiguration (Environment)
Erstelle eine .env Datei im Root-Verzeichnis.
# Qdrant Verbindung
QDRANT_URL="http://localhost:6333"
QDRANT_API_KEY="" # Leer lassen für lokal
# Mindnet Core Settings
COLLECTION_PREFIX="mindnet_dev"
MINDNET_TYPES_FILE="./config/types.yaml"
MINDNET_RETRIEVER_CONFIG="./config/retriever.yaml"
# LLM / RAG Settings (WP05)
MINDNET_LLM_MODEL="phi3:mini"
MINDNET_OLLAMA_URL="http://127.0.0.1:11434"
MINDNET_PROMPTS_PATH="./config/prompts.yaml"
# Import-Strategie
MINDNET_HASH_COMPARE="Body"
MINDNET_HASH_SOURCE="parsed"
2.4 Dienste starten (Systemd bevorzugt)
Auf dem Entwicklungsserver (Beelink) nutzen wir Systemd.
# Starten / Neustarten
sudo systemctl restart mindnet-dev
# Logs prüfen
journalctl -u mindnet-dev -f
Falls du lokal auf Windows entwickelst: # 1. Qdrant starten docker run -p 6333:6333 qdrant/qdrant # 2. Ollama starten ollama serve # 3. API starten uvicorn app.main:app --host 0.0.0.0 --port 8002 --env-file .env --reload
3. Core-Module & Entwicklung
3.1 Der Importer (scripts.import_markdown)
Dies ist das komplexeste Modul.
- Einstieg:
scripts/import_markdown.py->main(). - Idempotenz: Der Importer muss mehrfach laufen können, ohne Duplikate zu erzeugen. Wir nutzen deterministische IDs (UUIDv5).
- Debugging: Nutze
--dry-runoderscripts/payload_dryrun.py.
3.2 Edge-Logik (app.core.derive_edges)
Hier wird entschieden, welche Kanten entstehen.
- Rule-ID: Vergib zwingend eine eindeutige
rule_id(z.B.custom:my_rule), damit die Herkunft für die Explanation nachvollziehbar bleibt.
3.3 Der Retriever & Chat (app.core.retriever / app.routers.chat)
Hier passiert das Scoring und die Generation.
- Hybrid Search: Der Chat-Endpoint erzwingt
mode="hybrid". - Context Enrichment: In
_build_enriched_context(chat.py) werden Metadaten (Typ, Score) in den Prompt injiziert. Achte darauf, dass neue Typen hier ggf. berücksichtigt werden, falls sie spezielle Behandlung brauchen (aktuell generisch gelöst).
4. Tests & Debugging
Wir unterscheiden drei Test-Ebenen. Ein Pull Request sollte alle passieren.
4.1 Unit Tests (Pytest)
Für isolierte Logik (Parsing, Scoring). pytest tests/test_retriever_basic.py pytest tests/test_chunking.py pytest tests/test_edges_all.py
4.2 Integration / Pipeline Tests
Prüfen den Datenfluss von Markdown bis Qdrant-JSON.
-
Payload Dryrun: Prüft JSON-Schema Konformität. python3 -m scripts.payload_dryrun --vault ./mindnet_v2_test_vault
-
Edge Checks: Prüft Graph-Invarianten. python3 -m scripts.edges_full_check
4.3 Smoke Tests (E2E)
Prüfen das laufende System (API) gegen eine echte Qdrant-Instanz und Ollama.
# 1. Retriever Test (Hybrid + Explanation)
python scripts/test_retriever_smoke.py --query "Test" --mode hybrid --top-k 5 --explain
# 2. Chat / RAG Test (WP05)
# Prüft die gesamte Kette: Suche -> Kontext -> LLM -> Antwort
python tests/test_chat_wp05.py
# 3. Feedback Test (WP04c)
python tests/test_feedback_smoke.py --url http://localhost:8002/query
5. Guidelines für Erweiterungen
5.1 Neuen Note-Typ hinzufügen
- Bearbeite
config/types.yaml. - Definiere
chunk_profile,retriever_weightundedge_defaults. - Führe einen Re-Import durch.
5.2 Persönlichkeit anpassen (Prompt Engineering)
- Bearbeite
config/prompts.yaml. - Änderungen sind sofort aktiv (kein Neustart nötig, da pro Request geladen, sofern nicht gecached).
- Prompt-Regel: Kleine Modelle (Phi-3) brauchen strikte Anweisungen (z.B. "Achte auf [DECISION]").
5.3 Neue API-Endpunkte
- Erstelle einen neuen Router in
app/routers/. - Registriere den Router in
app/main.py. - Denke an Traceability: Generiere oder durchschleife
query_id.
6. Nützliche Einzeiler
DB komplett zurücksetzen (Vorsicht!): python3 -m scripts.reset_qdrant --mode wipe --prefix "mindnet_dev" --yes
Einen einzelnen File inspizieren (Parser-Sicht): python3 tests/inspect_one_note.py --file ./vault/MeinFile.md
Live-Logs sehen (Beelink): journalctl -u mindnet-dev -f