14 KiB
| doc_type | audience | status | version | context |
|---|---|---|---|---|
| roadmap | product_owner, developer | active | 2.7 | Aktuelle Planung für kommende Features (ab WP16), Release-Strategie und Historie der abgeschlossenen WPs. |
Mindnet Active Roadmap
Aktueller Stand: v2.6.0 (Post-WP15/WP19) Fokus: Visualisierung, Exploration & Intelligent Ingestion.
1. Programmstatus
Wir haben mit der Implementierung des Graph Explorers (WP19) und der Smart Edge Allocation (WP15) die Basis für ein intelligentes, robustes System gelegt. Der nächste Schritt (WP19a) vertieft die Analyse, während WP16 die "Eingangs-Intelligenz" erhöht.
| Phase | Fokus | Status |
|---|---|---|
| Phase A | Fundament & Import | ✅ Fertig |
| Phase B | Semantik & Graph | ✅ Fertig |
| Phase C | Persönlichkeit | ✅ Fertig |
| Phase D | Interaktion & Tools | ✅ Fertig |
| Phase E | Maintenance & Visualisierung | 🚀 Aktiv |
2. Historie: Abgeschlossene Workpackages
Eine Übersicht der implementierten Features zum schnellen Auffinden von Funktionen. Details siehe 99_legacy_workpackages.md.
| WP | Titel | Ergebnis / Kern-Feature |
|---|---|---|
| WP-01 | Knowledge Design | Definition von types.yaml und Note-Typen (Project, Concept, etc.). |
| WP-02 | Chunking Strategy | Implementierung von Sliding-Window und Hash-basierter Änderungserkennung. |
| WP-03 | Import-Pipeline | Asynchroner Importer, der Markdown in Qdrant (Notes/Edges) schreibt. |
| WP-04a | Retriever Scoring | Hybride Suche: Score = Semantik + GraphBonus + TypGewicht. |
| WP-04b | Explanation Layer | Transparenz: API liefert "Reasons" (Warum wurde das gefunden?). |
| WP-04c | Feedback Loop | Logging von User-Feedback (JSONL) als Basis für Learning. |
| WP-05 | RAG-Chat | Integration von Ollama (phi3) und Context-Enrichment im Prompt. |
| WP-06 | Decision Engine | Hybrid Router unterscheidet Frage (RAG) vs. Handlung (Interview). |
| WP-07 | Interview-Assistent | One-Shot Extraction: Erzeugt Markdown-Drafts aus User-Input. |
| WP-08 | Interview-Assistent | One-Shot Extraction: Erzeugt Markdown-Drafts aus User-Input. |
| WP-09 | Interview-Assistent | One-Shot Extraction: Erzeugt Markdown-Drafts aus User-Input. |
| WP-10 | Web UI | Streamlit-Frontend als Ersatz für das Terminal. |
| WP-10a | Draft Editor | GUI-Komponente zum Bearbeiten und Speichern generierter Notizen. |
| WP-11 | Backend Intelligence | nomic-embed-text (768d) und Matrix-Logik für Kanten-Typisierung. |
| WP-15 | Smart Edge Allocation | LLM-Filter für Kanten in Chunks + Traffic Control (Semaphore) + Strict Chunking. |
| WP-19 | Graph Visualisierung | Frontend Modularisierung: Umbau auf ui_*.py.Graph Engines: Parallelbetrieb von Cytoscape (COSE) und Agraph. Tools: "Single Source of Truth" Editor, Persistenz via URL. |
| WP-20 | Cloud Hybrid Mode | Nutzung von Public LLM für schnellere Verarbeitung und bestimmte Aufgaben |
| WP-21 | Semantic Graph Routing & Canonical Edges | Transformation des Graphen von statischen Verbindungen zu dynamischen, kontextsensitiven Pfaden. Das System soll verstehen, welche Art von Verbindung für die aktuelle Frage relevant ist ("Warum?" vs. "Was kommt danach?"). |
| WP-22 | Content Lifecycle & Registry | Ergebnis: SSOT via 01_edge_vocabulary.md, Alias-Mapping, Status-Scoring (stable/draft) und Modularisierung der Scoring-Engine. |
2.1 WP-22 Lessons Learned
- Architektur: Die Trennung von
retriever.pyundretriever_scoring.pywar notwendig, um LLM-Context-Limits zu wahren und die Testbarkeit der mathematischen Formeln zu erhöhen. - Kanten-Validierung: Die Edge Registry muss beim Start explizit initialisiert werden (Singleton), um "Lazy Loading" Probleme in der API zu vermeiden.
3. Offene Workpackages (Planung)
WP-08 – Self-Tuning v1/v2 (geplant)
Diese Features stehen als nächstes an oder befinden sich in der Umsetzung. Phase: B/C Status: 🟡 geplant (Nächster Fokus)
Ziel: Aufbau eines Self-Tuning-Mechanismus, der auf Basis von Feedback-Daten (WP-04c) Vorschläge für Retriever- und Policy-Anpassungen macht.
Umfang:
- Auswertung der JSONL-Feedback-Daten.
- Regel-basierte Anpassungs-Vorschläge für
retriever.yamlund Typ-Prioritäten.
Aufwand / Komplexität:
- Aufwand: Hoch
- Komplexität: Hoch
WP-09 – Vault-Onboarding & Migration (geplant)
Phase: B Status: 🟡 geplant
Ziel: Sicherstellen, dass bestehende und neue Obsidian-Vaults schrittweise in mindnet integriert werden können – ohne Massenumbau.
Umfang:
- Tools zur Analyse des Vault-Status.
- Empfehlungen für minimale Anpassungen.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Niedrig/Mittel
WP-19a – Graph Intelligence & Discovery (Sprint-Fokus)
Status: 🚀 Startklar Ziel: Vom "Anschauen" zum "Verstehen". Deep-Dive Werkzeuge für den Graphen.
- Discovery Screen: Neuer Tab für semantische Suche ("Finde Notizen über Vaterschaft") und Wildcard-Filter.
- Filter-Logik: "Zeige nur Wege, die zu
type:decisionführen". - Chunk Inspection: Umschaltbare Granularität (Notiz vs. Chunk) zur Validierung des Smart Chunkers.
WP-14 – Review / Refactoring / Dokumentation
Status: 🟡 Laufend (Phase E) Ziel: Technische Schulden abbauen, die durch schnelle Feature-Entwicklung (WP15/WP19) entstanden sind.
- Refactoring
chunker.py: Die Datei ist monolithisch geworden (Parsing, Strategien, LLM-Orchestrierung).- Lösung: Aufteilung in ein Package
app/core/chunking/mit Modulen (strategies.py,orchestration.py,utils.py).
- Lösung: Aufteilung in ein Package
- Dokumentation: Kontinuierliche Synchronisation von Code und Docs (v2.6 Stand).
WP-16 – Auto-Discovery & Intelligent Ingestion
Status: 🟡 Geplant Ziel: Das System soll "dumme" Textdateien beim Import automatisch analysieren, strukturieren und anreichern, bevor sie gespeichert werden. Kern-Features:
- Smart Link Enricher: Automatisches Erkennen von fehlenden Kanten in Texten ohne explizite Wikilinks. Ein "Enricher" scannt Text vor dem Import, findet Keywords (z.B. "Mindnet") und schlägt Links vor (
[[Mindnet]]). - Structure Analyzer (Auto-Strategy):
- Problem: Manuelle Zuweisung von
chunking_profileintypes.yamlist starr. - Lösung: Vorschalten einer Analysestufe im Importer (
chunker.py), die die Text-Topologie prüft und die Strategie wählt. - Metrik 1 (Heading Density): Verhältnis
Anzahl Überschriften / Wortanzahl. Hohe Dichte (> 1/200) -> Indikator fürstructured_smart_edges. Niedrige Dichte ->sliding_smart_edges. - Metrik 2 (Variance): Regelmäßigkeit der Abstände zwischen Headings.
- Problem: Manuelle Zuweisung von
- Context-Aware Hierarchy Merging:
- Problem: Leere Zwischenüberschriften (z.B. "Tier 2") gingen früher als bedeutungslose Chunks verloren oder wurden isoliert.
- Lösung: Generalisierung der Logik aus WP-15, die leere Eltern-Elemente automatisch mit dem ersten Kind-Element verschmilzt ("Tier 2 + MP1"), um den Kontext für das Embedding zu wahren.
WP-17 – Conversational Memory (Gedächtnis)
Status: 🟡 Geplant Ziel: Echte Dialoge statt Request-Response.
- Tech: Erweiterung des
ChatRequestDTO umhistory. - Logik: Token-Management (Context Window Balancing zwischen RAG-Doks und Chat-Verlauf).
WP-18 – Graph Health & Maintenance
Status: 🟡 Geplant (Prio 2) Ziel: Konsistenzprüfung ("Garbage Collection").
- Feature: Cronjob
check_graph_integrity.py. - Funktion: Findet "Dangling Edges" (Links auf gelöschte Notizen) und repariert/löscht sie.
WP-13 – MCP-Integration & Agenten-Layer
Status: 🟡 Geplant Ziel: mindnet als MCP-Server bereitstellen, damit Agenten (Claude Desktop, OpenAI) standardisierte Tools nutzen können.
- Umfang: MCP-Server mit Tools (
mindnet_query,mindnet_explain, etc.).
WP-20 – Cloud Hybrid Mode (Optional)
Status: ⚪ Optional Ziel: "Turbo-Modus" für Massen-Imports.
- Konzept: Switch in
.env, um statt Ollama (Lokal) auf Google Gemini (Cloud) umzuschalten.
WP-21 – Semantic Graph Routing & Canonical Edges
Status: 🟡 Geplant Ziel: Transformation des Graphen von statischen Verbindungen zu dynamischen, kontextsensitiven Pfaden. Das System soll verstehen, welche Art von Verbindung für die aktuelle Frage relevant ist ("Warum?" vs. "Was kommt danach?"). Problem:
- Statische Gewichte: Aktuell ist
caused_byimmer gleich wichtig (z.B. 1.2), egal ob der User nach Ursachen oder Definitionen fragt. - Vokabular-Zwang: Der Nutzer muss exakte System-Begriffe (
caused_by) verwenden. Natürliche Synonyme (führt_zu,ausgelöst_durch) werden als unbekannte Kanten ignoriert oder nicht speziell gewichtet.
Lösungsansätze & Kern-Features:
- Canonical Edge Mapping (Middleware):
- Einführung einer Mapping-Schicht (z.B. in
edges.yaml). - Funktion: Normalisiert User-Vokabular (
leads_to,triggers,starts) automatisch auf System-Typen (caused_by). - Benefit: Maximale Schreibfreiheit für den Nutzer bei gleichzeitiger System-Konsistenz.
- Einführung einer Mapping-Schicht (z.B. in
- Dynamic Intent Boosting (Query-Time):
- Erweiterung der
Decision Engine. - Funktion: Der Router erkennt den Intent der Frage (z.B.
EXPLANATIONfür "Warum-Fragen") und injiziert temporäreedge_weightsin den Retriever. - Beispiel: Bei "Warum ist das passiert?" wird
caused_byvon 1.2 auf 2.5 geboostet, währendrelated_toauf 0.1 sinkt.
- Erweiterung der
- Graph Reasoning:
- Der Retriever priorisiert Pfade, die dem semantischen Muster der Frage entsprechen, nicht nur dem Text-Match.
WP-22 – Content Lifecycle & Meta-Configuration
Status: ✅ Fertig (v2.7.0) Ziel: Professionalisierung der Datenhaltung durch Einführung eines Lebenszyklus und "Docs-as-Code" Konfiguration. Lösungsansätze:
- Status-Logik (Frontmatter):
stablevs.draftScoring Modifier. - Single Source of Truth (SSOT): Die Registry nutzt
01_edge_vocabulary.mdals führende Konfiguration. - Self-Learning Loop: Protokollierung unbekannter Kanten in
unknown_edges.jsonl.
23: Agentic Multi-Stream Reasoning (Mindnet 2025)
1. Zielsetzung & Problemstellung
Das bisherige System basiert auf einem globalen Scoring-Modell, bei dem Notizen unterschiedlicher Typen (z. B. insight vs. belief) in einem einzigen Retrieval-Topf konkurrieren. Dies führt dazu, dass leiser gewichtete, aber fundamentale Identitätsmerkmale oft durch hochgewichtete aktuelle Erkenntnisse verdrängt werden. Ziel dieses Pakets ist die Einführung einer parallelen Stream-Architektur, um die Vielschichtigkeit menschlicher Entscheidungsprozesse (Werte + Erfahrung + Absicht) im LLM-Kontext zu garantieren.
2. Funktionsbeschreibung: Die Streams
Die Daten aus der types.yaml werden in drei logische Verarbeitungseinheiten unterteilt:
A. Identity Stream (Die Wahrheitsebene)
- Inhalt:
value,belief,trait,principle,need,boundary,bias. - Zweck: Definition des moralischen Kompasses, der psychologischen Grundbedürfnisse und kognitiven Muster.
- Wirkung: Liefert das "Warum" hinter jeder Handlung.
B. History Stream (Die Evidenzebene)
- Inhalt:
experience,event,source,journal,person. - Zweck: Bereitstellung empirischer Belege aus der Vergangenheit und sozialer Kontexte.
- Wirkung: Verankert die Antwort in real erlebten Mustern und Fakten.
C. Action Stream (Die Dynamikebene)
- Inhalt:
project,decision,goal,task,risk,motivation,habit,state. - Zweck: Analyse der aktuellen Richtung, geplanter Vorhaben und des gegenwärtigen Zustands.
- Wirkung: Liefert den Kontext für die Umsetzung und zukünftige Ziele.
3. Technische Wirkungsweise (Solution Sketch)
Schritt 1: Query-Decomposition
Ein initialer Klassifizierungs-Agent analysiert die Nutzeranfrage und bestimmt, welcher Stream primär angesprochen werden muss (z. B. "Wie soll ich mich entscheiden?" boostet den Identity Stream).
Schritt 2: Parallel Stream Retrieval
Anstelle einer Suche werden drei unabhängige Vektor-Suchen mit Typ-Filtern durchgeführt:
- Search_A (Identity): Top-5 Ergebnisse aus Identitäts-Notizen.
- Search_B (History): Top-5 Ergebnisse aus biografischen/externen Notizen.
- Search_C (Action): Top-5 Ergebnisse aus operativen/strategischen Notizen.
Schritt 3: Agentic Synthesis (The Reasoning)
Ein Synthese-Agent (LLM) erhält die aggregierten Ergebnisse in getrennten Sektionen. Die Anweisung lautet:
- Prüfung: Steht das aktuelle Vorhaben (Action) im Einklang mit den Werten (Identity)?
- Abgleich: Welche vergangenen Erfahrungen (History) stützen oder widersprechen diesem Weg?
- Korrektur: Identifiziere mögliche Biases oder Grenzüberschreitungen (Boundary).
4. Erwartete Ergebnisse
- Höhere Resonanz: Antworten wirken authentischer, da sie explizit auf das Wertesystem des Nutzers Bezug nehmen.
- Widerspruchs-Erkennung: Das System kann den Nutzer aktiv warnen, wenn ein Projekt gegen seine
principlesoderneedsverstößt. - Robustes Retrieval: Wichtige Identitäts-Informationen gehen nicht mehr im "Rauschen" von hunderten Journal-Einträgen verloren.
4. Abhängigkeiten & Release-Plan
graph TD
WP19(Graph Viz) --> WP19a(Discovery)
WP19a --> WP17(Memory)
WP15(Smart Edges) --> WP16(Auto-Discovery)
WP15 --> WP14(Refactoring)
WP03(Import) --> WP18(Health Check)
WP03 --> WP13(MCP)
WP04 --> WP13(MCP)
WP06(Decision Engine) --> WP21(Semantic Routing)
WP03(Import Pipeline) --> WP21
WP21 --> WP22(Lifecycle & Registry)
WP22 --> WP14
WP15(Smart Edges) --> WP21