24 KiB
mindnet v2.4 — Programmplan
Version: 2.5.0 (Inkl. WP-15 Smart Edge Allocation) Stand: 2025-12-12 Status: Aktiv
- mindnet v2.4 — Programmplan
- 1. Programmauftrag
- 2. Vision
- 3. Programmziele
- 4. Architekturprinzipien
- 5. Programmstruktur (Phasenmodell)
- 6. Workpackages – detaillierte Übersicht
- Legende Aufwand / Komplexität
- WP-01 – Wissensdesign (abgeschlossen)
- WP-02 – Chunking & Hash-Strategie (abgeschlossen)
- WP-03 – Import-Pipeline & Edge-System v2 (abgeschlossen)
- WP-04a – Retriever & Graph-Scoring (abgeschlossen)
- WP-04b – Explanation Layer ("Why-Layer") (abgeschlossen)
- WP-04c – Feedback Logging & Bewertungsdaten (abgeschlossen)
- WP-05 – Persönlichkeitsmodell & RAG-Chat (abgeschlossen)
- WP-05b – Advanced Chat (Optional)
- WP-06 – Decision Engine & Hybrid Router (abgeschlossen)
- WP-07 – Interview-Assistent (abgeschlossen)
- WP-08 – Self-Tuning v1/v2 (geplant)
- WP-09 – Vault-Onboarding & Migration (geplant)
- WP-10 – Chat-Interface & Writeback (abgeschlossen)
- WP-10a – GUI Evolution: Draft Editor (abgeschlossen)
- WP-11 – Backend Intelligence & Persistence (abgeschlossen)
- WP-12 – Knowledge Rewriter (Soft Mode, geplant)
- WP-13 – MCP-Integration & Agenten-Layer (geplant)
- WP-14 – Review / Refactoring / Dokumentation (geplant)
- WP-15 – Smart Edge Allocation & Chunking Strategies (abgeschlossen)
- WP-16 – Auto-Discovery & Enrichment (geplant)
- 7. Abhängigkeiten (vereinfacht, aktualisiert)
- 8. Laufzeit- & Komplexitätsindikatoren (aktualisiert)
- 9. Programmfortschritt (Ampel, aktualisiert)
- 10. Governance & Versionierung
- 11. Executive Summary
1. Programmauftrag
mindnet v2.4 entwickelt ein persönliches, wachsendes KI-Gedächtnis, das:
- Wissen, Erfahrungen, Werte und Entscheidungen speichert,
- diese Informationen semantisch verknüpft und rekonstruierbar macht,
- einen KI-Zwilling aufbaut, der ähnlich argumentiert, entscheidet und reflektiert wie du,
- über mehrere Kanäle gefüttert wird:
- Obsidian-Markdown (primäre Quelle),
- Chat-basierter Agent (Decision Engine & RAG-Chat aktiv),
- Interview-Assistent (One-Shot Extraction aktiv),
- Draft Editor (Active Intelligence aktiv),
- automatisch neue Zusammenhänge erkennt und vernetzt (Edges, Typen, Hinweise),
- sich durch Rückmeldungen (Feedback) selbst verbessert (Self-Tuning).
Langfristig soll mindnet als digitales Gegenüber funktionieren, das:
- dich versteht,
- deine Denkweise reflektiert,
- deine Werte kennt und verwendet,
- Entscheidungen begründen kann („Warum?“),
- Erinnerungen einordnet,
- und für deine Nachkommen als dialogfähiger Gesprächspartner zur Verfügung steht.
mindnet ist kein statisches Wissensarchiv, sondern ein lebendes, lernendes Gedächtnismodell mit Fokus auf:
- persönliche Perspektive,
- erklärbare Begründungspfade (Why-Layer),
- kontinuierliche Erweiterbarkeit,
- robuste technische Basis (lokal, nachvollziehbar, versioniert).
2. Vision
„Ein persönliches semantisches Gedächtnis, das mit mir wächst, meine Persönlichkeit spiegelt und mir als intelligenter, erklärbarer, lernender Begleiter dient.“
Kernprinzipien der Vision:
-
Erklärbarkeit: Jede Antwort muss über Edges, Scores, Werte-Bezüge und Herkunftsnotizen begründbar sein. Das System kann Entscheidungen auf zugrundeliegende
[DECISION]-Notizen zurückführen. -
Wachstum: Das System arbeitet von Anfang an mit unvollständigen Daten, kann aber schrittweise dichter werden, ohne dass alte Notizen massenhaft manuell angepasst werden müssen.
-
Flexibilität (Late Binding): Semantik wird überwiegend in Konfiguration (z. B.
types.yaml,prompts.yaml,decision_engine.yaml) festgelegt. Die Persönlichkeit entsteht durch das Config-Design, nicht durch Hardcoding. -
Autonomie & Self-Healing: mindnet schlägt fehlende Typen, Relationen und Edges vor (z. B. aus Inline-Relationen, Edge-Defaults, Ähnlichkeitsbeziehungen) und baut damit einen „self-healing graph“ auf.
-
Lernen & Self-Tuning: Feedback zu Antworten (gut/schlecht, relevant/nicht relevant) fließt in Score-Gewichte, Policies und ggf. Edge-Struktur ein.
-
Persönlichkeit: Entscheidungen werden wert- und erfahrungsbasiert begründet; das System agiert als KI-Zwilling durch Nutzung lokaler LLMs (z.B. Phi-3/Mistral) und eines Intent-Routers.
-
Incremental Growth: Das System muss mit wenigen, heterogenen Notizen starten und sich fortlaufend verdichten können – ohne Retro-Massenmigrationen im Vault.
3. Programmziele
3.1 Kurzfristig (Abgeschlossen / Laufend)
- Automatische Sammlung von Wissen aus Markdown-Vault.
- Aufbau eines stabilen Graph-Speichers in Qdrant (
*_notes,*_chunks,*_edges). - Semantischer und graphbasierter Retriever (WP-04a abgeschlossen).
- Erklärbarkeit: Why-Layer liefert Begründungen zu Treffern (WP-04b abgeschlossen).
- Feedback-Loop: Systematisches Logging von Suche und Bewertung (WP-04c abgeschlossen).
- RAG-Chat: KI antwortet in natürlicher Sprache auf Basis von Wissen und Persönlichkeit (WP-05 abgeschlossen).
- Decision Engine: System erkennt Intent (Fakt vs. Entscheidung) und wägt Werte ab (WP-06 abgeschlossen).
- Multi-Persona: System wechselt den Tonfall (Empathisch vs. Analytisch) situativ (WP-06 abgeschlossen).
- Chat Interface: Web-basiertes Frontend (Streamlit) für einfache Interaktion und Feedback-Gabe (WP-10 abgeschlossen).
- Interview-Assistent (WP-07): One-Shot Extraction von Notizen ("Neues Projekt anlegen") ist live.
- Active Intelligence (WP-11): Automatische Link-Vorschläge (Matrix-Logik) während des Schreibens.
- Technische Basis: FastAPI (Async), Qdrant (768 Dim), Ollama (Phi-3/Nomic), Streamlit.
- Automatisierte Erkennung von Beziehungen:
- Wikilinks, Inline-Relationen, Callout-Edges, Typ-Defaults.
- „Mitwachsendes“ Schema ohne Obsidian-Umstrukturierungen:
- Neues Wissen kann sofort erfasst werden,
- bestehende Notizen bleiben gültig (Virtual Schema Layer).
3.2 Mittelfristig (Nächste Schritte)
- Self-Tuning (WP-08): Optimierung der Gewichte in
retriever.yamlbasierend auf dem gesammelten Feedback. - Agenten können über MCP-Tools (
mindnet_query,mindnet_chat) auf mindnet zugreifen (WP-13).
3.3 Langfristig
- KI-Zwilling, der deinen Stil, deine Werte und deine typische Denkweise repräsentiert.
- Weitgehend autonomes Self-Tuning der Wissensstruktur (auf Basis gespeicherter Feedback-Daten & Policies).
- Lebenslanges Gedächtnis, das
- konsistent bleibt,
- wächst,
- sich weiterentwickelt,
- und deine Geschichte für deine Nachkommen erzählbar und erlebbar macht.
4. Architekturprinzipien
Die folgenden Prinzipien steuern alle Workpackages und Entscheidungen:
-
Late Binding (späte Semantik)
- Struktur und Interpretation werden in Konfigurationen (z. B.
types.yaml,prompts.yaml,decision_engine.yaml) definiert, nicht direkt in den Vault-Dateien. - Die "Persönlichkeit" des Chats ist ein Prompt-Template, kein Code.
- Struktur und Interpretation werden in Konfigurationen (z. B.
-
Virtual Schema Layer
- Typen, Regeln, Policies, Edge-Defaults werden im Schema-Layer beschrieben.
- Markdown-Dateien benötigen nur minimale, robuste Angaben (Titel, Typ, optionale Properties).
-
Self-Healing Graph
- Der Graph wird regelmäßig analysiert (Edges, Centrality, fehlende Links).
- Automatisierte Jobs ergänzen fehlende Kanten.
-
Deterministische IDs
- Notes, Chunks und Edges erhalten stabile IDs (z. B. UUIDv5).
- Der Graph ist jederzeit wiederaufbaubar (Import-Pipeline idempotent).
-
Full Explainability & Context Enrichment
- Jeder Score, jede Beziehung muss nachvollziehbar sein.
- Dem LLM werden Metadaten (
[DECISION],[PROJECT]) injiziert, um Halluzinationen zu vermeiden und logische Schlüsse zu ermöglichen.
-
Persistence First
- Obsidian bleibt die primäre Quelle der Wahrheit.
- mindnet ergänzt, schlägt Änderungen vor, schreibt aber nur kontrolliert.
-
Minimalinvasives Schreiben
- Automatische Veränderungen an Markdown-Dateien erfolgen ausschließlich nach expliziter Zustimmung.
-
Incremental Growth & Early Value
- Das System muss bereits mit wenigen Notizen und einem kleinen Vault sinnvolle Antworten liefern.
- Feedback-Mechanismen werden früh eingeführt.
-
Observability & Testbarkeit
- Jeder Importlauf, jede Retriever-Anfrage und jede Policy-Änderung soll prüfbar sein.
-
Local First & Privacy
- Nutzung lokaler LLMs (Ollama) für Inference. Keine Daten verlassen den Server.
5. Programmstruktur (Phasenmodell)
Phase A – Fundament & Import (Fertig)
Phase B – Semantik, Graph & Lernen (Fertig)
Phase C – Persönlichkeitsmodell & KI-Zwilling (Fertig)
Phase D – Agenten, MCP & Interaktion (Aktiv)
Phase E – Review, Refactoring, Dokumentation
Alle Workpackages sind einer Phase zugeordnet. WP-01 bis WP-07 und WP-10/10a/11 sind erfolgreich abgeschlossen.
6. Workpackages – detaillierte Übersicht
Legende Aufwand / Komplexität
- Aufwand: Niedrig / Mittel / Hoch
- Komplexität: Niedrig / Mittel / Hoch
Die Status-Ampel zeigt den aktuellen Stand gemäß Programmfortschritt.
WP-01 – Wissensdesign (abgeschlossen)
Phase: A Status: 🟢 abgeschlossen
Ziel:
Grundlegendes Schema für mindnet festlegen (knowledge_design.md), inkl.:
- Note-Typen (z. B.
concept,experience,project,decision,value). - Standard-Properties und Grundstruktur von Edges.
- Abbildung zentraler Lebens-Bereiche.
Erreichte Ergebnisse:
knowledge_design.mdundtypes.yamldefinieren die Zielarchitektur.
WP-02 – Chunking & Hash-Strategie (abgeschlossen)
Phase: A Status: 🟢 abgeschlossen
Ziel: Festlegen und implementieren einer robusten Chunking-Strategie und einer Hash-Logik zur Änderungserkennung.
Erreichte Ergebnisse:
- Implementierte Chunker-Logik mit Overlap.
- Stabile Hash-Strategie zur sicheren Änderungserkennung.
WP-03 – Import-Pipeline & Edge-System v2 (abgeschlossen)
Phase: A/B Status: 🟢 abgeschlossen
Ziel: Durchgängige Import-Pipeline von Markdown → Notes/Chunks/Edges in Qdrant mit deterministischen IDs.
Erreichte Ergebnisse:
- Vollständige E2E-Import-Pipeline.
- Vollständiges Edge-Modell (Strukturkanten, Wikilinks, Inline-Relationen).
WP-04a – Retriever & Graph-Scoring (abgeschlossen)
Phase: B Status: 🟢 abgeschlossen
Ziel: Aufbau eines hybriden Retrievers, der Semantik, Typwissen und Graph-Informationen kombiniert.
Erreichte Ergebnisse:
- Hybrides Scoring-Modell (Semantic + Edge + Centrality).
- Konfiguration über
retriever.yaml. /queryEndpoint aktiv.
WP-04b – Explanation Layer ("Why-Layer") (abgeschlossen)
Phase: B Status: 🟢 abgeschlossen
Ziel: Treffererklärungen liefern, die verständlich machen, warum ein Ergebnis gewählt wurde.
Erreichte Ergebnisse:
- DTO-Erweiterung:
QueryHitenthältexplanation,breakdownundreason. - Logic: Graph-Adapter unterstützt
incoming_edges(Reverse Lookup) für Authority-Erklärungen. - Output:
/queryEndpoint liefert auf Wunsch (explain: true) menschenlesbare Begründungen ("Verweist auf...").
WP-04c – Feedback Logging & Bewertungsdaten (abgeschlossen)
Phase: B Status: 🟢 abgeschlossen
Ziel: Grundlage für Self-Tuning schaffen durch systematisches Logging.
Erreichte Ergebnisse:
- Data Flywheel: Logging von Queries und User-Feedback in lokalen JSONL-Dateien.
- Search Log: Speichert Query + Score-Snapshot in
data/logs/search_history.jsonl. - Feedback Log: Speichert User-Ratings in
data/logs/feedback.jsonl. - Traceability: Durchgängige
query_idvon Request bis Feedback.
WP-05 – Persönlichkeitsmodell & RAG-Chat (abgeschlossen)
Phase: C Status: 🟢 abgeschlossen
Ziel: Aufbau eines RAG-Systems, das in natürlicher Sprache antwortet und Kontext versteht.
Erreichte Ergebnisse:
- Infrastruktur: Integration von Ollama (Phi-3 Mini) in den Service-Layer.
- Router:
/chatEndpoint mit "Hybrid Retrieval Enforcement". - Context Enrichment: Injection von Metadaten (
[TYPE],[SCORE]) in den Prompt, damit kleine Modelle (SLMs) komplexe Zusammenhänge ("Warum?") verstehen. - Config:
prompts.yamlsteuert System-Prompt und RAG-Template.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Mittel
WP-05b – Advanced Chat (Optional)
Phase: C Status: ⚪ optional
Ziel: Erweiterung des Chats um Gedächtnis (History) und einfache Tools.
Umfang:
- Implementierung von
ChatHistory(vergangene Nachrichten in den Kontext). - Einfache Tool-Nutzung (z.B. "Suche in Web").
WP-06 – Decision Engine & Hybrid Router (abgeschlossen)
Phase: C Status: 🟢 abgeschlossen
Ziel: Transformation vom reinen Wissens-Abrufer zum strategischen Entscheidungspartner durch Intent-Erkennung.
Erreichte Ergebnisse:
- Hybrid Intent Router: Kombination aus schnellem Keyword-Matching und intelligentem LLM-Fallback zur Erkennung der Absicht (
DECISION,EMPATHY,FACT,CODING). - Strategic Retrieval: Gezieltes Nachladen von Werten (
value), Zielen (goal) oder Erfahrungen (experience) basierend auf dem Intent. - Multi-Persona: Dynamische Anpassung des Tonfalls (Berater vs. Spiegel vs. Techniker) durch
prompts.yaml. - Late Binding: Vollständige Konfiguration via
decision_engine.yaml. - Robustheit: Konfigurierbare Timeouts für CPU-Inference.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Hoch
WP-07 – Interview-Assistent (abgeschlossen)
Phase: C/D Status: 🟢 abgeschlossen
Ziel: Dialogbasierter Erfassungs-Assistent, der strukturierte Interviews führt und daraus konsistente Markdown-Notizen generiert.
Erreichte Ergebnisse:
- One-Shot Extractor: Extrahiert Notiz-Inhalte aus einem Prompt.
- Schema Injection: Typspezifische Pflichtfelder (Late Binding).
- Draft Generator: Liefert validen Markdown-Codeblock mit
status: draft.
Aufwand / Komplexität:
- Aufwand: Niedrig/Mittel
- Komplexität: Mittel
WP-08 – Self-Tuning v1/v2 (geplant)
Phase: B/C Status: 🟡 geplant (Nächster Fokus)
Ziel: Aufbau eines Self-Tuning-Mechanismus, der auf Basis von Feedback-Daten (WP-04c) Vorschläge für Retriever- und Policy-Anpassungen macht.
Umfang:
- Auswertung der JSONL-Feedback-Daten.
- Regel-basierte Anpassungs-Vorschläge für
retriever.yamlund Typ-Prioritäten.
Aufwand / Komplexität:
- Aufwand: Hoch
- Komplexität: Hoch
WP-09 – Vault-Onboarding & Migration (geplant)
Phase: B Status: 🟡 geplant
Ziel: Sicherstellen, dass bestehende und neue Obsidian-Vaults schrittweise in mindnet integriert werden können – ohne Massenumbau.
Umfang:
- Tools zur Analyse des Vault-Status.
- Empfehlungen für minimale Anpassungen.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Niedrig/Mittel
WP-10 – Chat-Interface & Writeback (abgeschlossen)
Phase: D Status: 🟢 abgeschlossen
Ziel: Ablösung der Terminal-Interaktion durch ein grafisches Interface.
Erreichte Ergebnisse:
- Tech-Stack: Streamlit Frontend (
app/frontend/ui.py). - Funktionen: Chat-Verlauf, Visualisierung von Intents und Quellen (Expander).
- Feedback: Globales Rating (Sterne) und granulare Quellen-Bewertung (Faces).
- Writeback: Mockup-Interface für neue Einträge (Vorbereitung WP-07).
- Deployment: Systemd-Services für Prod (8501) und Dev (8502).
Aufwand / Komplexität:
- Aufwand: Hoch
- Komplexität: Hoch
WP-10a – GUI Evolution: Draft Editor (abgeschlossen)
Phase: D Status: 🟢 abgeschlossen
Ziel: Anpassung der GUI an komplexe Interaktionsmuster, die durch den Interview-Assistenten und Knowledge-Builder entstehen.
Erreichte Ergebnisse:
- Draft Editor: Interaktive
st.text_areafür generierte Entwürfe. - Sanitizer:
normalize_meta_and_bodyzur Korrektur von LLM-Fehlern. - Download/Copy: Export-Funktionen für Markdown.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Mittel
WP-11 – Backend Intelligence & Persistence (abgeschlossen)
Phase: D Status: 🟢 abgeschlossen
Ziel: Ermöglichung von "Active Intelligence" durch asynchrone Verarbeitung und semantische Analyse im Hintergrund.
Erreichte Ergebnisse:
- Async Core: Umstellung der Pipeline auf
asyncioundhttpx(Vermeidung von Blockaden). - Nomic Embeddings: Integration von
nomic-embed-text(768 Dim) für State-of-the-Art Semantik. - Matrix Logic: Regelwerk für kontextsensitive Kanten (
experience+value->based_on). - Sliding Window: Analyse langer Texte für Link-Vorschläge.
- Persistence API: Neuer Endpunkt
/ingest/savefür atomares Speichern & Indizieren.
Aufwand / Komplexität:
- Aufwand: Hoch
- Komplexität: Hoch
WP-12 – Knowledge Rewriter (Soft Mode, geplant)
Phase: C/D Status: 🟡 geplant
Ziel: Optionaler Assistent, der vorhandene Notes „aufräumt“, zusammenfasst oder reorganisiert – ausschließlich mit expliziter Freigabe.
Aufwand / Komplexität:
- Aufwand: Niedrig/Mittel
- Komplexität: Mittel
WP-13 – MCP-Integration & Agenten-Layer (geplant)
Phase: D Status: 🟡 geplant
Ziel: mindnet als MCP-Server bereitstellen, damit Agenten/LLMs standardisierte Tools nutzen können.
Umfang:
- MCP-Server mit Tools (
mindnet_query,mindnet_explain, etc.).
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Mittel
WP-14 – Review / Refactoring / Dokumentation (geplant)
Phase: E Status: 🟡 geplant
Ziel: Aufräumen, dokumentieren, stabilisieren – insbesondere für Onboarding Dritter und Langfrist-Betrieb.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Niedrig/Mittel
WP-15 – Smart Edge Allocation & Chunking Strategies (abgeschlossen)
Phase: D Status: 🟢 abgeschlossen
Ziel: Einführung einer intelligenten Verteilung von Wissenskanten an spezifische Text-Chunks, um die Präzision des Retrievals zu erhöhen, ohne die Stabilität des Systems durch lange LLM-Verarbeitungszeiten zu gefährden.
Erreichte Ergebnisse:
- 5-Stufen-Workflow: Implementierung von "Smart Edge Allocation" (Global Scan -> Deterministic Split -> LLM Filter -> Injection -> Fallback).
- Neue Chunking-Strategien: Einführung von
by_heading(für strukturierte Daten) und verbessertemsliding_windowals deterministische Basis. - Robustheit: Trennung von Zerlegung (Code) und Analyse (LLM). Bei LLM-Fehlern oder Timeouts greift ein Fallback-Mechanismus (Datenverlust ausgeschlossen).
- Architektur: Trennung der Orchestrierung (
chunker.py) von der KI-Logik (semantic_analyzer.py). - Konfiguration: Steuerung über
types.yaml(enable_smart_edge_allocation) ermöglicht granulare Anpassung pro Notiztyp.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Hoch
WP-16 – Auto-Discovery & Enrichment (geplant)
Phase: D Status: 🟡 geplant
Ziel:
Automatisches Erkennen und Vorschlagen von fehlenden Kanten in "dummem" Text (ohne explizite Wikilinks) vor der Speicherung. Umwandlung von Text in "smarten Text" durch Nutzung des DiscoveryService.
Umfang:
- Integration eines "Enrichers" in die Ingestion-Pipeline (Schritt 0).
- Unterscheidung zwischen "Hard Candidates" (explizite Links) und "Soft Candidates" (Vektor-basierte Vorschläge).
- LLM-basierte Verifikation der Vorschläge zur Vermeidung von Halluzinationen.
Aufwand / Komplexität:
- Aufwand: Mittel
- Komplexität: Hoch
7. Abhängigkeiten (vereinfacht, aktualisiert)
WP01 → WP02 → WP03 → WP04a
WP04a → WP04b → WP04c → WP08
WP03 → WP05 → WP06 → WP07
WP07 → WP10a
WP03 → WP09
WP01/WP03 → WP10 → WP11 → WP12
WP11 → WP15 → WP16
WP03/WP04 → WP13
Alles → WP14
8. Laufzeit- & Komplexitätsindikatoren (aktualisiert)
| WP | Aufwand | Komplexität |
|---|---|---|
| WP04b | Mittel | Hoch |
| WP04c | Mittel | Mittel/Hoch |
| WP05 | Mittel | Mittel |
| WP06 | Mittel | Hoch |
| WP07 | Niedrig/Mittel | Mittel |
| WP08 | Hoch | Hoch |
| WP09 | Mittel | Niedrig/Mittel |
| WP10 | Hoch | Hoch |
| WP10a | Mittel | Mittel |
| WP11 | Hoch | Hoch |
| WP12 | Niedrig/Mittel | Mittel |
| WP13 | Mittel | Mittel |
| WP14 | Mittel | Niedrig/Mittel |
| WP15 | Mittel | Hoch |
| WP16 | Mittel | Hoch |
9. Programmfortschritt (Ampel, aktualisiert)
| WP | Status |
|---|---|
| WP01 | 🟢 |
| WP02 | 🟢 |
| WP03 | 🟢 |
| WP04a | 🟢 |
| WP04b | 🟢 |
| WP04c | 🟢 |
| WP05 | 🟢 |
| WP05b | ⚪ |
| WP06 | 🟢 |
| WP07 | 🟢 |
| WP08 | 🟡 |
| WP09 | 🟡 |
| WP10 | 🟢 |
| WP10a | 🟢 |
| WP11 | 🟢 |
| WP12 | 🟡 |
| WP13 | 🟡 |
| WP14 | 🟡 |
| WP15 | 🟢 |
| WP16 | 🟡 |
10. Governance & Versionierung
- Versionierung über Gitea (Branches, Tags, Releases).
- Feature-Branch Workflow mit "Sync First" Strategie.
- Jede wesentliche Änderung an Architektur/Schema erhält einen eigenen Commit.
- Jedes Workpackage erhält ein eigenes Chat-Fenster mit dediziertem Prompt (WP-Hand-Over).
- Programmleitung verantwortet Konsistenz und Priorisierung.
- Modell-Governance: Das verwendete LLM (z.B.
phi3:mini) wird in der.envundconfig.pyfestgeschrieben. Updates erfordern Tests gegen die "Why-Layer" Referenzfragen.
11. Executive Summary
mindnet v2.4 ist so aufgesetzt, dass:
- du schrittweise Wissen erfassen kannst (Obsidian + Chat + Interview-Drafts),
- die Struktur mitwächst, ohne Retro-Massenarbeit im Vault,
- ein hybrider Retriever qualitativ hochwertige, erklärbare Antworten liefert,
- ein Self-Healing- und Self-Tuning-Mechanismus vorbereitet ist (durch WP-04c Feedback-Daten),
- ein Persönlichkeitsmodell (Decision Engine, Empathie) existiert und den Tonfall situativ anpasst,
- eine grafische Oberfläche (WP-10/10a) existiert, die komplexe Zusammenhänge visualisiert und Co-Creation ermöglicht,
- Active Intelligence (WP-11) dich beim Schreiben unterstützt, indem es automatisch Verknüpfungen vorschlägt,
- langfristig ein KI-Zwilling aufgebaut wird, der deine Werte, Erfahrungen und Denkweise spiegelt,
- die technische Architektur (AsyncIO, Qdrant 768d, YAML-Policies) lokal, nachvollziehbar und performant bleibt.
Dieser Programmplan bildet die konsolidierte Grundlage (v2.4.0) für alle weiteren Arbeiten.