mindnet/docs/99_Archive/99_legacy_workpackages.md
Lars 620858a575
All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
neue Dokumentationstruktur - (QS geprüft)
2025-12-13 18:38:37 +01:00

3.7 KiB
Raw Blame History

doc_type audience status context
archive historian, architect archived Archivierte Details zu abgeschlossenen Workpackages (WP01-WP15). Referenz für historische Design-Entscheidungen.

Legacy Workpackages (Archiv)

Quellen: Programmplan_V2.2.md

Status: Abgeschlossen / Implementiert. Dieses Dokument dient als Referenz für die Entstehungsgeschichte von Mindnet v2.6.

Phase A: Fundament (WP01-03)

WP-01 Wissensdesign

  • Ziel: Definition der Datenstruktur.
  • Ergebnis: Entscheidung gegen komplexe Ontologien (RDF/OWL), für pragmatische Typen (project, concept). Definition der YAML-Frontmatter-Pflichtfelder.
  • Artefakt: 01_knowledge_design.md.

WP-02 Chunking & Hash-Strategie

  • Ziel: Texte suchbar machen und Änderungen erkennen.
  • Ergebnis: Implementierung des SlidingWindowChunker. Einführung von UUIDv5 für deterministische IDs.
  • Learning: Starre Chunking-Grenzen zerschneiden oft den Kontext. Daher Einführung von Overlap (50 Tokens).

WP-03 Import-Pipeline & Edge-System

  • Ziel: Markdown in Vektoren wandeln.
  • Ergebnis: Der "Importer" (import_markdown.py). Entscheidung, Kanten (_edges) als eigene Collection zu führen statt als Payload in Chunks (für bessere Graphen-Algorithmen wie Centrality).

Phase B: Semantik (WP04)

WP-04a Retriever & Graph-Scoring

  • Ziel: Bessere Suchergebnisse als reines Vektor-Matching.
  • Ergebnis: Die Formel Score = Semantik + GraphBonus + TypGewicht.
  • Learning: Reine Vektorsuche reichte nicht, um den Kontext ("Warum ist das wichtig?") zu erfassen. Der "Graph Bonus" war der Durchbruch für assoziatives Finden.

WP-04b Explanation Layer ("Why-Layer")

  • Ziel: Transparenz.
  • Ergebnis: explain=True Parameter. Die API liefert menschenlesbare Gründe ("Gefunden, weil Projekt Alpha davon abhängt").

WP-04c Feedback Logging

  • Ziel: Datenbasis für zukünftiges Lernen schaffen.
  • Ergebnis: Das "Data Flywheel". Jede Suche und Bewertung wird in JSONL-Dateien geloggt (search_history.jsonl, feedback.jsonl).

Phase C: Persönlichkeit (WP05-07)

WP-05 RAG-Chat

  • Ziel: Natürliche Sprache statt Suchergebnisse.
  • Ergebnis: Integration von Ollama (phi3).
  • Tech: Prompt-Engineering (prompts.yaml) statt Fine-Tuning, um flexibel zu bleiben.

WP-06 Decision Engine

  • Ziel: Strategische Beratung statt nur Fakten.
  • Ergebnis: Der Hybrid Router.
  • Konzept: Unterscheidung von Fragen (RAG) und Handlungen (Interview). Strategisches Laden von Werten (type: value), um Entscheidungen moralisch zu begründen.

WP-07 Interview-Assistent

  • Ziel: Bekämpfung des "Writer's Block".
  • Ergebnis: One-Shot Extraction. Der Chatbot generiert aus einem losen Satz ("Neues Projekt Alpha") einen strukturierten Markdown-Draft.

Phase D: Interaktion (WP10-15)

WP-10/10a Web UI & Draft Editor

  • Ziel: Usability für Nicht-Techniker.
  • Ergebnis: Streamlit App. Ablösung des Terminals.
  • Feature: "Healing Parser", der defektes JSON vom LLM repariert.

WP-11 Backend Intelligence

  • Ziel: Automatisierung der Vernetzung.
  • Ergebnis: AsyncIO Umstellung für Performance. Einführung von nomic-embed-text (768d) für präzise Semantik. Matrix-Logik für automatische Kanten-Typisierung.

WP-15 Smart Edge Allocation (Meilenstein)

  • Problem: "Broadcasting". Ein Chunk erbte alle Links der Note, auch irrelevante. Das verwässerte die Suchergebnisse.
  • Lösung: LLM prüft jeden Chunk auf Link-Relevanz.
  • Tech: Einführung von Traffic Control (Semaphore), um Import und Chat zu parallelisieren, ohne die Hardware zu überlasten.