mindnet/docs/00_General/00_glossary.md
Lars d64ba06809
All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 5s
docs/00_General/00_glossary.md aktualisiert
2025-12-25 22:02:43 +01:00

3.8 KiB

doc_type audience status version context
glossary all active 2.8.0 Zentrales Glossar für Mindnet v2.8. Enthält Definitionen zu Hybrid-Cloud Resilienz, WP-76 Quoten-Steuerung und Mistral-safe Parsing.

Mindnet Glossar

Quellen: 01_edge_vocabulary.md, llm_service.py, ingestion.py, edge_registry.py

Kern-Entitäten

  • Note: Repräsentiert eine Markdown-Datei. Die fachliche Haupteinheit. Verfügt über einen Status (stable, draft, system), der das Scoring beeinflusst.
  • Chunk: Ein Textabschnitt einer Note. Die technische Sucheinheit (Vektor).
  • Edge: Eine gerichtete Verbindung zwischen zwei Knoten. Wird in WP-22 durch die Registry validiert.
  • Vault: Der lokale Ordner mit den Markdown-Dateien (Source of Truth).
  • Frontmatter: Der YAML-Header am Anfang einer Notiz (enthält id, type, title, status).

Komponenten

  • Edge Registry: Der zentrale Dienst (SSOT), der Kanten-Typen validiert und Aliase in kanonische Typen auflöst. Nutzt 01_edge_vocabulary.md als Basis.
  • LLM Service: Der Hybrid-Client (v3.3.6), der Anfragen zwischen OpenRouter, Google Gemini und lokalem Ollama routet. Verwaltet Cloud-Timeouts und Quoten-Management.
  • Retriever: Besteht in v2.7+ aus der Orchestrierung (retriever.py) und der mathematischen Scoring-Engine (retriever_scoring.py).
  • Decision Engine: Teil des Routers, der Intents erkennt und entsprechende Boost-Faktoren für das Retrieval injiziert.
  • Traffic Control: Verwaltet Prioritäten und drosselt Hintergrund-Tasks (z.B. Smart Edges) mittels Semaphoren und Timeouts (45s) zur Vermeidung von System-Hangs.
  • Unknown Edges Log: Die Datei unknown_edges.jsonl, in der das System Kanten-Typen protokolliert, die nicht im Dictionary gefunden wurden.

Konzepte & Features

  • Hybrid Provider Cascade: Die intelligente Reihenfolge der Modell-Ansprache. Schlägt die Cloud (OpenRouter/Gemini) fehl, erfolgt nach Retries ein Fallback auf den lokalen Ollama (Quoten-Schutz).
  • Deep Fallback (v2.11.14, WP20): Ein inhaltsbasierter Rettungsmechanismus in der Ingestion. Im Gegensatz zum technischen Fallback (bei Verbindungsfehlern) wird der Deep Fallback ausgelöst, wenn ein Cloud-Modell zwar technisch erfolgreich antwortet, aber inhaltlich keine verwertbaren Daten liefert (z. B. bei "Data Policy Violations").
  • Silent Refusal (WP20): Ein Zustand, in dem Cloud-Provider (wie OpenRouter) die Verarbeitung eines Dokuments aufgrund interner Filter ("No data training") verweigern, ohne einen HTTP-Fehler zu senden. Wird durch Deep Fallback abgefangen.
  • Rate-Limit Resilience (WP-20): Automatisierte Erkennung von HTTP 429 Fehlern. Das System pausiert (konfigurierbar via LLM_RATE_LIMIT_WAIT) und wiederholt den Cloud-Call, bevor der langsame Fallback ausgelöst wird.
  • Mistral-safe Parsing: Robuste Extraktions-Logik in Ingestion und Analyzer, die technische Steuerzeichen (<s>, [OUT]) und Framework-Tags erkennt und entfernt, um valides JSON aus Free-Modellen zu gewinnen.
  • Lifecycle Scoring (WP-22): Ein Mechanismus, der die Relevanz einer Notiz basierend auf ihrem Status gewichtet (z.B. Bonus für stable, Malus für draft).
  • Intent Boosting: Dynamische Erhöhung der Kanten-Gewichte basierend auf der Nutzerfrage (z.B. Fokus auf caused_by bei "Warum"-Fragen).
  • Provenance Weighting: Gewichtung einer Kante nach ihrer Herkunft:
    • explicit: Vom Mensch gesetzt (Prio 1).
    • semantic_ai: Von der KI im Turbo-Mode extrahiert und validiert (Prio 2).
    • structure: Durch System-Regeln/Matrix erzeugt (Prio 3).
  • Smart Edge Allocation: KI-Verfahren zur Relevanzprüfung von Links für spezifische Textabschnitte.
  • Matrix Logic: Bestimmung des Kanten-Typs basierend auf Quell- und Ziel-Entität (z.B. Erfahrung -> Wert = based_on).