All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 5s
3.8 KiB
3.8 KiB
| doc_type | audience | status | version | context |
|---|---|---|---|---|
| glossary | all | active | 2.8.0 | Zentrales Glossar für Mindnet v2.8. Enthält Definitionen zu Hybrid-Cloud Resilienz, WP-76 Quoten-Steuerung und Mistral-safe Parsing. |
Mindnet Glossar
Quellen: 01_edge_vocabulary.md, llm_service.py, ingestion.py, edge_registry.py
Kern-Entitäten
- Note: Repräsentiert eine Markdown-Datei. Die fachliche Haupteinheit. Verfügt über einen Status (stable, draft, system), der das Scoring beeinflusst.
- Chunk: Ein Textabschnitt einer Note. Die technische Sucheinheit (Vektor).
- Edge: Eine gerichtete Verbindung zwischen zwei Knoten. Wird in WP-22 durch die Registry validiert.
- Vault: Der lokale Ordner mit den Markdown-Dateien (Source of Truth).
- Frontmatter: Der YAML-Header am Anfang einer Notiz (enthält
id,type,title,status).
Komponenten
- Edge Registry: Der zentrale Dienst (SSOT), der Kanten-Typen validiert und Aliase in kanonische Typen auflöst. Nutzt
01_edge_vocabulary.mdals Basis. - LLM Service: Der Hybrid-Client (v3.3.6), der Anfragen zwischen OpenRouter, Google Gemini und lokalem Ollama routet. Verwaltet Cloud-Timeouts und Quoten-Management.
- Retriever: Besteht in v2.7+ aus der Orchestrierung (
retriever.py) und der mathematischen Scoring-Engine (retriever_scoring.py). - Decision Engine: Teil des Routers, der Intents erkennt und entsprechende Boost-Faktoren für das Retrieval injiziert.
- Traffic Control: Verwaltet Prioritäten und drosselt Hintergrund-Tasks (z.B. Smart Edges) mittels Semaphoren und Timeouts (45s) zur Vermeidung von System-Hangs.
- Unknown Edges Log: Die Datei
unknown_edges.jsonl, in der das System Kanten-Typen protokolliert, die nicht im Dictionary gefunden wurden.
Konzepte & Features
- Hybrid Provider Cascade: Die intelligente Reihenfolge der Modell-Ansprache. Schlägt die Cloud (OpenRouter/Gemini) fehl, erfolgt nach Retries ein Fallback auf den lokalen Ollama (Quoten-Schutz).
- Deep Fallback (v2.11.14, WP20): Ein inhaltsbasierter Rettungsmechanismus in der Ingestion. Im Gegensatz zum technischen Fallback (bei Verbindungsfehlern) wird der Deep Fallback ausgelöst, wenn ein Cloud-Modell zwar technisch erfolgreich antwortet, aber inhaltlich keine verwertbaren Daten liefert (z. B. bei "Data Policy Violations").
- Silent Refusal (WP20): Ein Zustand, in dem Cloud-Provider (wie OpenRouter) die Verarbeitung eines Dokuments aufgrund interner Filter ("No data training") verweigern, ohne einen HTTP-Fehler zu senden. Wird durch Deep Fallback abgefangen.
- Rate-Limit Resilience (WP-20): Automatisierte Erkennung von HTTP 429 Fehlern. Das System pausiert (konfigurierbar via
LLM_RATE_LIMIT_WAIT) und wiederholt den Cloud-Call, bevor der langsame Fallback ausgelöst wird. - Mistral-safe Parsing: Robuste Extraktions-Logik in Ingestion und Analyzer, die technische Steuerzeichen (
<s>,[OUT]) und Framework-Tags erkennt und entfernt, um valides JSON aus Free-Modellen zu gewinnen. - Lifecycle Scoring (WP-22): Ein Mechanismus, der die Relevanz einer Notiz basierend auf ihrem Status gewichtet (z.B. Bonus für
stable, Malus fürdraft). - Intent Boosting: Dynamische Erhöhung der Kanten-Gewichte basierend auf der Nutzerfrage (z.B. Fokus auf
caused_bybei "Warum"-Fragen). - Provenance Weighting: Gewichtung einer Kante nach ihrer Herkunft:
explicit: Vom Mensch gesetzt (Prio 1).semantic_ai: Von der KI im Turbo-Mode extrahiert und validiert (Prio 2).structure: Durch System-Regeln/Matrix erzeugt (Prio 3).
- Smart Edge Allocation: KI-Verfahren zur Relevanzprüfung von Links für spezifische Textabschnitte.
- Matrix Logic: Bestimmung des Kanten-Typs basierend auf Quell- und Ziel-Entität (z.B. Erfahrung -> Wert =
based_on).