All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
102 lines
4.7 KiB
Markdown
102 lines
4.7 KiB
Markdown
---
|
|
doc_type: concept
|
|
audience: architect, product_owner
|
|
scope: ai, router, personas, resilience
|
|
status: active
|
|
version: 2.8.1
|
|
context: "Fachkonzept der hybriden KI-Persönlichkeit, der Provider-Kaskade und der kognitiven Resilienz (Deep Fallback)."
|
|
---
|
|
|
|
# Konzept: KI-Persönlichkeit & Router
|
|
|
|
**Quellen:** `mindnet_functional_architecture.md`, `llm_service.py`, `config.py`, `ingestion.py`
|
|
|
|
Mindnet soll nicht wie eine Suchmaschine wirken, sondern wie ein **Digitaler Zwilling**. Dazu muss das System erkennen, **was** der Nutzer will, und seine „Persönlichkeit“ sowie seine technische Infrastruktur dynamisch anpassen.
|
|
|
|
## 1. Der Hybrid Router (Das Gehirn)
|
|
|
|
Jede Eingabe durchläuft den **Hybrid Router**. Er entscheidet über die fachliche Strategie und die technische Ausführung.
|
|
|
|
### Modus A: RAG (Retrieval Augmented Generation)
|
|
* **Intent:** Der Nutzer hat eine Frage oder ein Problem (`FACT`, `DECISION`, `EMPATHY`).
|
|
* **Aktion:** Das System sucht im Gedächtnis und generiert eine Antwort.
|
|
|
|
### Modus B: Interview (Knowledge Capture)
|
|
* **Intent:** Der Nutzer will Wissen speichern (`INTERVIEW`).
|
|
* **Aktion:** Das System sucht **nicht**, sondern fragt ab und erstellt einen Draft.
|
|
|
|
---
|
|
|
|
## 2. Die hybride LLM-Landschaft (Resilienz-Kaskade)
|
|
|
|
Ein intelligenter Zwilling muss jederzeit verfügbar sein. Mindnet v2.8.1 nutzt eine **dreistufige Kaskade**, um Intelligenz, Kosten und Verfügbarkeit zu optimieren:
|
|
|
|
1. **Stufe 1: Cloud-Speed (Turbo-Mode):** Primäre Wahl für komplexe Extraktionsaufgaben und schnelle RAG-Antworten mittels OpenRouter (Mistral-7B) oder Google Gemini (2.5-flash-lite).
|
|
2. **Stufe 2: Quoten-Resilienz:** Erkennt das System eine Drosselung durch Cloud-Provider (HTTP 429), pausiert es kontrolliert (`LLM_RATE_LIMIT_WAIT`), führt automatisierte Retries durch und schützt so den laufenden Prozess.
|
|
3. **Stufe 3: Deep Fallback & lokale Souveränität (Ollama):** * **Technischer Fallback:** Schlagen alle Cloud-Versuche fehl, übernimmt das lokale Modell (Phi-3).
|
|
* **Kognitiver Fallback (v2.11.14):** Liefert die Cloud zwar technisch eine Antwort, verweigert aber inhaltlich die Verarbeitung (Silent Refusal/Policy Violation), wird ein **Deep Fallback** erzwungen, um die Datenintegrität lokal zu retten.
|
|
|
|
|
|
|
|
---
|
|
|
|
## 3. Die Personas (Strategien)
|
|
|
|
Mindnet wechselt den Hut, je nach Situation.
|
|
|
|
### 3.1 Der Berater (Strategy: DECISION)
|
|
* **Auslöser:** Fragen wie „Soll ich...?“, „Was ist besser?“.
|
|
* **Strategic Retrieval:** Lädt aktiv Notizen der Typen `value` (Werte), `goal` (Ziele) und `risk` (Risiken), auch wenn sie im Text nicht direkt vorkommen.
|
|
* **Reasoning:** *„Wäge die Fakten gegen meine Werte ab. Sei strikt bei Risiken.“*
|
|
|
|
### 3.2 Der Spiegel (Strategy: EMPATHY)
|
|
* **Auslöser:** Emotionale Aussagen („Ich bin frustriert“).
|
|
* **Strategic Retrieval:** Lädt `experience` (Erfahrungen) und `belief` (Glaubenssätze).
|
|
* **Reasoning:** *„Nutze meine eigenen Erfahrungen, um die Situation einzuordnen.“*
|
|
|
|
### 3.3 Der Bibliothekar (Strategy: FACT)
|
|
* **Auslöser:** Sachfragen („Was ist Qdrant?“).
|
|
* **Behavior:** Präzise, neutral, kurz.
|
|
|
|
---
|
|
|
|
## 4. Future Concepts: The Empathic Digital Twin
|
|
|
|
### 4.1 Antizipation durch Erfahrung
|
|
* **Konzept:** Das System soll Konsequenzen vorhersagen („Was passiert, wenn...?“).
|
|
* **Logik:** *„In einer ähnlichen Situation (Projekt A) hat Entscheidung X zu Ergebnis Y geführt.“* (Analogie-Schluss).
|
|
|
|
### 4.2 Empathie & „Ich“-Modus
|
|
* **Konzept:** Das System antwortet im Tonfall des Nutzers.
|
|
* **Umsetzung:** Few-Shot Prompting mit eigenen E-Mails/Texten als Stilvorlage.
|
|
|
|
### 4.3 Resilienz als Charakterzug
|
|
Durch die **WP-20 Implementierung** zeigt das System „Geduld“: Bei Quoten-Engpässen bricht es nicht ab, sondern wartet auf freie Kapazitäten. Durch das **Deep Fallback (v2.11.14)** besitzt Mindnet eine kognitive Ausdauer, die inhaltliche Zensur oder Blockaden der Cloud erkennt und durch lokale Rechenpower auflöst.
|
|
|
|
---
|
|
|
|
## 5. Erweiterbarkeit: Das „Teach-the-AI“ Paradigma
|
|
|
|
Mindnet lernt durch **Konfiguration** und **Vernetzung**.
|
|
|
|
**Beispiel: Du willst den Typ `risk` einführen.**
|
|
|
|
**1. Daten-Ebene (Physik)**
|
|
In `types.yaml`: Definiere Gewicht und Verhalten.
|
|
```yaml
|
|
risk:
|
|
retriever_weight: 0.90 # Hohe Priorität
|
|
edge_defaults: ["blocks"] # Automatische Kante zu Projekten
|
|
```
|
|
|
|
**2. Strategie-Ebene (Router)**
|
|
In `decision_engine.yaml`: Wann soll das geladen werden?
|
|
```yaml
|
|
DECISION:
|
|
inject_types: ["value", "risk"] # Füge 'risk' hinzu
|
|
```
|
|
|
|
**3. Kognitive Ebene (Verständnis)**
|
|
In `prompts.yaml`: Erkläre dem LLM (provider-spezifisch mittels der Prompt-Kaskade), was ein Risiko ist.
|
|
|
|
**Fazit:** Nur wenn **Daten** (Vault), **Infrastruktur** (Resiliente Kaskade) und **Semantik** (Prompt) zusammenspielen, entsteht ein intelligenter Zwilling. |