4.2 KiB
| doc_type | audience | scope | status | version | context |
|---|---|---|---|---|---|
| concept | architect, product_owner | ai, router, personas | active | 2.8 | Fachkonzept der KI-Persönlichkeit, der Hybrid-Provider-Kaskade und der operationalen Resilienz. |
Konzept: KI-Persönlichkeit & Router
Quellen: mindnet_functional_architecture.md, llm_service.py, config.py
Mindnet soll nicht wie eine Suchmaschine wirken, sondern wie ein Digitaler Zwilling. Dazu muss das System erkennen, was der Nutzer will, und seine „Persönlichkeit“ sowie seine technische Infrastruktur dynamisch anpassen.
1. Der Hybrid Router (Das Gehirn)
Jede Eingabe durchläuft den Hybrid Router. Er entscheidet über die fachliche Strategie und die technische Ausführung.
Modus A: RAG (Retrieval Augmented Generation)
- Intent: Der Nutzer hat eine Frage oder ein Problem (
FACT,DECISION,EMPATHY). - Aktion: Das System sucht im Gedächtnis und generiert eine Antwort.
Modus B: Interview (Knowledge Capture)
- Intent: Der Nutzer will Wissen speichern (
INTERVIEW). - Aktion: Das System sucht nicht, sondern fragt ab und erstellt einen Draft.
2. Die Provider-Kaskade (Hybrid-Cloud Resilienz)
Ein intelligenter Zwilling muss jederzeit verfügbar sein. Mindnet v2.8 nutzt eine dreistufige Kaskade, um Intelligenz, Kosten und Verfügbarkeit zu optimieren:
- Stufe 1: High-Performance Cloud (OpenRouter/Gemini): Primäre Wahl für komplexe Schlussfolgerungen und semantische Extraktion (Mistral-7B / Gemini-2.5-Lite).
- Stufe 2: Resilienz-Pause (Quota-Handling): Bei Erreichen von Provider-Limits (HTTP 429) pausiert das System intelligent (konfigurierbar via
LLM_RATE_LIMIT_WAIT), anstatt den Dienst abzubrechen. - Stufe 3: Local-Only Fallback (Ollama): Schlagen alle Cloud-Retries fehl, übernimmt das lokale Modell (Phi-3), um die Betriebssicherheit ohne Datenabfluss zu garantieren.
3. Die Personas (Strategien)
Mindnet wechselt den Hut, je nach Situation.
3.1 Der Berater (Strategy: DECISION)
- Auslöser: Fragen wie „Soll ich...?“, „Was ist besser?“.
- Strategic Retrieval: Lädt aktiv Notizen der Typen
value(Werte),goal(Ziele) undrisk(Risiken), auch wenn sie im Text nicht direkt vorkommen. - Reasoning: „Wäge die Fakten gegen meine Werte ab. Sei strikt bei Risiken.“
3.2 Der Spiegel (Strategy: EMPATHY)
- Auslöser: Emotionale Aussagen („Ich bin frustriert“).
- Strategic Retrieval: Lädt
experience(Erfahrungen) undbelief(Glaubenssätze). - Reasoning: „Nutze meine eigenen Erfahrungen, um die Situation einzuordnen.“
3.3 Der Bibliothekar (Strategy: FACT)
- Auslöser: Sachfragen („Was ist Qdrant?“).
- Behavior: Präzise, neutral, kurz.
4. Future Concepts: The Empathic Digital Twin
4.1 Antizipation durch Erfahrung
- Konzept: Das System soll Konsequenzen vorhersagen („Was passiert, wenn...?“).
- Logik: „In einer ähnlichen Situation (Projekt A) hat Entscheidung X zu Ergebnis Y geführt.“ (Analogie-Schluss).
4.2 Empathie & „Ich“-Modus
- Konzept: Das System antwortet im Tonfall des Nutzers.
- Umsetzung: Few-Shot Prompting mit eigenen E-Mails/Texten als Stilvorlage.
4.3 Resilienz als Charakterzug
Durch das WP-76 Handling zeigt das System „Geduld“: Bei Überlastung der Cloud-Dienste bricht es nicht panisch ab, sondern wartet auf die nächste freie Kapazität, um die Qualität der Antwort zu sichern.
5. Erweiterbarkeit: Das „Teach-the-AI“ Paradigma
Mindnet lernt durch Konfiguration und Vernetzung.
Beispiel: Du willst den Typ risk einführen.
1. Daten-Ebene (Physik)
In types.yaml: Definiere Gewicht und Verhalten.
risk:
retriever_weight: 0.90 # Hohe Priorität
edge_defaults: ["blocks"] # Automatische Kante zu Projekten
2. Strategie-Ebene (Router)
In decision_engine.yaml: Wann soll das geladen werden?
DECISION:
inject_types: ["value", "risk"] # Füge 'risk' hinzu
3. Kognitive Ebene (Verständnis)
In prompts.yaml: Erkläre dem LLM (provider-spezifisch), was ein Risiko ist.
Fazit: Nur wenn Daten (Vault), Infrastruktur (Resiliente Kaskade) und Semantik (Prompt) zusammenspielen, entsteht ein intelligenter Zwilling.