mindnet/docs/02_concepts/02_concept_ai_personality.md
Lars b0bc8518ed
All checks were successful
Deploy mindnet to llm-node / deploy (push) Successful in 4s
WP20 final update
2025-12-25 22:16:19 +01:00

4.7 KiB

doc_type audience scope status version context
concept architect, product_owner ai, router, personas, resilience active 2.8.1 Fachkonzept der hybriden KI-Persönlichkeit, der Provider-Kaskade und der kognitiven Resilienz (Deep Fallback).

Konzept: KI-Persönlichkeit & Router

Quellen: mindnet_functional_architecture.md, llm_service.py, config.py, ingestion.py

Mindnet soll nicht wie eine Suchmaschine wirken, sondern wie ein Digitaler Zwilling. Dazu muss das System erkennen, was der Nutzer will, und seine „Persönlichkeit“ sowie seine technische Infrastruktur dynamisch anpassen.

1. Der Hybrid Router (Das Gehirn)

Jede Eingabe durchläuft den Hybrid Router. Er entscheidet über die fachliche Strategie und die technische Ausführung.

Modus A: RAG (Retrieval Augmented Generation)

  • Intent: Der Nutzer hat eine Frage oder ein Problem (FACT, DECISION, EMPATHY).
  • Aktion: Das System sucht im Gedächtnis und generiert eine Antwort.

Modus B: Interview (Knowledge Capture)

  • Intent: Der Nutzer will Wissen speichern (INTERVIEW).
  • Aktion: Das System sucht nicht, sondern fragt ab und erstellt einen Draft.

2. Die hybride LLM-Landschaft (Resilienz-Kaskade)

Ein intelligenter Zwilling muss jederzeit verfügbar sein. Mindnet v2.8.1 nutzt eine dreistufige Kaskade, um Intelligenz, Kosten und Verfügbarkeit zu optimieren:

  1. Stufe 1: Cloud-Speed (Turbo-Mode): Primäre Wahl für komplexe Extraktionsaufgaben und schnelle RAG-Antworten mittels OpenRouter (Mistral-7B) oder Google Gemini (2.5-flash-lite).
  2. Stufe 2: Quoten-Resilienz: Erkennt das System eine Drosselung durch Cloud-Provider (HTTP 429), pausiert es kontrolliert (LLM_RATE_LIMIT_WAIT), führt automatisierte Retries durch und schützt so den laufenden Prozess.
  3. Stufe 3: Deep Fallback & lokale Souveränität (Ollama): * Technischer Fallback: Schlagen alle Cloud-Versuche fehl, übernimmt das lokale Modell (Phi-3).
    • Kognitiver Fallback (v2.11.14): Liefert die Cloud zwar technisch eine Antwort, verweigert aber inhaltlich die Verarbeitung (Silent Refusal/Policy Violation), wird ein Deep Fallback erzwungen, um die Datenintegrität lokal zu retten.

3. Die Personas (Strategien)

Mindnet wechselt den Hut, je nach Situation.

3.1 Der Berater (Strategy: DECISION)

  • Auslöser: Fragen wie „Soll ich...?“, „Was ist besser?“.
  • Strategic Retrieval: Lädt aktiv Notizen der Typen value (Werte), goal (Ziele) und risk (Risiken), auch wenn sie im Text nicht direkt vorkommen.
  • Reasoning: „Wäge die Fakten gegen meine Werte ab. Sei strikt bei Risiken.“

3.2 Der Spiegel (Strategy: EMPATHY)

  • Auslöser: Emotionale Aussagen („Ich bin frustriert“).
  • Strategic Retrieval: Lädt experience (Erfahrungen) und belief (Glaubenssätze).
  • Reasoning: „Nutze meine eigenen Erfahrungen, um die Situation einzuordnen.“

3.3 Der Bibliothekar (Strategy: FACT)

  • Auslöser: Sachfragen („Was ist Qdrant?“).
  • Behavior: Präzise, neutral, kurz.

4. Future Concepts: The Empathic Digital Twin

4.1 Antizipation durch Erfahrung

  • Konzept: Das System soll Konsequenzen vorhersagen („Was passiert, wenn...?“).
  • Logik: „In einer ähnlichen Situation (Projekt A) hat Entscheidung X zu Ergebnis Y geführt.“ (Analogie-Schluss).

4.2 Empathie & „Ich“-Modus

  • Konzept: Das System antwortet im Tonfall des Nutzers.
  • Umsetzung: Few-Shot Prompting mit eigenen E-Mails/Texten als Stilvorlage.

4.3 Resilienz als Charakterzug

Durch die WP-20 Implementierung zeigt das System „Geduld“: Bei Quoten-Engpässen bricht es nicht ab, sondern wartet auf freie Kapazitäten. Durch das Deep Fallback (v2.11.14) besitzt Mindnet eine kognitive Ausdauer, die inhaltliche Zensur oder Blockaden der Cloud erkennt und durch lokale Rechenpower auflöst.


5. Erweiterbarkeit: Das „Teach-the-AI“ Paradigma

Mindnet lernt durch Konfiguration und Vernetzung.

Beispiel: Du willst den Typ risk einführen.

1. Daten-Ebene (Physik) In types.yaml: Definiere Gewicht und Verhalten.

risk:
  retriever_weight: 0.90    # Hohe Priorität
  edge_defaults: ["blocks"] # Automatische Kante zu Projekten

2. Strategie-Ebene (Router) In decision_engine.yaml: Wann soll das geladen werden?

DECISION:
  inject_types: ["value", "risk"] # Füge 'risk' hinzu

3. Kognitive Ebene (Verständnis) In prompts.yaml: Erkläre dem LLM (provider-spezifisch mittels der Prompt-Kaskade), was ein Risiko ist.

Fazit: Nur wenn Daten (Vault), Infrastruktur (Resiliente Kaskade) und Semantik (Prompt) zusammenspielen, entsteht ein intelligenter Zwilling.