• V2.7.0-stability&Cleanup cdcaff184f

    Mindnet v2.7.0 (Smart Stability & Clean Code Update)
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 4s
    Stable

    Lars released this 2025-12-16 18:56:34 +01:00 | 295 commits to main since this release

    Release Note: Mindnet v2.7.0 (Smart Stability & Clean Code Update)

    Datum: 2025-12-16
    Workpackages: WP-14 (Stability), WP-15 (Smart Allocation) & Refactoring
    Status: Major Feature & Architecture Release

    🚀 Zusammenfassung

    Dieses Release kombiniert höhere Intelligenz (Smart Edge Allocation, präzises Chunking) mit massiver Stabilität (Async I/O, Traffic Control). Das System ist nun in der Lage, während intensiver Hintergrundprozesse reaktionsschnell zu bleiben und strukturiertes Wissen ("Leitbild", "ADRs") logisch korrekt zu zerlegen.

    Zusätzlich wurde eine umfassende Code-Bereinigung durchgeführt: Legacy-Artefakte (V0.1/V1) wurden entfernt und die Architektur strikt auf das 4-Säulen-Modell (Backend, Frontend, Ops, Tests) ausgerichtet.


    Neue Features

    1. Smart Edge Allocation & Traffic Control (WP-15)

    • Präzision: Kanten (Links) einer Notiz werden nicht mehr blind allen Textabschnitten zugeordnet. Ein LLM (SemanticAnalyzer) prüft im Hintergrund, welcher Chunk für welchen Link relevant ist.
    • Traffic Control: Der neue MINDNET_LLM_BACKGROUND_LIMIT Parameter (Default: 2) drosselt parallele Import-Tasks via Semaphore. Chat-Anfragen erhalten Vorfahrt (priority="realtime").

    2. Hybrid Chunking Strategies (WP-15)

    Die Zerlegung von Texten wurde fundamental überarbeitet:

    • Strict Heading Split: Für strukturierte Daten (Profile, Werte) wird strikt an Überschriften getrennt (z.B. H2). Kein Vermischen von Themen mehr.
    • Safety Net: Auch im strikten Modus werden "Monster-Abschnitte" (> max_tokens) zwangsweise geteilt, um das Kontextfenster nicht zu sprengen.
    • Konfigurierbar: Neue Profile in types.yaml (z.B. structured_smart_edges_strict_L3).

    3. Async Ingestion ("Fire & Forget") (WP-14)

    • UI-Performance: Der Editor blockiert beim Speichern nicht mehr. Der Server meldet sofort 202 Queued, während die KI im Hintergrund (FastAPI BackgroundTasks) arbeitet.
    • Robustheit: Timeouts im Frontend durch lange LLM-Analysen gehören der Vergangenheit an.

    4. Flexible Change Detection (WP-14)

    • Multi-Hash: Das System berechnet nun zwei Prüfsummen pro Datei:
      • body: Nur Textinhalt.
      • full: Text + Metadaten (Tags, Type, Title).
    • Config: Über MINDNET_CHANGE_DETECTION_MODE kann gesteuert werden, wie sensibel der Importer auf Änderungen reagiert.

    5. Config-Hierarchie Fix (WP-14)

    Die Priorität von Einstellungen ist nun strikt geregelt:

    1. Frontmatter: (Überschreibt alles)
    2. Type Config: (types.yaml)
    3. Global Default: (Fallback)

    6. Codebase Hygiene & Architecture (Refactoring)

    • Zombie-Code entfernt: Über 15 ungenutzte Dateien (Legacy Embedding-Server, alte V1-Router, tote UI-Module wie ui_api.py, embed_server.py) wurden gelöscht.
    • Klare Struktur: Das Projekt folgt nun strikt dem 4-Säulen-Modell (Backend, Frontend, Batch/Ops, Tests).
    • Developer Guide: Die Dokumentation wurde um eine präzise Referenztabelle aller aktiven Module erweitert.

    🔧 Technische Änderungen (Breaking Changes)

    • Entfernte Module (Legacy Clean-Up):
      • app/embed_server.py & app/embeddings.py
      • app/routers/embed_router.py & app/routers/qdrant_router.py
      • app/frontend/ (ui_api.py, ui_editor.py, ui_callbacks.py, ui_sidebar.py)
      • app/core/env_vars.py
    • Neue Environment Variablen:
      • MINDNET_LLM_BACKGROUND_LIMIT=2 (Pflicht für Traffic Control)
      • MINDNET_CHANGE_DETECTION_MODE=full (Empfohlen)
    • Schema Update: Die chunks Collection in Qdrant erhält neue Felder (chunk_profile, suggested_edges).
    • Chunker Logic: Die Datei app/core/chunker.py wurde massiv erweitert (Hybrid-Logik).

    ⚠️ Action Items (Upgrade Guide)

    1. Environment aktualisieren:
      Fügen Sie folgende Zeilen zu Ihrer .env hinzu:
      MINDNET_LLM_BACKGROUND_LIMIT=2
      MINDNET_CHANGE_DETECTION_MODE=full
      
    2. Lokale Bereinigung (Wichtig):
      Da viele Dateien gelöscht wurden, entfernen Sie bitte verwaiste Dateien, um Import-Fehler zu vermeiden:
      # Vorsicht: Löscht alle nicht getrackten Dateien!
      git clean -fdX
      # Alternativ: Manuelles Löschen der "embed_server.py" und alter Router.
      
    3. Full Rebuild (Zwingend):
      Da sich die Chunking-Strategie und die Hash-Berechnung geändert haben, ist ein vollständiger Re-Index notwendig, um Inkonsistenzen zu vermeiden.
      python3 -m scripts.reset_qdrant --mode wipe --prefix "mindnet" --yes
      python3 -m scripts.import_markdown --vault ./vault --prefix "mindnet" --apply --force
      
    Downloads
  • v2.6.1-graph 84e319a42f

    v2.6.1 - The Visualization Update
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-14 20:51:16 +01:00 | 329 commits to main since this release

    Mindnet v2.6.1 - The Visualization Update 🕸️

    Mit Version 2.6.1 erreicht Mindnet Phase E (Maintenance & Visualisierung). Das Frontend wurde vollständig modularisiert und bietet nun professionelle Werkzeuge zur Graph-Exploration.

    🚀 Neue Features

    • Graph Explorer (Cytoscape): Eine neue Graph-Engine basierend auf st-cytoscape. Sie nutzt das COSE-Layout für stabile, nicht-springende Ansichten und bietet einen detaillierten Data-Inspector.
    • File-System-First Editor: Der Editor garantiert Datenkonsistenz, indem er Dateien direkt vom Vault-Dateisystem liest und so Überschreibungsfehler durch veraltete Vektor-Daten verhindert.
    • Deep Linking: Einstellungen wie Graph-Tiefe, Abstoßung und Zoom-Level werden in der URL gespeichert und überleben einen Page-Reload.
    • Frontend Modularisierung: Die Anwendungslogik wurde in Router, Services und Views getrennt, was die Wartbarkeit massiv verbessert.

    🛠️ Technische Änderungen

    • Neue Dependency: st-cytoscape ersetzt das veraltete streamlit-cytoscapejs. Bitte pip install -r requirements.txt ausführen.
    • Architektur: Einführung des "Active Inspector / Passive Graph" Patterns zur Vermeidung von Re-Renders in Streamlit.

    📚 Dokumentation

    • Neu: 03_tech_frontend.md (Technische Referenz für UI/UX).
    • Aktualisiert: Developer Guide, Admin Operations, User Manual und Roadmap.
    Downloads
  • V2.6.0 d2e0b48aa5

    Major Stability & Intelligence Update (WP-15 Completion)
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-13 06:44:36 +01:00 | 371 commits to main since this release

    Mindnet Release Notes v2.6.0: Stabilität & Präzision

    Datum: 2025-12-12
    Status: Major Stability & Intelligence Update (WP-15 Completion)


    🚀 Highlights des Releases

    Dieses Update macht Mindnet nicht nur intelligenter (durch präzisere Verknüpfungen), sondern vor allem stabiler (durch Traffic Control). Der parallele Betrieb von Chat und rechenintensiven Importen ist nun robust möglich.

    1. Smart Edge Allocation (Präzision)

    Das System nutzt nun LLMs (Smart Analyzer) im Hintergrund, um zu prüfen, ob ein Link im Text wirklich relevant für den jeweiligen Abschnitt ist.

    • Vorher: Jeder Textabschnitt (Chunk) erbte alle Links der Notiz (unpräzise).
    • Jetzt: Ein Chunk erhält nur die Kanten, die der LLM-Filter als relevant bestätigt.
    • Ergebnis: Massiv reduzierte irrelevante Treffer ("Beifang") im Retrieval.

    2. Fundamentale Chunking-Strategie (Flexibilität)

    Die Art und Weise, wie Notizen in abrufbare Einheiten (Chunks) zerlegt werden, wurde grundlegend überarbeitet und flexibler gestaltet.

    • Neue Profile: Der Importer unterstützt nun verschiedene Strategien, darunter das sliding window (mit überlappenden Kontexten) für fließenden Text und by_heading (in structured_smart_edges integriert) für strikt nach Überschriften getrennte, logische Einheiten.
    • Ergebnis: Die Retrieval-Qualität für strukturierte Dokumente (z.B. Protokolle, Entscheidungen) wird deutlich gesteigert, da logische Abschnitte nicht mehr mittendrin abgeschnitten werden.

    3. Traffic Control (Stabilität)

    Ein neues Priorisierungs-System schützt die Chat-Funktionalität vor LLM-Überlastung durch Hintergrundprozesse (Import).

    • Realtime Lane: Chat-Anfragen haben Vorfahrt und antworten sofort.
    • Background Lane: Importe werden gedrosselt (Semaphore) und warten geduldig auf freie LLM-Ressourcen, statt abzubrechen oder das gesamte System zu blockieren.
    • Konfigurierbar: Die maximale Parallelität ist über MINDNET_LLM_BACKGROUND_LIMIT in der .env steuerbar.

    4. UX & Robustheit

    • Healing Parser: Das Web-Interface kann nun beschädigtes YAML (z. B. fehlende --- Trenner) in LLM-generierten Drafts automatisch reparieren, was das Speichern deutlich zuverlässiger macht.
    • Hybrid Router v5: Die Intent-Erkennung wurde optimiert, um Fragen ("Bin ich werteorientiert?") nicht mehr fälschlicherweise als Befehle ("Neues Objekt anlegen") zu interpretieren.

    🔧 Technische Änderungen (Für Admins)

    • LLMService v2.8.0: Implementierung des asyncio.Semaphore für Prioritäts-Steuerung.
    • Neue Chunking-Profile: Die Profile wurden von der alten Nomenklatur auf die präziseren, finalen Bezeichnungen umgestellt (sliding_short, structured_smart_edges etc.).
    • Environment Variable: Neu ist MINDNET_LLM_BACKGROUND_LIMIT (Default: 2) zur Steuerung der Parallelität.
    • Timeout Erhöhung: MINDNET_API_TIMEOUT wurde auf 300s erhöht, um den Smart Edge Prozess im Backend abzuwarten.

    Aktion: Überprüfen Sie Ihre .env und passen Sie ggf. MINDNET_LLM_BACKGROUND_LIMIT an die Leistung Ihrer Hardware an.


    🗓️ Ausblick

    Die abgeschlossenen WP-15 Arbeiten bilden die Grundlage für die nächsten Schritte:

    • WP-13 (MCP): Vorbereitung zur Anbindung an Agenten wie Claude Desktop.
    • WP-17 (Memory): Erweiterung des Chats um ein Dialog-Gedächtnis.
    Downloads
  • V2.4.0-ActiveIntelligence f016a16c68

    Mindnet v2.4.0 "Active Intelligence"
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-11 17:01:54 +01:00 | 428 commits to main since this release

    Release Notes: Mindnet v2.4.0 "Active Intelligence"

    Datum: 11.12.2025
    Workpackages: WP-07, WP-10a, WP-11

    🚀 Mindnet wird proaktiv.
    Mit Version 2.4.0 transformiert sich Mindnet von einem reinen Speicher zu einem intelligenten Schreibpartner. Das System versteht nun nicht nur, wonach Sie suchen, sondern hilft Ihnen aktiv dabei, neues Wissen mit bestehendem zu vernetzen.


    Neue Features

    🧠 Active Intelligence (Der "Mitdenk"-Modus)

    Im manuellen Editor gibt es nun den Tab "Intelligence".

    • Link-Vorschläge: Während Sie tippen, analysiert Mindnet Ihren Text.
    • Exakte Erkennung: Begriffe wie "KI-Gedächtnis" werden automatisch erkannt und mit der korrekten Notiz verknüpft.
    • Smarte Kanten: Das System schlägt logische Verbindungen vor (z.B. "Basiert auf Wert X" statt nur "Verwandt mit X").

    Async Core & High-Res Embeddings

    Unter der Haube wurde der Motor ausgetauscht.

    • Nomic Embeddings: Wir nutzen nun nomic-embed-text mit 768 Dimensionen (doppelte Auflösung). Das System versteht Nuancen und abstrakte Konzepte ("Freiheit", "Sicherheit") deutlich besser.
    • Async IO: Der Import und das Speichern blockieren das System nicht mehr. Auch große Dateien werden flüssig verarbeitet.

    📝 Universal Draft Editor

    • Kein Datenverlust: Sie können nun zwischen Chat und Editor hin- und herschalten, ohne dass Ihr ungespeicherter Text verschwindet.
    • Encoding Fix: Probleme mit Umlauten in Aliases wurden behoben.

    🛠 Upgrade-Anleitung (Administrator)

    ⚠️ Achtung: Aufgrund der neuen Vektor-Dimension (768) muss die Datenbank einmalig zurückgesetzt werden.

    1. Update:

      git pull origin main
      pip install -r requirements.txt
      
    2. Modell laden (Pflicht!):

      ollama pull nomic-embed-text
      
    3. Konfiguration (.env anpassen):

      MINDNET_EMBEDDING_MODEL=nomic-embed-text
      VECTOR_DIM=768
      MINDNET_API_TIMEOUT=60.0
      
    4. Datenbank-Migration:

      # Löscht alte 384-Dim Collections
      python -m scripts.reset_qdrant --mode wipe --prefix mindnet --yes
      
      # Baut DB mit 768-Dim und Matrix-Logik neu auf
      python -m scripts.import_markdown --vault ./vault --prefix mindnet --apply --force
      
    5. Neustart:

      sudo systemctl restart mindnet-prod mindnet-ui-prod
      

    🔮 Ausblick (Roadmap)

    Der Fokus verschiebt sich nun auf WP-08 (Self-Tuning). Mindnet wird beginnen, aus Ihrem Feedback (Sterne/Smileys) zu lernen, um die Suchergebnisse automatisch zu personalisieren.

    Downloads
  • V2.4.0-CoCreator 62aa24a4bc

    Release v2.4.0 – "The Co-Creator Update"
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-10 18:58:17 +01:00 | 459 commits to main since this release

    Mindnet Release v2.4.0 – "The Co-Creator Update"

    Datum: 10.12.2025
    Fokus: Interaktion & Datenerfassung


    🚀 Highlights

    Mindnet ist nicht mehr nur ein "Lesegerät" für dein Wissen, sondern hilft dir jetzt aktiv beim Schreiben. Mit dem neuen Interview-Assistenten kannst du Ideen, Projekte und Entscheidungen im Chat diktieren, und Mindnet erstellt sofort einen sauber formatierten Markdown-Entwurf für deinen Obsidian-Vault.

    Neue Features

    1. Der Interview-Assistent (One-Shot Drafting)

    Sag einfach, was du tun willst. Mindnet erkennt den Typ und füllt die Vorlage aus.

    • User: "Ich starte ein neues Projekt 'Apollo' zur Markterweiterung."
    • Mindnet: Erstellt sofort eine Notiz vom Typ project, setzt den Status auf draft und füllt Titel und Ziel aus. Fehlende Infos (z.B. Stakeholder) werden als [TODO] markiert.

    2. Draft Editor (Web UI)

    Wenn Mindnet einen Entwurf generiert, erscheint statt einer Chat-Blase ein interaktiver Editor.

    • Bearbeite den generierten Text direkt im Browser.
    • Lade das Ergebnis als .md Datei herunter.
    • Kopiere den Quellcode mit einem Klick.

    3. Schema Intelligence

    Mindnet weiß jetzt, was in eine Notiz gehört.

    • Eine Entscheidung fragt nach Alternativen.
    • Ein Projekt fragt nach Zielen und Status.
    • Eine Erfahrung fragt nach Erkenntnissen.

    🔧 Technische Verbesserungen

    • Robustness: Neuer "Sanitizer" im Frontend repariert automatisch kleine Fehler, falls das LLM (Phi-3) das YAML-Format beschädigt.
    • Performance: One-Shot-Ansatz reduziert die Wartezeit (nur 1 LLM-Call statt langer Dialoge).
    • Docs: Vollständiges Update der Dokumentation auf v2.4.

    ⚠️ Breaking Changes

    • Die decision_engine.yaml hat eine neue Struktur (Schemas). Alte Config-Dateien müssen ersetzt werden.
    • In der .env sollte MINDNET_LLM_TIMEOUT auf 300.0 erhöht werden, da die Generierung von Entwürfen rechenintensiver ist.

    Mindnet v2.4 – Dein Gedächtnis schreibt jetzt mit.

    Downloads
  • V2.3.2-WP10 ba57e8b43f

    Mindnet v2.3.2 – "The Interface Update"
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 12s
    Stable

    Lars released this 2025-12-10 10:30:24 +01:00 | 471 commits to main since this release

    Release Notes: Mindnet v2.3.2 – "The Interface Update"

    Datum: 10.12.2025
    Fokus: WP-10 (Chat Interface & Interaction)


    🌟 Highlights

    Mit v2.3.2 erhält Mindnet endlich ein Gesicht. Wir verabschieden uns von der reinen Terminal-Bedienung und führen ein modernes, webbasiertes Chat-Interface ein.
    Dieses Release schließt die Lücke zwischen der leistungsfähigen Backend-Logik (Decision Engine) und dem Nutzer.

    🧠 Decision Engine Visualisierung

    Mindnet zeigt nun offen, was es denkt.

    • Ein neues Intent Badge über jeder Antwort signalisiert den mentalen Modus:
      • ⚖️ DECISION: Das System wägt ab (basierend auf deinen Werten).
      • ❤️ EMPATHY: Das System spiegelt Emotionen.
      • 📚 FACT: Das System liefert Fakten.
    • Transparenz-Hinweis: Du siehst, ob der Modus durch ein Schlüsselwort oder durch KI-Analyse ausgelöst wurde.

    🎯 Granulares Feedback (Data Flywheel)

    Um Mindnet langfristig schlauer zu machen (Self-Tuning), kannst du nun präzises Feedback geben:

    • Antwort bewerten: 1 bis 5 Sterne für die Gesamtleistung.
    • Quellen bewerten: Bewerte einzelne Suchtreffer mit Smileys (Faces), um dem System beizubringen, welche Dokumente relevant waren und welche nicht.

    🔍 Deep Dive Sources

    Quellen sind nicht mehr nur Fußnoten.

    • Klicke auf die Quellen-Karten unter der Antwort, um den exakten Textauszug zu lesen.
    • Der Explanation Layer erklärt dir in natürlicher Sprache, warum dieser Treffer ausgewählt wurde (z.B. "Wird referenziert von Projekt Alpha").

    ⚙️ Technische Neuerungen

    • Frontend: Implementiert mit Streamlit, optimiert für schnelle RAG-Interaktionen.
    • Resilienz: Das Frontend besitzt ein intelligentes Timeout-Management (MINDNET_API_TIMEOUT), um auch bei langsamer lokaler LLM-Inferenz (Cold Starts) stabil zu bleiben.
    • Architektur: Trennung in Micro-Services. Das Frontend läuft als eigenständiger Prozess, entkoppelt von der API.

    🚀 Upgrade Anleitung (für Admins)

    1. Code Pull:
      git pull origin main
      
    2. Dependencies:
      source .venv/bin/activate
      pip install -r requirements.txt
      
    3. Service Setup:
      Richten Sie den neuen Systemd-Service für die UI ein (siehe docs/mindnet_admin_guide_v2.2.md).
    4. Restart:
      sudo systemctl restart mindnet-prod
      sudo systemctl start mindnet-ui-prod
      
      Das UI ist nun unter http://<SERVER-IP>:8501 erreichbar.
    Downloads
  • V2.3.2-StabilityPatch 046aa2cf48

    Release v2.3.2: Stability Patch
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 4s
    Stable

    Lars released this 2025-12-09 18:26:22 +01:00 | 481 commits to main since this release

    🐞 Release v2.3.2: Stability Patch

    Datum: 09.12.2025
    Status: Stable
    Type: Hotfix / Patch
    Basis: v2.3.1 (Decision Engine)

    Dieses Release behebt kritische Darstellungs- und Stabilitätsprobleme, die nach dem Merge der Decision Engine (WP-06) identifiziert wurden. Es ändert keine Geschäftslogik, verbessert aber die Observability und Robustheit auf lokaler Hardware massiv.

    🐛 Bugfixes & Verbesserungen

    1. "Type: Unknown" Fix (API & DB)

    • Problem: Die API lieferte zwar Suchergebnisse, aber ohne die Metadaten (Payload) im Response-Objekt zurückzugeben. Clients konnten daher nicht erkennen, ob es sich um eine experience oder decision handelt.
    • Lösung: Der Retriever mappt nun explizit das Qdrant-Payload in das API-Response-Objekt.
    • DB-Patch: Import-Skripte schreiben den type nun redundant in die Chunks, um Filterung zu beschleunigen.

    2. CPU Inference Stabilität

    • Problem: Auf lokaler Hardware (z.B. Beelink/Raspberry) führte das Laden des LLMs (Cold Start) oft zu einem 120s Timeout und 500er Fehlern.
    • Lösung: Timeout ist nun global via .env Variable MINDNET_LLM_TIMEOUT steuerbar (Empfehlung: 300.0s).

    3. Tracing & Transparenz

    • Feature: Die API gibt nun im Feld intent_source zurück, wer die Entscheidung getroffen hat (z.B. Keyword (Fast Path) oder LLM Router (Slow Path)). Das erleichtert das Debugging der Personality-Modi.

    📚 Dokumentations-Update

    • Technical Architecture: Schema-Definition für chunks korrigiert (Feld type ergänzt).
    • Appendices: JSON-Payload Beispiele aktualisiert.

    Upgrade Anleitung

    1. Code Pull:
      git pull origin main
      
    2. Environment:
      Prüfe, ob MINDNET_LLM_TIMEOUT=300.0 in der .env gesetzt ist.
    3. Server Restart:
      sudo systemctl restart mindnet-prod
      
    4. Daten-Refresh (Empfohlen):
      Führe einmalig einen Re-Import mit Purge durch, um sicherzustellen, dass alle Chunks den korrekten Typ haben:
      python -m scripts.import_markdown --vault ./vault --prefix "mindnet" --apply --purge-before-upsert
      
    Downloads
  • V2.3.1-WP06 86faf5b8f0

    Release v2.3.1: The "Conscious" Update
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-09 17:16:04 +01:00 | 486 commits to main since this release

    🚀 Release v2.3.1: The "Conscious" Update

    Datum: 09.12.2025
    Status: Stable
    WP-Fokus: WP-06 (Decision Engine)

    Dieses Release markiert den Übergang von einem reinen Wissensspeicher zu einem "Digitalen Zwilling" mit Persönlichkeit. Mindnet ist nun in der Lage, die Absicht einer Frage zu verstehen und Antworten basierend auf hinterlegten Werten und Zielen abzuwägen.

    Neue Features

    🧠 Decision Engine & Hybrid Router

    Das System antwortet nicht mehr statisch, sondern analysiert den Intent:

    • DECISION ("Der Berater"): Bei Fragen wie "Soll ich X tun?" werden automatisch Notizen vom Typ value, principle und goal in den Kontext geladen. Das System prüft Fakten gegen deine Werte.
    • EMPATHY ("Der Spiegel"): Bei emotionalen Eingaben ("Ich bin frustriert") lädt das System experience und belief Notizen und antwortet verständnisvoll im "Wir"-Modus.
    • CODING ("Der Techniker"): Liefert präzise Code-Snippets ohne Smalltalk.
    • Hybrid-Logik: Kombination aus blitzschnellen Keywords (Fast Path) und intelligenter LLM-Analyse (Slow Path/Fallback).

    ⚙️ Late Binding & Konfiguration

    • config/decision_engine.yaml: Neue zentrale Steuerdatei. Hier definierst du, welche Keywords welche Strategie auslösen und welche Daten geladen werden, ohne den Code anzufassen.
    • Multi-Persona Prompts: Die prompts.yaml enthält nun spezialisierte Templates für jeden Modus.

    🛠️ Technische Verbesserungen

    • CPU Inference Optimierung: Der LLM-Timeout ist nun via .env konfigurierbar (MINDNET_LLM_TIMEOUT), um Cold-Starts auf lokaler Hardware (z.B. Beelink) abzufangen.
    • Robuster Parser: Der Router kommt nun auch mit "geschwätzigen" Antworten kleinerer Modelle (SLMs wie Phi-3) zurecht.

    📚 Dokumentation

    Alle 7 Kern-Dokumente wurden aktualisiert, inklusive:

    • Knowledge Design Manual: Neue "5 Goldene Regeln" und Anleitungen für Werte/Ziele.
    • User Guide: Erklärung der neuen Chat-Modi.
    • Architecture: Detaillierung des Hybrid-Router-Flows.

    Upgrade Anleitung

    Führe nach dem Pull folgende Schritte aus:

    1. Environment aktualisieren:
      Ergänze in deiner .env Datei:

      MINDNET_DECISION_CONFIG="./config/decision_engine.yaml"
      MINDNET_LLM_TIMEOUT=300.0
      
    2. Server Neustart:

      sudo systemctl restart mindnet-prod
      
    3. Daten-Check:
      Stelle sicher, dass du Notizen vom Typ value oder goal im Vault hast, damit die Decision Engine greift.

    Downloads
  • WP05 4f171e5245

    Mindnet v2.3.0 "Identity"
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 5s
    Stable

    Lars released this 2025-12-08 16:18:56 +01:00 | 511 commits to main since this release

    Release Notes: Mindnet v2.3.0 "Identity"

    Datum: 08.12.2025
    Status: Stable
    Commit-Tag: v2.3.0


    🚀 Highlights

    Mit Version 2.3.0 erhält Mindnet eine Stimme.
    Das System ist nun nicht mehr nur ein passiver Speicher, sondern ein aktiver Gesprächspartner. Der neue /chat Endpunkt nutzt deine Notizen, um Fragen intelligent zu beantworten. Dabei agiert das System als "KI-Zwilling", der deine Werte und Entscheidungen berücksichtigt.


    Neue Features

    1. RAG-Chat (/chat)

    • Du kannst Mindnet nun Fragen stellen wie: "Warum haben wir uns für Qdrant entschieden?".
    • Das System sucht relevante Notizen (Hybrid Search) und formuliert eine präzise Antwort.
    • Es zitiert die verwendeten Quellen.

    2. Context Intelligence

    • Mindnet versteht jetzt den Typ einer Notiz.
    • Es weiß, dass eine Notiz vom Typ [DECISION] wichtiger für das "Warum" ist als eine Notiz vom Typ [CONCEPT].
    • Dies ermöglicht qualitativ hochwertige Antworten auch mit kleineren, lokalen KI-Modellen.

    3. Anpassbare Persönlichkeit

    • In der neuen Datei config/prompts.yaml kannst du definieren, wie Mindnet antworten soll (z.B. "Pragmatisch", "Kritisch", "Duzend").

    🛠 Technische Änderungen

    • Ollama Integration: Mindnet nutzt nun Ollama als Backend für die Textgenerierung.
    • Phi-3 Mini: Das Standard-Modell wurde auf Microsofts phi3:mini umgestellt, um auf CPU-Hardware (wie Beelink/Raspberry Pi) akzeptable Antwortzeiten (< 1 Min) zu erreichen.
    • Hybrid Enforcement: Der Chat nutzt zwingend die Graph-Suche, um Zusammenhänge zu finden, die rein textuell nicht offensichtlich sind.

    ⚠️ Upgrade Guide (Wichtig!)

    Um von v2.2 auf v2.3 zu aktualisieren, sind manuelle Schritte auf dem Server erforderlich:

    1. Ollama installieren & Modell laden

    Mindnet benötigt nun einen laufenden Ollama-Service.

    # 1. Installieren (falls noch nicht vorhanden)
    curl -fsSL [https://ollama.com/install.sh](https://ollama.com/install.sh) | sh
    
    # 2. Modell laden
    ollama pull phi3:mini
    Downloads
  • WP04_full fbaa07ba88

    Release v2.2.1 – Explanation Layer & Feedback Loop
    All checks were successful
    Deploy mindnet to llm-node / deploy (push) Successful in 3s
    Stable

    Lars released this 2025-12-08 10:01:05 +01:00 | 525 commits to main since this release

    Release v2.2.1 – Explanation Layer & Feedback Loop

    Datum: 08.12.2025
    Workpackages: WP-04b, WP-04c
    Kompatibilität: Erfordert Python 3.10+, Qdrant 1.x

    🚀 Zusammenfassung

    Dieses Release bringt signifikante Upgrades für die Transparenz und Lernfähigkeit von Mindnet. Der Retriever ist keine "Blackbox" mehr: Er erklärt nun, warum ein Treffer ausgewählt wurde (Semantik vs. Graph-Einfluss). Zudem wurde das Fundament für zukünftiges Self-Tuning gelegt, indem Nutzer-Feedback und Suchhistorien systematisch geloggt werden.

    Neue Features

    1. Explanation Layer ("Why-Layer")

    Die API kann nun begründen, wie der Score zustande kommt.

    • Neues Flag: POST /query akzeptiert {"explain": true}.
    • Score Breakdown: Zeigt die Anteile von semantic, edge_bonus, centrality und type_weight.
    • Human-Readable Reasons: Generiert Sätze wie:
      • "Hohe textuelle Übereinstimmung."
      • "Bevorzugt aufgrund des Typs 'decision'."
      • "Verweist auf 'Projekt X' via 'depends_on'." (Hub-Score)
      • "Wird referenziert von 'Wichtige Notiz Y'." (Authority-Score)

    2. Feedback Loop (Data Flywheel)

    Ein geschlossener Kreislauf zur Erfassung der Ergebnisqualität.

    • Traceability: Jede QueryResponse enthält nun eine eindeutige query_id.
    • Neuer Endpoint: POST /feedback nimmt Bewertungen (Score 1-5) entgegen.
    • Persistenz: Daten werden in lokalen JSONL-Dateien gespeichert (data/logs/search_history.jsonl, data/logs/feedback.jsonl), bereit für späteres ML-Training (WP-08).

    🛠 Technische Änderungen

    • Graph Adapter Upgrade: Subgraph unterstützt nun reverse_adj (eingehende Kanten), um Authority-Scores zu erklären.
    • Systemd Integration: Offizieller Wechsel von manuellen Uvicorn-Prozessen zu systemd Services (mindnet-prod, mindnet-dev) mit Auto-Restart und Journal-Logging.
    • DTO Refactoring: Saubere Trennung und Erweiterung der Pydantic-Modelle in app/models/dto.py.

    ⚠️ Upgrade Hinweise (Admin)

    Da sich die Prozess-Verwaltung geändert hat, müssen beim Deployment folgende Schritte beachtet werden:

    1. Code Update: git pull origin main
    2. Dependencies: pip install -r requirements.txt (falls neue Libs hinzugekommen sind).
    3. Service-Wechsel:
      • Alte manuelle Prozesse stoppen (pkill -f uvicorn).
      • Neue Systemd-Services einrichten (siehe docs/mindnet_admin_guide_v2.2.md).
      • Starten via sudo systemctl start mindnet-prod.

    🔜 Ausblick (Next Steps)

    Der Fokus wechselt nun auf WP-05 (Persönlichkeit & RAG-Chat): Das System wird lernen, in natürlicher Sprache zu antworten und dabei eine definierte Persönlichkeit einzunehmen.

    Downloads