76ea8e3350
Update für Feedback Loop
2025-12-09 22:07:58 +01:00
bbc1e589f5
Nutzung von .env für Timeout
2025-12-09 19:00:39 +01:00
987e297c07
Erste Version Wp10
2025-12-09 18:44:26 +01:00
046aa2cf48
Merge pull request 'WP06a' ( #5 ) from WP06a into main
...
Deploy mindnet to llm-node / deploy (push) Successful in 4s
Reviewed-on: #5
fix(wp06a): Fix API Payload-Enrichment & CPU Timeouts
Stabilisierungspatch für die Decision Engine (Post-WP06).
**Bugfixes & Verbesserungen:**
- **FIX:** API (Retriever) liefert nun `payload`-Daten im `QueryHit` zurück. Behebt "Typ: unknown" Fehler in Clients/Tests.
- **FIX:** Test-Skript (`test_wp06_decision.py`) prüft nun robust auf `payload` oder `source` und zeigt Intent-Source an.
- **FIX:** Timeout für LLM-Inference in `.env` konfigurierbar gemacht (`MINDNET_LLM_TIMEOUT`) und Default für Tests auf 300s erhöht (Cold-Start Protection).
- **CHORE:** DTOs erweitert um `intent_source` für besseres Tracing (Keyword vs. LLM).
- **DOCS:** Technische Architektur und Appendices aktualisiert (Chunk-Schema enthält nun explizit `type`).
**Version Bump:** v2.3.1 -> v2.3.2
2025-12-09 18:25:36 +01:00
0bc0e66a85
Dokumentation angepasst
2025-12-09 18:22:15 +01:00
2310633de3
payload durchreichen bis zum chat
2025-12-09 18:11:25 +01:00
bd36d78025
neue Test
2025-12-09 18:02:21 +01:00
d2270fafdd
testscript für WP06 korrigiert
Deploy mindnet to llm-node / deploy (push) Successful in 4s
2025-12-09 17:45:08 +01:00
86faf5b8f0
Merge pull request 'WP06' ( #4 ) from WP06 into main
...
Deploy mindnet to llm-node / deploy (push) Successful in 3s
feat(wp06): Release v2.3.1 - Decision Engine & Hybrid Intent Router
Abschluss von WP-06: Transformation des Chatbots zum strategischen Partner.
Hauptänderungen:
- Feature: Hybrid Intent Router implementiert (Fast Path: Keywords / Slow Path: LLM-Fallback).
- Feature: Strategic Retrieval (Injektion von [VALUE], [GOAL], [EXPERIENCE] basierend auf Intent).
- Feature: Multi-Persona Support (Berater, Empathischer Spiegel, Coder, Bibliothekar).
- Config: Late Binding Logik komplett in `config/decision_engine.yaml` ausgelagert.
- Tech: LLM-Service erweitert um konfigurierbaren Timeout (CPU-Inference Support) und Raw-Generation Mode.
- Docs: Vollständige Aktualisierung der Kern-Dokumentation (Architektur, Playbooks, Guides) auf v2.3.1.
Version Bump: 2.3.0 -> 2.3.1
2025-12-09 17:14:52 +01:00
902f26ee95
WP06 Dokumentation
2025-12-09 17:11:03 +01:00
ea9fe1a6ed
neues Testscript
2025-12-09 15:14:38 +01:00
6c2074166c
verbessertes Prompt, und chat-Router optimiert
2025-12-09 13:50:18 +01:00
bd44af2b68
korrektur zu besseren Analyse
2025-12-09 13:37:26 +01:00
972cd0dfac
neues Testscript
2025-12-09 13:22:34 +01:00
9cc16bb220
fehlerkorrektzur Hybrid chat
2025-12-09 13:14:24 +01:00
03594424a1
Hybrider Chat (mit und ohne LLM Einordung des Intents)
2025-12-09 13:08:04 +01:00
97985371ca
neue engine mit mehreren typen
2025-12-09 09:58:35 +01:00
3c5c01998f
Parametrisierung und testscript
2025-12-08 19:41:32 +01:00
2fa24cb1bd
Konfiguierbare Entscheidungen
2025-12-08 19:36:12 +01:00
0304bae9f4
Port richtig gesetz
2025-12-08 19:03:06 +01:00
ac6d34731a
Merge branch 'WP06' of http://192.168.2.144:3000/Lars/mindnet into WP06
2025-12-08 19:00:49 +01:00
be5ad7e080
test
2025-12-08 19:00:42 +01:00
32128c06c1
docs/pipeline_playbook.md aktualisiert
2025-12-08 18:50:54 +01:00
07b7f419de
Erste Version WP06
2025-12-08 18:48:24 +01:00
4d6fce2d93
TOC
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 18:01:35 +01:00
b398168b1f
docs/mindnet_functional_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 17:58:28 +01:00
6b397fea2e
docs/mindnet_functional_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 4s
2025-12-08 17:57:51 +01:00
d20386e0a7
Toc
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 17:55:24 +01:00
fcb90db2d0
docs/mindnet_functional_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 17:47:28 +01:00
5d8e96372f
docs/developer_guide.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 17:39:01 +01:00
0d1a98279e
docs/developer_guide.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 17:33:46 +01:00
73641abf8a
config/retriever.yaml aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 4s
2025-12-08 17:25:43 +01:00
a4873b3d45
docs/mindnet_functional_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 16:52:22 +01:00
4f171e5245
Merge pull request 'WP05' ( #3 ) from WP05 into main
...
Deploy mindnet to llm-node / deploy (push) Successful in 5s
Reviewed-on: #3
2025-12-08 16:17:48 +01:00
d48b671314
Dokumentation aktualisiert
2025-12-08 16:14:52 +01:00
b9d73af062
Update zum Prompt
2025-12-08 14:33:34 +01:00
21904e62ee
go
2025-12-08 14:27:17 +01:00
f9af30b195
Frage in test_chat_wp05 angepasst
2025-12-08 13:45:04 +01:00
531e3790b3
persönlichkeitsupdate
2025-12-08 13:39:16 +01:00
7745b71832
debug raus . aktualisierte chats
2025-12-08 11:15:16 +01:00
b39663408c
debug
2025-12-08 11:09:52 +01:00
9c4696e9d5
Inhalte werden ans LLM übergeben
2025-12-08 11:06:29 +01:00
cf5e53f341
anderes LLm und timeout erhöht
2025-12-08 10:52:57 +01:00
e512f768ff
wechsel des LLM (--> Mistral")
2025-12-08 10:45:28 +01:00
c3ef65d069
retriever.py mit neuer Wrapper Klasse
2025-12-08 10:39:35 +01:00
90f0be6baf
erste Version WP05
2025-12-08 10:32:57 +01:00
eba51eba0f
docs/dev_workflow.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 10:10:48 +01:00
fbaa07ba88
docs/appendix.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 09:14:14 +01:00
d0ecc5316f
docs/mindnet_functional_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 09:11:24 +01:00
9ee39277ae
docs/mindnet_technical_architecture.md aktualisiert
Deploy mindnet to llm-node / deploy (push) Successful in 3s
2025-12-08 09:08:12 +01:00