Langchain-Chatchat/server/chat
liunux4odoo b51ba11f45
支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002)
新功能:
- 将 LLM_MODEL 配置项改为 LLM_MODELS 列表,同时启动多个模型
- 将 wiki 纳入 samples 知识库

依赖变化:
- 指定 streamlit~=1.27.0。1.26.0会报rerun错误,1.28.0会有无限刷新错误

修复优化:
- 优化 get_default_llm_model 逻辑
- 适配 Qwen 在线 API 做 Embeddings 时最大 25 行的限制
- 列出知识库磁盘文件时跳过 . 开头的文件
2023-11-09 22:15:52 +08:00
..
__init__.py 支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话 (#1860) 2023-10-25 08:30:23 +08:00
agent_chat.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
chat.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
completion.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
feedback.py 添加对话评分与历史消息保存功能 (#1940) 2023-11-03 11:31:45 +08:00
knowledge_base_chat.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
openai_chat.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
search_engine_chat.py 支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002) 2023-11-09 22:15:52 +08:00
utils.py 发版:v0.2.5 (#1620) 2023-09-28 23:30:21 +08:00