liunux4odoo
|
472a97a616
|
所有 chat 接口都改为 EventSourceResponse;ApiRequest 作对应修改
|
2023-12-13 16:53:24 +08:00 |
liunux4odoo
|
c8fef3380c
|
merge from dev
|
2023-12-13 16:52:40 +08:00 |
hzg0601
|
db008c1af8
|
为milvus增加额外索引与搜索配置
|
2023-12-13 15:52:11 +08:00 |
hzg0601
|
db1c1e2ee4
|
解决多次调用es创建索引失败的问题
|
2023-12-11 10:39:59 +08:00 |
liunux4odoo
|
2e9319846e
|
support .xls files
|
2023-12-08 15:04:08 +08:00 |
liunux4odoo
|
7b70776810
|
fix: doc ext name error in LOADER_DICT
|
2023-12-08 13:59:55 +08:00 |
hzg0601
|
4c2fda7200
|
Merge branch 'dev' of https://github.com/chatchat-space/Langchain-Chatchat into dev
|
2023-12-06 20:42:32 +08:00 |
hzg0601
|
d1f94c2846
|
temporarily add reranker
|
2023-12-06 20:42:27 +08:00 |
hzg0601
|
1fac51fe35
|
temporarily save faiss_cache
|
2023-12-06 09:45:56 +00:00 |
liunux4odoo
|
67b7c99d03
|
ocr 支持 GPU 加速(需要手动安装 rapidocr_paddle[gpu]);知识库支持 MHTML 和 Evernote 文件。 (#2265)
在 requirements 和 Wiki 中增加对可选文档加载器 SDK 的说明 ( close #2264 )
|
2023-12-04 09:39:56 +08:00 |
liunux4odoo
|
7d2de47bcf
|
文件对话和知识库对话 API 接口实现全异步操作,防止阻塞 (#2256)
* EmbeddingFunAdapter 支持异步操作;文件对话和知识库对话 API 接口实现全异步操作,防止阻塞
* 修复: 使 list_files_from_folder 返回相对路径
|
2023-12-02 19:22:44 +08:00 |
zR
|
dcb76984bc
|
修复Azure 不设置Max token的bug (#2254)
|
2023-12-02 16:50:56 +08:00 |
liunux4odoo
|
4fa28c71b1
|
修复:chat 接口默认使用 memory获取10条历史消息,导致最终拼接的prompt出错 (#2247)
修改后默认使用用户传入的history,只有同时传入conversation_id和history_len时才从数据库读取历史消息
使用memory还有一个问题,对话角色是固定的,不能适配不同的模型。
其它:注释一些无用的 print
|
2023-12-01 11:35:43 +08:00 |
zR
|
0cc1be224d
|
依赖升级 (#2246)
大量依赖升级到最新版
测试环境:Ubuntu 22.04 LTS kernel 6.6.3 Python 3.10.12,Cuda12.3 update1
|
2023-12-01 11:34:41 +08:00 |
imClumsyPanda
|
c34b4136c0
|
update file format
|
2023-11-30 23:33:48 +08:00 |
imClumsyPanda
|
072e0a2a32
|
update reqs and server/utils
|
2023-11-30 22:23:15 +08:00 |
zty
|
5ac77e5089
|
修复: MiniMax和千帆在线embedding模型分批请求的bug (#2208)
* 修复: MiniMax和千帆在线embedding模型分批请求的bug
* 修改了一处typo
|
2023-11-30 17:28:22 +08:00 |
zR
|
40918c21de
|
bug修复和提示词修改 (#2230)
* 更新Langchain依赖到0.0.343以上版本
* 更改了一些提示词和依赖,修改了openai异常的问题
* 注释data的打印日志
|
2023-11-30 12:09:53 +08:00 |
zR
|
b7a50daa0f
|
更新Langchain依赖到0.0.342以上版本 (#2212)
|
2023-11-29 15:08:13 +08:00 |
liunux4odoo
|
509dee0425
|
fix: empty docs error in KnowledgeFile
|
2023-11-29 11:33:43 +08:00 |
liunux4odoo
|
7d580d9a47
|
修复:*_chat 接口中重设 max_tokens 时导致 `local variable 'max_tokens' referenced before assignment` 错误
|
2023-11-28 21:00:00 +08:00 |
liunux4odoo
|
8b695dba03
|
*_chat 接口中,当 max_tokens=0时,将其设为 None,避免 swagger ui 中默认值为0时访问出错
|
2023-11-26 16:47:58 +08:00 |
glide-the
|
279ffdf117
|
单个知识库根据doc_ids摘要
|
2023-11-25 23:31:13 +08:00 |
glide-the
|
248db46187
|
Merge branch 'dev_summary' into dev_command_summary
实现summary_chunk 文档分段总结业务实现
使用 MapReduceDocumentsChain 生成摘要
# Conflicts:
# server/api.py
# server/knowledge_base/kb_doc_api.py
# server/knowledge_base/kb_service/base.py
# server/knowledge_base/migrate.py
|
2023-11-25 22:30:41 +08:00 |
glide-the
|
f57837c07a
|
Merge branch 'dev_summary' into dev_tmp
# Conflicts:
# server/api.py
# server/knowledge_base/kb_doc_api.py
# server/knowledge_base/kb_service/base.py
# server/knowledge_base/migrate.py
|
2023-11-25 21:02:46 +08:00 |
liunux4odoo
|
1de4258aa0
|
给 ApiModelWorker 添加 logger 成员变量,API请求出错时输出有意义的错误信息。 (#2169)
* 给 ApiModelWorker 添加 logger 成员变量,API请求出错时输出有意义的错误信息。
/chat/chat 接口 conversation_id参数改为默认 "",避免 swagger 页面默认值错误导致历史消息失效
* 修复在线模型一些bug
|
2023-11-25 13:51:07 +08:00 |
zR
|
1b0cf67a57
|
支持软连接的知识库 (#2167)
* GLM3支持传入提示词
支持传入提示词的Agent ChatGLM3-6B
* 软连接处理
1. 有效的软连接处理,参考了 #2125
2. 更新了依赖,现在fschat原生支持GLM3的全功能
* 更新了支持的模型列表和依赖
1. 推荐用户使用GLM3-6B取代2代GLM模型
2. 推荐用户使用性能更强的bge模型
3 推荐使用vllm和torch的最新稳定版本
|
2023-11-24 22:47:55 +08:00 |
Eden
|
dfcebf7bc3
|
支持昆仑万维天工大模型 (#2166)
---------
Co-authored-by: Eden <chuangqi.huang@ubtrobot.com>
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-11-24 22:25:35 +08:00 |
liunux4odoo
|
824c29a6d2
|
将 MiniMax 和 千帆 在线 Embedding 改为 10 个文本一批,防止接口数量限制 (#2161)
|
2023-11-24 16:42:20 +08:00 |
liunux4odoo
|
1b9b777eaf
|
使 MessageModel 中 conversation_id 为非必填项,避免前端请求错误
|
2023-11-23 21:42:27 +08:00 |
liunux4odoo
|
aae4144476
|
数据库和向量库中文档 metadata["source"] 改为相对路径,便于向量库迁移 (#2153)
修复:
- 上传知识库文件名称包括子目录时,自动创建子目录
|
2023-11-23 19:54:00 +08:00 |
qiankunli
|
1c97673d41
|
feat: add db memory (#2046)
* feat: add db memory
* WEBUI 添加多会话功能
---------
Co-authored-by: liqiankun.1111 <liqiankun.1111@bytedance.com>
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-11-22 18:38:26 +08:00 |
glide-the
|
17c9632942
|
统一在线模型异常报文、增加详细日志
|
2023-11-21 21:47:02 +08:00 |
liunux4odoo
|
3cf7422c21
|
修复:知识库json文件的中文被转为unicode码,导致无法匹配 (#2128)
|
2023-11-21 21:00:46 +08:00 |
liunux4odoo
|
ad7a6fd438
|
开发者: (#2091)
- 修复列出知识库磁盘文件时跳过临时文件的bug:只有目录被排除了,文件未排除
- 优化知识库文档加载器:
- 将 elements 模式改为 single 模式,避免文档被切分得太碎
- 给 get_loader 和 KnowledgeFile 增加 loader_kwargs 参数,可以自定义文档加载器参数
|
2023-11-17 11:39:32 +08:00 |
liunux4odoo
|
68a544ea33
|
开发者:XXKBService.get_doc_by_id 改为批量处理,提高访问向量库效率。
|
2023-11-16 11:09:40 +08:00 |
liunux4odoo
|
fbe214471b
|
知识库支持 .jsonl, .epub, .xlsx, .xlsd, .ipynb, .odt, .py, .srt, .toml, .doc, .ppt 文件 (#2079)
* 知识库支持行式 json 文件
如果要使用 json 文件, 需要 `conda install jq`(windows 下 pip install jq 会失败)
开发者:
删除 CustomJsonLoader,使用 langchain 自带的 JsonLoader 处理 json 文件,添加 JsonLinesLoader 处理 jsonl 文件。
* 知识库支持 .epub, .xlsx, .xlsd, .ipynb, .odt, .py, .srt, .toml, .doc, .ppt 文件
为 .eml, .msg, .rst, .rtf, .tsv, .docx, .xml, .pptx 指定专用加载器
|
2023-11-16 09:37:09 +08:00 |
liunux4odoo
|
3b3d948d27
|
添加文件对话模式 (#2071)
开发者:
- 添加 /chat/file_chat, /knowledge_base/upload_temp_docs API 接口
- 添加 CACHED_MEMO_VS_NUM, BASE_TEMP_DIR 配置项
|
2023-11-16 07:39:27 +08:00 |
liunux4odoo
|
2adfa4277c
|
在webui模型列表中包括:非model worker启动的在线模型(如openai-api);已经下载的本地模型 (#2060)
|
2023-11-14 21:17:32 +08:00 |
zR
|
21b079d751
|
GLM3支持传入提示词 (#2058)
支持传入提示词的Agent ChatGLM3-6B
|
2023-11-14 17:45:22 +08:00 |
liunux4odoo
|
e78a804ec6
|
close #2044: duplicated mount_knowledge_base_routes in server/api.py
|
2023-11-13 20:30:32 +08:00 |
zR
|
94d4304638
|
更新了chatglm3 6b agent的文档,提示词 (#2041)
更新了chatglm3 6b agent的文档,提示词
修复代理no_proxy格式问题 #1838 的问题,感谢多次复现和验证
修改了pg清理知识库后还会引用之前知识库的问题
|
2023-11-13 16:30:09 +08:00 |
zR
|
91ff0574df
|
支持ChatGLM3-6B (#2021)
* 更新依赖和配置文件中的Agent模型
* 支持基础的glm3_agent
|
2023-11-12 16:45:50 +08:00 |
hzg0601
|
c1440c2609
|
增加ElasticSearch支持
|
2023-11-10 16:04:41 +08:00 |
liunux4odoo
|
b51ba11f45
|
支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002)
新功能:
- 将 LLM_MODEL 配置项改为 LLM_MODELS 列表,同时启动多个模型
- 将 wiki 纳入 samples 知识库
依赖变化:
- 指定 streamlit~=1.27.0。1.26.0会报rerun错误,1.28.0会有无限刷新错误
修复优化:
- 优化 get_default_llm_model 逻辑
- 适配 Qwen 在线 API 做 Embeddings 时最大 25 行的限制
- 列出知识库磁盘文件时跳过 . 开头的文件
|
2023-11-09 22:15:52 +08:00 |
WilliamChen-luckbob
|
ce1001a043
|
bugfix:dev分支创建知识库必然失败的bug修复 (#1980)
* bugfix:dev分支创建知识库必然失败的bug修复
* 统一 KBServiceFactory.get_service_by_name 的逻辑,数据库中不存在知识库时返回 None
---------
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-11-09 17:45:21 +08:00 |
imClumsyPanda
|
e233e4f220
|
reformat server/knowledge_base/migrate.py
|
2023-11-06 22:49:35 +08:00 |
imClumsyPanda
|
fb32c31a70
|
reformat kb_doc_api.py
|
2023-11-06 22:44:50 +08:00 |
imClumsyPanda
|
051a2e97dc
|
add support for Zhipu-api "chatglm-turbo"
|
2023-11-06 22:38:05 +08:00 |
zR
|
57612d5232
|
修复一些bug (#1965)
* 修改一些bug
* 更新掉了一部分之前的bug
|
2023-11-03 18:56:27 +08:00 |