zR
|
86ee6fe08c
|
更新readme (#1813)
* 更新了最新的readme
* 更新readme,加上目录
|
2023-10-20 21:37:43 +08:00 |
zR
|
46225ad784
|
Dev (#1811)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
* 数据库更新介绍问题解决
* 关于Langchain自己支持的模型
1. 修复了Openai无法调用的bug
2. 支持了Azure Openai Claude模型
(在模型切换界面由于优先级问题,显示的会是其他联网模型)
3. 422问题被修复,用了另一种替代方案。
4. 更新了部分依赖
* 换一些图
|
2023-10-20 20:07:59 +08:00 |
Zhi-guo Huang
|
109bb7f6c5
|
Merge pull request #1810 from hzg0601/dev
1. 支持加载p-tuning,详细步骤见docs/chatchat加载ptuing.md;2. 根据系统自动指定binding_host
|
2023-10-20 19:34:02 +08:00 |
hzg0601
|
a81bd827dd
|
根据系统指定binding_host
|
2023-10-20 19:32:06 +08:00 |
hzg0601
|
6e9acfc1af
|
Merge branch 'dev' of https://github.com/chatchat-space/Langchain-Chatchat into dev
|
2023-10-20 19:22:36 +08:00 |
hzg0601
|
195929b518
|
支持加载p-tuning,详细步骤见docs/chatchat加载ptuing.md
|
2023-10-20 19:22:24 +08:00 |
liunux4odoo
|
1d9d9df9e9
|
update baichuan-api: 修正messages参数;支持流式;添加测试用例
|
2023-10-20 19:09:05 +08:00 |
zR
|
e920cd0064
|
合并分支,支持 (#1808)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
* 数据库更新介绍问题解决
* 关于Langchain自己支持的模型
1. 修复了Openai无法调用的bug
2. 支持了Azure Openai Claude模型
(在模型切换界面由于优先级问题,显示的会是其他联网模型)
3. 422问题被修复,用了另一种替代方案。
4. 更新了部分依赖
|
2023-10-20 18:13:55 +08:00 |
liunux4odoo
|
83e25f8011
|
remove xformers from requirements*.txt; check llm_model before change model in webui
|
2023-10-20 15:01:39 +08:00 |
liunux4odoo
|
0b25d7b079
|
fix: correct model_worker's logger and semaphor
|
2023-10-20 11:50:50 +08:00 |
liunux4odoo
|
1b3bd4442c
|
update model_config.py.example (#1784)
|
2023-10-19 22:37:08 +08:00 |
liunux4odoo
|
d053950aee
|
新功能: (#1801)
- 更新langchain/fastchat依赖,添加xformers依赖
- 默认max_tokens=None, 生成tokens自动为模型支持的最大值
修复:
- history_len=0 时会带入1条不完整的历史消息,导致LLM错误
- 当对话轮数 达到history_len时,传入的历史消息为空
|
2023-10-19 22:09:15 +08:00 |
liunux4odoo
|
7e28291e9f
|
Merge pull request #1792 from liunux4odoo/fix
支持metaphor搜索引擎(无需代理,key申请简单,目前不支持中文)
|
2023-10-18 23:05:57 +08:00 |
liunux4odoo
|
b9b42991f6
|
- 支持metaphor搜索引擎(无需代理,key申请简单,目前不支持中文)
- 增加默认知识库和默认搜索引擎的配置项
- 修复WEBUI弹出当前模型错误
|
2023-10-18 23:02:20 +08:00 |
zR
|
69e5da4e7a
|
北京黑客松更新 (#1785)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
|
2023-10-18 15:19:02 +08:00 |
liunux4odoo
|
9ce328fea9
|
实现Api和WEBUI的前后端分离 (#1772)
* update ApiRequest: 删除no_remote_api本地调用模式;支持同步/异步调用
* 实现API和WEBUI的分离:
- API运行服务器上的配置通过/llm_model/get_model_config、/server/configs接口提供,WEBUI运行机器上的配置项仅作为代码内部默认值使用
- 服务器可用的搜索引擎通过/server/list_search_engines提供
- WEBUI可选LLM列表中只列出在FSCHAT_MODEL_WORKERS中配置的模型
- 修改WEBUI中默认LLM_MODEL获取方式,改为从api端读取
- 删除knowledge_base_chat中`local_doc_url`参数
其它修改:
- 删除多余的kb_config.py.exmaple(名称错误)
- server_config中默认关闭vllm
- server_config中默认注释除智谱AI之外的在线模型
- 修改requests从系统获取的代理,避免model worker注册错误
* 修正:
- api.list_config_models返回模型原始配置
- api.list_config_models和api.get_model_config中过滤online api模型的敏感信息
- 将GPT等直接访问的模型列入WEBUI可选模型列表
其它:
- 指定langchain==0.3.313, fschat==0.2.30, langchain-experimental==0.0.30
|
2023-10-17 16:52:07 +08:00 |
liunux4odoo
|
94977c7ab1
|
修复:切换embed_model时,FAISS向量库未正确释放,导致`d == self.d assert (#1766)
修复:
- 切换embed_model时,FAISS向量库未正确释放,导致d == self.d assert error (close [求助] 初始化知识库发生错误 #1657 )
- ApiRequest中chat接口增加max_tokens参数
- FileDocModel模型字段错误(字段错误 #1691)
|
2023-10-16 21:02:07 +08:00 |
liunux4odoo
|
cd748128c3
|
add paramter `max_tokens` to 4 chat api with default value 1024 (#1744)
|
2023-10-12 16:18:56 +08:00 |
liunux4odoo
|
1ac173958d
|
fix #1737: MakeFastAPIOffline函数内代码编写错误
|
2023-10-12 10:56:49 +08:00 |
liunux4odoo
|
01577d6264
|
只启动在server_config中配置的在线API模型
|
2023-10-12 10:55:53 +08:00 |
zR
|
111bc45d04
|
Wiki完善和Agent完善计划 (#1680)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
* Agent大幅度优化
1. 修改了UI界面
(1)高亮所有没有进行agent对齐的模型,
(2)优化输出体验和逻辑,使用markdown
2. 降低天气工具使用门槛
3. 依赖更新
(1) vllm 更新到0.2.0,增加了一些参数
(2) torch 建议更新到2.1
(3)pydantic不要更新到1.10.12
* 更新了一些注释
* 修改部分依赖,修改了部分wiki用图
---------
Co-authored-by: zR <zRzRzRzRzRzRzR>
|
2023-10-07 22:00:56 +08:00 |
zR
|
7475205eca
|
Agent提示词更改,增加图片 (#1667)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
* Agent大幅度优化
1. 修改了UI界面
(1)高亮所有没有进行agent对齐的模型,
(2)优化输出体验和逻辑,使用markdown
2. 降低天气工具使用门槛
3. 依赖更新
(1) vllm 更新到0.2.0,增加了一些参数
(2) torch 建议更新到2.1
(3)pydantic不要更新到1.10.12
* 更新了一些注释
|
2023-10-07 11:52:54 +08:00 |
zR
|
2c8fc95f7a
|
Agent大更新合并 (#1666)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
* Agent大幅度优化
1. 修改了UI界面
(1)高亮所有没有进行agent对齐的模型,
(2)优化输出体验和逻辑,使用markdown
2. 降低天气工具使用门槛
3. 依赖更新
(1) vllm 更新到0.2.0,增加了一些参数
(2) torch 建议更新到2.1
(3)pydantic不要更新到1.10.12
|
2023-10-07 11:26:11 +08:00 |
liunux4odoo
|
387b4cb967
|
fix #1638: baichuan-api未正确配置
|
2023-10-05 22:46:31 +08:00 |
liunux4odoo
|
0304279545
|
fix #1656: rename kb_config.py.exmaple to kb_config.py.example
|
2023-10-05 22:35:13 +08:00 |
glide-the
|
038f2eb1ec
|
修复代理为空的问题
(cherry picked from commit 84a4141dec)
|
2023-10-04 14:05:00 +08:00 |
glide-the
|
37500b878e
|
指定transformers==4.33.3版本
(cherry picked from commit f30b4d5d57)
|
2023-10-04 14:05:00 +08:00 |
glide-the
|
48338207bd
|
修复代理为空的问题
(cherry picked from commit a655608d01)
|
2023-10-04 14:05:00 +08:00 |
zR
|
fc6a3b07ed
|
Dev (#1652)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
|
2023-10-04 12:05:46 +08:00 |
liunux4odoo
|
332f8be401
|
fix: windows下bind_host设为0.0.0.0时,将fschat_xx_address指向127.0.0.1,避免请求错误 (#1651)
|
2023-10-03 23:40:05 +08:00 |
zR
|
77d38db00e
|
修改部分错误的文档,加长了历史记录(for 32k Models) (#1629)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
|
2023-09-29 20:17:29 +08:00 |
zR
|
61c4000859
|
更新上agent提示词代码 (#1626)
|
2023-09-29 18:45:50 +08:00 |
zR
|
d9056a8df6
|
python3.8用户需要加上__future__ (#1624)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
* 更新readme
* python3.8用户需要加这两行
|
2023-09-29 16:04:44 +08:00 |
Zhi-guo Huang
|
6b1e13a4e2
|
Merge pull request #1623 from hzg0601/dev
1. 增加baichuan-api支持;2.增加批量复制configs下.example文件为.py文件的脚本copy_config_example.py
|
2023-09-29 13:19:44 +08:00 |
hzg0601
|
00745c99e2
|
update baichuan.py
|
2023-09-29 13:19:17 +08:00 |
hzg0601
|
0e20552083
|
1. 增加baichuan-api支持;2.增加批量复制configs下.example文件为.py文件的脚本copy_config_example.py;3. 更新model_config.py.example
|
2023-09-29 13:16:14 +08:00 |
liunux4odoo
|
30b8daecb3
|
fix readme
|
2023-09-28 23:21:35 +08:00 |
zR
|
1b312d5715
|
更改readme 0928 (#1619)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
* 更新readme
|
2023-09-28 23:09:21 +08:00 |
zR
|
efd8edda16
|
Dev (#1618)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
|
2023-09-28 20:19:26 +08:00 |
WilliamChen-luckbob
|
8fa99026c8
|
根据官方文档,添加对英文版的bge embedding的指示模板 (#1585)
Co-authored-by: zR <2448370773@qq.com>
|
2023-09-28 19:18:31 +08:00 |
liunux4odoo
|
b3c7f8b072
|
修复webui中重建知识库以及对话界面UI错误 (#1615)
* 修复bug:webui点重建知识库时,如果存在不支持的文件会导致整个接口错误;migrate中没有导入CHUNK_SIZE
* 修复:webui对话界面的expander一直为running状态;简化历史消息获取方法
|
2023-09-28 15:12:03 +08:00 |
liunux4odoo
|
8d0f8a5d67
|
fix: langchain warnings for import from root
|
2023-09-27 21:55:02 +08:00 |
liunux4odoo
|
523764e284
|
fix: set vllm based on platform to avoid error on windows
|
2023-09-27 21:43:54 +08:00 |
zR
|
d39878ff35
|
Dev (#1613)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
|
2023-09-27 21:17:50 +08:00 |
zR
|
5702554171
|
增加了仅限GPT4的agent功能,陆续补充,中文版readme已写 (#1611)
|
2023-09-27 19:19:25 +08:00 |
Zhi-guo Huang
|
c546b4271e
|
Merge pull request #1603 from hzg0601/dev
1. 更新congif中关于vllm后端相关说明;2. 更新requirements,requirements_api;
|
2023-09-26 21:57:03 +08:00 |
hzg0601
|
2716ff739d
|
1. 更新congif中关于vllm后端相关说明;2. 更新requirements,requirements_api;
|
2023-09-26 21:55:57 +08:00 |
Zhi-guo Huang
|
56d75af824
|
Merge pull request #1582 from chatchat-space/fschat_vllm
支持vllm推理后端
|
2023-09-24 13:28:32 +08:00 |
Zhi-guo Huang
|
9cbd9f6711
|
Merge pull request #1581 from hzg0601/dev
测试vllm推理框架成功
|
2023-09-24 02:08:44 +08:00 |
hzg0601
|
2d823aa4b1
|
1. debug vllm加速框架完毕;2. 修改requirements,requirements_api对vllm的依赖;3.注释掉serve_config中baichuan-7b的device为cpu的配置
|
2023-09-24 02:05:40 +08:00 |