zR
|
46225ad784
|
Dev (#1811)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
* 数据库更新介绍问题解决
* 关于Langchain自己支持的模型
1. 修复了Openai无法调用的bug
2. 支持了Azure Openai Claude模型
(在模型切换界面由于优先级问题,显示的会是其他联网模型)
3. 422问题被修复,用了另一种替代方案。
4. 更新了部分依赖
* 换一些图
|
2023-10-20 20:07:59 +08:00 |
liunux4odoo
|
1d9d9df9e9
|
update baichuan-api: 修正messages参数;支持流式;添加测试用例
|
2023-10-20 19:09:05 +08:00 |
zR
|
e920cd0064
|
合并分支,支持 (#1808)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
* 数据库更新介绍问题解决
* 关于Langchain自己支持的模型
1. 修复了Openai无法调用的bug
2. 支持了Azure Openai Claude模型
(在模型切换界面由于优先级问题,显示的会是其他联网模型)
3. 422问题被修复,用了另一种替代方案。
4. 更新了部分依赖
|
2023-10-20 18:13:55 +08:00 |
liunux4odoo
|
0b25d7b079
|
fix: correct model_worker's logger and semaphor
|
2023-10-20 11:50:50 +08:00 |
liunux4odoo
|
d053950aee
|
新功能: (#1801)
- 更新langchain/fastchat依赖,添加xformers依赖
- 默认max_tokens=None, 生成tokens自动为模型支持的最大值
修复:
- history_len=0 时会带入1条不完整的历史消息,导致LLM错误
- 当对话轮数 达到history_len时,传入的历史消息为空
|
2023-10-19 22:09:15 +08:00 |
liunux4odoo
|
b9b42991f6
|
- 支持metaphor搜索引擎(无需代理,key申请简单,目前不支持中文)
- 增加默认知识库和默认搜索引擎的配置项
- 修复WEBUI弹出当前模型错误
|
2023-10-18 23:02:20 +08:00 |
zR
|
69e5da4e7a
|
北京黑客松更新 (#1785)
* 北京黑客松更新
知识库支持:
支持zilliz数据库
Agent支持:
支持以下工具调用
1. 支持互联网Agent调用
2. 支持知识库Agent调用
3. 支持旅游助手工具(未上传)
知识库更新
1. 支持知识库简介,用于Agent选择
2. UI对应知识库简介
提示词选择
1. UI 和模板支持提示词模板更换选择
|
2023-10-18 15:19:02 +08:00 |
liunux4odoo
|
9ce328fea9
|
实现Api和WEBUI的前后端分离 (#1772)
* update ApiRequest: 删除no_remote_api本地调用模式;支持同步/异步调用
* 实现API和WEBUI的分离:
- API运行服务器上的配置通过/llm_model/get_model_config、/server/configs接口提供,WEBUI运行机器上的配置项仅作为代码内部默认值使用
- 服务器可用的搜索引擎通过/server/list_search_engines提供
- WEBUI可选LLM列表中只列出在FSCHAT_MODEL_WORKERS中配置的模型
- 修改WEBUI中默认LLM_MODEL获取方式,改为从api端读取
- 删除knowledge_base_chat中`local_doc_url`参数
其它修改:
- 删除多余的kb_config.py.exmaple(名称错误)
- server_config中默认关闭vllm
- server_config中默认注释除智谱AI之外的在线模型
- 修改requests从系统获取的代理,避免model worker注册错误
* 修正:
- api.list_config_models返回模型原始配置
- api.list_config_models和api.get_model_config中过滤online api模型的敏感信息
- 将GPT等直接访问的模型列入WEBUI可选模型列表
其它:
- 指定langchain==0.3.313, fschat==0.2.30, langchain-experimental==0.0.30
|
2023-10-17 16:52:07 +08:00 |
liunux4odoo
|
94977c7ab1
|
修复:切换embed_model时,FAISS向量库未正确释放,导致`d == self.d assert (#1766)
修复:
- 切换embed_model时,FAISS向量库未正确释放,导致d == self.d assert error (close [求助] 初始化知识库发生错误 #1657 )
- ApiRequest中chat接口增加max_tokens参数
- FileDocModel模型字段错误(字段错误 #1691)
|
2023-10-16 21:02:07 +08:00 |
liunux4odoo
|
cd748128c3
|
add paramter `max_tokens` to 4 chat api with default value 1024 (#1744)
|
2023-10-12 16:18:56 +08:00 |
liunux4odoo
|
1ac173958d
|
fix #1737: MakeFastAPIOffline函数内代码编写错误
|
2023-10-12 10:56:49 +08:00 |
zR
|
7475205eca
|
Agent提示词更改,增加图片 (#1667)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
* Agent大幅度优化
1. 修改了UI界面
(1)高亮所有没有进行agent对齐的模型,
(2)优化输出体验和逻辑,使用markdown
2. 降低天气工具使用门槛
3. 依赖更新
(1) vllm 更新到0.2.0,增加了一些参数
(2) torch 建议更新到2.1
(3)pydantic不要更新到1.10.12
* 更新了一些注释
|
2023-10-07 11:52:54 +08:00 |
zR
|
2c8fc95f7a
|
Agent大更新合并 (#1666)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
* Agent大幅度优化
1. 修改了UI界面
(1)高亮所有没有进行agent对齐的模型,
(2)优化输出体验和逻辑,使用markdown
2. 降低天气工具使用门槛
3. 依赖更新
(1) vllm 更新到0.2.0,增加了一些参数
(2) torch 建议更新到2.1
(3)pydantic不要更新到1.10.12
|
2023-10-07 11:26:11 +08:00 |
liunux4odoo
|
387b4cb967
|
fix #1638: baichuan-api未正确配置
|
2023-10-05 22:46:31 +08:00 |
glide-the
|
038f2eb1ec
|
修复代理为空的问题
(cherry picked from commit 84a4141dec)
|
2023-10-04 14:05:00 +08:00 |
glide-the
|
48338207bd
|
修复代理为空的问题
(cherry picked from commit a655608d01)
|
2023-10-04 14:05:00 +08:00 |
zR
|
fc6a3b07ed
|
Dev (#1652)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
* 解决了部分最新用户用依赖的bug,加了两个工具,移除google工具
|
2023-10-04 12:05:46 +08:00 |
liunux4odoo
|
332f8be401
|
fix: windows下bind_host设为0.0.0.0时,将fschat_xx_address指向127.0.0.1,避免请求错误 (#1651)
|
2023-10-03 23:40:05 +08:00 |
zR
|
77d38db00e
|
修改部分错误的文档,加长了历史记录(for 32k Models) (#1629)
* 更新上agent提示词代码
* 更新部分文档,修复了issue中提到的bge匹配超过1 的bug
* 按需修改
|
2023-09-29 20:17:29 +08:00 |
zR
|
d9056a8df6
|
python3.8用户需要加上__future__ (#1624)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
* 更新readme
* python3.8用户需要加这两行
|
2023-09-29 16:04:44 +08:00 |
hzg0601
|
00745c99e2
|
update baichuan.py
|
2023-09-29 13:19:17 +08:00 |
hzg0601
|
0e20552083
|
1. 增加baichuan-api支持;2.增加批量复制configs下.example文件为.py文件的脚本copy_config_example.py;3. 更新model_config.py.example
|
2023-09-29 13:16:14 +08:00 |
zR
|
efd8edda16
|
Dev (#1618)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
|
2023-09-28 20:19:26 +08:00 |
WilliamChen-luckbob
|
8fa99026c8
|
根据官方文档,添加对英文版的bge embedding的指示模板 (#1585)
Co-authored-by: zR <2448370773@qq.com>
|
2023-09-28 19:18:31 +08:00 |
liunux4odoo
|
b3c7f8b072
|
修复webui中重建知识库以及对话界面UI错误 (#1615)
* 修复bug:webui点重建知识库时,如果存在不支持的文件会导致整个接口错误;migrate中没有导入CHUNK_SIZE
* 修复:webui对话界面的expander一直为running状态;简化历史消息获取方法
|
2023-09-28 15:12:03 +08:00 |
liunux4odoo
|
8d0f8a5d67
|
fix: langchain warnings for import from root
|
2023-09-27 21:55:02 +08:00 |
zR
|
d39878ff35
|
Dev (#1613)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
|
2023-09-27 21:17:50 +08:00 |
zR
|
5702554171
|
增加了仅限GPT4的agent功能,陆续补充,中文版readme已写 (#1611)
|
2023-09-27 19:19:25 +08:00 |
imClumsyPanda
|
f3042a6a29
|
merge master
|
2023-09-22 12:36:45 +08:00 |
liunux4odoo
|
e4a927c5d1
|
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。 (#1554)
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。
将本项目相关服务加入无代理列表,避免fastchat的服务器请求错误。(windows下无效)
|
2023-09-21 15:19:51 +08:00 |
peterz3g
|
3ff130ecc2
|
修复csv文件解析编码报错的问题。 (#1508)
|
2023-09-21 14:41:49 +08:00 |
liunux4odoo
|
818cb1a491
|
update kb_doc_api: use Form instead of Body when upload file
|
2023-09-21 09:57:36 +08:00 |
liunux4odoo
|
92359fb6b9
|
remove depends on volcengine
|
2023-09-20 23:02:43 +08:00 |
glide-the
|
bd0164ea62
|
处理序列化至磁盘的逻辑
|
2023-09-20 21:35:23 +08:00 |
Leego
|
9bcce0a572
|
【功能新增】在线 LLM 模型支持阿里云通义千问 (#1534)
* feat: add qwen-api
* 使Qwen API支持temperature参数;添加测试用例
* 将online-api的sdk列为可选依赖
---------
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-09-20 21:34:12 +08:00 |
Jim Zhang
|
cb2b560a5b
|
fix : Duplicate variable and function name (#1509)
Co-authored-by: Jim <zhangpengyi@taijihuabao.com>
|
2023-09-20 16:46:31 +08:00 |
lehug
|
b6c390777a
|
fix argument name in help text (#1532)
|
2023-09-20 10:38:50 +08:00 |
liunux4odoo
|
46af5b7571
|
fix: llm_model_dict with `xxx/xxx` local_model_path was parsed as online-api (#1513)
|
2023-09-18 12:10:03 +08:00 |
Jim Zhang
|
59fb309ba4
|
fix : Duplicate variable and function name (#1509)
Co-authored-by: Jim <zhangpengyi@taijihuabao.com>
|
2023-09-18 11:00:04 +08:00 |
liunux4odoo
|
1bae930691
|
修复faiss_pool知识库缓存key错误 (#1507)
|
2023-09-17 16:31:44 +08:00 |
liunux4odoo
|
ec85cd1954
|
move wrap_done & get_ChatOpenAI from server.chat.utils to server.utils (#1506)
|
2023-09-17 16:19:50 +08:00 |
liunux4odoo
|
bb7ce601fc
|
1. 搜索引擎问答支持历史记录;
2. 修复知识库问答历史记录传参错误:用户输入被传入history,问题出在webui中重复获取历史消息,api知识库对话接口并无问题。
|
2023-09-17 13:58:57 +08:00 |
glide-the
|
902ba0c321
|
增加传入矢量名称加载
|
2023-09-17 13:56:18 +08:00 |
glide-the
|
175c90c362
|
增加其它模型的参数适配
|
2023-09-17 13:56:08 +08:00 |
liunux4odoo
|
a65bc4a63c
|
添加configs/prompt_config.py,允许用户自定义prompt模板: (#1504)
1、 默认包含2个模板,分别用于LLM对话,知识库和搜索引擎对话
2、 server/utils.py提供函数get_prompt_template,获取指定的prompt模板内容(支持热加载)
3、 api.py中chat/knowledge_base_chat/search_engine_chat接口支持prompt_name参数
|
2023-09-17 13:27:11 +08:00 |
zR
|
598eb298df
|
第一版初步agent实现 (#1503)
* 第一版初步agent实现
* 增加steaming参数
* 修改了weather.py
---------
Co-authored-by: zR <zRzRzRzRzRzRzR>
|
2023-09-17 11:19:16 +08:00 |
qiankunli
|
13cca9cf81
|
feat: support volc fangzhou (#1501)
* feat: support volc fangzhou
---------
Co-authored-by: liunux4odoo <41217877+liunux4odoo@users.noreply.github.com>
Co-authored-by: liqiankun.1111 <liqiankun.1111@bytedance.com>
|
2023-09-17 00:53:12 +08:00 |
liunux4odoo
|
9a7beef270
|
使火山方舟正常工作,添加错误处理和测试用例
|
2023-09-17 00:21:13 +08:00 |
liunux4odoo
|
745a105bae
|
feat: support volc fangzhou
|
2023-09-16 22:21:16 +08:00 |
liunux4odoo
|
3dde02be28
|
优化LLM模型列表获取、切换的逻辑: (#1497)
1、更准确的获取未运行的可用模型
2、优化WEBUI模型列表显示与切换的控制逻辑
|
2023-09-16 07:15:08 +08:00 |