liunux4odoo
|
9c525b7fa5
|
publish 0.2.10 (#2797)
新功能:
- 优化 PDF 文件的 OCR,过滤无意义的小图片 by @liunux4odoo #2525
- 支持 Gemini 在线模型 by @yhfgyyf #2630
- 支持 GLM4 在线模型 by @zRzRzRzRzRzRzR
- elasticsearch更新https连接 by @xldistance #2390
- 增强对PPT、DOC知识库文件的OCR识别 by @596192804 #2013
- 更新 Agent 对话功能 by @zRzRzRzRzRzRzR
- 每次创建对象时从连接池获取连接,避免每次执行方法时都新建连接 by @Lijia0 #2480
- 实现 ChatOpenAI 判断token有没有超过模型的context上下文长度 by @glide-the
- 更新运行数据库报错和项目里程碑 by @zRzRzRzRzRzRzR #2659
- 更新配置文件/文档/依赖 by @imClumsyPanda @zRzRzRzRzRzRzR
- 添加日文版 readme by @eltociear #2787
修复:
- langchain 更新后,PGVector 向量库连接错误 by @HALIndex #2591
- Minimax's model worker 错误 by @xyhshen
- ES库无法向量检索.添加mappings创建向量索引 by MSZheng20 #2688
|
2024-01-26 06:58:49 +08:00 |
zR
|
0cc1be224d
|
依赖升级 (#2246)
大量依赖升级到最新版
测试环境:Ubuntu 22.04 LTS kernel 6.6.3 Python 3.10.12,Cuda12.3 update1
|
2023-12-01 11:34:41 +08:00 |
imClumsyPanda
|
f2d917d1e4
|
update config templates
|
2023-11-30 23:26:15 +08:00 |
hzg0601
|
08530edb3d
|
add some comment
|
2023-11-25 19:56:36 +08:00 |
zR
|
1b0cf67a57
|
支持软连接的知识库 (#2167)
* GLM3支持传入提示词
支持传入提示词的Agent ChatGLM3-6B
* 软连接处理
1. 有效的软连接处理,参考了 #2125
2. 更新了依赖,现在fschat原生支持GLM3的全功能
* 更新了支持的模型列表和依赖
1. 推荐用户使用GLM3-6B取代2代GLM模型
2. 推荐用户使用性能更强的bge模型
3 推荐使用vllm和torch的最新稳定版本
|
2023-11-24 22:47:55 +08:00 |
Eden
|
dfcebf7bc3
|
支持昆仑万维天工大模型 (#2166)
---------
Co-authored-by: Eden <chuangqi.huang@ubtrobot.com>
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-11-24 22:25:35 +08:00 |
liunux4odoo
|
b51ba11f45
|
支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002)
新功能:
- 将 LLM_MODEL 配置项改为 LLM_MODELS 列表,同时启动多个模型
- 将 wiki 纳入 samples 知识库
依赖变化:
- 指定 streamlit~=1.27.0。1.26.0会报rerun错误,1.28.0会有无限刷新错误
修复优化:
- 优化 get_default_llm_model 逻辑
- 适配 Qwen 在线 API 做 Embeddings 时最大 25 行的限制
- 列出知识库磁盘文件时跳过 . 开头的文件
|
2023-11-09 22:15:52 +08:00 |
zR
|
e74fe2d950
|
Zilliz修复 (#1874)
* 修复zilliz的问题
|
2023-10-25 21:59:26 +08:00 |
hzg0601
|
a81bd827dd
|
根据系统指定binding_host
|
2023-10-20 19:32:06 +08:00 |
liunux4odoo
|
9ce328fea9
|
实现Api和WEBUI的前后端分离 (#1772)
* update ApiRequest: 删除no_remote_api本地调用模式;支持同步/异步调用
* 实现API和WEBUI的分离:
- API运行服务器上的配置通过/llm_model/get_model_config、/server/configs接口提供,WEBUI运行机器上的配置项仅作为代码内部默认值使用
- 服务器可用的搜索引擎通过/server/list_search_engines提供
- WEBUI可选LLM列表中只列出在FSCHAT_MODEL_WORKERS中配置的模型
- 修改WEBUI中默认LLM_MODEL获取方式,改为从api端读取
- 删除knowledge_base_chat中`local_doc_url`参数
其它修改:
- 删除多余的kb_config.py.exmaple(名称错误)
- server_config中默认关闭vllm
- server_config中默认注释除智谱AI之外的在线模型
- 修改requests从系统获取的代理,避免model worker注册错误
* 修正:
- api.list_config_models返回模型原始配置
- api.list_config_models和api.get_model_config中过滤online api模型的敏感信息
- 将GPT等直接访问的模型列入WEBUI可选模型列表
其它:
- 指定langchain==0.3.313, fschat==0.2.30, langchain-experimental==0.0.30
|
2023-10-17 16:52:07 +08:00 |
liunux4odoo
|
387b4cb967
|
fix #1638: baichuan-api未正确配置
|
2023-10-05 22:46:31 +08:00 |
zR
|
efd8edda16
|
Dev (#1618)
* 增加了仅限GPT4的agent功能,陆续补充,中文版readme已写
* issue提到的一个bug
* 温度最小改成0,但是不应该支持负数
* 修改了最小的温度
* 增加了部分Agent支持和修改了启动文件的部分bug
* 修改了GPU数量配置文件
* 1
1
* 修复配置文件错误
* 更新readme,稳定测试
|
2023-09-28 20:19:26 +08:00 |
liunux4odoo
|
523764e284
|
fix: set vllm based on platform to avoid error on windows
|
2023-09-27 21:43:54 +08:00 |
hzg0601
|
2716ff739d
|
1. 更新congif中关于vllm后端相关说明;2. 更新requirements,requirements_api;
|
2023-09-26 21:55:57 +08:00 |
hzg0601
|
2d823aa4b1
|
1. debug vllm加速框架完毕;2. 修改requirements,requirements_api对vllm的依赖;3.注释掉serve_config中baichuan-7b的device为cpu的配置
|
2023-09-24 02:05:40 +08:00 |
hzg0601
|
810145c5fb
|
新增特性:1.支持vllm推理加速框架;2. 更新支持模型列表
|
2023-09-23 01:37:37 +08:00 |
Leego
|
9bcce0a572
|
【功能新增】在线 LLM 模型支持阿里云通义千问 (#1534)
* feat: add qwen-api
* 使Qwen API支持temperature参数;添加测试用例
* 将online-api的sdk列为可选依赖
---------
Co-authored-by: liunux4odoo <liunux@qq.com>
|
2023-09-20 21:34:12 +08:00 |
liunux4odoo
|
a65bc4a63c
|
添加configs/prompt_config.py,允许用户自定义prompt模板: (#1504)
1、 默认包含2个模板,分别用于LLM对话,知识库和搜索引擎对话
2、 server/utils.py提供函数get_prompt_template,获取指定的prompt模板内容(支持热加载)
3、 api.py中chat/knowledge_base_chat/search_engine_chat接口支持prompt_name参数
|
2023-09-17 13:27:11 +08:00 |
liunux4odoo
|
f7c73b842a
|
优化configs (#1474)
* remove llm_model_dict
* optimize configs
* fix get_model_path
* 更改一些默认参数,添加千帆的默认配置
* Update server_config.py.example
|
2023-09-15 17:52:22 +08:00 |
liunux4odoo
|
30aeec1c45
|
修改智谱API默认名称,给WEBUI设置主题 (#1484)
* 給WEBUI设置主题
* chatglm-api更名为zhipu-api
|
2023-09-15 01:48:02 +08:00 |
liunux4odoo
|
4cf2e5ea5e
|
修复文心一言,添加测试用例
|
2023-09-14 23:37:34 +08:00 |
zR
|
bfdbe69fa1
|
增加了自定义分词器适配 (#1462)
* 添加了自定义分词器适配和测试文件
---------
Co-authored-by: zR <zRzRzRzRzRzRzR>
|
2023-09-13 15:42:12 +08:00 |
liunux4odoo
|
512638a3b1
|
支持讯飞星火大模型在线API (#1460)
* 支持讯飞星火大模型在线API
|
2023-09-13 13:51:05 +08:00 |
liunux4odoo
|
a03b8d330d
|
升级到langchain==0.0.287,fschat==0.0.28;处理langchain.Milvus bug(#10492) (#1454)
* 修复milvus_kb_service中一些bug,添加文档后将数据同步到数据库
* 升级到langchain==0.0.287,fschat==0.0.28;处理langchain.Milvus bug(#10492)
* 修复切换模型BUG: 从在线API切换模型时出错
|
2023-09-13 08:43:11 +08:00 |
liunux4odoo
|
03c021d50f
|
添加MiniMax在线API支持 (#1445)
|
2023-09-12 15:24:47 +08:00 |
liunux4odoo
|
6cb1bdf623
|
添加切换模型功能,支持智谱AI在线模型 (#1342)
* 添加LLM模型切换功能,需要在server_config中设置可切换的模型
* add tests for api.py/llm_model/*
* - 支持模型切换
- 支持智普AI线上模型
- startup.py增加参数`--api-worker`,自动运行所有的线上API模型。使用`-a
(--all-webui), --all-api`时默认开启该选项
* 修复被fastchat覆盖的标准输出
* 对fastchat日志进行更细致的控制,startup.py中增加-q(--quiet)开关,可以减少无用的fastchat日志输出
* 修正chatglm api的对话模板
Co-authored-by: liunux4odoo <liunu@qq.com>
|
2023-09-01 23:58:09 +08:00 |
liunux4odoo
|
34a416b941
|
优化server_config配置项 (#1293)
* update server_config.py:
- 在model_config中增加HISTORY_LEN配置参数
- 将server_config中helper function移动到server.utils中
- 统一set_httpx_timeout的定义和调用
* update webui.py:
应用model_config中的配置项:HISTORY_LEN,VECTOR_SEARCH_TOP_K,SEARCH_ENGINE_TOP_K
---------
Co-authored-by: liunux4odoo <liunu@qq.com>
|
2023-08-29 10:06:09 +08:00 |
hzg0601
|
cc0bd4efd9
|
update server_config.py.example: 增加多卡启动的说明
|
2023-08-25 11:27:39 +08:00 |
liunux4odoo
|
f8229fc4a9
|
update server_config example
|
2023-08-17 21:50:36 +08:00 |
imClumsyPanda
|
4318197ac7
|
reformat server_config.py.example
|
2023-08-17 21:30:40 +08:00 |
liunux4odoo
|
f92b002342
|
add startup.py: start specified servers with one command. see python startup.py --help
|
2023-08-17 13:24:53 +08:00 |