liunux4odoo
|
03e55e11c4
|
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话 (#1860)
* move get_default_llm_model from webui to ApiRequest
增加API接口及其测试用例:
- /server/get_prompt_template: 获取服务器配置的 prompt 模板
- 增加知识库多线程访问测试用例
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话
* fix bug in server.api
---------
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
|
2023-10-25 08:30:23 +08:00 |
liunux4odoo
|
e4a927c5d1
|
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。 (#1554)
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。
将本项目相关服务加入无代理列表,避免fastchat的服务器请求错误。(windows下无效)
|
2023-09-21 15:19:51 +08:00 |
liunux4odoo
|
9a7beef270
|
使火山方舟正常工作,添加错误处理和测试用例
|
2023-09-17 00:21:13 +08:00 |
liunux4odoo
|
3dde02be28
|
优化LLM模型列表获取、切换的逻辑: (#1497)
1、更准确的获取未运行的可用模型
2、优化WEBUI模型列表显示与切换的控制逻辑
|
2023-09-16 07:15:08 +08:00 |
liunux4odoo
|
f0f1dc2537
|
补充更多千帆平台支持的模型;除了指定模型名称,支持直接指定模型APIURL,便于填写单独申请的模型地址
|
2023-09-15 00:30:18 +08:00 |
liunux4odoo
|
4cf2e5ea5e
|
修复文心一言,添加测试用例
|
2023-09-14 23:37:34 +08:00 |