zR
|
35a7ca74c0
|
Azure 的fschat支持,弃用Langchain-MODEL (#1873)
* 支持了agentlm
* 支持了agentlm和相关提示词
* 修改了Agent的一些功能,加入了Embed方面的一个优化
* 修改了部分Agent的工具
* 增加一些Langchain的自带工具
* 修复一些兼容性的bug
* 恢复知识库
* 恢复知识库
* 修复Azure问题
|
2023-10-25 21:32:40 +08:00 |
liunux4odoo
|
03e55e11c4
|
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话 (#1860)
* move get_default_llm_model from webui to ApiRequest
增加API接口及其测试用例:
- /server/get_prompt_template: 获取服务器配置的 prompt 模板
- 增加知识库多线程访问测试用例
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话
* fix bug in server.api
---------
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
|
2023-10-25 08:30:23 +08:00 |
liunux4odoo
|
e4a927c5d1
|
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。 (#1554)
将所有httpx请求改为使用Client,提高效率,方便以后设置代理等。
将本项目相关服务加入无代理列表,避免fastchat的服务器请求错误。(windows下无效)
|
2023-09-21 15:19:51 +08:00 |
liunux4odoo
|
9a7beef270
|
使火山方舟正常工作,添加错误处理和测试用例
|
2023-09-17 00:21:13 +08:00 |
liunux4odoo
|
3dde02be28
|
优化LLM模型列表获取、切换的逻辑: (#1497)
1、更准确的获取未运行的可用模型
2、优化WEBUI模型列表显示与切换的控制逻辑
|
2023-09-16 07:15:08 +08:00 |
liunux4odoo
|
f0f1dc2537
|
补充更多千帆平台支持的模型;除了指定模型名称,支持直接指定模型APIURL,便于填写单独申请的模型地址
|
2023-09-15 00:30:18 +08:00 |
liunux4odoo
|
4cf2e5ea5e
|
修复文心一言,添加测试用例
|
2023-09-14 23:37:34 +08:00 |