zR
|
6ed87954b2
|
修复科大讯飞token问题和Azure的token问题 (#1894)
Co-authored-by: zR <zRzRzRzRzRzRzR>
|
2023-10-27 13:51:59 +08:00 |
zR
|
dea468ab0f
|
Dev (#1892)
* 支持了agentlm
* 支持了agentlm和相关提示词
* 修改了Agent的一些功能,加入了Embed方面的一个优化
* 修改了部分Agent的工具
* 增加一些Langchain的自带工具
* 修复一些兼容性的bug
* 恢复知识库
* 恢复知识库
* 1
* 修复Azure问题
* 修复zilliz的问题
* 修复Agent历史记录问题,优化知识库问答搜索的uoji
* 修复讯飞大模型token问题
* 修复讯飞大模型token问题和配置文件
---------
Co-authored-by: zR <zRzRzRzRzRzRzR>
|
2023-10-27 13:14:48 +08:00 |
liunux4odoo
|
b4c68ddd05
|
优化在线 API ,支持 completion 和 embedding,简化在线 API 开发方式 (#1886)
* 优化在线 API ,支持 completion 和 embedding,简化在线 API 开发方式
新功能
- 智谱AI、Minimax、千帆、千问 4 个在线模型支持 embeddings(不通过Fastchat,后续会单独提供相关api接口)
- 在线模型自动检测传入参数,在传入非 messages 格式的 prompt 时,自动转换为 completion 形式,以支持 completion 接口
开发者:
- 重构ApiModelWorker:
- 所有在线 API 请求封装到 do_chat 方法:自动传入参数 ApiChatParams,简化参数与配置项的获取;自动处理与fastchat的接口
- 加强 API 请求错误处理,返回更有意义的信息
- 改用 qianfan sdk 重写 qianfan-api
- 将所有在线模型的测试用例统一在一起,简化测试用例编写
* Delete requirements_langflow.txt
|
2023-10-26 22:44:48 +08:00 |
liunux4odoo
|
03e55e11c4
|
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话 (#1860)
* move get_default_llm_model from webui to ApiRequest
增加API接口及其测试用例:
- /server/get_prompt_template: 获取服务器配置的 prompt 模板
- 增加知识库多线程访问测试用例
支持lite模式:无需安装torch等重依赖,通过在线API实现LLM对话和搜索引擎对话
* fix bug in server.api
---------
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
|
2023-10-25 08:30:23 +08:00 |
liunux4odoo
|
9a7beef270
|
使火山方舟正常工作,添加错误处理和测试用例
|
2023-09-17 00:21:13 +08:00 |
liunux4odoo
|
c4cb4e19e5
|
清理不必要的依赖,增加星火API需要的websockets (#1463)
|
2023-09-13 15:35:04 +08:00 |
liunux4odoo
|
99b862dfc8
|
fix SparkApi import error
|
2023-09-13 14:03:09 +08:00 |
liunux4odoo
|
512638a3b1
|
支持讯飞星火大模型在线API (#1460)
* 支持讯飞星火大模型在线API
|
2023-09-13 13:51:05 +08:00 |