- 更新langchain/fastchat依赖,添加xformers依赖 - 默认max_tokens=None, 生成tokens自动为模型支持的最大值 修复: - history_len=0 时会带入1条不完整的历史消息,导致LLM错误 - 当对话轮数 达到history_len时,传入的历史消息为空 |
||
|---|---|---|
| .. | ||
| dialogue | ||
| knowledge_base | ||
| model_config | ||
| __init__.py | ||
| utils.py | ||
- 更新langchain/fastchat依赖,添加xformers依赖 - 默认max_tokens=None, 生成tokens自动为模型支持的最大值 修复: - history_len=0 时会带入1条不完整的历史消息,导致LLM错误 - 当对话轮数 达到history_len时,传入的历史消息为空 |
||
|---|---|---|
| .. | ||
| dialogue | ||
| knowledge_base | ||
| model_config | ||
| __init__.py | ||
| utils.py | ||