diff --git a/configs/model_config.py.example b/configs/model_config.py.example index 1908414..66ef4e8 100644 --- a/configs/model_config.py.example +++ b/configs/model_config.py.example @@ -19,6 +19,8 @@ EMBEDDING_MODEL_OUTPUT_PATH = "output" # 列表中第一个模型将作为 API 和 WEBUI 的默认模型。 # 在这里,我们使用目前主流的两个离线模型,其中,chatglm3-6b 为默认加载模型。 # 如果你的显存不足,可使用 Qwen-1_8B-Chat, 该模型 FP16 仅需 3.8G显存。 +# chatglm3-6b输出角色标签<|user|>及自问自答的问题是由于fschat=0.2.33并未正确适配chatglm3的对话模板 +# 如需修正该问题,需修改fschat的源码,详细步骤见项目wiki->常见问题->Q20. LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"] # "Qwen-1_8B-Chat", # AgentLM模型的名称 (可以不指定,指定之后就锁定进入Agent之后的Chain的模型,不指定就是LLM_MODELS[0])