给出chatglm3-6b输出角色标签<|user|>等及自问自答的解决方案

This commit is contained in:
hzg0601 2023-12-11 11:22:39 +08:00
parent db1c1e2ee4
commit 95c09981a6
1 changed files with 2 additions and 0 deletions

View File

@ -19,6 +19,8 @@ EMBEDDING_MODEL_OUTPUT_PATH = "output"
# 列表中第一个模型将作为 API 和 WEBUI 的默认模型。 # 列表中第一个模型将作为 API 和 WEBUI 的默认模型。
# 在这里我们使用目前主流的两个离线模型其中chatglm3-6b 为默认加载模型。 # 在这里我们使用目前主流的两个离线模型其中chatglm3-6b 为默认加载模型。
# 如果你的显存不足,可使用 Qwen-1_8B-Chat, 该模型 FP16 仅需 3.8G显存。 # 如果你的显存不足,可使用 Qwen-1_8B-Chat, 该模型 FP16 仅需 3.8G显存。
# chatglm3-6b输出角色标签<|user|>及自问自答的问题是由于fschat=0.2.33并未正确适配chatglm3的对话模板
# 如需修正该问题需修改fschat的源码详细步骤见项目wiki->常见问题->Q20.
LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"] # "Qwen-1_8B-Chat", LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"] # "Qwen-1_8B-Chat",
# AgentLM模型的名称 (可以不指定指定之后就锁定进入Agent之后的Chain的模型不指定就是LLM_MODELS[0]) # AgentLM模型的名称 (可以不指定指定之后就锁定进入Agent之后的Chain的模型不指定就是LLM_MODELS[0])