给出chatglm3-6b输出角色标签<|user|>等及自问自答的解决方案
This commit is contained in:
parent
db1c1e2ee4
commit
95c09981a6
|
|
@ -19,6 +19,8 @@ EMBEDDING_MODEL_OUTPUT_PATH = "output"
|
|||
# 列表中第一个模型将作为 API 和 WEBUI 的默认模型。
|
||||
# 在这里,我们使用目前主流的两个离线模型,其中,chatglm3-6b 为默认加载模型。
|
||||
# 如果你的显存不足,可使用 Qwen-1_8B-Chat, 该模型 FP16 仅需 3.8G显存。
|
||||
# chatglm3-6b输出角色标签<|user|>及自问自答的问题是由于fschat=0.2.33并未正确适配chatglm3的对话模板
|
||||
# 如需修正该问题,需修改fschat的源码,详细步骤见项目wiki->常见问题->Q20.
|
||||
LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"] # "Qwen-1_8B-Chat",
|
||||
|
||||
# AgentLM模型的名称 (可以不指定,指定之后就锁定进入Agent之后的Chain的模型,不指定就是LLM_MODELS[0])
|
||||
|
|
|
|||
Loading…
Reference in New Issue