From 95c09981a6d936a1925cbe875e49718d21c68d3d Mon Sep 17 00:00:00 2001 From: hzg0601 Date: Mon, 11 Dec 2023 11:22:39 +0800 Subject: [PATCH] =?UTF-8?q?=E7=BB=99=E5=87=BAchatglm3-6b=E8=BE=93=E5=87=BA?= =?UTF-8?q?=E8=A7=92=E8=89=B2=E6=A0=87=E7=AD=BE<|user|>=E7=AD=89=E5=8F=8A?= =?UTF-8?q?=E8=87=AA=E9=97=AE=E8=87=AA=E7=AD=94=E7=9A=84=E8=A7=A3=E5=86=B3?= =?UTF-8?q?=E6=96=B9=E6=A1=88?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- configs/model_config.py.example | 2 ++ 1 file changed, 2 insertions(+) diff --git a/configs/model_config.py.example b/configs/model_config.py.example index 1908414..66ef4e8 100644 --- a/configs/model_config.py.example +++ b/configs/model_config.py.example @@ -19,6 +19,8 @@ EMBEDDING_MODEL_OUTPUT_PATH = "output" # 列表中第一个模型将作为 API 和 WEBUI 的默认模型。 # 在这里,我们使用目前主流的两个离线模型,其中,chatglm3-6b 为默认加载模型。 # 如果你的显存不足,可使用 Qwen-1_8B-Chat, 该模型 FP16 仅需 3.8G显存。 +# chatglm3-6b输出角色标签<|user|>及自问自答的问题是由于fschat=0.2.33并未正确适配chatglm3的对话模板 +# 如需修正该问题,需修改fschat的源码,详细步骤见项目wiki->常见问题->Q20. LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"] # "Qwen-1_8B-Chat", # AgentLM模型的名称 (可以不指定,指定之后就锁定进入Agent之后的Chain的模型,不指定就是LLM_MODELS[0])