diff --git a/README.md b/README.md
index 6e855e8..8bcedb2 100644
--- a/README.md
+++ b/README.md
@@ -198,6 +198,7 @@ Web UI 可以实现如下功能:
- [ ] 知识图谱/图数据库接入
- [ ] Agent 实现
- [x] 增加更多 LLM 模型支持
+ - [x] [THUDM/chatglm2-6b](https://huggingface.co/THUDM/chatglm2-6b)
- [x] [THUDM/chatglm-6b](https://huggingface.co/THUDM/chatglm-6b)
- [x] [THUDM/chatglm-6b-int8](https://huggingface.co/THUDM/chatglm-6b-int8)
- [x] [THUDM/chatglm-6b-int4](https://huggingface.co/THUDM/chatglm-6b-int4)
@@ -229,7 +230,7 @@ Web UI 可以实现如下功能:
- [x] VUE 前端
## 项目交流群
-
+
🎉 langchain-ChatGLM 项目微信交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。
diff --git a/img/qr_code_35.jpg b/img/qr_code_35.jpg
deleted file mode 100644
index 93f280b..0000000
Binary files a/img/qr_code_35.jpg and /dev/null differ
diff --git a/img/qr_code_36.jpg b/img/qr_code_36.jpg
new file mode 100644
index 0000000..9a39b61
Binary files /dev/null and b/img/qr_code_36.jpg differ
diff --git a/models/chatglm_llm.py b/models/chatglm_llm.py
index 7da423d..4d3fd78 100644
--- a/models/chatglm_llm.py
+++ b/models/chatglm_llm.py
@@ -65,6 +65,7 @@ class ChatGLM(BaseAnswer, LLM, ABC):
answer_result.history = history
answer_result.llm_output = {"answer": stream_resp}
yield answer_result
+ self.checkPoint.clear_torch_cache()
else:
response, _ = self.checkPoint.model.chat(
self.checkPoint.tokenizer,