diff --git a/README.md b/README.md index 6e855e8..8bcedb2 100644 --- a/README.md +++ b/README.md @@ -198,6 +198,7 @@ Web UI 可以实现如下功能: - [ ] 知识图谱/图数据库接入 - [ ] Agent 实现 - [x] 增加更多 LLM 模型支持 + - [x] [THUDM/chatglm2-6b](https://huggingface.co/THUDM/chatglm2-6b) - [x] [THUDM/chatglm-6b](https://huggingface.co/THUDM/chatglm-6b) - [x] [THUDM/chatglm-6b-int8](https://huggingface.co/THUDM/chatglm-6b-int8) - [x] [THUDM/chatglm-6b-int4](https://huggingface.co/THUDM/chatglm-6b-int4) @@ -229,7 +230,7 @@ Web UI 可以实现如下功能: - [x] VUE 前端 ## 项目交流群 -二维码 +二维码 🎉 langchain-ChatGLM 项目微信交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。 diff --git a/img/qr_code_35.jpg b/img/qr_code_35.jpg deleted file mode 100644 index 93f280b..0000000 Binary files a/img/qr_code_35.jpg and /dev/null differ diff --git a/img/qr_code_36.jpg b/img/qr_code_36.jpg new file mode 100644 index 0000000..9a39b61 Binary files /dev/null and b/img/qr_code_36.jpg differ diff --git a/models/chatglm_llm.py b/models/chatglm_llm.py index 7da423d..4d3fd78 100644 --- a/models/chatglm_llm.py +++ b/models/chatglm_llm.py @@ -65,6 +65,7 @@ class ChatGLM(BaseAnswer, LLM, ABC): answer_result.history = history answer_result.llm_output = {"answer": stream_resp} yield answer_result + self.checkPoint.clear_torch_cache() else: response, _ = self.checkPoint.model.chat( self.checkPoint.tokenizer,