diff --git a/README.md b/README.md
index 75507b8..b690ad0 100644
--- a/README.md
+++ b/README.md
@@ -229,7 +229,7 @@ embedding_model_dict = {
如需使用开源模型进行本地部署,需首先启动 LLM 服务,启动方式分为三种:
- [基于多进程脚本 llm_api.py 启动 LLM 服务](README.md#5.1.1-基于多进程脚本-llm_api.py-启动-LLM-服务)
-- [基于命令行脚本 llm_api_launch.py 启动 LLM 服务](README.md#5.1.2-基于命令行脚本-llm_api_launch.py-启动-LLM-服务)
+- [基于命令行脚本 llm_api_stale.py 启动 LLM 服务](README.md#5.1.2-基于命令行脚本-llm_api_stale.py-启动-LLM-服务)
- [PEFT 加载](README.md#5.1.3-PEFT-加载)
三种方式只需选择一个即可,具体操作方式详见 5.1.1 - 5.1.3。
@@ -258,36 +258,36 @@ max_gpu_memory="20GiB"
`max_gpu_memory` 控制每个卡使用的显存容量。
-##### 5.1.2 基于命令行脚本 llm_api_launch.py 启动 LLM 服务
+##### 5.1.2 基于命令行脚本 llm_api_stale.py 启动 LLM 服务
⚠️ **注意:**
-**1.llm_api_launch.py脚本原生仅适用于linux,mac设备需要安装对应的linux命令,win平台请使用wls;**
+**1.llm_api_stale.py脚本原生仅适用于linux,mac设备需要安装对应的linux命令,win平台请使用wls;**
**2.加载非默认模型需要用命令行参数--model-path-address指定模型,不会读取model_config.py配置;**
-在项目根目录下,执行 [server/llm_api_launch.py](server/llm_api.py) 脚本启动 **LLM 模型**服务:
+在项目根目录下,执行 [server/llm_api_stale.py](server/llm_api_stale.py) 脚本启动 **LLM 模型**服务:
```shell
-$ python server/llm_api_launch.py
+$ python server/llm_api_stale.py
```
该方式支持启动多个worker,示例启动方式:
```shell
-$ python server/llm_api_launch.py --model-path-address model1@host1@port1 model2@host2@port2
+$ python server/llm_api_stale.py --model-path-address model1@host1@port1 model2@host2@port2
```
如果出现server端口占用情况,需手动指定server端口,并同步修改model_config.py下对应模型的base_api_url为指定端口:
```shell
-$ python server/llm_api_launch.py --server-port 8887
+$ python server/llm_api_stale.py --server-port 8887
```
如果要启动多卡加载,示例命令如下:
```shell
-$ python server/llm_api_launch.py --gpus 0,1 --num-gpus 2 --max-gpu-memory 10GiB
+$ python server/llm_api_stale.py --gpus 0,1 --num-gpus 2 --max-gpu-memory 10GiB
```
注:以如上方式启动LLM服务会以nohup命令在后台运行 FastChat 服务,如需停止服务,可以运行如下命令:
@@ -441,6 +441,6 @@ $ python startup.py --all-webui --model-name Qwen-7B-Chat
## 项目交流群
-
+
🎉 langchain-ChatGLM 项目微信交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。
diff --git a/configs/__init__.py b/configs/__init__.py
index adec2c0..6e0ad13 100644
--- a/configs/__init__.py
+++ b/configs/__init__.py
@@ -1,4 +1,4 @@
from .model_config import *
from .server_config import *
-VERSION = "v0.2.1-preview"
+VERSION = "v0.2.1"
diff --git a/img/qr_code_54.jpg b/img/qr_code_54.jpg
new file mode 100644
index 0000000..1245a16
Binary files /dev/null and b/img/qr_code_54.jpg differ
diff --git a/server/llm_api_stale.py b/server/llm_api_stale.py
index 0f7710a..cb02e0d 100644
--- a/server/llm_api_stale.py
+++ b/server/llm_api_stale.py
@@ -1,5 +1,5 @@
"""
-调用示例: python llm_api_launch.py --model-path-address THUDM/chatglm2-6b@localhost@7650 THUDM/chatglm2-6b-32k@localhost@7651
+调用示例: python llm_api_stale.py --model-path-address THUDM/chatglm2-6b@localhost@7650 THUDM/chatglm2-6b-32k@localhost@7651
其他fastchat.server.controller/worker/openai_api_server参数可按照fastchat文档调用
但少数非关键参数如--worker-address,--allowed-origins,--allowed-methods,--allowed-headers不支持