diff --git a/README.md b/README.md index 75507b8..b690ad0 100644 --- a/README.md +++ b/README.md @@ -229,7 +229,7 @@ embedding_model_dict = { 如需使用开源模型进行本地部署,需首先启动 LLM 服务,启动方式分为三种: - [基于多进程脚本 llm_api.py 启动 LLM 服务](README.md#5.1.1-基于多进程脚本-llm_api.py-启动-LLM-服务) -- [基于命令行脚本 llm_api_launch.py 启动 LLM 服务](README.md#5.1.2-基于命令行脚本-llm_api_launch.py-启动-LLM-服务) +- [基于命令行脚本 llm_api_stale.py 启动 LLM 服务](README.md#5.1.2-基于命令行脚本-llm_api_stale.py-启动-LLM-服务) - [PEFT 加载](README.md#5.1.3-PEFT-加载) 三种方式只需选择一个即可,具体操作方式详见 5.1.1 - 5.1.3。 @@ -258,36 +258,36 @@ max_gpu_memory="20GiB" `max_gpu_memory` 控制每个卡使用的显存容量。 -##### 5.1.2 基于命令行脚本 llm_api_launch.py 启动 LLM 服务 +##### 5.1.2 基于命令行脚本 llm_api_stale.py 启动 LLM 服务 ⚠️ **注意:** -**1.llm_api_launch.py脚本原生仅适用于linux,mac设备需要安装对应的linux命令,win平台请使用wls;** +**1.llm_api_stale.py脚本原生仅适用于linux,mac设备需要安装对应的linux命令,win平台请使用wls;** **2.加载非默认模型需要用命令行参数--model-path-address指定模型,不会读取model_config.py配置;** -在项目根目录下,执行 [server/llm_api_launch.py](server/llm_api.py) 脚本启动 **LLM 模型**服务: +在项目根目录下,执行 [server/llm_api_stale.py](server/llm_api_stale.py) 脚本启动 **LLM 模型**服务: ```shell -$ python server/llm_api_launch.py +$ python server/llm_api_stale.py ``` 该方式支持启动多个worker,示例启动方式: ```shell -$ python server/llm_api_launch.py --model-path-address model1@host1@port1 model2@host2@port2 +$ python server/llm_api_stale.py --model-path-address model1@host1@port1 model2@host2@port2 ``` 如果出现server端口占用情况,需手动指定server端口,并同步修改model_config.py下对应模型的base_api_url为指定端口: ```shell -$ python server/llm_api_launch.py --server-port 8887 +$ python server/llm_api_stale.py --server-port 8887 ``` 如果要启动多卡加载,示例命令如下: ```shell -$ python server/llm_api_launch.py --gpus 0,1 --num-gpus 2 --max-gpu-memory 10GiB +$ python server/llm_api_stale.py --gpus 0,1 --num-gpus 2 --max-gpu-memory 10GiB ``` 注:以如上方式启动LLM服务会以nohup命令在后台运行 FastChat 服务,如需停止服务,可以运行如下命令: @@ -441,6 +441,6 @@ $ python startup.py --all-webui --model-name Qwen-7B-Chat ## 项目交流群 -二维码 +二维码 🎉 langchain-ChatGLM 项目微信交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。 diff --git a/configs/__init__.py b/configs/__init__.py index adec2c0..6e0ad13 100644 --- a/configs/__init__.py +++ b/configs/__init__.py @@ -1,4 +1,4 @@ from .model_config import * from .server_config import * -VERSION = "v0.2.1-preview" +VERSION = "v0.2.1" diff --git a/img/qr_code_54.jpg b/img/qr_code_54.jpg new file mode 100644 index 0000000..1245a16 Binary files /dev/null and b/img/qr_code_54.jpg differ diff --git a/server/llm_api_stale.py b/server/llm_api_stale.py index 0f7710a..cb02e0d 100644 --- a/server/llm_api_stale.py +++ b/server/llm_api_stale.py @@ -1,5 +1,5 @@ """ -调用示例: python llm_api_launch.py --model-path-address THUDM/chatglm2-6b@localhost@7650 THUDM/chatglm2-6b-32k@localhost@7651 +调用示例: python llm_api_stale.py --model-path-address THUDM/chatglm2-6b@localhost@7650 THUDM/chatglm2-6b-32k@localhost@7651 其他fastchat.server.controller/worker/openai_api_server参数可按照fastchat文档调用 但少数非关键参数如--worker-address,--allowed-origins,--allowed-methods,--allowed-headers不支持