parent
d79676cad1
commit
42f6b2d1f6
17
README.md
17
README.md
|
|
@ -298,24 +298,13 @@ $ python server/llm_api_shutdown.py --serve all
|
||||||
|
|
||||||
亦可单独停止一个 FastChat 服务模块,可选 [`all`, `controller`, `model_worker`, `openai_api_server`]
|
亦可单独停止一个 FastChat 服务模块,可选 [`all`, `controller`, `model_worker`, `openai_api_server`]
|
||||||
|
|
||||||
##### 5.1.3 PEFT 加载
|
##### 5.1.3 PEFT 加载(包括lora,p-tuning,prefix tuning, prompt tuning,ia等)
|
||||||
|
|
||||||
本项目基于 FastChat 加载 LLM 服务,故需以 FastChat 加载 PEFT 路径,即保证路径名称里必须有 peft 这个词,配置文件的名字为 adapter_config.json,peft 路径下包含 model.bin 格式的 PEFT 权重。
|
本项目基于 FastChat 加载 LLM 服务,故需以 FastChat 加载 PEFT 路径,即保证路径名称里必须有 peft 这个词,配置文件的名字为 adapter_config.json,peft 路径下包含 model.bin 格式的 PEFT 权重。
|
||||||
|
详细步骤参考[加载lora微调后模型失效](https://github.com/chatchat-space/Langchain-Chatchat/issues/1130#issuecomment-1685291822)
|
||||||
|
|
||||||
示例代码如下:
|

|
||||||
|
|
||||||
```shell
|
|
||||||
PEFT_SHARE_BASE_WEIGHTS=true python3 -m fastchat.serve.multi_model_worker \
|
|
||||||
--model-path /data/chris/peft-llama-dummy-1 \
|
|
||||||
--model-names peft-dummy-1 \
|
|
||||||
--model-path /data/chris/peft-llama-dummy-2 \
|
|
||||||
--model-names peft-dummy-2 \
|
|
||||||
--model-path /data/chris/peft-llama-dummy-3 \
|
|
||||||
--model-names peft-dummy-3 \
|
|
||||||
--num-gpus 2
|
|
||||||
```
|
|
||||||
|
|
||||||
详见 [FastChat 相关 PR](https://github.com/lm-sys/fastchat/pull/1905#issuecomment-1627801216)
|
|
||||||
|
|
||||||
#### 5.2 启动 API 服务
|
#### 5.2 启动 API 服务
|
||||||
|
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue