diff --git a/README.md b/README.md index 7f8ca83..395a869 100644 --- a/README.md +++ b/README.md @@ -43,11 +43,9 @@ 🌐 [AutoDL 镜像](https://www.codewithgpu.com/i/imClumsyPanda/langchain-ChatGLM/langchain-ChatGLM) 中 v4 版本所使用代码已更新至本项目 `0.2.0` 版本。 +🐳 [Docker 镜像](registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0) - -🐳 [Docker 镜像](registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0) 🌲 - -💻 一行命令运行: +💻 一行命令运行 Docker: ```shell docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0 ``` @@ -137,19 +135,19 @@ docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/ch --- ## Docker 部署 -🐳 Docker 镜像地址: `registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0)` 🌲 + +🐳 Docker 镜像地址: `registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0)` + ```shell docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0 ``` -- 该版本镜像大小`33.9GB`,使用[v0.2.0](https://github.com/chatchat-space/Langchain-Chatchat/tree/dev),以`nvidia/cuda:12.1.1-cudnn8-devel-ubuntu22.04`为基础镜像 -- 该版本内置一个`embedding`模型:`m3e-large`,内置`fastchat+chatglm2-6b-32k` + +- 该版本镜像大小 `33.9GB`,使用 `v0.2.0`,以 `nvidia/cuda:12.1.1-cudnn8-devel-ubuntu22.04` 为基础镜像 +- 该版本内置一个 `embedding` 模型:`m3e-large`,内置 `fastchat+chatglm2-6b-32k` - 该版本目标为方便一键部署使用,请确保您已经在Linux发行版上安装了NVIDIA驱动程序 -- 请注意,您不需要在主机系统上安装CUDA工具包,但需要安装`NVIDIA Driver`以及`NVIDIA Container Toolkit`,请参考[安装指南](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) -- 首次拉取和启动均需要一定时间,首次启动时请参照下图使用`docker logs -f `查看日志 -- 如遇到启动过程卡在`Waiting..`步骤,建议使用`docker exec -it bash`进入`/logs/`目录查看对应阶段日志 - - -AutoDL 镜像制作中,将会在上传完成后增加。 +- 请注意,您不需要在主机系统上安装CUDA工具包,但需要安装 `NVIDIA Driver` 以及 `NVIDIA Container Toolkit`,请参考[安装指南](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) +- 首次拉取和启动均需要一定时间,首次启动时请参照下图使用 `docker logs -f ` 查看日志 +- 如遇到启动过程卡在 `Waiting..` 步骤,建议使用`docker exec -it bash` 进入 `/logs/` 目录查看对应阶段日志 ---