Langchain-Chatchat/docs/INSTALL.md

56 lines
2.4 KiB
Markdown
Raw Normal View History

2023-04-16 02:21:26 +08:00
# 安装
## 环境检查
```shell
# 首先,确信你的机器安装了 Python 3.8 及以上版本
$ python --version
Python 3.8.13
# 如果低于这个版本可使用conda安装环境
$ conda create -p /your_path/env_name python=3.8
# 激活环境
$ source activate /your_path/env_name
2023-05-19 11:04:28 +08:00
$ pip3 install --upgrade pip
2023-04-16 02:21:26 +08:00
# 关闭环境
$ source deactivate /your_path/env_name
# 删除环境
$ conda env remove -p /your_path/env_name
```
## 项目依赖
```shell
# 拉取仓库
$ git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git
2023-05-04 13:34:01 +08:00
# 进入目录
$ cd langchain-ChatGLM
2023-05-13 11:24:06 +08:00
# 项目中 pdf 加载由先前的 detectron2 替换为使用 paddleocr如果之前有安装过 detectron2 需要先完成卸载避免引发 tools 冲突
$ pip uninstall detectron2
# 检查paddleocr依赖linux环境下paddleocr依赖libX11libXext
$ yum install libX11
$ yum install libXext
2023-04-16 02:21:26 +08:00
# 安装依赖
$ pip install -r requirements.txt
# 验证paddleocr是否成功首次运行会下载约18M模型到~/.paddleocr
2023-05-13 11:24:06 +08:00
$ python loader/image_loader.py
2023-04-16 02:21:26 +08:00
```
2023-07-11 19:36:50 +08:00
2023-05-04 13:34:01 +08:00
注:使用 `langchain.document_loaders.UnstructuredFileLoader` 进行非结构化文件接入时,可能需要依据文档进行其他依赖包的安装,请参考 [langchain 文档](https://python.langchain.com/en/latest/modules/indexes/document_loaders/examples/unstructured_file.html)。
2023-07-11 19:36:50 +08:00
## llama-cpp模型调用的说明
1. 首先从huggingface hub中下载对应的模型如 [https://huggingface.co/vicuna/ggml-vicuna-13b-1.1/](https://huggingface.co/vicuna/ggml-vicuna-13b-1.1/) 的 [ggml-vic13b-q5_1.bin](https://huggingface.co/vicuna/ggml-vicuna-13b-1.1/blob/main/ggml-vic13b-q5_1.bin)建议使用huggingface_hub库的snapshot_download下载。
2023-07-11 19:36:50 +08:00
2. 将下载的模型重命名。通过huggingface_hub下载的模型会被重命名为随机序列因此需要重命名为原始文件名如[ggml-vic13b-q5_1.bin](https://huggingface.co/vicuna/ggml-vicuna-13b-1.1/blob/main/ggml-vic13b-q5_1.bin)。
3. 基于下载模型的ggml的加载时间推测对应的llama-cpp版本下载对应的llama-cpp-python库的wheel文件实测[ggml-vic13b-q5_1.bin](https://huggingface.co/vicuna/ggml-vicuna-13b-1.1/blob/main/ggml-vic13b-q5_1.bin)与llama-cpp-python库兼容,然后手动安装wheel文件。
4. 将下载的模型信息写入configs/model_config.py文件里 `llm_model_dict`中,注意保证参数的兼容性,一些参数组合可能会报错.