import { Callout, Steps, Tabs } from 'nextra/components'; # 在 LobeChat 中使用 Ollama {'在 Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。现在,LobeChat 已经支持与 Ollama 的集成,这意味着你可以在 LobeChat 中轻松使用 Ollama 提供的语言模型来增强你的应用。 本文档将指导你如何在 LobeChat 中使用 Ollama: ### 本地安装 Ollama 首先,你需要安装 Ollama,Ollama 支持 macOS、Windows 和 Linux 系统。 根据你的操作系统,选择以下安装方式之一: [下载 Ollama for macOS](https://ollama.com/download) 并解压。 通过以下命令安装: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 或者,你也可以参考 [Linux 手动安装指南](https://github.com/ollama/ollama/blob/main/docs/linux.md)。 [下载 Ollama for Windows](https://ollama.com/download) 并安装。 如果你更倾向于使用 Docker,Ollama 也提供了官方 Docker 镜像,你可以通过以下命令拉取: ```bash docker pull ollama/ollama ``` ### 用 Ollama 拉取模型到本地 在安装完成 Ollama 后,你可以通过以下命安装模型,以 llama2 为例: ```bash ollama pull llama2 ``` Ollama 支持多种模型,你可以在 [Ollama Library](https://ollama.com/library) 中查看可用的模型列表,并根据需求选择合适的模型。 接下来,你就可以使用 LobeChat 与本地 LLM 对话了。