?LibreChat:免费的开源 ChatGPT 克隆版
官网: https://www.librechat.ai/
功能亮点:
- 支持与 OpenAI、Azure、Anthropic 和 Google 等 AI 模型服务的集成
- 可以在对话过程中自由切换 AI 模型,还可以使用 DALL-E 或 Stable Diffusion 等插件进行图像生成
- 通过 OpenAI 助理 API 支持高级代理、代码解释器、工具和 API 操作
特色功能一览:
?️ 界面与 ChatGPT 一致,包括暗模式、流媒体和最新更新
? AI 模型选择:OpenAI、Azure OpenAI、BingAI、ChatGPT、Google Vertex AI、Anthropic (Claude)、插件、助理 API
✅ 兼容远程和本地 AI 服务:https://www.librechat.ai/docs/configuration/librechat_yaml/ai_endpoints
? 创建、保存和分享自定义预设
? 在对话过程中切换 AI 端点和预设
? 编辑、重新提交和继续消息,支持对话分支
? 分叉消息和对话以实现高级上下文控制
? 多模态聊天:上传并分析图像、与文件对话,支持 OpenAI、Azure、Anthropic 和 Google
? 多语言界面:支持多种语言,满足全球用户需求
? 自定义下拉菜单和界面,适应不同用户需求
?️ 免提聊天,支持语音输入和输出
? 导入 LibreChat、ChatGPT 和 Chatbot UI 的对话
? 导出对话为截图、Markdown、文本、JSON
? 搜索所有消息/对话
? 插件支持,包括网页访问和图像生成
? 多用户安全认证,提供管理和令牌支出工具
⚙️ 支持代理、反向代理、Docker 和多种部署选项
? 完全开源,社区驱动开发
⚙️ 自定义端点配置指南
LibreChat 使用配置文件支持 OpenAI API 兼容服务librechat.yaml。
步骤 1. 创建或编辑 Docker 覆盖文件
在项目根目录下创建一个名为 docker-compose.override.yml
的文件(如果它尚不存在)。
在文件中添加以下内容:
services:
api:
volumes:
- type: bind
source: ./librechat.yaml
target: /app/librechat.yaml
在此了解有关 Docker Compose Override 文件 的更多信息。
步骤 2. 配置librechat.yaml
在项目根目录创建一个名为 librechat.yaml
的文件(如果它尚不存在)。
添加您的自定义端点:您可以在 AI 端点 部分查看兼容的端点。
该列表并不详尽,通常每个与 OpenAI API 兼容的服务都应该可以运行。自定义端点有很多选项。在此处查看所有选项: 自定义端点对象结构 。
作为示例,以下是OpenRouter和Ollama的配置:
version: 1.1.4
cache: true
endpoints:
custom:
- name: "OpenRouter"
apiKey: "${OPENROUTER_KEY}"
baseURL: "https://openrouter.ai/api/v1"
models:
default: ["gpt-3.5-turbo"]
fetch: true
titleConvo: true
titleModel: "current_model"
summarize: false
summaryModel: "current_model"
forcePrompt: false
modelDisplayLabel: "OpenRouter"
- name: "Ollama"
apiKey: "ollama"
baseURL: "http://host.docker.internal:11434/v1/"
models:
default: [
"llama3:latest",
"command-r",
"mixtral",
"phi3"
]
fetch: true # fetching list of models is not supported
titleConvo: true
titleModel: "current_model"
步骤 3. 配置.env文件
在项目根目录编辑现有的 .env
文件。如果不存在,则复制 .env.example
并重命名为 .env
。根据上述配置, OPENROUTER_KEY
需要设置环境变量:
OPENROUTER_KEY=your_openrouter_api_key
注意:
举例来说,本指南假设您已经独立设置了 Ollama,并且可以通过以下方式访问:http://host.docker.internal:11434
host.docker.internal 是一个特殊的 DNS 名称,可解析为主机使用的内部 IP 地址。您可能需要将其更改为 Ollama 实例的实际 IP 地址。
在未来的指南中,我们将介绍如何设置 Ollama 以及 LibreChat。
步骤 4. 运行应用程序
现在您的文件已配置完毕,您可以运行该应用程序:
docker compose up
或者,如果您之前正在运行该应用程序,则可以用以下命令重新启动该应用程序:
docker compose restart
注意: 执行命令之前请确保你的 Docker Desktop 或 Docker Engine 正在运行。