OpenWebUi-模型连接与管理

3.2. 模型连接与管理

模型连接是 Open WebUI 最核心的配置。没有模型,Open WebUI 就无法工作。

连接本地 Ollama

如果你在本地运行了 Ollama,需要在 Open WebUI 中配置连接。

步骤 1:进入连接设置

管理员面板 → 设置 → 外部连接(Connections)

image-20260211090849150

步骤 2:配置 Ollama API URL

在 “Ollama API URL” 字段中填入:

部署方式URL
Docker 部署(Ollama 在主机)http://host.docker.internal:11434
Docker Compose(Ollama 在容器)http://ollama:11434
Python 安装(Ollama 在主机)http://localhost:11434

步骤 3:验证连接

点击 URL 输入框右侧的刷新按钮(🔄)。

如果连接成功,下方会显示 “连接成功” 的提示,并且会自动拉取 Ollama 中的模型列表。

步骤 4:配置多个 Ollama 实例(可选)

如果你有多台服务器运行 Ollama,可以添加多个连接。Open WebUI 会自动进行负载均衡。

点击 “添加 Ollama 实例” 按钮,填入新的 URL,例如:

http://192.168.1.100:11434
http://192.168.1.101:11434

这样,当用户发起请求时,Open WebUI 会自动选择负载较低的实例。

连接 OpenAI API

如果你想使用 OpenAI 的 GPT 模型,需要配置 OpenAI API。

步骤 1:获取 API 密钥

访问 OpenAI 官网:https://platform.openai.com/api-keys

登录后,点击 “Create new secret key” 创建一个新的 API 密钥。

重要:API 密钥只会显示一次,请妥善保存。

步骤 2:在 Open WebUI 中配置

管理员面板 → 设置 → 外部连接 → OpenAI

字段说明
API Base URLhttps://api.openai.com/v1OpenAI 官方 API 地址
API Keysk-...你的 API 密钥

步骤 3:验证连接

点击刷新按钮,如果连接成功,会自动拉取可用的模型列表(如 gpt-4、gpt-3.5-turbo 等)。

步骤 4:配置代理(如果需要)

如果你的网络无法直接访问 OpenAI,可以配置代理:

在 Docker 部署中,添加环境变量:

1
2
3
environment:
- HTTP_PROXY=http://your-proxy:port
- HTTPS_PROXY=http://your-proxy:port

或者使用国内的 OpenAI API 中转服务(需要自行寻找可靠的服务商)。

连接其他兼容 API

Open WebUI 支持任何兼容 OpenAI API 格式的服务,包括:

服务商API Base URL 示例说明
Azure OpenAIhttps://your-resource.openai.azure.com/需要额外配置 API 版本
Anthropic Claudehttps://api.anthropic.com/v1需要 Claude API 密钥
Google Gemini通过兼容层需要使用 LiteLLM 等工具转换
DeepSeekhttps://api.deepseek.com/v1国内可直接访问
Groqhttps://api.groq.com/openai/v1速度极快的推理服务
本地 vLLMhttp://localhost:8000/v1自建推理服务

配置步骤

管理员面板 → 设置 → 外部连接 → OpenAI → 点击 “+” 添加新连接

填写:

  • 名称:给这个连接起个名字(如 “DeepSeek”)
  • API Base URL:服务商的 API 地址
  • API Key:对应的 API 密钥

Azure OpenAI 特殊配置

Azure OpenAI 需要额外配置 API 版本和部署名称。在 API Base URL 中包含这些信息:

1
https://your-resource.openai.azure.com/openai/deployments/your-deployment-name?api-version=2024-02-15-preview

模型可见性与权限控制

默认情况下,所有用户都能看到所有模型。但在团队使用场景中,你可能希望控制哪些用户能访问哪些模型。

image-20260211204338312

步骤 1:进入模型设置

管理员面板 → 设置 → 模型(Models)

步骤 2:编辑模型

找到你想要控制的模型,点击右侧的编辑按钮(✏️)。

步骤 3:设置可见性

在模型编辑页面,你会看到以下选项:

选项说明
公开(Public)所有用户都能看到和使用
私有(Private)只有管理员能看到
指定用户只有选中的用户能看到
指定权限组只有选中的权限组能看到

选择合适的可见性,然后点击保存。

实际应用场景

  • 将昂贵的 GPT-4 模型设为 “指定用户”,只给核心团队成员使用
  • 将实验性模型设为 “私有”,只有管理员测试
  • 将免费的本地模型设为 “公开”,所有人都能使用

模型白名单

如果你连接了多个 API,可能会拉取到很多模型。你可以使用白名单功能,只显示需要的模型。

步骤 1:进入设置

管理员面板 → 设置 → 模型(Models)

步骤 2:启用白名单

找到 “模型白名单” 选项,启用它。

步骤 3:添加模型

在白名单中添加你想要显示的模型 ID,每行一个:

1
2
3
4
gpt-4
gpt-3.5-turbo
qwen2.5:7b
deepseek-chat

保存后,只有白名单中的模型会显示给用户。

模型标签与排序

为了让用户更容易找到合适的模型,你可以给模型添加标签和自定义排序。

添加标签

在模型编辑页面,找到 “标签(Tags)” 字段,添加标签:

1
推荐, 快速, 免费

1
高级, 付费, GPT-4

用户在选择模型时,可以通过标签筛选。

自定义排序

在设置 → 模型页面,你可以拖动模型来调整顺序。排在前面的模型会优先显示给用户。

最佳实践

  • 将最常用的模型排在最前面
  • 将免费模型和付费模型用标签区分
  • 将不同能力的模型分类(如 “对话”、“编程”、“翻译”)

模型参数预设

你可以为每个模型设置默认参数,用户使用时会自动应用这些参数。

步骤 1:编辑模型

设置 → 模型 → 点击模型的编辑按钮

步骤 2:配置参数

在 “模型参数” 区域,设置以下参数:

参数说明推荐值
Temperature控制输出的随机性,0-20.7(平衡)
Top P核采样参数,0-10.9
Max Tokens最大输出长度2048
Context Length上下文窗口大小4096
Frequency Penalty降低重复内容,-2 到 20
Presence Penalty鼓励新话题,-2 到 20

参数说明

Temperature

  • 0.1-0.3:输出非常确定,适合事实性任务(如翻译、总结)
  • 0.7-0.9:平衡创造性和准确性,适合日常对话
  • 1.0-2.0:输出更有创造性,适合创意写作

Top P

  • 0.9:推荐值,保持输出质量
  • 0.95:更多样化的输出
  • 1.0:完全随机(不推荐)

Context Length

  • 对于 Ollama 模型,默认是 2048,这太小了
  • 建议设置为 8192 或更高,特别是使用 RAG 功能时
  • 注意:更大的上下文会消耗更多内存