一条命令安装 Open WebUI

Open WebUI 是一个功能丰富的自托管 AI 对话界面,在 GitHub 上拥有超过 128K+ 星标,是目前最受欢迎的开源 ChatGPT 替代方案。它提供了一个类似 ChatGPT 的现代化 Web 界面,可以连接 Ollama 本地模型、OpenAI API、以及其他兼容 OpenAI 格式的 LLM 服务。用户可以在自己的设备上运行大语言模型,既保护了数据隐私,又不需要支付 API 调用费用。

Open WebUI 支持多用户管理、对话历史保存、文件上传与分析、RAG 知识库、模型参数调节、Markdown 渲染、代码高亮等功能,使用体验媲美甚至超越商业产品。对于希望在本地或私有环境中部署 AI 对话能力的个人和团队来说,Open WebUI 是首选解决方案。它与 Ollama 的深度集成意味着你可以轻松运行 Llama 3、Mistral、Gemma、Qwen 等热门开源模型。

为什么 Open WebUI 安装这么难?

虽然 Open WebUI 本身是一个 Web 应用,但它的完整安装链路涉及多个独立组件的协同工作,这正是大部分用户卡住的地方:

  • Ollama 安装与集成 — Open WebUI 的核心价值在于连接本地模型,这需要先安装 Ollama。但 Ollama 的安装在不同操作系统上有完全不同的方式(macOS 用 .app,Linux 用 curl 脚本,Windows 用安装包),安装后还需要确保 Ollama 服务正在运行,并且 Open WebUI 能通过正确的 API 地址访问到它。
  • 模型拉取耗时 — 安装 Ollama 后,用户还需要拉取至少一个模型才能开始使用。即使是较小的模型(如 Llama 3 8B)也有几 GB 大小,Qwen 72B 等大模型超过 40 GB。国内用户经常遇到下载中断、速度极慢的问题,而且不清楚自己的硬件能运行哪些模型。
  • GPU 直通配置 — 要让 Ollama 利用 GPU 加速推理,Linux 用户需要安装 NVIDIA Container Toolkit 并配置 Docker GPU 直通;Windows 用户需要确保 WSL2 中能正确访问 GPU。配置错误会导致模型只能在 CPU 上运行,推理速度下降 10 倍以上。
  • Docker 网络与服务启动顺序 — Open WebUI 运行在 Docker 容器中,需要能访问宿主机上运行的 Ollama 服务。Docker 网络隔离和不同的 Ollama 监听地址(127.0.0.1 vs 0.0.0.0)经常导致 "connection refused" 错误。服务启动顺序不对也会导致 Open WebUI 启动时找不到 Ollama。
  • 反向代理与 HTTPS 配置 — 如果要在局域网或公网访问 Open WebUI,需要配置 nginx 反向代理和 SSL 证书。WebSocket 的代理配置容易出错,导致对话流式输出(streaming)不工作。

AIMA 如何解决这些问题

AIMA 把 Open WebUI 从"安装 Ollama + 拉取模型 + 安装 Docker + 配置网络 + 启动 WebUI"的多步操作,简化为一条命令的全自动流程。

  • Ollama 自动安装与启动 — 检测 Ollama 是否已安装,未安装则自动使用适合当前系统的方式安装,并确保 Ollama 服务正确启动和监听。
  • 智能模型推荐 — 根据你的硬件配置(GPU 显存、系统内存)推荐合适的模型尺寸,并自动拉取一个基础模型确保开箱即用。
  • 网络配置自动处理 — 自动处理 Docker 容器与 Ollama 之间的网络通信,配置正确的 API 地址和端口映射,解决容器网络隔离问题。
  • 端到端验证 — 安装完成后自动验证 Open WebUI 的 Web 界面可以访问、Ollama 连接正常、至少有一个模型可用,确保"装完就能用"。

通过 AIMA 安装 Open WebUI:分步指南

第 1 步:打开终端

在 macOS 上打开 Terminal.app 或 iTerm2;在 Linux 上打开你常用的终端模拟器;在 Windows 上以管理员权限打开 PowerShell。

第 2 步:运行安装命令

macOS 和 Linux 用户运行以下命令:

curl -sL https://aimaserver.com/install/open-webui | bash

Windows 用户在 PowerShell 中运行:

iex (irm https://aimaserver.com/install/open-webui)

第 3 步:输入邀请码

命令执行后,AIMA 客户端会启动并提示你输入邀请码。邀请码用于将你的设备与 AIMA 平台连接,激活 AI Agent 安装能力。

第 4 步:AIMA 自动完成安装

AIMA 会自动安装 Ollama(如果还没有),拉取一个适合你硬件的基础模型,安装 Docker(如果需要),拉取 Open WebUI 的容器镜像,配置好 Ollama 连接,并启动所有服务。

第 5 步:打开浏览器开始对话

安装完成后,AIMA 会提供 Open WebUI 的访问地址,通常是 http://localhost:3000http://localhost:8080。打开浏览器,创建管理员账号,即可开始与本地 AI 模型对话。

系统要求

项目 要求
操作系统macOS 12+、Ubuntu 22.04/24.04、Windows 10/11
内存 (RAM)最低 8 GB(运行 7B 模型),推荐 16 GB+(运行 13B+ 模型)
GPU(推荐)NVIDIA GPU 6 GB+ 显存;Apple Silicon(统一内存);或 CPU-only 模式
磁盘空间至少 15 GB(含 Docker 镜像 + 一个 7B 模型)
网络需要互联网连接以拉取容器镜像和模型

AIMA 自动处理的常见问题

  • Ollama 服务未运行 — 自动检测 Ollama 状态,未运行则自动启动并等待就绪。
  • Docker 容器无法连接 Ollama — 自动配置 OLLAMA_BASE_URL 环境变量和网络设置,确保容器内能访问宿主机的 Ollama API。
  • 端口 3000/8080 被占用 — 自动检测端口冲突并切换到可用端口。
  • GPU 直通未配置 — 在 Linux 上自动安装 NVIDIA Container Toolkit,在 Windows 上验证 WSL2 GPU 支持。
  • 没有可用模型 — 自动根据硬件配置拉取合适大小的基础模型,确保安装后立即可以开始对话。

常见问题

Open WebUI 可以连接 OpenAI API 吗?

可以。Open WebUI 同时支持 Ollama 本地模型和 OpenAI 兼容 API。你可以在 Open WebUI 的设置页面添加 OpenAI API Key,或者配置任何兼容 OpenAI 格式的第三方 API(如 Anthropic、DeepSeek、通义千问等)。AIMA 安装时默认配置 Ollama 连接,你可以随时在 Web 界面中添加更多模型提供商。

多人可以共用一个 Open WebUI 实例吗?

可以。Open WebUI 内置了多用户管理系统。第一个注册的用户自动成为管理员,可以管理其他用户的注册和权限。每个用户的对话历史、设置和上传的文件都是独立隔离的。

我的对话数据存储在哪里?

所有数据都存储在你的本地机器上。Open WebUI 使用 SQLite 数据库保存对话历史和用户设置,默认位于 Docker 卷中。Ollama 下载的模型文件存储在本地磁盘上。你的对话内容不会上传到任何外部服务器。

Open WebUI 支持哪些模型?

通过 Ollama,Open WebUI 支持数百种开源模型,包括 Llama 3、Mistral、Gemma、Qwen、DeepSeek、CodeLlama、Phi 等。你可以在 Ollama 官方模型库中浏览所有可用模型,并通过 Open WebUI 的界面直接拉取新模型。

如何让局域网内其他设备也能访问?

默认情况下 Open WebUI 监听在 localhost,只有本机可以访问。要让局域网设备访问,需要修改 Docker 的端口映射为 0.0.0.0,然后在其他设备的浏览器中输入运行 Open WebUI 的电脑的局域网 IP 地址加端口号即可。

准备好安装 Open WebUI 了吗?

一条命令,AIMA 帮你搞定 Ollama、模型下载和全部配置。