Skip to content

容器化部署 Ollama+Qwen3+Open WebUI

本指南全面介绍了在共绩算力平台上部署 Ollama 与 Qwen3 大语言模型,通过 WebUI 访问的完整解决方案。该方案不仅提供了详实的部署流程,还提供了如何制作镜像的方案。

🐋

此镜像提供了标准化的 API 接口,同时提供了 WebUI 的方式与大模型进行交互。

点击这里【新增部署任务】,登录后根据页面提示进行部署。【选择 GPU 型号】—>在【服务配置】中选择【预制镜像】—>勾选【服务协议】—>点击【部署服务】—>部署完成,等待镜像拉取!

基于自身需要进行配置,参考配置为单卡 4090 和 1 个节点(初次使用进行调试)。

这里选择 Open Web UI + Qwen3 30B,同意协议,点击【部署服务】。

1.4 耐心等待节点拉取镜像并启动

Section titled “1.4 耐心等待节点拉取镜像并启动”

在部署完成页面,能看到两个访问链接,

  • 11434 对应的链接就是 Ollama 服务的 API 访问地址。将这个 API 地址【复制】下来,就可以在任何支持 Ollama 协议的应用程序中使用。
  • 8080 对应的链接就是 Open WebUI 的访问地址

请耐心一点~~ 模型镜像会比较大,qwen3:30b-a3b 镜像本身 20G+,打包之后大约 30G+, 拉取镜像会需要一段时间

通过修改 Docker 镜像的环境变量,您可以轻松切换不同的 AI 模型。

找到任务列表,选择刚刚创建的任务,点击跳转到详情页面

  1. 进入环境变量设置页面
  2. 找到输入框,输入以下格式的环境变量:

DEFAULT_MODEL=模型名称

例如,要切换到Qwen 3.0 32B模型,输入:
```text
DEFAULT_MODEL=qwen3:32b
  1. 点击【保存】按钮
  2. 点击【应用修改】按钮使新设置生效

重要提示:

  • 环境变量修改后必须点击【应用修改】按钮才能生效
  • 可用的模型名称请参考 Ollama官方模型库
  • 确保输入的模型名称格式正确,通常为 模型系列:参数规模 的形式

访问 8080 端口对应的链接,会出现以下界面,说明 Open WebUI 已经成功部署。点击【开始使用】

设置管理员账号和密码,点击【创建管理员账号】

创建管理员账号之后会自动登录,默认会选中镜像中的模型 qwen3:30b-a3b ,就是制作镜像时设置的镜像名称。

现在一起就绪,开始与 AI 的对话之旅吧~~~

qwen3 部署完成了,速度怎么样呢?点击 LM Speed 测试一下速度吧~~~

4、本地打包 Ollama 和 Open WebUI 镜像

Section titled “4、本地打包 Ollama 和 Open WebUI 镜像”

温馨提示,如果你只希望使用我们默认的镜像,那么下面的内容您无需关注。

Terminal window
git clone https://github.com/slmnb-lab/llm-deployment.git

开始之前需要在 suanli.cn 中创建一个镜像仓库,镜像仓库名称为 {yourusername},镜像标签为 30b-a3b。访问这里 初始化镜像仓库

harbor.suanleme.cn/{yourusername}/ollama-webui-qwen3:30b-a3bhttps://www.gongjiyun.com/ 中创建的镜像仓库地址,这个参数在部署服务的时候会用到,记得替换成你的镜像仓库地址。

services:
ollama-webui-qwen3:
image: harbor.suanleme.cn/{yourusername}/ollama-webui-qwen3:30b-a3b ## 这里是 www.gongjiyun.com 中创建的镜像仓库地址 harbor.suanleme.cn 是仓库地址 {yourusername} 是账号名称 ollama-webui-qwen3 是镜像名称 30b-a3b 是镜像标签
build: .
labels:
- suanleme_0.http.port=11434 # 这里是 ollama 运行的端口,不要修改
- suanleme_0.http.prefix=ollama-webui-qwen3 # 这里是发布到的 suanli.cn 的回传域名
restart: unless-stopped
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
ports:
- "11434:11434" # 这里是ollama运行的端口,不要修改
- "8080:8080" # 这里是open webui运行的端口,不需要修改

执行成功之后,会在本地生成镜像

Terminal window
cd llm-deployment/ollama-webui # 进入 ollama 目录
docker compose build # 打包镜像

将打包的镜像上传到共绩算力的镜像仓库

username 需要替换为自己的共绩算力【镜像仓库的【仓库账号】

输入密码需要输入初始化镜像仓库 时设置的密码

Terminal window
### harbor.suanleme.cn 是固定值,{yourusername}需要替换为自己的镜像仓库的用户名!
docker login harbor.suanleme.cn --username={yourusername}
## 输入密码 镜像仓库的密码!
*******

执行以下代码,进行镜像上传

Terminal window
## 为新生成的镜像打上标签
docker tag harbor.suanleme.cn/{yourusername}/ollama-webui-qwen3:30b-a3b harbor.suanleme.cn/{yourusername}/ollama-webui-qwen3:30b-a3b
## 上传镜像
docker push harbor.suanleme.cn/{yourusername}/ollama-webui-qwen3:30b-a3b

备注:镜像比较大,如果推送失败了,多试几次就好了。:-(