OpenClaw:用 Ollama 一键部署本地 AI 助手的最简方式

2026年4月15日
"OpenClaw 是一个可在本地运行的个人 AI 助手,支持收发邮件、管理日历、接入 WhatsApp/Telegram 等常用 IM,本文介绍最简单的 Ollama 一键部署方式。"
Shiyuh
Shiyuh
技术传道者/AI 应用落地

什么是 OpenClaw

OpenClaw 是一个运行在本地硬件上的个人 AI 助手,能够帮你:

它与 Ollama 0.17 深度集成,整个部署过程被简化到了一条命令。


环境要求

依赖

版本 / 说明

Ollama

0.17 或更高

Node.js

npm 安装时需要

操作系统

Mac / Linux;Windows 用户请使用 WSL


三步完成部署

第一步:一条命令启动

Terminal window
ollama launch openclaw --model kimi-k2.5:cloud

第二步:自动检测与安装

Ollama 会自动检测缺失的组件并提示安装,配置过程全自动完成,无需手动干预。

第三步:在终端中直接使用

安装完成后,OpenClaw 会在终端中打开,即可开始交互。


核心功能

联网搜索

云端模型默认集成自动联网搜索插件,可获取最新信息,无需额外配置。

接入常用 IM

通过以下命令配置消息渠道:

Terminal window
openclaw configure --section channels

支持的平台:WhatsApp、Telegram、Slack、Discord、iMessage。


可用模型

云端模型(推荐新手入门)

模型

特点

kimi-k2.5:cloud

多模态推理

minimax-m2.5:cloud

快速、高效,适合日常生产力场景

glm-5:cloud

推理与代码生成

本地模型(需要足够的显存)

模型

显存需求

glm-4.7-flash

~25 GB VRAM

qwen3-coder

~25 GB VRAM


安全提示

“请确保在隔离环境中运行 OpenClaw,并充分了解授予其系统访问权限的相关风险。”

在接入邮件、日历等敏感系统前,建议先阅读 OpenClaw 官方安全文档,评估权限范围。


小结

OpenClaw + Ollama 的组合把”本地 AI 助手”的部署门槛降到了极低:一条 ollama launch 命令,自动处理依赖、自动配置,几分钟内即可在终端中使用一个能收邮件、能发消息的个人 AI 代理。

对于已经在用 Ollama 的用户,这是目前体验 AI Agent 接管日常通信任务的最简路径之一。

准备好开始您的 AI 之旅了吗?

读完这篇文章,想必您对 AI 技术有了更深的了解。现在就来体验共绩算力,让您的想法快速变成现实。

✓ 已有 10 万 + 开发者在使用

✓ 99.9% 服务可用性

✓ 开箱即用的容器托管