树莓派也能跑!ClawdBot轻量级部署教程
你有没有想过,一台几百块钱的树莓派,也能跑起一个功能完整的个人AI助手?不是玩具项目,不是Demo演示,而是真正能对话、能推理、能调用工具、还能在本地离线运行的智能体——ClawdBot 就是这样一个存在。
它不依赖云端API,不用申请密钥,不上传隐私数据;它用 vLLM 做推理后端,支持 Qwen3-4B 这类兼顾性能与能力的轻量大模型;它自带 Web 控制台,点点鼠标就能改配置、换模型、看日志;最关键的是,它在树莓派 4(4GB内存)上实测稳定运行,15人并发聊天毫无压力。
这不是概念验证,而是已经落地的轻量级AI助手方案。本文将带你从零开始,在树莓派(或任意Linux设备)上完成 ClawdBot 的完整部署:从环境准备、服务启动、设备授权,到模型切换和界面使用——全程无需编译、不碰Dockerfile、不改源码,一条命令接一条命令,手把手带你跑通。
1. 部署前必读:这到底是个什么工具?
1.1 它不是另一个ChatUI,而是一个可扩展的AI代理平台
ClawdBot 的定位很清晰:本地优先、开箱即用、面向终端用户的AI助手运行时。它和单纯调用OpenAI API的网页聊天框有本质区别:
- 自带Agent运行时:支持函数调用、多步推理、工具链编排(比如“查天气+翻译成英文+生成摘要”可一键完成)
- vLLM原生集成:不是简单封装API,而是直连 vLLM 的
/v1/chat/completions接口,享受 PagedAttention 带来的显存优化与高吞吐 - 全栈可控:前端Web UI、后端网关、模型路由、插件系统全部打包在一个镜像里,没有外部依赖
- 隐私默认开启:消息默认不落盘,会话内存管理严格,支持“阅后即焚”模式
它不像 Ollama 那样偏开发者,也不像 LM Studio 那样只做模型加载器——ClawdBot 是为“想立刻用起来”的用户设计的。
1.2 为什么树莓派能跑?关键在三个“轻”
| 维度 | 实现方式 | 效果 |
|---|---|---|
| 模型轻 | 默认搭载Qwen3-4B-Instruct-2507(4B参数,INT4量化后仅约2.1GB显存占用) | 树莓派4+USB NPU(如Intel Neural Stick 2)或纯CPU推理均可支撑 |
| 架构轻 | 后端采用 Rust + Axum 编写网关,前端为精简版 React(无打包构建,直接serve) | 内存常驻<300MB,CPU占用平稳,无GC抖动 |
| 部署轻 | 单镜像交付(含vLLM服务、ClawdBot主程序、Web UI),通过docker-compose.yml一键拉起 | 无需分别部署模型服务、API网关、前端三套系统 |
小贴士:ClawdBot 镜像本身约 1.2GB,比很多“轻量”AI项目还小——因为它不打包CUDA驱动、不内置大模型权重(模型需单独下载),真正做到按需加载。
2. 环境准备:三步搞定基础依赖
2.1 硬件与系统要求
- 推荐硬件:树莓派 4B(4GB或8GB内存),带散热片+风扇(长时间运行必备)
- 最低要求:ARM64 架构 Linux 设备(Debian/Ubuntu 22.04+、Raspberry Pi OS Bookworm)
- 存储空间:至少 8GB 可用空间(模型文件约3–4GB,系统+缓存需预留)
- 网络:首次部署需联网下载镜像与模型,后续可完全离线运行
注意:树莓派官方系统(Raspberry Pi OS)默认使用
armhf架构(32位),必须使用 64位版本(aarch64),否则无法运行 vLLM。请确认系统输出为aarch64:uname -m # 正确输出应为:aarch64
2.2 安装 Docker 与 Docker Compose
ClawdBot 以容器方式交付,因此需先安装容器运行时:
# 更新系统 sudo apt update && sudo apt upgrade -y # 安装 Docker(官方脚本一键安装) curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER # 重启终端或执行以下命令使组生效 newgrp docker # 安装 Docker Compose(v2.20+) sudo apt install -y curl sudo curl -L "https://github.com/docker/compose/releases/download/v2.24.5/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose sudo chmod +x /usr/local/bin/docker-compose # 验证安装 docker --version docker-compose --version2.3 创建部署目录并获取配置模板
我们不直接运行镜像,而是用docker-compose管理,便于后续修改配置:
mkdir -p ~/clawdbot && cd ~/clawdbot # 下载官方推荐的 docker-compose.yml(精简版,适配树莓派) curl -O https://raw.githubusercontent.com/clawd-bot/deploy/main/docker-compose.rpi.yml # 重命名为标准名 mv docker-compose.rpi.yml docker-compose.yml该docker-compose.yml已预设:
- 自动挂载
~/.clawdbot目录用于持久化配置与工作区 - 映射端口
7860(Web UI)和8000(vLLM API) - 设置资源限制(避免树莓派内存爆满)
- 启用
--privileged模式(必要时支持USB NPU加速)
3. 一键启动与设备授权:三分钟见到控制台
3.1 启动服务
# 在 ~/clawdbot 目录下执行 docker-compose up -d # 查看服务状态(等待1–2分钟,首次启动较慢) docker-compose logs -f --tail=20你会看到类似日志:
clawdbot-1 | 🦞 Clawdbot 2026.1.24-3 — Starting gateway... clawdbot-1 | Serving dashboard at http://localhost:7860 clawdbot-1 | ⚙ vLLM backend ready at http://localhost:8000/v1此时服务已在后台运行。但别急着打开浏览器——ClawdBot 为安全起见,默认启用设备认证机制,首次访问需手动批准。
3.2 处理设备授权请求
ClawdBot 把 Web 控制台视为“受信设备”,需显式授权才能访问。执行以下命令查看待处理请求:
docker-compose exec clawdbot clawdbot devices list输出类似:
ID Status Created At IP Address abc123 pending 2026-01-24 10:22:15 172.20.0.1复制ID(如abc123),执行批准:
docker-compose exec clawdbot clawdbot devices approve abc123批准成功后,即可通过浏览器访问控制台。
3.3 访问 Web 控制台(两种方式)
方式一:直接访问(局域网内)
在树莓派本机或同一局域网电脑浏览器中打开:
→http://<树莓派IP>:7860
例如树莓派IP是192.168.3.100,则访问:http://192.168.3.100:7860
方式二:SSH端口转发(推荐给新手,绕过网络配置)
在你的笔记本(macOS/Linux)终端执行:
ssh -N -L 7860:127.0.0.1:7860 pi@192.168.3.100输入密码后保持连接,然后在浏览器打开:
→http://localhost:7860
如果页面提示需要 token,请回到终端执行:
docker-compose exec clawdbot clawdbot dashboard复制输出中的
Dashboard URL: http://...?token=xxx链接,粘贴到浏览器即可。
此时你将看到干净的 ClawdBot 控制台界面——左侧导航栏、中间聊天窗口、右上角状态指示灯全亮,说明部署成功!
4. 模型配置实战:从Qwen3-4B到自定义模型
4.1 默认模型已就绪,但需确认加载状态
ClawdBot 镜像内置了Qwen3-4B-Instruct-2507的模型加载逻辑,但实际权重需首次运行时自动下载。我们来验证是否加载成功:
docker-compose exec clawdbot clawdbot models list正常输出应包含:
Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default出现这一行,代表模型已由 vLLM 加载完毕,可立即使用。
补充说明:该模型下载地址为 HuggingFace Hub,首次运行会自动拉取(约3.2GB)。若网络受限,可提前在其他机器下载后拷贝至
~/.clawdbot/models/目录。
4.2 修改模型配置(两种方式任选)
方法一:修改 JSON 配置文件(推荐,稳定可控)
编辑宿主机上的配置文件:
nano ~/.clawdbot/clawdbot.json找到"models"区块,按需修改。例如切换为更小的Phi-3-mini-4k-instruct(仅2.3GB,树莓派友好):
"models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Phi-3-mini-4k-instruct", "name": "Phi-3-mini-4k-instruct" } ] } } }, "agents": { "defaults": { "model": { "primary": "vllm/Phi-3-mini-4k-instruct" } } }保存后重启服务:
docker-compose restart方法二:Web UI 图形化配置(适合快速试用)
- 登录控制台 → 左侧点击Config→Models
- 在Providers标签页,点击
vllm右侧的铅笔图标 - 在弹出框中修改
Models列表,添加新模型 ID(如Phi-3-mini-4k-instruct) - 在Agents→Defaults中,将
Primary Model下拉选择为新模型 - 点击右上角Save & Restart
注意:Web UI 修改会实时写入
clawdbot.json,但部分复杂变更仍需手动重启服务确保生效。
4.3 验证新模型可用性
重启后再次执行:
docker-compose exec clawdbot clawdbot models list确认新模型出现在列表中,且Local Auth列为yes,即表示 vLLM 已识别并加载成功。
现在你就可以在聊天窗口中输入:“你好,用中文介绍一下你自己”,观察响应是否来自新模型——响应速度、风格、长度都会明显不同。
5. 日常使用与进阶技巧:让ClawdBot真正好用
5.1 聊天界面核心操作指南
- 发送消息:输入文字后按
Enter(非Shift+Enter)发送;支持 Markdown 渲染(加粗、列表、代码块) - 多轮上下文:ClawdBot 默认维护会话历史(最多10轮),无需重复说明背景
- 中断生成:点击右上角「×」按钮可立即停止当前响应(vLLM 支持流式中断)
- 导出记录:点击右上角「」图标,可导出当前会话为
.md文件,保留格式与代码块
5.2 实用功能速查(无需记命令)
| 功能 | 触发方式 | 说明 |
|---|---|---|
| 切换模型 | 输入/model qwen3或/model phi3 | 支持模糊匹配,输入前缀即可 |
| 清空上下文 | 输入/clear | 重置当前会话记忆,开始全新对话 |
| 查看系统信息 | 输入/info | 显示当前模型、vLLM版本、内存占用等 |
| 调用工具 | 输入“查上海今天天气”或“把这段文字翻译成法语” | 内置天气、汇率、维基、OCR、语音转写等插件(需配置对应服务) |
提示:所有
/xxx命令均不发送给模型,由 ClawdBot 网关直接解析执行,响应极快。
5.3 树莓派专属优化建议
- 启用Swap(强烈建议):树莓派内存有限,开启2GB Swap可避免OOM崩溃
sudo dphys-swapfile swapoff echo 'CONF_SWAPSIZE=2048' | sudo tee -a /etc/dphys-swapfile sudo dphys-swapfile setup sudo dphys-swapfile swapon - 限制vLLM显存:若使用 USB NPU(如 Intel NCS2),在
docker-compose.yml中为clawdbot服务添加环境变量:environment: - VLLM_MAX_MODEL_LEN=2048 - VLLM_GPU_MEMORY_UTILIZATION=0.8 - 关闭LED指示灯(省电):减少无谓功耗
echo none | sudo tee /sys/class/leds/led0/trigger
6. 常见问题排查:从白屏到流畅运行
6.1 打不开Web界面?按顺序检查
| 现象 | 可能原因 | 解决方法 |
|---|---|---|
| 浏览器显示“拒绝连接” | Docker服务未运行 | sudo systemctl start docker |
| 页面空白/加载失败 | 设备未授权 | 重新执行clawdbot devices list→approve |
| 显示 token 错误 | Dashboard URL 过期 | 执行clawdbot dashboard获取新链接 |
| 控制台卡在“Loading…” | vLLM模型加载中 | 查看日志docker-compose logs clawdbot | grep -i "vllm",首次需5–10分钟 |
6.2 模型加载失败?重点看这三点
- 磁盘空间不足:
df -h检查/var/lib/docker所在分区,确保 >5GB 可用 - 网络不通:
docker-compose exec clawdbot ping huggingface.co测试连通性 - 模型ID拼写错误:HuggingFace 模型ID区分大小写,如
Qwen3-4B-Instruct-2507不可写作qwen3-4b
6.3 响应极慢或超时?调整这些参数
在~/.clawdbot/clawdbot.json的agents.defaults中增加:
"timeout": 120, "maxRetries": 2, "stream": true, "maxConcurrent": 2maxConcurrent: 2可显著降低树莓派内存压力stream: true启用流式响应,首字延迟更低timeout: 120防止因模型加载慢导致请求被网关中断
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。