从“养虾”到“养马”,AI Agent 的热度一波接一波。可每次新鲜劲一过,你是不是也会想:能不能有一个更“全能”的助手,把我丢过去的一整个任务,从头到尾自己搞定,而不用我一步步教?
字节跳动刚开源的DeerFlow,就是为此而生。
它和你平时聊天的 AI 不一样——DeerFlow 更像一个“超级任务管家”。你只需要告诉它目标,它就会自己拆解任务、规划步骤、调用各种工具和子助手,最后把结果直接交到你手上。
@可爱的小cherry 带来在极空间上部署DeerFlow教程,一起把这匹“鹿”牵回家,看看它到底有多能干。👇👇
字节跳动开源了一个很有意思的项目,叫 DeerFlow。
简单说,它是一个 Super Agent 平台 —— 你可以理解为"能帮你干任何事的 AI 助手框架"。
DeerFlow 能干什么
它和普通的 AI 聊天不一样。普通聊天是一问一答,DeerFlow 是你给它一个任务,它会自己拆解、规划、调用子 Agent、搜索资料、写代码、执行验证,最后把结果给你。
它现在更像是在你的 NAS 里装上了一个 Kimi/Gemini/GLM 的超级 Agent,可以使用各种深度研究、工作流将一件事情安排的实处、落地。
核心能力:
- •Sub-Agents 子 Agent 调度— 一个主 Agent 可以调度多个子 Agent 协同工作
- •Skills & Tools 技能扩展— 可配置的 MCP Server 和工具集,支持自定义扩展
- •Sandbox 沙箱执行— 在隔离的 Docker 容器里运行代码,安全可靠
- •长期记忆— 记住之前的对话和上下文,跨 session 持续工作
- •多渠道接入— 支持 Telegram、Slack、飞书等 IM 渠道,不需要公网 IP
- •Claude Code / Codex 集成— 可以直接调用 Claude Code 或 Codex 作为底层编码引擎
推荐搭配的模型:豆包 Seed 2.0 Code、DeepSeek v3.2、Kimi 2.5。
如果你专注于进行一项深度任务,可以试一下 DeerFlow。
如果你只需要一个日常聊天、轻任务、多 agents 场景,那么不建议使用 DeerFlow。
一、极空间部署 DeerFlow
DeerFlow 这个项目目前还没有正式定版本号,在不断的开发中。
我以 4 月 7 日的 github 仓库状态为原型,创建了一系列的镜像。
https://pan.quark.cn/s/403363b66bda然后将所有的.env,docker-compose.yaml,config.yaml,nginx/skill都放在了一起,直接网盘下载拷贝到极空间里。
新版本的 docker ,直接选择刚才的路径,然后分别导入项目下的.env,docker-compose.yaml直接部署。
老版本的 docker,直接导入docker-compose.yaml,然后使用查询路径功能,把相对路径全部改成绝对路径。
所有的 volumes 、 environment、env_file 里,把./XXX都改成复制路径/XXX。
主要是第 8、39-41、50-51、54、66-68、74-75、78 这几行。
二、配置 config
Config.yaml的整个配置建议提前做,因为至少需要开启一个 Model 才能让容器正常运行。
🟧 接入 IM 渠道
DeerFlow 支持 Telegram、Slack、飞书,不需要公网 IP,配好对应的 API Key 就行。
# config.yamlchannels: telegram: enabled: true bot_token: $TELEGRAM_BOT_TOKEN allowed_users: [] # 留空允许所有人 feishu: enabled: true app_id: $FEISHU_APP_ID app_secret: $FEISHU_APP_SECRET domain: https://open.feishu.cn🟧 Sandbox 沙箱模式
DeerFlow 支持三种沙箱执行方式:
sandbox: use: deerflow.community.aio_sandbox:AioSandboxProvider # 推荐 # use: deerflow.sandbox.local:LocalSandboxProvider # 本地开发用 # use: deerflow.sandbox.provisioner:... # K8s 生产用 allow_host_bash: false # 建议关闭,避免安全风险- •AIO Sandbox— 一体化 Docker 容器执行(推荐,最简单)
- •Local Sandbox— 直接在宿主机跑代码(开发调试用)
- •K8s Provisioner— 通过 Kubernetes Pod 执行(生产环境用)
🟧 Models 模型配置
支持 OpenAI、Anthropic、DeepSeek、MiniMax、通义千问等多种模型,可以同时配置多个:
models: # MiniMax(OpenAI 兼容) - name: minimax-m2.7 display_name: MiniMax M2.7 use: langchain_openai:ChatOpenAI model: MiniMax-M2.7 api_key: $MINIMAX_API_KEY base_url: https://api.minimaxi.com/v1 request_timeout: 600.0 max_retries: 2 max_tokens: 4096 temperature: 1.0 supports_vision: true supports_thinking: trueAPI Key 统一在项目根目录的.env文件中管理,config.yaml 中用$变量名引用即可。
🟧 Memory 长期记忆
自动开启,无需配置。
memory: enabled: true storage_path: memory.json debounce_seconds: 30 max_facts: 100 injection_enabled: true max_injection_tokens: 2000🟧 Summarization 对话摘要
自动开启,无需配置。长对话自动压缩,避免超出 token 限制。
summarization: enabled: true model_name: null # null = 使用默认模型🟧 Checkpointer 状态持久化
支持memory(内存)、sqlite(文件)、postgres(生产)三种模式。
checkpointer: type: sqlite connection_string: checkpoints.db🟧 Sub-Agents 子 Agent 配置
subagents: timeout_seconds: 900 agents: general-purpose: timeout_seconds: 1800 max_turns: 160 bash: timeout_seconds: 300 max_turns: 80.env 环境变量
所有 API Key 在.env中统一管理:
MINIMAX_API_KEY=your-minimax-keyMOONSHOT_API_KEY=your-moonshot-keyFEISHU_APP_ID=your-app-idFEISHU_APP_SECRET=your-app-secret# ... 其他 Key三、个人体验
DeerFlow 我选择使用飞书来作为 IM 对话载体。
在对话体验上,它给我的感觉是相当惊艳的。
三个阶段:
- Deer Flow OK,接收到聊天信息后就会发出 emoji。
- 创建子话题,每一句话都会有一个子话题,在子话题内聊天。充分利用飞书特性,精简主会话。
- Deer Flow Done,首条主会话任务完成后,会在主会话创建一个 done。后续不影响在子会话继续聊天。
在子会话中,DeerFlow 的飞书输出块很有意思,它是在一个块内不断清空内容,填充内容。
最终将一个连思考、连答案的长文再输出出来。
🔻Action 1
🔻Action 2
这个功能喜忧参半,有些人喜欢,有些人不喜欢。
但是如果把 DeerFlow 作为一个深度研究工具来使用的话,我个人认为还是有必要的,可以看到 AI 思考过程,更能发现有问题的地方,支持随时调整。
DeerFlow 2.0 发布后直接冲上了 GitHub Trending 第一名。
用官方的话 —— Do Anything With DeerFlow。
包括作者也曾在小红书俏皮留言说, DeerFlow 是他见过最牛逼的项目~
言归正传,系统没有账号密码配置,直接打开就可以用。
所以建议是跑在 localhost 环境下的,然后通过 IM 渠道对接。
启动项目后,先点开左下角的设置页面。
这里可以配置记忆、工具、技能。
记忆分两部分,事实、摘要。
事实支持人工维护,即用户、或者环境的既定事实。
摘要则是 DeerFlow 根据对话自然学习而得的。
DeerFlow 内置了 20 个技能,主要围绕 PPT、音频图片生成、Github 搜索、页面设计、数据分析、编程等生产力技能,也是 DeerFlow 深入研究的核心依靠。
下面我们一起来看看 DeerFlow 的具体工作流程。
我让它结合目前市面上比较火爆的几个项目,比如 Openclaw、Hermes、DeerFlow ,进行一次深度对比。
可以看到左侧是主对话框,右侧是生成的文档。
点开对话框,类似我们常见的网页 agent 工作流赫然在目。
N 个步骤,每个步骤具体的执行指令。最终会汇聚成一份深入的调研结果,并反馈到页面或者 IM 渠道。
最后,在智能体里,我们可以根据一系列的对话,来创建一个更专业的智能体。它拥有独立的 SOUL.md 可以开展更多的服务。
说真的,这两年看着身边一个个搞Java、C++、前端、数据、架构的开始卷大模型,挺唏嘘的。大家最开始都是写接口、搞Spring Boot、连数据库、配Redis,稳稳当当过日子。
结果GPT、DeepSeek火了之后,整条线上的人都开始有点慌了,大家都在想:“我是不是要学大模型,不然这饭碗还能保多久?”
我先给出最直接的答案:一定要把现有的技术和大模型结合起来,而不是抛弃你们现有技术!掌握AI能力的Java工程师比纯Java岗要吃香的多。
即使现在裁员、降薪、团队解散的比比皆是……但后续的趋势一定是AI应用落地!大模型方向才是实现职业升级、提升薪资待遇的绝佳机遇!
这绝非空谈。数据说话
2025年的最后一个月,脉脉高聘发布了《2025年度人才迁徙报告》,披露了2025年前10个月的招聘市场现状。
AI领域的人才需求呈现出极为迫切的“井喷”态势
2025年前10个月,新发AI岗位量同比增长543%,9月单月同比增幅超11倍。同时,在薪资方面,AI领域也显著领先。其中,月薪排名前20的高薪岗位平均月薪均超过6万元,而这些席位大部分被AI研发岗占据。
与此相对应,市场为AI人才支付了显著的溢价:算法工程师中,专攻AIGC方向的岗位平均薪资较普通算法工程师高出近18%;产品经理岗位中,AI方向的产品经理薪资也领先约20%。
当你意识到“技术+AI”是个人突围的最佳路径时,整个就业市场的数据也印证了同一个事实:AI大模型正成为高薪机会的最大源头。
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包【允许白嫖】:
- ✅从入门到精通的全套视频教程
- ✅AI大模型学习路线图(0基础到项目实战仅需90天)
- ✅大模型书籍与技术文档PDF
- ✅各大厂大模型面试题目详解
- ✅640套AI大模型报告合集
- ✅大模型入门实战训练
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(0基础到项目实战仅需90天)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤640套AI大模型报告合集
⑥大模型入门实战训练
👉获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓