手把手教你用Flowise:拖拽式LLM工作流快速入门指南
1. 为什么你需要Flowise——告别代码,三分钟搭出AI助手
你有没有过这样的经历:想把公司内部文档变成可问答的知识库,却卡在LangChain链的配置上;想做个智能客服原型,却被向量数据库、提示词工程、模型调用这些术语绕得头晕;或者只是单纯想试试RAG效果,结果光环境搭建就耗掉一整个下午?
Flowise就是为这类场景而生的。它不是另一个需要写几十行Python代码的框架,而是一个真正意义上的「AI工作流画布」——像拼乐高一样,把大模型、提示词、文档切分、向量检索、工具调用这些能力,变成一个个可拖拽的可视化节点。连上几根线,你的第一个RAG聊天机器人就跑起来了。
更关键的是,它不挑环境。你不需要GPU服务器,一台4GB内存的笔记本就能本地启动;也不需要Docker基础,npm install -g flowise一条命令搞定;甚至树莓派4也能跑起来。官方GitHub星标已超45k,MIT协议开源,商用无限制,社区每周更新,插件生态活跃。
本文不讲架构图、不分析源码、不堆参数。我们只做一件事:带你从零开始,用最自然的方式,亲手搭建一个能读你PDF文档、回答你问题的AI助手。过程中你会明白:
- 节点怎么拖、线怎么连、参数怎么设
- 为什么“知识库问答”比“纯大模型对话”更靠谱
- 怎么让AI不胡说八道,而是真从你的资料里找答案
- 最后一步,如何把整个流程变成别人能直接调用的API
准备好了吗?我们这就开始。
2. 一分钟部署:本地启动Flowise服务
Flowise提供三种开箱即用的部署方式,新手推荐从最简单的全局安装开始。整个过程不到60秒,无需配置环境变量(除非你要连OpenAI)。
2.1 全局安装(推荐新手)
确保你已安装Node.js(v18+)和pnpm(如未安装,先运行npm install -g pnpm):
# 全局安装Flowise CLI pnpm add -g flowise # 启动服务(默认端口3000) flowise start等待终端输出类似Server is running on http://localhost:3000,打开浏览器访问该地址,即可看到登录页。
小贴士:首次启动会自动创建默认用户,用户名为
admin@flowise.ai,密码为changeme。你也可以在启动前通过.env文件自定义管理员账号。
2.2 Docker一键运行(适合已有Docker环境)
如果你习惯容器化部署,这条命令足够:
docker run -d -p 3000:3000 -v flowise-storage:/app/server/storage flowiseai/flowise服务启动后,同样访问http://localhost:3000即可使用。所有工作流、上传的文件、配置都会持久化保存在flowise-storage卷中。
2.3 镜像专属部署(基于vLLM加速)
你提供的镜像已预装vLLM推理引擎,专为本地高性能模型服务优化。部署脚本已为你准备好:
apt update apt install cmake libopenblas-dev -y cd /app git clone https://github.com/FlowiseAI/Flowise.git cd Flowise mv /app/Flowise/packages/server/.env.example /app/Flowise/packages/server/.env # 编辑.env文件,填入你的API密钥(如使用OpenAI) # OPENAI_API_KEY=your_api_key_here pnpm install pnpm build pnpm start等待vLLM加载完模型(首次可能需2–3分钟),服务即就绪。登录账号如下:
- 用户名:kakajiang@kakajiang.com
- 密码:KKJiang123
注意:该镜像默认使用本地模型(如Llama-3-8B-Instruct),无需联网调用外部API,数据完全私有,适合处理敏感业务文档。
3. 第一个工作流:三步搭建PDF知识库问答机器人
现在,我们来做一个最典型也最有价值的应用:把一份PDF说明书变成可对话的智能助手。整个过程只需三步:上传文档 → 构建检索链 → 连接大模型。全程鼠标操作,无代码。
3.1 创建新工作流并上传文档
登录后,点击左上角+ New Flow
在空白画布上,从左侧节点栏拖入以下三个节点:
Document Loader(文档加载器)→ 选择PDF类型Text Splitter(文本切分器)→ 选择RecursiveCharacterTextSplitterVector Store(向量数据库)→ 选择InMemoryVectorStore(轻量级,适合入门)
按顺序连线:
Document Loader→Text Splitter→Vector Store双击
Document Loader节点,在右侧设置面板中点击Upload File,选择你的PDF文件(比如产品手册、技术白皮书)。Flowise会自动解析文本内容。
关键理解:这里没有“训练”,只有“索引”。Flowise把PDF里的文字按段落切开,再用嵌入模型(Embedding Model)转成向量,存进内存数据库。后续提问时,系统会计算你问题的向量与所有文档片段的相似度,找出最相关的几段作为上下文。
3.2 添加大模型与提示词节点
接下来,我们要让AI“读懂”这些文档并回答问题:
- 拖入
LLM节点 → 选择Ollama或HuggingFace(镜像已预置本地模型,无需额外配置) - 拖入
Prompt Template节点 → 输入一段标准RAG提示词(复制粘贴即可):
你是一个专业的产品顾问。请严格根据以下【参考资料】回答用户问题。如果参考资料中没有相关信息,请明确回答“暂未在文档中找到答案”。 【参考资料】 {context} 【用户问题】 {question}拖入
RetrievalQA Chain(检索问答链)节点 —— 这是Flowise封装好的RAG核心逻辑,它会自动把用户问题、检索到的文档片段、提示词、大模型四者串联起来。连线顺序:
Vector Store→RetrievalQA Chain(作为retriever输入)LLM→RetrievalQA Chain(作为llm输入)Prompt Template→RetrievalQA Chain(作为prompt输入)
最后,将RetrievalQA Chain的输出端连接到画布右上角的Output节点。
3.3 保存、测试与调试
- 点击右上角Save Flow,给它起个名字,比如“产品手册问答”。
- 点击Chat按钮(或顶部菜单的Chat),进入交互界面。
- 输入问题,例如:“设备支持哪些网络频段?”、“保修期是多长时间?”
你会立刻看到AI的回答,并在下方展开的Debug Panel中看到完整执行路径:
- 哪些PDF段落被检索出来
- 提示词如何被填充
- 大模型原始输出是什么
- 最终返回给用户的精炼答案
实测效果:在一份32页的Wi-Fi路由器说明书上,Flowise能在1.2秒内完成检索+生成,答案准确率远高于直接问大模型——因为它不会编造,只复述文档内容。
4. 进阶技巧:让工作流更聪明、更实用
做完基础版,你会发现Flowise的能力远不止于此。下面这几个小技巧,能让你的工作流从“能用”升级为“好用”。
4.1 条件分支:区分“查资料”和“聊天气”
不是所有问题都该去翻PDF。你可以加一个判断节点,让AI自己决定该走哪条路:
- 拖入
Condition节点(条件判断) - 设置判断逻辑:
if {question} contains "温度" or "天气"→ 走天气API分支;否则 → 走PDF检索分支 - 再拖入
Tool节点(工具调用),选择Weather API(需配置API Key) - 分别连接两条路径到各自的处理链,最后汇总到同一个Output
这样,用户问“今天北京天气怎么样”,AI调用天气接口;问“我的设备怎么重置”,则精准定位PDF中的重置步骤。
4.2 循环处理:批量分析多份合同
你想一次性分析10份采购合同,提取甲方名称、金额、付款周期?Flowise支持循环:
- 拖入
Document Loader,但这次选择Directory类型,指向存放合同的文件夹 - 拖入
Loop节点,设置循环变量为current_file - 在循环体内,构建一个小型RAG链:切分当前PDF → 存入临时向量库 → 提问固定模板(如“甲方全称是?”)
- 每次循环结果存入数组,最终用
Array Aggregator合并为结构化JSON
几分钟内,你就拿到了一份带表头的Excel-ready数据。
4.3 一键导出API:让业务系统直接调用
做完工作流,别只停留在网页聊天界面。点击右上角Export→REST API,Flowise会自动生成:
- 完整的API文档(含请求示例、响应格式)
- cURL命令、Python/JavaScript SDK代码片段
- Swagger UI在线调试页面(
/api-docs)
业务后端只需发一个POST请求:
curl -X POST http://localhost:3000/api/v1/prediction/abc123 \ -H "Content-Type: application/json" \ -d '{"question": "保修条款第3条写了什么?"}'返回就是结构化JSON答案。从此,你的CRM、客服系统、内部Wiki,都能无缝接入这个AI能力。
5. 常见问题速查:新手最容易卡在哪?
刚上手时,几个高频问题帮你快速避坑:
5.1 上传PDF后没反应?检查这三点
- 文件大小:Flowise默认限制单文件≤50MB。超大PDF请先用Adobe或PDFtk压缩。
- 扫描版PDF:纯图片PDF无法提取文字。用OCR工具(如Adobe Scan、Smallpdf)先转成可选中文本。
- 编码问题:中文PDF若出现乱码,在
Document Loader节点设置中勾选Use OCR for scanned PDFs(镜像已预装Tesseract)。
5.2 回答总是“我不知道”?优化检索质量
这不是模型不行,而是检索没找对上下文:
- 在
Text Splitter节点,把chunkSize从默认500调小到300,chunkOverlap设为50,让切分更细、上下文更连贯。 - 在
Vector Store节点,换用Qdrant或PostgreSQL替代InMemory,支持更精准的向量搜索(镜像已集成Qdrant)。 - 给
Prompt Template加一句约束:“请优先引用原文中的原话,不要总结或改写。”
5.3 想换模型但找不到选项?本地模型加载指南
镜像基于vLLM,支持所有HuggingFace上标有vLLM兼容的模型。加载新模型只需两步:
- 进入服务器终端,运行:
vllm serve --model meta-llama/Meta-Llama-3-70B-Instruct --tensor-parallel-size 2 - 在Flowise的
LLM节点中,选择vLLM类型,填入http://localhost:8000(vLLM默认API地址)
无需重启Flowise,刷新页面即可在下拉框中看到新模型。
6. 总结:你已经掌握了AI应用开发的新范式
回顾这一路,你没有写一行Python,没配一个环境变量,也没查过任何API文档,却完成了:
本地部署一个企业级AI工作流平台
把任意PDF文档变成可对话的知识库
构建带条件判断、循环处理的智能流程
导出标准化API,供真实业务系统调用
Flowise的价值,从来不是取代开发者,而是把LangChain、LlamaIndex、vLLM这些强大但复杂的工具,变成产品经理、业务人员、甚至非技术人员也能驾驭的“AI乐高”。它降低的不是技术门槛,而是创新成本。
下一步,你可以:
- 浏览Flowise Marketplace,一键导入100+现成模板(SQL查询助手、网页爬虫Agent、Zapier自动化等)
- 尝试用
Custom Function节点写一段JavaScript,实现专属逻辑(比如自动格式化日期、调用内部HTTP接口) - 将工作流部署到Render或Railway,获得公网域名,分享给同事试用
真正的AI落地,从来不是等一个“完美模型”,而是从一个“能用的小闭环”开始迭代。而Flowise,就是那个让你今天就能迈出第一步的工具。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。