在VPS上使用n8n自托管工作流自动化
在自己的VPS上运行无限工作流自动化,而不是按任务付费。本指南介绍工作流自动化的含义、自托管如何节省成本并保护数据,以及n8n与Zapier、Make和其他开源工具的对比。
你有一个表单提交需要同时写入CRM、触发Slack消息、更新电子表格。你可以用自定义代码把这些串起来,也可以用可视化工作流工具五分钟搞定。本文解释什么是工作流自动化、为什么在自己的VPS上运行比按任务付费给Zapier或Make更划算,以及如何用n8n开始。
什么是工作流自动化?
工作流自动化通过基于触发器的管道连接应用和服务。触发器触发(webhook到达、定时器执行、数据库行变更),一系列操作自动运行:调用API、转换数据、发送通知、写入数据库。不需要胶水代码。
把它想象成集成的可视化编程。不用写一个Node.js脚本来轮询API、转换JSON、发送到Slack,你只需把节点拖到画布上然后连接。每个节点处理一个步骤。工作流引擎管理执行、重试和错误处理。
如果你从未使用过工作流工具:节点(node)是画布上的一个方框,做一件事(发邮件、查数据库、转换JSON)。触发器(trigger)是启动工作流的事件。工作流(workflow)是从触发器到最终操作的完整链路。你通过可视化方式连接节点,引擎在每次触发时按顺序执行它们。
一些示例:
- 表单提交触发CRM条目创建、分配销售代表、发送欢迎邮件
- Airtable中的新行每5分钟同步到PostgreSQL数据库
- API健康检查失败,工作流发送Slack消息并创建PagerDuty事件
- RSS源更新触发跨平台社交媒体发布
- 收到的邮件由LLM分类,路由到正确的团队,如果匹配模板则自动回复
这个领域的SaaS厂商(Zapier、Make、IFTTT)有一个共同特点:按执行次数收费。你的自动化运行越多,付费越多。自托管完全消除了这个限制。
为什么要自托管工作流自动化而不是用Zapier或Make?
三个原因:成本、隐私和控制。在VPS上自托管自动化引擎意味着无论运行多少工作流,你都只需支付固定月费。数据永远不会离开你的服务器。没有供应商可以限制你的执行次数或停止你依赖的集成。
自托管工作流自动化与Zapier相比花费多少?
SaaS自动化平台按任务或按操作计费。这种定价模式惩罚增长。自动化越多,付费越多。自托管反转了这一点:无论运行10个还是10,000个工作流,VPS成本不变。
一个具体场景:一个5步工作流(1个触发器+4个操作)每天运行100次。每月3,000次执行。
| Zapier | Make | n8n(自托管) | |
|---|---|---|---|
| 计费单位 | Tasks(每个操作=1 task) | Operations(每步=1 op) | 无限 |
| 每月消耗单位 | 12,000 tasks | 15,000 operations | N/A |
| 最低适用套餐 | Professional(按量升级) | Core+超额或Pro | VPS |
| 预估月费 | 100-150 €/月 | 19-35 €/月 | ~6-15 €/月(VPS) |
| 10倍规模时的费用 | 500+ €/月 | 100+ €/月 | ~6-15 €/月(同一VPS) |
Zapier每次执行计4个tasks(触发器免费,每个操作计一个task)。12,000 tasks/月远超Professional计划基础的750 tasks。Make计算每一步包括触发器,每次执行5个操作。15,000 operations/月超过Core计划的10,000积分。
n8n在VPS上,成本保持不变。4 vCPU和8 GB RAM的VPS可以轻松处理每天数千次执行。唯一的可变成本是存储空间(如果保留大量执行日志)。
规模越大,差距越明显。在Zapier上把自动化翻倍,账单翻倍。在VPS上翻倍,什么都不变。对于运行多个副业项目的独立开发者或串联几十个LLM调用的AI开发者来说,自托管第一个月就能回本。
自托管如何保护你的数据?
使用Zapier或Make时,流经工作流的每一条数据都经过他们的服务器。API密钥、客户邮件、数据库凭据、webhook载荷。所有数据都存放在你无法控制的基础设施上,通常在美国数据中心。
自托管意味着:
- 你的API密钥和数据库密码永远不会离开你的VPS。它们存储在n8n的加密数据库中,在你控制的磁盘上。
- 执行日志、输入/输出载荷和错误详情存放在你本地的PostgreSQL实例中。不在别人的基础设施上。
- 你选择数据中心。在法兰克福、阿姆斯特丹或巴黎托管。如果GDPR合规对你重要,数据留在欧盟。
- 供应商员工无法查看你的工作流配置或执行历史。
这不是理论上的。如果你把Stripe账户连接到Zapier,Zapier会在其基础设施上存储你的Stripe API密钥。使用自托管的n8n,该密钥只存在于你VPS上的加密数据库中。
如果你处理客户数据或支付信息,你可能已经知道自己更倾向哪个选择。
控制和灵活性呢?
自托管给你SaaS平台无法提供的能力:
- 如果需要,每秒运行一次工作流。没有15分钟最小间隔(Make免费版限制),没有任务上限。
- 当预构建集成不存在时,直接在工作流中编写JavaScript或Python。
- 连接同一服务器上的Ollama。你的提示词和模型响应永远不会离开你的机器。
- 将工作流导出为JSON,存入Git,跨环境部署。
- 如果n8n明天消失,你的工作流是可以阅读和修改的JSON文件。
代价是真实的。自托管意味着你自己负责更新、备份、安全和正常运行时间。没有支持团队可以在凌晨2点求助。
应该选择哪个开源工作流自动化工具?
自托管工作流自动化领域有四个主要竞争者:n8n、Activepieces、Windmill和Automatisch。每个适合不同的使用场景。
| n8n | Activepieces | Windmill | Automatisch | |
|---|---|---|---|---|
| 许可证 | Sustainable Use(fair-code) | MIT | AGPLv3 | AGPLv3 |
| 核心集成 | 400+(含社区4,000+) | 450+ | 100+(代码优先) | 80+ |
| 可视化编辑器 | 是 | 是 | 是(+代码IDE) | 是 |
| AI节点 | 70+(基于LangChain) | MCP支持、AI代理 | Python/TS脚本 | 有限 |
| 自托管难度 | Docker Compose,10分钟 | Docker Compose,10分钟 | Docker,3分钟 | Docker Compose,10分钟 |
| 最适合 | 通用自动化+AI | 业务运营、非技术用户 | 开发者为主的团队 | 简单的Zapier替代 |
为什么n8n是最受欢迎的自托管选项?
n8n同时适用于非技术用户和开发者。业务用户在拖放编辑器中构建工作流。开发者在遇到限制时切换到JavaScript或Python代码节点。AI集成比任何其他开源自动化工具都更深入。
n8n内置400+集成,社区贡献了数千个节点,开箱即用覆盖大多数常用服务。不够用时,HTTP Request节点和Code节点让你能连接任何有API的服务。
Sustainable Use License下的fair-code许可意味着源代码开放,可以免费自托管。限制是:不能将n8n作为托管服务提供给他人。如果是为自己的项目或公司内部使用而自托管,没有任何费用。
但n8n不是唯一的好选择:
- Activepieces有真正的MIT许可证(完全开源),对AI代理的MCP支持更好。如果许可证对你很重要或你需要MCP服务器集成,先看看它。
- Windmill更适合偏好写TypeScript或Python而非拖拽节点的开发团队。如果你的工作流主要是代码,Windmill的脚本优先方式会更自然。
- 注意n8n的集成数量在包含社区节点时会膨胀。核心400+维护良好。社区节点质量参差不齐。
对大多数读者来说,n8n是正确的起点。最大的社区、最多的教程,能同时处理可视化和代码工作流构建。参见在VPS上使用Docker Compose安装n8n。
n8n能做什么?
n8n是一个运行在你自己服务器上的工作流自动化平台。你在可视化编辑器中通过连接节点来构建工作流。每个节点执行一个操作:读取数据库、调用API、转换数据、发送消息或运行AI推理。
以下是n8n 2.x(当前稳定版,2025年12月发布)提供的功能:
- 拖放式可视化编辑器。用线连接节点。测试单个节点或运行完整工作流。
- 400+内置集成:Slack、GitHub、PostgreSQL、Google Sheets、Stripe、Notion等。
- JavaScript或Python代码节点,用于自定义逻辑。完全访问npm包。
- Webhook触发器,暴露HTTP端点实现工作流即时执行。无轮询延迟。
- 内置重试逻辑、错误工作流和执行日志记录。
- Human-in-the-loop(2.0新增):在AI代理执行特定工具前要求人工审批。适用于不希望完全自主的生产环境AI工作流。
- Save vs. Publish(2.0新增):编辑工作流不影响线上版本。准备好后再发布。
- Task Runners(2.0默认启用):代码节点在隔离进程中运行。失控的脚本不会导致整个n8n实例崩溃。
n8n的AI工作流节点如何工作?
n8n内置70+个基于LangChain框架的AI专用节点。这是它区别于简单Zapier克隆的关键。
AI节点系统是分层的:
- Agent节点接收提示词,决定调用哪些工具,串联多个步骤。
- Model节点连接LLM提供商:OpenAI(GPT-4o)、Anthropic(Claude)、Google Gemini、Mistral,或通过Ollama连接本地模型。
- Memory节点通过滑动窗口缓冲区或摘要缓冲区在工作流执行间保持对话上下文。
- Tool节点给代理提供能力:搜索网页、查询数据库、调用API、读取文档。
- Vector Store节点连接Pinecone、Qdrant或Supabase,用于检索增强生成(RAG)。
一个实际示例:AI客户支持。邮件到达,触发工作流,Agent节点用Claude分类意图,从vector store提取相关文档,起草回复,通过human-in-the-loop功能排队等待人工审核。一个可视化工作流搞定。除了提示模板外不需要代码。
Ollama集成对自托管者最为重要。在同一VPS上本地运行Llama 3、Mistral或Phi。没有API调用、没有按token计费、没有数据离开你的基础设施。配合欧洲VPS,你的AI自动化管道完全在你的掌控之下。
你也可以在同一工作流中混合使用模型。用便宜的本地模型做分类(这封邮件是投诉还是问题?),只把复杂案例路由到Claude或GPT-4o。这样在关键环节获得高质量输出的同时,保持API成本低。
在VPS上运行n8n需要什么?
运行n8n需要一台VPS、Docker和一个域名。使用Docker Compose大约10分钟即可完成设置。
VPS要求:
- 最低2 vCPU,推荐4 vCPU。更多核心在并发运行多个工作流或使用AI节点时有帮助。
- 最低4 GB RAM,推荐8 GB。n8n本身占用约500 MB。PostgreSQL和繁重工作流使用其余部分。如果在同一服务器上运行Ollama,需要更多。
- 最低20 GB存储。执行日志随时间增长。如果长期保留日志,规划40-80 GB。
- Ubuntu 24.04 LTS或Debian 12。两者与Docker配合良好。
- 一个公网IPv4地址和指向它的域名(A记录)。
软件栈:
- Docker和Docker Compose,以容器方式运行n8n和PostgreSQL
- Nginx作为反向代理,处理TLS终止(Let's Encrypt)
- PostgreSQL作为数据库后端(SQLite可用于测试但不适合生产)
4 vCPU和8 GB RAM的VPS可以轻松处理数百个工作流和每天数千次执行。足以覆盖大多数独立开发者和小团队。
如果计划在n8n旁运行Ollama进行本地AI推理,建议16 GB RAM或更多,取决于模型大小。一个7B参数模型本身需要约4-6 GB RAM。
自托管的权衡
自托管不是"零成本"意义上的免费。你用SaaS订阅费换取运维责任。
你需要负责:
- n8n每周发布更新。你决定何时更新,但必须真的去做。过时的版本意味着缺少安全补丁。
- PostgreSQL数据库和n8n加密密钥需要定期备份。丢失它们就丢失所有工作流和存储的凭据。
- 防火墙配置、TLS证书、SSH加固、访问控制。没有人替你做这些。
- 如果VPS在凌晨3点宕机,自动化就会停止。设置监控和告警。
什么情况下SaaS可能是更好的选择:
- 你运行不到5个简单工作流,免费版够用
- 你的团队没有Linux经验,也没兴趣学
- 你需要带SLA保证的7x24小时供应商支持
- 你需要只有Zapier支持的小众企业应用集成(Zapier有7,000+集成,n8n有400+)
对其他所有人来说,自托管更划算。本系列的其余文章将带你一步步完成。
接下来做什么?
选择符合你当前需求的文章:
-
"我想今天就在服务器上运行n8n。" 从安装指南开始。Docker Compose、PostgreSQL、Nginx、TLS。15分钟内获得可用实例。参见在VPS上使用Docker Compose安装n8n。
-
"n8n已经跑起来了。接下来做什么?" 第一个工作流教程带你完成一个端到端的真实自动化:触发器、转换、操作、错误处理。参见构建你的第一个n8n工作流。
-
"我需要说服团队(或我自己)自托管值得。" 成本和隐私对比用真实数字展示n8n vs Zapier vs Make。
-
"我想要AI驱动的工作流。" AI工作流指南介绍如何将n8n连接到Claude、OpenAI和本地Ollama模型。构建能分类、生成和行动的代理。
-
"n8n实例在运行了,但我需要加固安全。" 安全指南涵盖Nginx反向代理、TLS、认证和生产环境防火墙规则。
-
"如何长期维护n8n?" 维护指南涵盖备份、更新、日志轮转和监控。
需要VPS来运行n8n?Virtua Cloud提供工作流自动化VPS方案,配备专用vCPU、NVMe存储和欧洲数据中心。原生支持Docker。
版权所有 2026 Virtua.Cloud。保留所有权利。 本内容为 Virtua.Cloud 团队原创作品。 未经书面许可,禁止复制、转载或再分发。