如何在任何地方托管您的AI Agent和MCP服务器

本指南将引导您将 Langflow 部署到各种流行的托管平台 - FlightControl、Fly.io、Render 和 Hetzner - 将您的本地项目转变为全球可访问的 AI 强大应用。

How to Host Your AI Agents and MCP Servers on Langflow Anywhere

Langflow 是一个出色的可视化 Agentic 框架,供开发者构建复杂的 AI 应用,从智能 Agent 和多步链到强大的 MCP(模型上下文协议)服务器。其拖放界面允许快速迭代和实验。但是,当您的杰作准备好面向世界时会发生什么?在本地运行 Langflow 非常适合开发,但要真正释放其潜力——通过 API 公开、集成到用户界面或与您的团队共享——您需要托管它。

本指南将引导您将 Langflow 部署到各种流行的托管平台 - FlightControl、Fly.io、Render 和 Hetzner - 将您的本地项目转变为全球可访问的 AI 强大应用。

本指南也提供视频版本,供视觉学习者观看。

挑战:从 localhost 到上线

当您在本地启动 Langflow 时(通常使用类似 docker run -p 7860:7860 langflowai/langflow:latest 的命令),它通常在本地地址(如 0.0.0.0:7860localhost:7860)上可用。这非常适合个人开发和测试。但是,这些本地地址无法通过互联网访问,这意味着您的 AI 健身教练个人电子邮件助手或自动化工作流程仍然局限于您的机器。要共享它,您需要部署它。

您的起点:host-langflow 仓库

为了显著简化部署流程,我们在 GitHub 上创建了 datastax/host-langflow 仓库。这个开源项目提供了为各种托管提供商量身定制的预配置设置和 Dockerfiles。

以下任何部署方法的第一步是至关重要的一步:将此仓库分叉到您自己的 GitHub 账户。这将为您提供一个可以连接到托管服务的个人副本。

部署蓝图:按您的方式托管 Langflow

这里有几种在线启动和运行 Langflow 实例的方法,以满足对易用性、控制和成本的不同偏好。

1. FlightControl (AWS)

FlightControl 提供了一种流线型的开发者体验,用于在 Amazon Web Services (AWS) 上托管应用程序,抽象掉了大部分底层 AWS 的复杂性。

Flightcontrol 主页
  • 工作原理: 您连接您分叉的 host-langflow 仓库,FlightControl 会处理必要的 AWS 资源的调配和管理。
  • 关键步骤
    1. 分叉 host-langflow 后,注册或登录 FlightControl。
    2. 创建一个新项目,选择“连接到 GitHub 仓库”,并选择您的分叉。
    3. 链接您的 AWS 账户并选择您的首选区域(例如,如果您在欧洲,可以选择法兰克福的 eu-central-1)。
    4. 对于项目设置,选择“构建您自己的”配置。
    5. 选择“Web 服务器 (Docker)”作为服务类型。
    6. 配置服务
      • 构建类型: Dockerfile
      • Dockerfile 路径: (保留默认,它会在仓库中找到它)
      • 端口: 7860 (Langflow 的默认内部端口)
      • 健康检查路径: /health
    7. 选择合适的实例大小(例如,一个 2GB 的 Fargate 实例是个不错的开始)。
    8. 添加服务并创建项目。部署大约需要 10-15 分钟。

2. Fly.io

Fly.io 是一个托管平台,以其易于在全球范围内、靠近用户部署应用程序而闻名。

Fly.io 主页
  • 工作原理: Fly.io 可以从您分叉仓库中的 Dockerfile 构建并部署您的 Langflow 应用程序。
  • 关键步骤
    1. 分叉 datastax/host-langflow
    2. 在您的 Fly.io 控制面板中,启动一个新应用。
    3. 选择从 GitHub 仓库部署,并选择您的分叉。
    4. 配置期间
      • 内部端口: 7860
    5. 您需要确保您的机器有足够的资源。Langflow 至少需要 2GB RAM;4GB 则能提供更流畅的性能。选择合适的机器大小(例如,带有 4GB RAM 的“Performance 1x”或“Performance 2x”)。
    6. 确认并部署。Fly.io 的部署通常非常快速。

3. Render.com

Render.com 的目标是成为“最快的生产路径”,它为 Web 服务提供了一个简单的平台,包括像 Langflow 这样的 Docker 化应用。

Render.com 主页
  • 工作原理: Render 连接到您的分叉,构建 Docker 镜像,并将其作为 Web 服务部署。
  • 关键步骤
    1. 分叉 host-langflow
    2. 在您的 Render 控制面板中,创建一个“新 Web 服务”。
    3. 连接您的 GitHub 账户并选择您的 host-langflow 分叉。
    4. 提供一个服务名称(例如,my-langflow-app)。
    5. 环境设置为“Docker”。
    6. 如果 Dockerfile 在仓库根目录,根目录通常可以留空。
    7. 选择实例类型。同样,目标是至少 2GB RAM(Render 的“Standard”计划通常提供此选项),对于许多 Langflow 用例而言,4GB 是一个舒适的选择。
    8. 在“高级”下,确保端口设置为 7860
    9. 创建 Web 服务并观察其部署。

4. Hetzner (裸金属 / VPS)

对于那些喜欢更多控制或正在寻找经济高效的虚拟私人服务器 (VPS) 甚至专用服务器的人来说,Hetzner 是一个受欢迎的选择。这种方法更需要动手操作,但提供了极大的灵活性。这是一种您只有一台空机器,然后为 Web 托管,特别是托管 Langflow 进行设置的方法。

Hetzner.com 主页
  • 工作原理: 您配置一台服务器,通过 SSH 连接到它,克隆您的仓库,然后使用 Docker Compose 运行 Langflow。
  • 关键步骤
    1. 分叉 host-langflow
    2. 在 Hetzner Cloud 控制台,创建一个新项目并添加一台服务器。
    3. 配置您的服务器
      • 位置: 选择一个数据中心(例如,纽伦堡)。
      • 镜像: Ubuntu(例如,22.04 或更新版本)。
      • 类型: 选择具有足够资源的服务器(例如,提供 2 个 vCPU 和 4GB RAM 的 CX21 或 CPX21 是一个不错的起点)。
      • 网络: 确保它具有公共 IPv4 地址。
      • SSH 密钥: 添加您的公共 SSH 密钥。如果您没有,请在本地生成(例如,ssh-keygen -t ed25519 -C "your_email@example.com"),并复制 ~/.ssh/id_ed25519.pub 的内容。
    4. 命名您的服务器并创建它。
    5. 服务器运行后,复制其 IP 地址。
    6. 通过 SSH 连接到您的服务器:ssh -i /path/to/your/private_key root@YOUR_SERVER_IP
    7. 安装必要的工具(如果尚未预装)
      • Git: apt update && apt install git -y
      • Docker & Docker Compose:原文提到了 snap install docker。或者,请遵循 Ubuntu 的官方 Docker 安装文档。
    8. 克隆您分叉的仓库:git clone https://github.com/YOUR_GITHUB_USERNAME/host-langflow.git
    9. 导航到裸金属设置目录:cd host-langflow/bm/
    10. 启动 Langflow 和 Caddy Web 服务器(用于反向代理和 SSL):docker-compose up -d-d 以分离模式运行)。
    11. 通过 http://YOUR_SERVER_IP 访问 Langflow。
    12. 对于 HTTPS(推荐)
      • 确保您有一个域名。
      • 在您的 DNS 设置中,将您域名的 A 记录指向 YOUR_SERVER_IP
      • 编辑 bm 目录中的 Caddyfile。将第一行从 :80 更改为您的域名(例如,yourdomain.com)。Caddy 将自动从 Let's Encrypt 申请 SSL 证书。
      • 重启 Caddy:docker-compose restart caddy(或 docker-compose up -d --force-recreate caddy)。

为何这很重要:赋能您的 AI 开发

在互联网上部署 Langflow 开启了无限可能

  • 托管 MCP 服务器: 您现在可以从任何客户端——手机、工作笔记本、家用台式机等——利用模型上下文协议,使用您自己的、集中式的、由 Langflow 驱动的自托管在线 MCP 服务器。
  • 从快速原型到生产: 无缝地从 Langflow 中的可视化设计过渡到实时、交互式的 AI 应用程序。
  • API 优先的 AI: 将您的 Langflow 流程作为强大的 API 公开,任何前端、移动应用程序或后端服务都可以调用这些 API。
  • 团队协作: 与团队成员共享正在运行的 Langflow 实例,用于测试、反馈或集成。
  • 选择您的基础设施: 选择符合您的技术舒适度、性能要求和预算的托管提供商。
  • 展示您的作品: 向客户、利益相关者或更广泛的社区展示您的 AI 创意。

Langflow 不仅仅是一个工具;它得到了一个充满活力且快速发展的开发者、研究人员和 AI 爱好者社区的支持。通过部署您的 Langflow 项目并分享您的经验,您为这个令人兴奋的生态系统做出了贡献。无论您是构建一个简单的问答机器人还是一个复杂的自主 Agent 系统,您的工作都可以启发他人并拓展可能的边界。

轮到您部署了:今天就试试 Langflow!

准备好将您的 AI 项目从本地机器推向全球舞台了吗?

  1. 访问 Langflow 官方网站 了解更多信息并开始学习基础知识。
  2. 分叉 datastax/host-langflow 仓库。
  3. 选择您首选的托管提供商。
  4. 按照步骤部署您的 Langflow 实例。

一旦启动并运行,就开始构建吧!创建创新的 AI 应用程序,试验不同的模型和 Agent,并让您的想法变为现实。

我们非常期待看到您的作品! 在官方 Langflow Discord 服务器 上分享您的项目、提问并与其他开发者联系,并在 X(原 Twitter) 上关注 Langflow,获取最新更新和社区亮点!