Langflow 中的 MCP 集成介绍

Introducing MCP Integration in Langflow

模型上下文协议(MCP)是 Anthropic 推出的一个开放标准,其灵感主要来源于 Microsoft 和 VS Code 的语言服务器(LSP)。它旨在建立大型语言模型(LLM)应用与外部工具、API 或数据源之间的无缝互操作性。如今,每个聊天应用都有其自身的功能和实现方式,因此该标准在简化智能体 AI 应用构建方面具有巨大潜力。

客户端和服务器支持

早在今年一月,我们悄然为 Langflow 添加了 MCP 客户端和服务器支持。客户端支持意味着您可以利用当今已存在的数千个 MCP 服务器中的任何一个,并在 Langflow 中将它们用作智能体工具。服务器支持意味着您可以连接任何 MCP 客户端(包括 Claude Desktop)到 Langflow,您现有的每个流程都会作为工具暴露给客户端。

从架构上看,MCP 由以下部分组成

  • MCP 服务器是暴露来自外部系统或数据源的数据和功能的接口。服务器促进工具和 AI 系统之间的通信。MCP 服务器的例子包括允许 LLM 搜索网页、使用本地文件系统、使用数据库等的服务器。通过为您的系统构建 MCP 服务器,您可以使其对 LLM 应用可用。
  • MCP 客户端是能够连接到 MCP 服务器以检索数据或执行任务的 LLM 或 GenAI 应用。第一个 MCP 客户端是 Claude 桌面应用,Cursor 和 GooseAI 等其他 AI 应用也是 MCP 客户端。

添加 MCP 组件以使用 MCP 服务器

MCP 是一种规范,但也包含 Python 和 Node SDK 以辅助实现。该规范像 LSP 一样基于 JSON-RPC,但传输协议没有严格定义。SDK 最初支持 stdio 和 SSE 协议。前者简单地要求客户端在每次调用时启动服务器进程,并通过标准输入和标准输出进行通信。他们一经发布就提供了一份广泛支持的 MCP 服务器列表,并在最初几个月内由开发者创建了超过 1,500 个公共 MCP 服务器,获得了广泛采用。

第一个 MCP 客户端是 Claude 桌面应用,目前仅适用于 macOS 和 Windows。Claude 桌面应用目前仅支持 stdio 协议(SSE 支持尚未实现,但 SSE 实现可以通过 mcp inspector 进行测试)。

Langflow 是一个基于 Python 的开源开发和运行时环境,用于与 AI 工具交互,也是一个可用于在生产环境中运行 AI 应用的 API 后端。

据我们所知,Langflow 是唯一一个原生同时作为 MCP 客户端和 MCP 服务器运行的系统,我们相信这为基于 MCP 的可组合性打开了大门,从而创造出一类强大的新型 AI 应用。

在内部,MCP 支持多种可由服务器暴露给客户端的基本功能单元(Primitives)。这些基本功能单元包括资源、提示、工具、采样和根(更多详情请参阅MCP 文档)。作为服务器时,Langflow 会暴露工具和资源。这意味着像 Claude Desktop 等 MCP 客户端可以访问 Langflow 流程作为工具,并将上传到 Langflow 的文件作为资源。

作为客户端时,Langflow 的 MCP 组件会原生地将 MCP 工具暴露给 Langflow 原生的智能体组件,从而让 Langflow 开发者能够即时访问当前已存在的数千个 MCP 服务器。

0:00
/4:50

在 Langflow 中将 MCP 用作客户端或服务器

要查看 Langflow 使用 MCP 的实际示例,请观看Langflow + MCP:标准化 AI 工具集成,其中实现了一个用例,展示了模型上下文协议如何标准化 AI 应用与工具和资源的交互方式。

Langflow + MCP 是迈向智能体工作流程未知领域的一大步。我们迫不及待想看看您会用它构建出什么。