模型上下文协议(MCP)是 Anthropic 于 2024 年 3 月推出的一项开源标准,统一了 AI 系统从连接集成和 MCP 服务器中发现、检索和理解数据的方式,有效减少甚至消除手动配置需求,提升生成式 AI 结果的相关性,并确保大规模环境下的无缝上下文管理。
人工智能驱动的应用依赖于最新的上下文数据以提供准确且相关的结果——但随着部署规模扩大,手动映射和更新 API、数据库以及第三方服务之间的连接,迅速成为维护的负担。 模型上下文协议(MCP)通过定义一个统一且可扩展的框架,解决了上下文发现和交换的问题。 符合 MCP 的服务器和代理实现自动上下文同步、实时更新和无缝集成,为跨多样数据源的可扩展、可靠的 AI 工作流程提供支持。
对普通用户来说,最出色的人工智能系统仿佛有“魔力”——直观且轻松的表现激发了您的信任和沉浸感。 要实现这样的效果,必须有效利用上下文数据,但每个模型的上下文窗口有限,限制了其一次可处理的上下文量。 MCP 扩展了可检索内容的范围,通过标准化和动态分发与模型无关的上下文数据,确保您能充分利用上下文窗口。 就像 HTTP 为网络请求制定了一套通用协议,USB-C 实现了不同设备间统一的电力和数据传输标准一样,MCP 定义了一个统一接口,让 AI 系统能够跨多样集成发现、交换并顺畅管理上下文数据。
此外,MCP 在赋能智能自主型 AI 系统中发挥着关键作用,这类 AI 专为主动适应和交互动态环境及互联系统而设计。 要让 AI 代理成为高效的协作伙伴或者独立贡献者,您需要确保数据无缝可用、一致且符合标准。 但随着集成数量急剧增加,人工维护这一标准带来了“N × M”难题:在 AI 系统中将“N”个工具(如 API、代理或工作流)与“M”个资源、系统或服务连接,极大地增加了扩展复杂度。 AI 代理在能够动态、主动检索资源且无需人工干预时表现最佳,而专用 MCP 服务器正为这一检索过程提供了高效封装,有效缓解了瓶颈。
MCP 采用服务器-客户端架构运行——AI 系统作为客户端连接到代表特定工具、资源或数据源的 MCP 服务器,并向其查询功能。 MCP 服务器会返回关于其能力和与 AI 系统交互方式的信息,模型会将这些信息保存为后续使用的上下文。
当你发起提示时,模型会动态查询其 MCP 服务器网络,每台服务器都代表不同的功能集。 模型会选出最合适的连接点,并检索所需的上下文数据以有效回应——无需你明确指定数据来源。 这种模块化设计让你可以为特定场景构建定制的 MCP 服务器,也可以采用开源社区已有的版本。
MCP 在可扩展性方面的另一个关键优势是动态发现——持续扫描所有 MCP 服务器的变化,确保新能力能自动集成,同时结构更新不会中断工作流程或破坏现有连接。
MCP 具有许多引人注目的用例和应用场景。 仅举几例:
检索增强生成(RAG)是一种利用上下文数据增强基础 AI 系统或模型的技术,与 MCP 有一些相似之处,但在操作方式和应用范围上存在差异。 尽管两者都结合了上下文数据以生成更相关、更精准的输出,RAG 更适合用于非结构化数据的场景,比如将网页、PDF 或其他外部文档作为目标查找的一部分。
相比之下,MCP 更适合整合来自大型结构化数据源如客户关系管理(CRM)系统、财务报表或其他企业数据库的数据检索流程。 凭借互补的优势,MCP 和 RAG 搭配使用能发挥极大效能。 例如,MCP 可以从 CRM 中提取结构化数据,为 RAG 提供标准化、规范化的输入信息。 接着,RAG 会将这些信息与客户邮件、支持聊天记录或相关新闻等非结构化数据共同处理。 通过这种合作,AI 系统既能利用海量结构化数据,也能紧扣最相关的用户自定义上下文。
F5应用交付与安全平台(ADSP)为跨混合多云环境部署的 AI 任务提供了统一的交付与安全解决方案。 我们将应用交付和安全服务整合进一个统一平台,确保 AI 应用具备所需的性能、可靠性与可扩展性。
F5 通过实现工具、数据源和 AI 系统之间的安全高效通信,提升了 AI 驱动的工作流程。 F5 的先进流量管理和 API 安全能力确保无缝的上下文数据检索,同时降低延迟、中断或集成漏洞等风险。 借助智能路由、协议优化和实时异常检测,即使在环境不断变化时,F5 也能帮助维护 AI 应用的完整性和可用性。
通过降低复杂性、保护应用工作流程并确保可靠的集成,F5 让组织能够自信地扩展以 AI 为驱动的解决方案,同时保持无缝的性能和安全性。