
“我有一剑,可破万剑”——2025年,Agent Infra 领域迎来“破局之剑”。
引子
Cloud Native
2025 年,AI Agentic 基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen 等开源大模型的突破为 Agent 提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”——据 IDC 预测,全球 80% 企业将在年内部署 Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级:Agent Infra 成为技术攻坚的核心战场。
云厂商竞相推出新一代 Agent Infra 技术架构:
-
AWS 推出 AgentCore(预览版),官方明确其是基于 Lambda FaaS 基础设施深度定制和优化的全托管运行时,为 Bedrock Agents 解决了标准 Lambda 的关键限制,如长时执行、状态记录、会话隔离等。
-
Azure 推出 AI Foundry Agent Service,官方明确其集成 Functions FaaS 事件驱动使得 Agent Service 能够利用 Serverless 计算的事件驱动、可扩展性和灵活性,更轻松地构建和部署 Agent。
-
Google Cloud 推出 Vertex AI Agent Builder,官方虽未明确但普遍推断其高度依赖并优化了 Cloud Run(Cloud Functions 2nd Gen 已经基于 Cloud Run 来构建)来支撑长时运行、并发和有状态的需求。
-
阿里云推出函数计算 Function AI,官方明确基于 FC FaaS 的 Serverless x AI 运行时深度优化,推出模型服务、工具服务、Agent 服务,开发者可自主选择模型、运行时、工具的一个或多个以组装式设计构建和部署 Agent。
这些技术共同指向同一目标 —— 为 Agent 提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。当认知与行动完成闭环,Agent Infra 的技术代差将决定企业 AI 创新/转型的落地速度与质量。

Agent Infra 乘风而来
Cloud Native
共性需求

Agent 开发范式的演进对底层基础设施(Agent Infra)提出了全新要求。各大云厂商(AWS,Azure,Google Cloud,阿里云)的新一代 Agent Infra 聚焦长时运行、会话亲和、会话隔离、企业级 IAM 和 VPC 及模型/框架开放等技术突破,本质上是为满足三类核心 Agent 形态的共性需求:
-
LLM Agent 连续调用工具的强诉求:
LLM Agent 需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。传统 Serverless 的执行时长限制(如 AWS Lambda 的 15 分钟上限)会强制中断任务,因此新一代 Agent Infra 必须突破该限制,支持长时运行。同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。
-
Workflow Agent 对状态管理的依赖:
-
Custom Agent 的灵活性与生态整合:
Custom Agent 需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use 等),要求新一代 Agent Infra 支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。封闭式架构会限制 Agent 能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。
技术路径

新一代 Agent Infra 在保留 Serverless 核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了 LLM Agent 的持续推理、Workflow Agent 的复杂状态流转、Custom Agent 的灵活定制等核心需求。这标志着 Agent 开发正从“手动拼凑传统组件”转向“利用原生 Infra 实现高效、安全、可扩展的开发部署”这一全新的技术路径。
架构原则

在 Agent 技术架构加速进化之际,函数计算“五年磨一剑”将理论瓶颈转化为经过大规模实践验证的企业级解决方案。我们早已洞见:未来的 Serverless 架构必须遵循三大基本原则 —— 开源开放、组装式设计、灵活定制。这不是技术空想,而是业务驱动、市场淘沙的生存法则。
开源开放是赋予客户自由进化的选择权。以模型服务演进为例:PoC 阶段借力商业模型快速验证;规模扩张时采用混合架构,核心业务拥抱开源模型自主可控,边缘场景沿用商业服务降本增效;至业务成熟期,则通过微调/训练后的自有模型实现深度创新。这种阶梯式的进化路径,让企业始终掌握技术选择权。

组装式设计的本质是拒绝重复造轮子。想象一个视频转码工作流:它需无缝串联函数计算、消息队列、日志服务、对象存储等十余种云产品。真正的价值在于 ——
-
原子能力自由拼装:像搭乐高般调用高弹性、高可靠的云原生组件; -
生态级互联:跨产品 IAM 鉴权与 VPC 网络互通实现安全隔离; -
韧性设计内化:工作流自带容错、回放、自愈能力,故障不再是停机噩梦。

而灵活定制需破解更深层命题:解耦资源层与服务层。资源层持续锤炼冷启动、弹性伸缩等原子能力,成为“沉默的基石”;服务层则专注场景创新,将客户需求转化为技术驱动力。当 LLM Agent 多轮会话需求暴涨时,资源层需要快速优化长时任务和状态记录的调度算法;当 Workflow Agent 的某些工作流节点需要毫秒级响应时,服务层需要灵活调配资源如毫秒级快照+弹性策略实现冷启动加速 —— 市场价值才是技术边界的唯一标尺,打破技术边界应为用户带来价值。

如今,函数计算正以这种「双螺旋结构」推动架构进化:向下吸纳硬件红利构筑高效资源池,向上生长出企业级 Agent 创新场景。当行业仍在持续探索 Agent Infra 技术架构新形态时,我们选择以落地实践为锚点。
从Cloud Native 到 AI Native
Cloud Native
五年技术路,函数计算重塑 Serverless 版图
2020 年
函数计算业内首推 OCI 标准镜像 —— 打破 FaaS 和容器的技术边界
作为业内首个支持 OCI(Open Container Initiative)标准镜像的 Serverless 平台,函数计算彻底解决了环境依赖的碎片化问题。传统 Serverless 受限于运行时语言版本和依赖库的固化配置,而 OCI 镜像将应用与其完整运行环境打包交付,实现开发、测试、生产环境的绝对一致。这一创新直接推动 Serverless 进入企业核心生产场景,为后续 GPU 等异构计算的支持奠定基础。

2021 年
函数计算业内首推 Serverless GPU —— Serverless x AI 全新开发范式
面对 AI 负载对算力的严苛需求,函数计算首创 Serverless GPU 异构实例,突破三大技术壁垒:
-
精益使用稀缺资源:按请求实时分配 GPU 算力且支持切分使用,避免传统虚机/容器驻留导致的资源浪费; -
冷启动加速降时延:镜像加速和模型加速,秒级/毫秒级快照优化冷启动,拓宽实时/准实时推理场景; -
技术升级释放红利:1 秒计费粒度,弹性实例满足中小客户经济使用,常驻实例满足企业客户固定预算;
这一创新直接推动 Serverless 技术在图像识别、实时推理等场景的应用,拉开 Serverless x AI 的工业化序幕。

2022 年
函数计算业内首推 24 小时长时任务 —— 打破执行时长枷锁
传统 Serverless 受限于短时任务模型(如 AWS Lambda 的 15 分钟上限),难以承载视频处理、数据分析、科学计算等长时负载。函数计算率先支持 24 小时超长任务,关键技术突破包括:
-
状态持久化:内置队列实现 FIFO,由平台自动化异步消费执行,并记录任务状态; -
弹性强隔离:基于轻量级虚拟机池化技术,弹性供给算力,数据隔离/性能隔离; -
自动高可用:事件驱动任务执行,自动重试,无冗余资源浪费,成功/失败自动处理。
这一创新大大拓宽了 Serverless 在音视频处理、文件处理、批处理与流式计算等领域的适用场景。

2023-2025 年
函数计算 FunctionAI Agent 原生底座 —— 从资源供给到智能服务的生产级跨越
2023 至 2025 年,函数计算以“场景驱动技术创新、开放推进价值突破”为核心理念,推出 FunctionAI 服务,在 Serverless x AI 运行时基础上构建了三位一体的生产级能力和最佳实践:
-
模型服务:支持开发者灵活高效地自建模型(如魔搭社区、HuggingFace 数万模型的本地化部署)或云上托管微调模型(上传镜像/模型文件即完成部署),突破商业模型厂商绑定的限制,实现“框架无关、模型自主”的技术选择权;


-
工具服务:通过 MCP Server 一键托管(如高德地图导航工具、CloudOps、PolarDB、RDS、DataWorks 等数十款阿里云官方 MCP 工具),集成 50+ 开箱即用的插件工具,支持 VPC 打通企业私有生态,且可作为解决方案一键输出为企业专属 MCP MarketPlace,满足金融、政务等高合规场景的定制需求;


-
Agent 服务:基于函数计算的沙箱运行时与会话亲和/会话隔离等功能,实现 Agent Runtime/Sandbox Runtime 的弹性伸缩与安全隔离,同时开放组装式原子功能,允许将 FunctionAI 能力无缝嵌入企业自研平台。另外,FunctionAI 官方提供的 AgentFlow 服务,提供类 dify 的可视化工作流开发体验,采用自研引擎,10 倍提升 Agent 运行效率,对比 Dify 社区版,AgentFlow 可以灵活定制工作流节点,零成本打通云上生态。



展望
Cloud Native
函数计算 Agent Infra 的差异化在于“原子化组装”、“开放生态”与“选择权”:
-
不同于业界其他产品,函数计算拒绝与商业模型锁定,开发者可自由组合使用任意开源模型(如 Llama3、DeepSeek、ComfyUI、Stable Diffusion)与云上工具; -
通过 Serverless 资源池化与 VPC 深度集成,企业可在享受 SaaS 级敏捷体验(5 分钟自建模型、10 分钟构建 Agent)的同时,保障核心业务的自建掌控力 —— 这正是上文中“混合架构”演进路径的终极形态,兼顾了 SaaS 的易用性与自建的稳定性、成本可控性和定制灵活性。
当业界聚焦一体化解决方案(封闭生态或有限制的开源开放)时,函数计算选择成为“AI 乐高”的底座 —— 开发者不必在“快速验证”与“深度定制”间妥协,而是以开放架构实现“从实验室到生产可用”的无缝跨越,让 Agent 真正成为企业数字生产力的通用组件。
Serverless 是当前技术领域最有可能演进为 AI Native Infra 的技术架构,函数计算正着力于打造模块化的 Agent Infra 之剑,助力开发者从“生态应用者”进阶为“能力定义者”,最终推动 AI 技术走向开放共享的创新之路。