资讯正文
大多数应用目前的AI方案,就是在产品里嵌入一个聊天窗口——用户打字(或语音)描述需求,AI去尝试完成。这种「外挂式」交互体验往往比较生硬:纯文本界面很难承载复杂的交互意图,比如你想用一个旅行App规划完整行程,却只能面对一堆文字描述,体验并不好。
CopilotKit的创始团队认为,这种方式没有充分发挥AI Agent和大语言模型的能力。他们的解决方案是:让Agent直接「看懂」并「操控」应用界面,而不只是返回一段文字。
AG-UI协议:连接AI与前端的标准
CopilotKit的开源协议**AG-UI(Agent-User Interface Protocol)**是这套方案的核心。这是一个开放标准,定义了AI Agent如何与应用界面(Web浏览器或App)通信,提供以下关键能力:
- 流式对话:实时返回进度和结果
- 前端工具调用:Agent可以触发页面的具体操作
- 状态共享:人机协作时保持上下文同步
- 动态UI生成:Agent可以根据场景动态生成交互界面,而非返回大段文字
用创始人Atai Barkai的话说:「Agent不只是用文字块回复你,而是用你公司自己设计的交互组件来响应。比如用户问『按类别展示收入分布』,返回的不是一大段难懂的文字,而是一张用户可以交互的饼图。」
开发者可以完全控制Agent能多大程度改变界面——从「像素级精确」到「提供基础组件让AI自由组装」,都可以按需配置。
AG-UI与MCP、A2A的关系
AG-UI并不是要替代已有协议,而是与它们形成互补:
| 协议 | 定位 | 解决的问题 |
|---|---|---|
| MCP(Model Context Protocol) | 数据连接层 | 让Agent能够访问外部数据源和工具 |
| A2A(Agent2Agent) | Agent间通信 | 让不同Agent相互协作 |
| AG-UI | 前端交互层 | 让Agent理解和操控用户界面 |
三者各司其职,构成完整的Agent技术栈。
融资与生态进展
本轮融资2700万美元,由Glilot Capital、NFX和SignalFire领投。资金将用于企业级工具包的开发,包括技术支持、自托管部署等功能。
生态方面,AG-UI已获得多家主流厂商支持:
AI基础设施提供商:Google、Microsoft、Amazon、Oracle
开发框架:LangChain、Mastra、PydanticAI、Agno
CopilotKit透露,AG-UI协议目前每周有数百万次安装,大型企业的生产环境中已有较高渗透率。企业客户包括Deutsche等大型金融机构。
为什么这件事值得关注
AG-UI解决的是一个根本问题:AI Agent如何真正融入用户工作流,而不只是对话窗口。在此之前,Agent能做的事情很有限——要么只能回答问题,要么需要通过复杂的API与系统对接。AG-UI提供了一条中间路径:让Agent理解界面、操作界面,同时保留人类干预的空间。
对开发者而言,这意味着不用等待每个App都提供专用API,只要App支持AG-UI协议,Agent就能直接与之交互。
我们的判断:这个消息对两类人最有价值——前端开发者和AI应用产品经理。如果你正在构建需要深度用户交互的AI应用,AG-UI值得研究;如果你在评估AI产品的落地可行性,这个协议能让「应用内Agent」的实现成本大幅下降。其他AI从业者可以先了解生态布局,密切关注协议覆盖的工具和应用数量变化。