前言
当一家律所兴奋地部署 Agentic AI 后,发现 Agent 调取的文件权限混乱、敏感交易数据未经脱敏就流向了协作工具——这不是 AI 的问题,而是这家律所过去十年信息治理失败的总爆发。Womble Bond Dickinson 律师事务所的实践揭示了一个被严重低估的事实:Agentic AI 的真正瓶颈,不是模型能力,而是数据质量。
从工具到伙伴:Agentic AI 的本质跃迁
理解为什么信息治理突然变得关键,先要理解 Generative AI 和 Agentic AI 的根本差异。
Generative AI 是一个你主动使用的工具——你提问,它回答,你控制边界。Agentic AI 则不同,它更像是一个可以自主行动的同事——你设定目标,它决定路径,它执行。
用 Womble Bond Dickinson 团队的话说:
「如果 Generative AI 像一个你咨询的顾问,Agentic AI 更像一个你可以委托的Associate。你设定目标,它来想办法实现。」
这意味着,当一个 Agent 被委托进行「跨部门合同审查」时,它可能自主读取:客户资料库、案例库、邮件系统、合规文档、合作伙伴数据。任何一处权限漏洞,都可能成为数据泄露的通道。
两个真实场景的解剖
场景一:监管动态监控
一家在多个司法管辖区运营的客户,需要实时追踪各地区的法规变化。传统方式是律所 paralegal 手动扫描立法更新,成本高、响应慢、容易遗漏。
Agentic 方案则是:Agent 持续监控各地区立法动态,过滤出与客户业务相关的条目,识别受影响子公司,调取排放数据(来自事务所安全知识库),生成 privileged memorandum 供合伙人审查——全程自主触发,无需人工逐一调度。
问题来了: paralegal 去做这件事时,权限边界是清晰的;Agent 自主行动时,谁来定义它能访问什么、不能访问什么?
场景二:复杂诉讼策略执行
律师给 Agent 的目标是:识别证人证词与并购估值内部通讯之间的不一致。Agent 自主构建时间线、交叉核对数字、标注逻辑漏洞、起草带有超链据的交叉质询脚本。
在这个过程中,Agent 可能访问:案件文件、电子邮件、合同草案、保密备忘录、第三方披露材料。任何一份文档的分类标签错误,都可能导致不该共享的信息被纳入分析。
信息治理为什么突然成为瓶颈
Womble Bond Dickinson 在实践中得出的结论是:在 Agent 操作系统性文件之前,必须有人能回答这五个问题:
- 该数据的分类是什么?
- 谁有权查看?
- 保留策略是什么?
- 适用于哪些信息隔离墙(Ethical Walls)?
- 哪些数据可以给 Agent 读取?
大多数律所没有在「粒度级别」上回答过这些问题。他们有信息治理团队,有文档管理政策,但这些政策的颗粒度是为人类设计的——人类可以理解上下文、感知风险、做出判断。Agent 没有这种能力,给什么就读什么。
真正的成本:不是 AI,是脏数据
Vendor 演示从来不会告诉你这些。AI 厂商展示的是完美的 demo 环境——干净的数据、清晰的权限、理想化的使用场景。真实的部署面对的是:
- 十年未整理的案件文件夹
- 散落在不同系统中的同一份合同不同版本
- 没有标签的敏感材料
- 未更新的文档保留规则
- 人员变动后无人清理的共享权限
Womble Bond Dickinson 的做法是将信息治理团队纳入 Agent 设计流程,而非仅依赖创新团队。这意味着在 Agent 上线前,信息治理团队需要对数据进行系统性盘点和分类——这不是几个月能完成的工作。
对 AI Agent 开发者的启示
这篇来自一线实践的文章,对 AI Agent 领域有几点关键启示:
第一,数据治理工具将成为 Agent 的标配基础设施。 随着 Agent 进入企业核心工作流,数据分类、权限管理、审计追踪等能力不再是可选组件,而是 Agent 可信赖的前提条件。
第二,Agent 的可靠性瓶颈在数据侧,而非模型侧。 业界习惯于将 AI 失误归咎于模型幻觉,但实际上,当 Agent 访问的是错误数据时,再强的模型也无法给出正确结论。
第三,「AI Ready」的本质是「数据 Ready」。 企业部署 Agentic AI 前,评估数据治理成熟度可能比评估模型能力更重要。
我们的判断
这篇文章的核心读者应该是正在或计划在企业环境中部署 AI Agent 的技术负责人。如果你所在的机构数据治理基础薄弱,不要被 Agent 的 demo 迷惑——部署 Agentic AI 之前,先问自己一个问题:我的数据准备好了吗?