Aave Labs 推出治理安全系统 Checkpoint,引入 AI 分析与强制人工双重审查
Aave Labs 于 4 月 16 日宣布推出 Aave Checkpoint,该系统为治理提案执行前增加结构化多层审查流程,结合自动 AI 分析与强制人工签名确认两个阶段。
Aave Labs 于 4 月 16 日宣布推出名为 Aave Checkpoint 的治理安全系统,旨在对每个提案及其负载在执行前实施结构化的多层审查。
该系统的工作流程分为两个阶段。第一阶段为自动 AI 分析:系统自动获取链上数据、提案源代码及 IPFS 文本,将相关参数与治理规范进行交叉比对,并借助 Seatbelt 工具模拟提案执行路径。与此同时,系统会调用 60 余个专项安全分析代理,覆盖漏洞检测、DeFi 特定风险分析及代理升级安全性检查等维度,最终生成含通过或失败结论的结构化审计报告。
第二阶段为强制人工审查:每份 AI 生成的报告须经至少两人独立签名确认后,方可视为审查完成。
Checkpoint 目前覆盖 Aave V3、V4、GHO 及 Aptos-v3 协议,内置 5 个自定义 Aave 治理技能与 52 个外部安全技能。
需要注意的是,该系统当前是否已正式上线运行,或仍处于发布公告阶段,原始信息中未作明确区分。
解读
Checkpoint 的设计逻辑在于将 AI 的规模化检测能力与人工判断的最终把关相结合,试图在治理提案执行前构建一道可追溯的审查屏障。对于 Aave 这类多链、多协议并行运营的 DeFi 项目而言,治理层面的安全风险历来是潜在攻击面之一。引入结构化双重审查流程,有助于降低恶意或存在缺陷的提案被执行的概率,但人工审查环节的参与者资质与独立性标准尚未公开披露,实际执行效果仍有待观察。
