NEAR AI 团队在 GitHub 上开源了 AI Agent 运行框架 IronClaw,该项目以安全和隐私为核心设计目标,尝试为快速发展的 AI Agent 生态提供更加可靠的基础设施。该项目采用 Rust 重写实现,并围绕凭证保护、沙箱隔离以及本地化数据管理等能力进行了系统设计。
![]()
开源地址:https://github.com/nearai/ironclaw
据介绍,IronClaw 的设计灵感来自 AI Agent 项目 OpenClaw,但其定位更偏向“安全强化版”。随着 AI Agent 从简单聊天工具演变为能够调用 API、执行任务甚至管理账户凭证的自动化系统,安全风险也随之上升,例如密钥泄露、提示词注入攻击以及恶意工具调用等问题。IronClaw 正是针对这些场景构建的一套防护体系。
在技术架构上,IronClaw 采用 Rust 构建核心运行时,通过编译期内存安全机制降低系统风险。同时,所有 Agent 工具均运行在 WASM 沙箱中,每个工具拥有独立权限与资源限制,避免一个插件或工具被攻破后影响整个系统。
![]()
针对开发者最关注的凭证安全问题,IronClaw引入了“加密凭证保险库(Encrypted Vault)”。API Key、Token 等敏感信息会被 AES-256-GCM 加密保存,并仅在允许的网络端点调用时自动注入请求,模型本身无法直接读取这些敏感数据,从架构上降低了数据泄露风险。
此外,该项目采用 Local-first 数据架构,默认将 Agent 运行产生的数据存储在 PostgreSQL(结合 pgvector)中,并支持完全本地部署。官方强调系统默认不包含遥测数据收集机制,用户能够完全掌控自己的数据。
在功能扩展方面,IronClaw 支持插件化工具体系和 MCP 协议,并允许开发者动态构建新的 WASM 工具,使 AI Agent 能够逐步扩展能力,例如自动化任务执行、代码分析或多平台消息机器人等。
NEAR AI 表示,随着 AI 从“聊天接口”演进为“长期运行的代理系统”,Agent 将越来越多地参与真实业务流程,因此必须通过硬件可信执行环境(TEE)、运行时验证以及加密计算等机制建立新的安全模型。IronClaw正是这一方向的重要尝试。