OpenAI 等头部 AI 企业的安全监管未达到全球标准
非营利机构生命未来研究所(Future of Life Institute)最新发布了一份《AI 安全指数》报告,由 AI 领域专家对领先的 AI 公司在关键安全领域进行评级。
主要发现包括:
- 头部企业与其他企业之间仍存在明显差距。头部企业(Anthropic、OpenAI和谷歌 DeepMind)与其余受评企业(Z.ai、xAI、Meta、阿里云、DeepSeek)之间仍存在明显差距。差距最显著的领域体现在风险评估、安全框架和信息共享方面,其根源在于信息披露不足、系统性安全流程证据薄弱,以及稳健评估实践的采用程度参差不齐。
- 生存安全仍然是该行业的核心结构性弱点。所有受评公司都在竞相研发通用人工智能/超级智能,但都没有提出任何明确的计划来控制或协调这种比人类更智能的技术,因此,最严重的风险实际上没有得到解决。
- 尽管企业公开做出承诺,但其安全措施仍未能达到新兴的全球标准。虽然许多公司在一定程度上符合这些新兴标准,但实施的深度、具体性和质量仍然参差不齐,导致安全措施尚未达到欧盟人工智能实践准则等框架所设想的严格性、可衡量性或透明度。
注意:证据收集截至 2025 年 11 月 8 日,并未反映最近发生的事件,例如 Google DeepMind 的 Gemini 3 Pro、xAI 的 Grok 4.1、OpenAI 的 GPT-5.1 或 Anthropic 的 Claude Opus 4.5 的发布。
更多详情可查看完整报告:https://futureoflife.org/ai-safety-index-winter-2025/
