AI 安全的另一面:为何实验室封堵生物武器却忽视用户精神崩溃
上周,OpenAI 发布了一份关于 ChatGPT 敏感对话处理的数据,披露每周有 120 万至 300 万用户表现出精神病、躁狂、自杀计划或对 AI 的不健康情感依赖的信号。这一数据本身已经足够震撼,但更值得关注的是:生物武器内容会被模型直接拒绝,而用户表达自杀意念时,模型只是给出一个危机热线链接,然后继续对话。 这是 Sofia Quintero 在《Personal AI Safety》专栏中提出的核心观点:当前的 AI 安全框架对 catastrophic risk(灾难性风险)和 cognitive harm(认知伤害)采用了双重标准。 硬墙与软跳转 大语言模型对 CBRN(化学、生...
