OpenAI 发布开源安全模型 gpt-oss-safeguard
OpenAI发布了开源安全推理模型gpt-oss-safeguard,包含120B和20B两个版本,支持开发者自定义策略进行内容审核,模型基于Apache 2.0许可证开放使用。
两款不同尺寸模型支持 harmony 格式的输入输出,并提供低、中、高三级推理强度设置。它们主要面向输入输出过滤、在线内容标注、离线信任与安全审核等场景,不适用于通用生成任务。
据介绍,gpt-oss-safeguard 可直接读取开发者提供的策略文档,通过链式推理输出审核结论及依据,支持多策略并行处理,内部测试多策略准确率达52.2%,超越GPT-5-Thinking和原版GPT-OSS。该模型采用“策略直读+推理解释”机制,无需重新训练即可动态调整规则,适用于新兴风险、细分领域及样本稀缺场景。
模型下载地址:https://huggingface.co/collections/openai/gpt-oss-safeguard


