日本政府将开始探讨 AI 法律监管
日本共同社消息称,日本政府正在考虑对大型 AI 系统开发商制定具有法律约束力的法规,以确保他们采取措施应对虚假信息和其他风险。
尽管该政府此前倾向于自愿采取此类措施,但出于对 AI 潜在滥用的担忧,日本政府已经认识到有必要制定类似于欧盟和其他国家所采取的惩罚性法规。他们计划召集 AI 专家委员会讨论该问题,并考虑将新规定纳入将于六月左右编制的经济和财政管理政策指南中。
日本计划不久将发布指导方针,列出包括“以人为本”和安全使用 AI 在内的 10 项原则。根据其执政党自民党一个项目小组上个月发布的草案,开发先进技术(例如生成型 AI 聊天机器人 ChatGPT)的企业将被指定为“AI 基础模型开发商”。
在高风险领域使用 AI 的企业将被要求进行内部或外部安全验证,并与政府共享风险评估。政府指定的开发商还将被要求向政府或第三方机构报告其合规状况。如果不遵守规定,政府可以要求报告或进行现场检查,并对违规行为处以罚款和其他处罚。
此前,欧洲议会本月早些时候通过了世界上第一个全面的 AI 法案,预计将于 2026 年生效,并对违规行为处以巨额罚款。拜登 - 哈里斯政府也宣布批准了一份安全软件开发认证表,任何提供政府将使用的软件的公司都需要填写该表格。
相关阅读:
