研究报告 | 生成式人工智能治理与实践
《生成式人工智能治理与实践白皮书》由阿里巴巴集团、中国电子技术标准化研究院、阿里云智能集团、达摩院联合编写发布,旨在探讨生成式人工智能(AI)的发展态势、风险及其治理实践。以下是该白皮书的核心内容概要:
-
生成式人工智能的发展与担忧:
- 技术与应用突破:介绍了生成式AI在文本生成、图像生成等方面的进展,以及ChatGPT和Dall-E2等模型的发布。
- 行业应用广泛:讨论了生成式AI在医疗、教育、零售等行业的应用。
- 使用门槛降低:描述了软件供应链的完善和开源共享平台如何降低了大模型的训练和使用门槛。
-
生成式人工智能的内生问题与社会担忧:
- 个人信息保护、内容安全、模型安全和知识产权等方面的挑战。
- 社会对生成式AI的担忧,包括信息安全和伦理道德问题。
-
治理愿景和框架:
- 国际社会治理特点:强调多元主体协同共治,创设例外保留创新空间。
- 我国的治理特点:促进发展与重视治理并行,加强科技伦理治理。
-
风险产生原因的分析:
- 构建生成式大模型的条件:算力、数据、算法、生态和人才。
- 语言大模型和视觉大模型的风险来源分析。
-
风险治理实践和探索:
- 治理格局建设:针对性立法、政策完善、产业自律自治。
- 不同环节的风险治理:模型训练、服务上线、内容生成、内容传播的风险管理。
- 个人信息合规、内容安全保障、模型安全防控、知识产权探索。
-
多主体协同敏捷治理体系:
- 敏捷治理的理念与特点:平衡性、协同性、灵活性。
- 多主体协同下的敏捷治理探索与实践:政府规范引导、产业守正创新、社会监督理解。
-
总结与展望:
- 强调发展和安全的协调统一,采用包容、敏捷的新型治理工具。
- 针对研发过程设置安全措施,针对重点风险域形成治理方案。
- 重视技术化的治理手段,提升生成式AI的治理技术。
白皮书还提供了专业名词解释,包括生成式AI、大模型、AIGC、UGC、PGC、内生安全、无监督预训练、有监督微调、基于人类偏好的强化学习(RLHF)、深度合成、Query、Response、鲁棒性、泛化性、公平性、可信赖、可解释性、可靠性、可控性、可问责、伦理、偏见、透明性等。
整体而言,白皮书提出了一个全面的风险治理框架,旨在确保生成式AI技术的健康发展,同时解决伴随其发展而来的社会、伦理和法律问题。
报告详情可至「开源中国 APP - 报告模块」下载查看。
APP 下载地址:
(目前仅提供 Android 版本)
