欧盟 AI 法案已获得成员国的一致批准
欧盟《人工智能法案 ( AI Act)》是一项基于风险的监管人工智能应用的计划。目前,欧盟成员国已经投票就该法律草案的最终文本达成一致,后续将提交欧洲议会表决,这也是新法律正式颁布的最后一个步骤。
欧盟行政部门欧盟委员会于 2021 年首次提出该立法。2023 年 12 月,立法者就法律应包括的内容达成了临时协议。12 月获得临时批准的版本要求禁止有害的 AI 能用例,例如工作场所和教育机构中的情绪识别。此外,该草案还包含旨在规范高风险神经网络(例如保险和银行部门使用的神经网络)使用的规则。
12 月版本的立法将对所谓的 high-impact GPAI(或通用人工智能)模型应用第二套规则。这些附加要求指定开发人员必须检查其模型是否存在“系统性风险”并缓解他们发现的任何问题。开发人员还必须执行某些其他任务,例如报告神经网络的能效。
该法案在 12 月获得临时批准后,启动了长达数周、涉及多个欧盟成员国的谈判进程。据 Politico 报道,德国和法国曾暗示,由于担心该法案对 AI 创新的影响,他们可能会反对该法案。奥地利据说也表达了类似的立场,因为官员们对该法的隐私条款有疑虑。
为了解决这些问题,欧盟委员会针对 AI 领域推出了"一揽子支持创新措施"。还成立了一个名为"Artificial Intelligence Office "的新监管机构,负责实施《人工智能法案》。
一个由欧盟成员国官员组成的专家组将就实施过程向欧盟委员会提供建议。专家组的工作重点之一将是确保《人工智能法案》与其他法规之间没有重叠。预计这项工作将特别强调欧盟现有的一些与医疗设备和机械有关的法规。
该法案将于本月晚些时候在欧洲议会的委员会投票之前进行。如果获得批准,该法案将进入全体会议投票。大多数参与《人工智能法案》制定的欧洲议会官员预计,该法将在不对当前版本做任何修改的情况下通过。
一旦获得通过,该法案将在欧盟官方公报上发布 20 天后生效。在新规则适用于范围内的应用程序和人工智能模型之前,将有一个分级实施期——在法规中规定的人工智能禁止使用清单开始适用之前有六个月的宽限期(可能在秋季左右)。
分阶段生效还允许在基础模型(又称通用人工智能)适用规则前留出一年时间--因此要等到2025年。其余大部分规则要到法律发布两年后才适用。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
谷歌已从搜索结果页面删除“缓存链接”
谷歌确认已从搜索结果页面删除“缓存链接”,并表示将在不久的将来彻底移除缓存功能。 https://twitter.com/searchliaison/status/1753156161509916873 目前谷歌搜索结果页面不会再出现任何缓存链接,不过仍可通过在搜索框中输入搜索运算符cache:来访问谷歌缓存的快照—— 会自动跳转到 "https://webcache.googleusercontent.com/search?q=cache:",如下: https://webcache.googleusercontent.com/search?q=cache:oschina.net 谷歌表示,缓存是为了帮助用户访问页面加载太慢的网页,现在这种情况有了很大改善,因此他们决定退役该功能。 早在 2022 年,百度搜索就下线了同样的“快照功能”,当时官方的回应是“由于网页技术的发展及代际变迁所致”。 https://finance.sina.com.cn/tech/internet/2022-08-01/doc-imizmscv4375142.shtml
- 下一篇
Mixtral-8x7B Pytorch 实现
0.前言 本文从代码角度来谈下Mixtral 8x7B混合专家Pytorch的实现 1.论文概述 Mixtral-8x7B引爆了MoE的技术方向,更多针对MoE优化的Trick出现,回归模型本身来解析: Mixtral 8x7B采用了 sMoE模型结构,模型的细节如何?路由负载均衡如何计算?代码如何实现? Mixtral 8x7B的训练流程和推理流程是怎么样的,如何提高训练和推理效率? Mixtral 8x7B的模型参数是如何计算的? Mixtral 8x7B性能硬刚 LLaMA2-70B和 GPT-3.5, 性能一线水准,在 MBPP代码能力超越 3.5 2. Mixtral 8x7B 模型架构和计算流程 Mixtral is based on atransformer architecture [31]and uses the samemodificationsas described in [18], with the notable exceptions that Mixtral supports a fully dense context length of 32k toke...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS关闭SELinux安全模块
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS6,CentOS7官方镜像安装Oracle11G
- Docker安装Oracle12C,快速搭建Oracle学习环境
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作