全球金融监管机构拟加强对人工智能的监控
随着银行及金融行业其他领域加速应用人工智能,全球金融监管机构已制定计划,将加强对相关风险的监控。
监管机构提出的担忧包括:过多金融机构最终可能使用相同的人工智能模型及专用硬件,这或将导致 “羊群效应” 式的趋同行为。
二十国集团(G20)下属风险监管机构 —— 金融稳定委员会(Financial Stability Board)在报告中指出:“若可选择的替代方案有限,这种高度依赖可能会引发风险隐患。”
此外,中央银行合作机构 —— 国际清算银行(Bank for International Settlements,简称 BIS)发布的另一项研究报告称,各国央行、金融监管机构及监督部门在人工智能领域 “迫切需要” 提升自身应对能力。
国际清算银行表示:“无论是作为技术进步影响的知情观察者,还是作为该技术的使用者,这些机构都需要提升自身能力。”

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
go-dongle 1.1.6 版本发布,一个轻量级、语义化的 golang 编码解码、加密解密库
dongle 是一个轻量级、语义化的 golang 编码解码、加密解密库,100%单元测试覆盖率,已被awesome-go收录,并获得gitee2024 年最有价值项目(GVP)和gitcode2024 年度开源摘星计划 (G-Star) 项目 docs:dongle.go-pkg.com github:github.com/dromara/dongle gitee:gitee.com/dromara/dongle gitcode:gitcode.com/dromara/dongle 更新日志 [chore] 使用io.CopyBuffer简化流式处理逻辑 [chore] 优化tea加密算法,支持不同分块模式和填充模式 [feat] 增加xtea加密算法支持,包括标准处理和流式处理
-
下一篇
Liquid AI 发布 LFM2-8B-A1B:8B 参数仅激活 1.5B
高效MoE架构重塑边缘AILiquid AI推出的LFM2-8B-A1B是其LFM2系列的首个混合专家(Mixture-of-Experts, MoE)模型,总参数规模达8.3B,但每token仅激活约1.5B参数。这种稀疏激活机制在保持高表示能力的同时,大幅降低计算负载,使其适用于资源受限的设备端场景。不同于传统云端MoE模型,该设计针对实时交互优化,挑战了“小规模MoE不高效”的行业认知。 模型基于LFM2混合骨干架构,包括18个门控短卷积块和6个分组查询注意力(GQA)块。除前两层保持稠密以确保稳定性外,其余层均集成稀疏MoE前馈网络。每层配备32个专家,仅激活top-4专家,并采用归一化sigmoid路由器结合自适应偏置,实现负载均衡。支持32K上下文长度,兼容英文、阿拉伯文、中文、法文、德文、日文、韩文和西班牙文等多语言。 训练与性能:12T令牌铸就3-4B级能力LFM2-8B-A1B通过约12T令牌的预训练实现,包括55%英文、25%多语言和20%代码数据分布。随后采用Liquid Preference Alignment(长度归一化DPO/APO-Zero融合)进行后训练...
相关文章
文章评论
共有0条评论来说两句吧...