Linus Torvalds 将不顾维护者反对合并 Rust 内核代码
在 Asahi Linux 创始人宣布辞去项目负责人职务之后,围绕 Linux 内核中 Rust 代码的争议还在继续。
DMA 映射助手及内核其他多个领域的维护者 Christoph Hellwig 一直对 Linux 内核中的 Rust 代码及其长期可维护性持批评态度,他在最新发布的一封邮件列表帖子中指出, Linus Torvalds 私下提到将推翻维护者对内核中 Rust 代码的否决权。
考虑到最近几天的讨论,我决定发布此页面,其中包含我们的理解:https://rust-for-linux.com/rust-kernel-policy……
Linus 私下表示,他绝对会不顾维护者的反对合并 Rust 代码。因此,从现在开始,作为 Linux 开发者或维护者,无论你是否愿意,都必须处理 Rust。
这里的 Rust 代码不仅仅是指 Rust 代码——这些绑定看起来一点也不像地道的 Rust 代码,它们是一种完全不同的存在,试图弥合巨大的语义鸿沟。而且它们在某些地方并没有做到这一点,因为它们现在被塞进了每个小子系统和库中。
因此,这些绑定会像癌症一样蔓延到各处,并迅速从一个允许并追求全局改进的软件项目,转向日益增加的隔离化。这将使 Linux 变成一个用多种语言编写的项目,而没有明确的指南说明在何处使用何种语言。即使在绑定之外,由于内核数据结构(如无处不在的链表)的侵入性和自引用特性,许多代码也不会是非常地道的 Rust。我们是否既对不起那些试图将现有代码库带入更安全空间的人,也对不起那些用 Rust 进行系统编程的人?
我曾经在类似的代码库上工作过,它们是我最糟糕的噩梦,因为由于原因 X,不断有部分代码从语言 A 重写为语言 B,然后又由于原因 Z 重写回去。而这还没有算上 Linux 维护者之间常见的‘创造性’内斗。
我想了解这个 Rust ‘实验’的目标是什么:如果我们想解决现有的内存安全问题,我们需要针对现有代码进行修复,并找到改进的方法。最近在这方面做了很多工作,我们还需要更多。但这也表明,核心维护者对诸如检查整数溢出或编译器强制同步(如 clang hread sanitizer))等琐碎事情感到厌烦。我们如何弥合内核中一部分甚至不接受相对简单的安全改进规则,而另一部分却强制执行更严格规则之间的差距?
如果我们只是想使编写驱动程序更容易,那么引入一种新语言只会增加更多工作,并加重已经超负荷工作的核心基础设施维护者的负担。
因此,我认为这份政策文件没有太大用处。目前的规则是,Linus 可以强迫你做任何他想要的事情,我认为他需要非常清楚地阐明这一点,包括对贡献者的期望。
就我个人而言,我可以很好地处理 Rust 本身,我很乐意将内核带入一个更安全的内存世界,但处理一个不受控制的多语言代码库肯定会让我把业余时间花在其他事情上。我听到其他一些人嘀咕类似的话,但并不是每个人都像我这样直言不讳。
详情可查看邮件列表。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
中软国际被曝不协商直接降薪,有人直降 35%,引发员工抗议
有网友爆料,华为外包大厂中软国际员工在公司楼下聚集维权,抗议公司未提前协商突然降薪操作,疑似降薪幅度10%-35%,甚至还有传出0元工资的极端情况,引发员工强烈不满。 据悉,目前IT中心产品部确认降薪,其他受影响部门暂不清楚。有员工反映,公司在降薪的同时还在大力拓展新业务,高层薪资福利却丝毫未减,这让员工心里很不平衡。 据透露,中软国际提供了三种选择:一是按照薪资比例折合13个月+的薪资,多出来的月份按照绩效年终发放;第二种方案为直接降薪18%;或者选择在3月底主动离职。三种方案任选其一,且没有书面形式,只是口头通知。更让员工难以接受的是,此次降薪并未明确说明原因,且强制执行。 面对员工的质疑,截至目前,该外包大厂派了一个所谓的办事员前来收集员工的诉求,并承诺将与高层协商解决。“他们只是来听我们说话,却没有给出任何实质性的答复。”一位参与沟通的员工表示,“感觉就像是走过场,根本没有解决问题的诚意。” 值得注意的是,据员工爆料,中软国际的邮箱让员工可以收到邮件,但是员工发送邮件出去,发件箱和发件记录是空的,“这是怕员工留痕特意设置的。”该员工表示。更有网友爆料,甲方开价不低,到手的钱却层...
- 下一篇
DeepSeek 提出新的注意力机制:原生稀疏注意力 (NSA),创始人亲自提交论文
2 月 18 日,DeepSeek 官方发文公布了一篇新的论文,论文提出了一种新的注意力机制「NSA」。 论文地址:https://arxiv.org/pdf/2502.11089v1 据 DeepSeek 介绍,「原生稀疏注意力 (Native Sparse Attention, NSA) 」是一个用于超快长上下文训练和推断的本地可训练的稀疏注意力机制,并且还具有与硬件对齐的特点。 论文摘要: 长文本建模对下一代语言模型来说至关重要,但标准注意力机制的高计算成本带来了显著的计算挑战。稀疏注意力为提高效率同时保持模型能力提供了一个有前景的方向。我们提出了NSA(原生稀疏注意力),这是一个将算法创新与硬件对齐优化相结合的、原生可训练的稀疏注意力机制,用于实现高效的长文本建模。 NSA 核心组件包括: 动态分层稀疏策略 粗粒度 token 压缩 细粒度 token 选择 研究通过对现实世界语言语料库的综合实验来评估 NSA。其中作者评估了 NSA 在通用语言评估、长上下文评估和链式推理评估中的表现。实验结果表明,NSA 实现了与 Full Attention 基线相当或更优的性能,同时优于...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS关闭SELinux安全模块
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS7安装Docker,走上虚拟化容器引擎之路
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- SpringBoot2整合Redis,开启缓存,提高访问速度
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Windows10,CentOS7,CentOS8安装Nodejs环境