Rust 管理结构大改:解散核心团队、成立“领导委员会”
Rust 项目宣布成立新的顶级治理机构:领导委员会(Rust Leadership Council)。该领导委员会的成立,标志着此前老是闹幺蛾子的 Rust 核心团队和临时领导者职位都将被取消,此后将由 Rust 理事承担顶级治理问题的责任。
背景提要
Rust 诞生于 Mozilla ,并在其中演变多年,最初的 Rust 项目治理结构也是从 Mozilla 演变而来。在 2017 年前后, Rust 项目创建了大约六个团队,包括 core、language、mod、library 和 cargo 团队。其中核心(core)团队主要负责监督其他 Rust 团队出现的问题。
但随着语言本身的发展和社区的壮大,Rust 核心团队的权限变得越来越高,因为他们对 Rust 语言的动态拥有最高决策权,其他团队无法影响他们。此前我们就报道过 Rust 审核团队为了抗议 Rust 核心团队 (Core Team) 而集体辞职。据审核团队所言,Rust 核心团队并没有和其他成员遵循同样的行为准则 (CoC),Coc 似乎变成了核心团队 “严于律人” 的工具,特别是核心团队中的女性成员 Ashley Williams 使用 CoC 作为 “武器” 来对付男性贡献者,但自己却不遵守。
另一方面,除了权限过高, Rust 核心团队的事务又过多且杂。前文提到, Rust 核心团队的主要工作是负责监督其他 Rust 团队,但核心团队既不受其他团队的管理,也没有管理其他团队的权力。这就导致他们既要发现问题,也要自己解决问题,既当裁判又当运动员当然是忙不过来的。
总而言之,旧的治理模型 “并不是一个非常精确的文件”;其粗略的权力划分,也正是导致 Rust 管理团队治理危机的原因之一。
新的治理模式
在经历了多次治理风波后, Rust 各团队成员合力创建了一份新的、名为“ Rust 领导理事会”的 RFC 草案,这份草案决定重塑 Rust 的领导者和治理模式。
草案主要确立了以下内容:移除 Rust 核心团队,然后由各团队出一个代表,成立一个顶级的治理团队 “领导委员会”。
“领导委员会”不会亲自下场干活,而是负责一些职责不清的工作安排及其优先次序,然后对这些工作进行精确到子团队或成员的委托。
其次,“领导委员会”还要以跨团队工作、规划和项目的长期成功等为目标,成为团队之间的协调、组织和问责机构。领导委员会还需要协调因项目而导致的团队、结构或流程的变化,确保顶层团队负起责任,并负责展示 Rust 项目的官方态度。
该 RFC 由@jntrnr(核心团队成员)、@joshtriplett(语言团队负责人)、@khionu(调解团队成员)、@Mark-Simulacrum(基金会核心项目主管,发布团队负责人)、@rylev(基金会核心项目主管)、@technetos(调解团队成员)和@yaahc(基金会合作项目主管)共同撰写。
而 Rust 项目的大部分发展和维护工作(例如编译器和核心工具的维护、语言和标准库的发展、基础设施的管理等)仍由九个顶级团队负责。
第一期 Rust 领导委员会由九个顶级团队的代表组成:
- Compiler(编译器团队): Eric Holk
- Crates.io(Crates.io 团队): Carol (Nichols || Goulding)
- Dev Tools(开发工具团队): Eric Huss
- Infrastructure(基础设施团队): Ryan Levick
- Language(语言团队): Jack Huey
- Launching Pad(一个新团队,还没正式成立): Jonathan Pallant
- Library(库管理团队): Mara Bos
- Moderation(审核团队): Khionu Sybiern
- Release(发布团队): Mark Rousskov
目前 Rust 核心团队已被解散,团队成员主动或被动地“离开了”。接下来的几周内,Rust 团队的主要工作是为新的领导委员会建立基本的基础设施,包括制定定期会议计划、提出议程项目的流程,建立团队存储库,并完成从前 Rust 领导结构的过渡。
完整的 RFC 草案可在该 PR 中阅读。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Observe.AI 推出 300 亿参数联络中心 LLM 和生成式 AI 套件
对话智能平台 Observe.AI 宣布推出具有 300 亿参数容量的联络中心大型语言模型 (Contact Center LLM),以及旨在提高代理性能的生成式 AI 套件。 该公司声称,与 GPT 等模型相比,其专有的 LLM 是在大量真实世界的联络中心交互数据集上进行了训练,能够处理为联络中心团队定制的各种基于 AI 的任务(呼叫汇总、自动 QA、辅导等)。Observe.AI 强调,其模型的独特价值在于它为用户提供的校准和控制。该平台允许用户对模型进行微调和定制,以适应他们特定的联络中心要求。 “LLM 使用不同数量的参数(7B、13B 和 30B 参数)进行训练,以最大限度地提高联络中心的性能。根据初步测试,我们的 Contact Center LLM 被发现在自动总结对话方面比 GPT3.5 准确 35%,在通话期间情绪分析的准确性提高了 33%。” 凭借其 LLM 的功能,Observe.AI 的生成式 AI 套件致力于提高提高所有客户互动的代理性能:电话和聊天、查询、投诉以及联络中心团队处理的日常对话。Observe.AI 的 CEO Swapnil Jain 称,“我...
- 下一篇
蚂蚁集团证实正研发语言和多模态大模型,命名“贞仪”
根据《科创板日报》的独家消息,蚂蚁集团技术研发团队正在自研语言和多模态大模型——内部命名为“贞仪”,该项目获得了蚂蚁集团管理层高度重视,已启动数月。 多模态大模型指的是将文本、图像、视频、音频等多模态信息联合起来进行训练的模型。此前,OpenAI 联合创始人伊尔亚・苏茨克维 (Ilya Sutskever) 曾表示,“人工智能的长期目标是构建多模态神经网络,即 AI 能够学习不同模态之间的概念,从而更好地理解世界。” 值得一提的是,6 月 19 日,由清华大学计算机系教授、人工智能研究院副院长朱军带领的新团队完成了近亿级天使轮融资,由蚂蚁集团领投。这是自去年 11 月 ChatGPT 发布至今,蚂蚁集团投资的第一个 AIGC 项目。 目前业内比较知名的多模态大模型有 VisualGLM-6B 和ImageBind。VisualGLM-6B 由清华大学知识工程和数据挖掘小组发布,是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Red5直播服务器,属于Java语言的直播服务器
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- SpringBoot2全家桶,快速入门学习开发网站教程
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2整合Redis,开启缓存,提高访问速度
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7