红帽重新部署桌面 Linux 开发,主要开发者被调离
红帽高级开发人员 Bastien Nocera 新发布的一篇“New responsibilities”博文指出,该公司正在进一步整合在桌面 Linux 上的开发工作。
作为 Matthias Clasen 的"LibreOffice packages"电子邮件中概述的同一流程的一部分,我的管理链已决定停止桌面蓝牙、多媒体应用程序(即 totem、rhythmbox 和 sound-juicer)和 libfprint/fprintd 的所有上游和下游工作。我的其他上下游工作将根据红帽公司自己的优先事项重新分配(见下文),因为我将被调到另一个团队,处理红帽公司优先项目列表中的一个项目。
今年 6 月份,红帽宣布决定停止在 Red Hat Enterprise Linux (RHEL) 提供打包为 RPM 格式的 LibreOffice;调整后的工作重点将集中到改进 Wayland 显示服务器、支持 HDR、感色灵敏相关,以及改进 Fedora 和 RHEL 用户的工作站体验的一些工作。
在此之前,该公司还解雇了 Fedora 项目负责人 Ben Cotton。Nocera 虽然没有被解雇,但如今也被调离,“我非常失望,因为这些项目本来就资源匮乏:在过去的一年里,我花在这些项目上的时间不到我工作时间的 10%,其他项目和职责占用了我大部分时间。”
Nocera 的离开意味着一些项目的开发工作势必受到影响。以下这些 GNOME 项目在中期内都将没有 Maintainer、Reviewer 或者 Triager:
- gnome-bluetooth (包括 Settings panel 和 gnome-shell integration)
- totem, totem-pl-parser, gom
- libgnome-volume-control
- libgudev
- geocode-glib
- gvfs AFC backend
以及这些 freedesktop 项目将被存档,直至另行通知:
- power-profiles-daemon
- switcheroo-control
- iio-sensor-proxy
- low-memory-monitor
此后,Nocera 将无法审查 libfprint/fprintd、upower、grilo/grilo-plugins、gnome-desktop thumbnailer 沙箱补丁或任何与 XDG 规范相关的工作。内核工作、审查和维护,包括最近有关 SteelSeries headset 和 Logitech 设备内核驱动程序的工作、Flatpak Portal 支持的 USB revoke 或 core USB 的工作都将暂停,直至另行通知。
Nocera 称,他所有的 Fedora 软件包都在一个半月前变成了孤岛 (orphaned) 状态;RHEL 软件包大约在三周前被取消分配,之后又被重新分配,所以其无法找到新的维护者。
“如果你是将承担全部或部分 90% 未停止工作的同事,或者是依赖我的工作来进一步推进自己项目的社区成员,请与我联系,如果时间允许,我会尽力满足你的询问。如果上述情况有任何变化,我会尽量确保更新本帖,或创建一个新帖。”

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
文心一言上线百度搜索、文档摘要、文本转视频等 5 个原生插件
8 月 17 日消息,深度学习技术及应用国家工程研究中心 8 月 16 日举行 WAVE SUMMIT 深度学习开发者大会,百度首席技术官王海峰在大会上表示,文心一言大模型现已上线 5 个原生插件:百度搜索、览卷文档、E 言易图、说图解画、一镜流影。 同时,文心一言现已支持一次同时使用 3 个插件,官方称在扩展大模型能力边界的同时,更能适应场景需要。 览卷文档:原 ChatFile,可基于文档完成摘要、问答、创作等任务。 一镜流影:AI 文字转视频,从主题词、语句、段落篇章等文字描述内容,一键创作生成视频。 E 言易图:基于 Apache Echarts 为您提供数据洞察和图表制作,目前支持柱状图、折线图、饼图、雷达图、散点图、漏斗图、思维导图(树图)。 说图解画:基于图片进行文字创作、回答问题,可帮助用户写文案、想故事。 上周清华大学新闻与传播学院沈阳团队发布《大语言模型综合性能评估报告》,报告显示,百度文心一言在三大维度 20 项指标中综合评分国内第一,超越 ChatGPT,其中中文语义理解排名第一,部分中文能力超越 GPT-4。
- 下一篇
百度工程师浅析强化学习
作者 |Jane 导读 本文主要介绍了强化学习(Reinforcement Learning,RL)的基本概念以及什么是RL。强化学习让智能体通过与环境的交互来学习如何做出决策,以获得最大的累积奖励。文章还介绍了策略梯度(Policy Gradient,PG)和近端策略优化(PPO)等强化学习算法。 全文7099字,预计阅读时间18分钟。 01 强化学习(Reinforcement Learning,RL) 1.1 基本概念&什么是RL 强化学习(reinforcement learning,RL)专注于让智能体(agent)通过与环境的交互来学习如何做出决策,以使其在不断变化且不确定的环境中获得最大的累积奖励。 这个过程可以用以下几个要素来描述: 智能体(Agent):智能体是执行动作并与环境进行交互的实体。它可以是一个机器人、一个虚拟角色、一个算法等。 环境(Environment):环境包括智能体所处的所有上下文,包括外部条件、状态变量和其他影响智能体的因素。 动作(Action):智能体可以在环境中执行的操作,这些操作可能会改变环境的状态。 状态(State):状态是描...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Linux系统CentOS6、CentOS7手动修改IP地址
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS关闭SELinux安全模块
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启