deepin 加入甲辰计划,共建 RISC-V 繁荣生态
内容来源:deepin(深度)社区
今日,deepin(深度)社区宣布正式加入甲辰计划,致力于在下一个丙辰年(2036龙年)之前,基于RISC-V实现从数据中心到桌面办公、从移动穿戴到智能物联网全信息产业覆盖的开放标准体系及开源系统软件栈,使RISC-V软硬件生态达到作为主流指令集架构所需的生态成熟度。
deepin(深度)社区成立于2008年,在电脑操作系统开发领域经验沉淀深厚,是全球规模最大且最活跃的操作系统开源社区之一,也是中国首个桌面操作系统根社区。deepin作为目前国际Linux发行版排名最高的国产操作系统,一直致力于为用户提供更广泛的硬件支持。deepin自2022年2月就启动了RISC-V适配事项,现已成功支持了x86、ARM、loongArch、RISC-V各类主流CPU架构,在RISC-V硬件生态方面已和多家板卡厂商完成适配合作。
deepin 全面构筑 RISC-V 生态体系
deepin支持了大部分主流的RISC-V硬件和开发板,包括但不限于:
- Hifive unmatched
- 进迭时空 SpacemiT MUSE™ Box
- 赛昉科技 VisionFive 1、VisionFive 2
- 群芯闪耀MilkV Mars
- 矽速科技荔枝派LicheePi 4A
- DC ROMA笔记本电脑以及阿里巴巴达摩院 玄铁曳影1520
软件方面,deepin适配完成RISC-V开源软件生态,提供超过27000+软件包。绝大部分deepin自研软件完成适配工作,包括影院、音乐、看图、设备管理器、deepin-IDE等,提供了基于RISC-V开发板的GPU驱动解决方案,保障了大部分RISC-V开发板GPU的运行。
此外,经deepin团队严格的适配及测试,DDE桌面环境运行良好,不仅基础系统、有线网络、USB接口等基础模块正常使用,并能够支持HDMI输出及图形界面的显示。deepin将持续提供软件更新和性能优化,确保用户获得最佳体验。
面对RISC-V的快速发展,deepin各项工作正在全力推进。我们还将完善相关基础支持,进一步提高运行的稳定性,提升应用生态的构建,同时在技术方面也展开积极地探索。
此次加入甲辰计划,deepin(深度)社区将依托自身的技术积累和研发实力,与RISC-V软硬件厂商积极交流合作,一同构筑完整的生态体系,持续助力RISC-V生态繁荣发展。相信甲辰计划的全面推进,RISC-V将在不久的将来得到广泛的应用和认可。
deepin RISC-V最新版本可以在社区官网:https://www.deepin.org/zh/download/下载使用
我们期待更多感兴趣的朋友加入deepin-ports SIG组,讨论更多关于RISC-V的内容,为推动deepin & RISC-V 生态贡献力量。
deepin-ports SIG组入口:https://github.com/deepin-community/SIG/tree/master/sig/deepin-ports
关于甲辰计划
甲辰计划(RISC-V Prosperity 2036)诞生于2024年除夕,由国内多家 RISC-V 软件及芯片团队联合发起,并已经吸引数十家国内外从事 RISC-V 产品及软件开发的企业加入。我们相信RISC-V 生态正在进入前所未有的爆炸式增长的初期阶段:在2025年,RISC-V或将迎来预计超过100万名RISC-V应用开发者,与此同时RISC-V将在2025年进入世界超算TOP500、并在2030年进入TOP10。我们正处于一个计算机体系架构和基础软件系统的黄金时代,开放指令集架构带来了大量新的科学问题和工程挑战。
附录:
(1)deepin RICS-V 最新版本:https://www.deepin.org/zh/download/
(2)deepin 历史版本镜像(含 deepin V15):https://distrowatch.com/index.php?distribution=deepin

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Bun 在解码 Base64 方面比 Node.js 22 快得多,但两者都依赖于相同的库
在最近的一则推文中,计算机科学家 Daniel Lemire 指出,JavaScript 运行时 Bun 在解码 Base64 输入时,比 Node.js 22 快了数倍。尽管两者都依赖于同一个底层库 simdutf 来进行实际解码,但 Node.js 在与其底层 JavaScript 引擎 v8 交互时遇到了瓶颈。 Lemire 详细解释了问题的根源在于 Node.js 在开始解码字符串之前,需要通过调用 String::Value 函数来获取字符串的值。这一步操作会在 Node.js 内部分配一个数组,并要求 v8 将内容复制到这个数组中。由于无法直接访问 v8 中存储的字符串,Node.js 被迫将纯 ASCII 字符串转换为 UTF-16,导致了不必要的性能损失。 Lemire 的分析显示,Base64 解码过程仅占总运行时间的五分之一,而字符复制过程则占据了将近一半的时间。这种多余的转换不仅浪费了资源,还使得整个解码过程效率低下。 与此同时,Bun 通过不同的架构设计,避免了这些性能瓶颈。Bun 使用了 JavaScriptCore 引擎,并通过优化字符串处理路径,直接处理 ...
- 下一篇
阿里通义 Qwen2 成斯坦福大模型榜单最强开源模型
斯坦福大学基础模型研究中心主任Percy Liang在社交平台发布了HELM MMLU最新榜单,阿里巴巴的通义千问开源模型Qwen2-72B排名第5,仅次于Claude 3 Opus、GPT-4o、Gemini 1.5 pro、GPT-4,性能超越Llama3-70B模型,是排名第一的开源大模型,也是排名最高的中国大模型。 阿里通义千问 Qwen2 大模型于 6 月初宣布开源,包括了 5 个尺⼨的预训练和指令微调模型,:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 以及 Qwen2-72B。 在中⽂英语的基础上,训练数据中增加了 27 种语⾔相关的⾼质量数据;上下文长度支持进一步扩展,最⾼达到 128K tokens(Qwen2-72B-Instruct)。并采⽤了不同的模型许可。除了 Qwen2-72B 依旧使⽤此前的 Qianwen License 外,其余模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B 以及 Qwen2-57B-A14B 在内,均采⽤ Apache 2.0 的许可。 目前,Qwen系列模型下载...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 设置Eclipse缩进为4个空格,增强代码规范
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS关闭SELinux安全模块
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS8编译安装MySQL8.0.19