鸿蒙生态进入第二阶段,加速千行百业应用鸿蒙化
【中国,深圳,2024年1月18日】,华为宣布HarmonyOS NEXT鸿蒙星河版开发者预览面向开发者开放申请,这意味着鸿蒙生态进入第二阶段,将加速千行百业的应用鸿蒙化。
华为常务董事、终端BG CEO、智能汽车解决方案BU 董事长余承东公布鸿蒙生态最新进展:鸿蒙生态设备数量仅历时5个月即从7亿增长至8亿,千行百业万物互联,将打开万亿级产业新蓝海。当前,首批200多应用厂商正在加速开发鸿蒙原生应用。余承东表示,“2020年我们提出‘没有人能够熄灭满天星光’,在众多伙伴和开发者的共同努力下,鸿蒙生态大势已成。作为万物互联的全场景操作系统,鸿蒙生态属于每一位开发者。我们坚信,满天星光,终汇成璀璨星河,鸿蒙必将携手万千开发者走出一条全新的生态之路。”
鸿蒙星河版亮相,满天星光终汇成璀璨星河
鸿蒙从2015年立项至今,十年磨一剑,锻造全场景操作系统。目前鸿蒙系统已运行在众多全场景设备。HarmonyOS向下扎到根,全面突破操作系统内核、AI大模型、AI框架和编译器、编程语言等核心技术,为生态建设打下坚实底座。尤其是鸿蒙内核,超越传统内核,具备更弹性、更安全、更流畅等特性,更适应全场景设备的多样化。
目前已面向开发者开放申请的鸿蒙星河版,将打造原生精致、原生易用、原生流畅、原生安全、原生智能、原生互联等极致体验。鸿蒙也将成为历史上第一个打通硬件、打通场景,支持多样交互、自由流转的操作系统。
200+厂商加速拥抱鸿蒙,有底座有生态才是真正的操作系统
自去年9月份华为宣布HarmonyOS NEXT蓄势待发、鸿蒙原生应用全面启动以来,首批200多个鸿蒙原生应用已在加速开发,覆盖便捷生活、出行文旅、金融便利、社交资讯、生产力工具、影音娱乐、游戏等领域,鸿蒙原生应用版图已基本成型。与此同时,蚂蚁集团、中国银联、科大讯飞等伙伴,还开放垂域创新能力,协同华为的底座能力一起,给开发者提供了高效的全链路开发工具,开发工作量最高可减少90%,帮助行业加速应用鸿蒙化开发。伙伴也可通过元服务的极简开发,极速接入鸿蒙生态。这也意味着,当下正是应用厂商加速鸿蒙化、共赴全场景未来的最佳时机。
源源不断的人才,也是生态成长和进阶的不竭动力。在人才培养方面,目前已有305所高校学生参与鸿蒙活动,鸿蒙校园公开课进入135所高校,286家企业参加鸿蒙生态学堂,38万+开发者通过鸿蒙认证,150多个产学合作项目,为鸿蒙生态的持续创新和繁荣发展提供了储备充足的“粮仓”。
鸿蒙是面向全场景时代的新生态
鸿蒙是面向全场景时代的新生态,伴随鸿蒙生态进入第二阶段,华为期望携手更多开发者,加速千行百业的应用鸿蒙化,共建鸿蒙花园。
当前,用户在鸿蒙的全场景服务分发下,87.6%的需求座舱操作会由小艺完成;手机小艺月活用户数已达到2亿+,而小艺场景卡覆盖的意图项则已突破100个,一个“一切皆服务,万物可分享”的新生态已经形成。
鸿蒙星河版的端云协同原生智能特性,不止能让用户受益,还能支撑应用高效安全地使用大模型能力,低至“一行代码”即可调用鸿蒙原生智能,让开发者应用“零成本”AI化。此外,依托鸿蒙内核全新的“异构原生”并行机制,可以带来超越传统内核的极致流畅,让内存管理效率提升3倍。
鸿蒙以内核级的卓越安全能力获得行业最高安全等级认证,通过创新隐私架构,极大减少的弹窗授权,从根源上降低隐私泄露风险,全方位提升消费者对隐私保护的感知,体验更简单,隐私更安全。
为了进一步提振鸿蒙生态的发展势能,华为宣布 “耀星计划”投入70亿元激励鸿蒙开发者在鸿蒙原生应用、元服务、SDK等方面的创新。同时,华为将携手伙伴,依托鸿蒙生态学堂、高校共同培养鸿蒙人才、城市发布鸿蒙人才培养政策等方式,每月培养10万多鸿蒙开发者。并宣布开启2024HarmonyOS创新赛,最高单项奖100万元,为开发者提供了一个以赛代练、持续进阶的开放平台。
鸿蒙星河版预计在2024年Q2发布开发者Beta版,Q4发布面向消费者的商用版本。
中国互联网协会副秘书长戴炜、360集团创始人兼董事长周鸿祎、中国银联云闪付部助理总经理陈卓作为行业代表呼吁各行各业拥抱和支持鸿蒙生态建设,北京大学第三医院、小红书、美团、高德、同程等鸿蒙先锋开发者代表也分享了与鸿蒙的联合创新故事。
熠熠星光,生生不息;星河璀璨,千帆启航。华为携手伙伴和开发者驶向更广阔的的未来,一起打造一个高级简约、极致流畅、隐私安全、开放共赢的新生态体系。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Stability AI 推出更小、更高效的 1.6B 语言模型
Stability AI 宣布推出迄今为止最强大的小语言模型之一 Stable LM 2 1.6B。以英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据为基础进行了训练,体积小、速度快,降低了硬件门槛;并提供了完全透明的训练细节,旨在让开发人员和模型创建者能够快速进行实验和迭代。 Stable LM 是一种文本内容生成 LLM,Stability AI 于 2023 年 4 月首次推出了 30 亿和 70 亿参数模型。新的 StableLM 模型实际上是 Stability AI 在 2024 年发布的第二个模型,此前该公司在早些时候还发布了一个 Stable Code 3B。 Stability AI 声称,Stable LM 2 1.6B 在大多数基准测试中均优于其他参数低于 20 亿个的小语言模型,如微软的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama 1.1B 或 Falcon 1B。 不过他们也警告称,由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能会出现高幻觉率、潜在的有毒语言等类似的常见问题。“我们要...
- 下一篇
SetFitABSA: 基于 SetFit 的少样本、方面级情感分析
SetFitABSA 是一种可以有效从文本中检测特定方面情感的技术。 方面级情感分析 (Aspect-Based Sentiment Analysis,ABSA) 是一种检测文本中特定方面的情感的任务。例如,在“这款手机的屏幕很棒,但电池太小”一句中,分别有“屏幕”和“电池”两个方面,它们的情感极性分别是正面和负面。 ABSA 应用颇为广泛,有了它我们可以通过分析顾客对产品或服务的多方面反馈,并从中提取出有价值的见解。然而,ABSA 要求在样本标注时对训练样本中涉及的各个方面进行词元级的识别,因此为 ABSA 标注训练数据成为了一件繁琐的任务。 为了缓解这一问题,英特尔实验室和 Hugging Face 联袂推出了 SetFitABSA,以用于少样本场景下的特定领域 ABSA 模型训练。实验表明,SetFitABSA 性能相当不错,其在少样本场景下表现甚至优于 Llama2 和 T5 等大型生成模型。 与基于 LLM 的方法相比,SetFitABSA 有两个独特优势: 🗣 无需提示: 在使用基于 LLM 的少样本上下文学习时,提示的作用非常关键,因此一般需要精心设计,这一要求使得最终...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Linux系统CentOS6、CentOS7手动修改IP地址
- 2048小游戏-低调大师作品
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS8编译安装MySQL8.0.19
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2更换Tomcat为Jetty,小型站点的福音