2024 源创会年终盛典“昇腾 AI 大模型与应用开发”分论坛顺利举行
在科技发展的浪潮中,每一次创新都预示着行业的变革。12月28日,2024 源创会年终盛典在珠海隆重举行。其中,“昇腾 AI 大模型与应用开发”分论坛聚焦昇腾在AI 大模型领域的技术、生态、应用等等多方面的创新进展。
充分发挥硬件算力,昇思MindSpore成为首选AI框架
华为昇思生态总监王神迪博士以《昇思 MindSpore Al 框架使能大模型原生创新》为题发表演讲,重点分享了昇思 MindSpore Al 框架在技术上的突破。
他表示,在文本生成、视频生成等AI场景中,序列长度突破百万tokens,超长序列成为主流标配,大模型从数据驱动走向算力驱动。大算力成为支撑更高质量大模型创新落地的最关键基础。
然而,大模型开发难度大,常稳高效训练挑战大,推理部署成本高,算力及开发迎来挑战。在这一背景下,昇思MindSpore赋能用户开发大模型能力,充分发挥硬件澎湃算力,成为了大模型领域的首选AI框架。
尤其是全新发布的昇思MindSpore 2.4版本,引入了多维混合并行技术,大规模分布式训练的性能实现最优。此外,昇思MindSpore在动静统一方面也取得了突破,提供了静态图的全栈优化和动态图能力的开放,确保了生态兼容性。作为中国乃至世界的框架“新势力”,昇思MindSpore社区下载量已经突破 1000 万,社区核心贡献者数量约 3.5 万,认证企业数超过 1500 家。昇思MindSpore 正在引领技术创新,加速全面智能化时代到来!
算力需求旺盛,昇腾Mindspeed大模型加速套件应运而生
华为主任工程师张俊怡以《昇腾大模型 MindSpeed 训练加速库系列介绍》为题发表演讲。
张俊怡认为,当前主流的大模型结构以多层transformer堆叠为核心,在此基础上,通过引入万亿级别的稀疏参数,在稠密大模型基础上加入专家并行(MoE)机制。他预计,在未来25年内,领先厂商的MoE模型参数将扩展至万亿乃至十万亿规模。随着模型越来越大,训练时间越来越长,算力需求也越来越旺盛,充分挖掘算力价值成为热门研究课题,不断涌现的热门技术集中于头部加速套件。
华为推出的昇腾Mindspeed大模型加速套件支持100+ LLM、多模态大模型,完备的算法、工具链及模型生态。该套件包括大语言模型模块、多模态模型模块、亲和加速模块三个代码仓,能够优化大模型加速的全业务流程,有效降低开发难度,确保用户开箱即用。其中,面向大规模分布式训练的多模态大模型训练套件Mindspeed-MM,实现了多模态生成、多模态理解工程架构统一,支持强大的分布式能力,预置主流多模态大模型,具备高性能及开箱即用的特点。
昇腾原生,AI应用开发使能套件确保大模型实现开箱即用
华为昇腾生态套件项目架构师潘邵武分享了昇腾在AI生态建设上的成果,并重点介绍了AI应用开发使能套件。
他表示,昇腾持续打造极致性能、极简易用的全场景AI平台,携手全产业链力量,共建昇腾AI生态,加速大模型应用创新。与此同时,昇腾已适配LLaMA-Factory、PyTorch、ONNX Runtime、Stable Diffusion Web UI等20多个重点开源生态库。
作为全栈昇腾原生的解决方案,AI应用开发使能套件能够充分激发系统的潜能,提供全流程的极致易用性,确保大模型能够实现开箱即用的便捷体验。同时,AI应用开发使能套件具备快速易用的推理模块,进一步提升了模型的应用效率。此外,该套件还预置了热点模型和数据集,大大提高了二次定制开发的效率。
最后,潘邵武透露了AI应用开发使能套件系统化社区及生态发展规划。未来,将携手企业和高校开发者,赋能社区活力,实现资源循环流动,并与电信魔乐、Gitee AI、启智等社区展开紧密合作,从工具链维度打通生态链路,共建昇腾AI生态。
基于昇腾底座,AI生态日益繁荣
迅龙软件系统开发工程师徐洋帆以《香橙派:开源+AI,探索无限可能》为题发表演讲。
据介绍,香橙派与华为昇腾正在联合研发高算力人工智能产品,如OrangePi Al pro、OrangePi Al Studio 等,具有强大的计算能力和高效的运算速度,能满足AI边缘计算、深度视觉学习及视频流AI分析等各行各业及个人开发者对AI算法原型验证、推理应用开发的需求,能让企业以更低的门槛尝试AI,推动企业的智能化升级。
徐洋帆表示,在昇腾社区,已经有100多个香橙派的应用案例、开源案例代码仓,形成了友好互助的社区环境。开发者们共同学习、激发智慧,研究和探索人工智能领域的前沿知识,分享各自的实践经验和创新成果,共建繁荣生态。
天翼云专家、魔乐社区负责人李宝龙以《与魔乐一起,繁荣国产 AI 生态》为题发表演讲。
据介绍,魔乐社区(Modelers)是全新的人工智能社区,拥有包容的工具链体系,已托管和展示的工具包括HUAWEI CANN、昇思、PyTorch等框架或平台,以及Qwen/GLM/Llama等异构最佳实践。同时,它还支持多计算平台和多Hub,包括昇腾计算平台和相应的Hub。
未来,魔乐社区将逐步托管及支持各类国产计算平台、各类AI工具,如XEdu、MinerU、LiMa-Factory、SwanLab等。他表示,魔乐社区坚持走开源、公益的路线,免费、长期支撑应用创新。值得一提的是,魔乐社区对用户制定了成长激励计划,鼓励用户在不同领域深入学习和实践,从而实现个人和专业上的成长与发展。
开源中国Gitee Al 负责人彭博以《Gitee Al 如何在国产算力上构建 Serverless API 及其应用场景》为题发表演讲。
彭博指出,模型引擎和应用引擎在使用过程中暴露出若干问题,比如模型引擎的体验失败率较高,而应用引擎在编写与GPU推理相关的代码时存在较高的门槛。
因此, Gitee AI 推出 Serverless API,接入了昇腾等多种国内外领先算力资源。开发者可直接调用不同种类的模型,无需关心底层无须关心底层的 GPU 推理代码;同时兼容 OpenAi接口,门槛低;体验稳定,部署简单;按次付费,价格实惠。
彭博还透露,2025 年,Gitee AI将接入更多算力资源,其中将增加更多昇腾算力以及自营算力。此外,还将增加模型支持,探索端侧与云端结合的AI应用场景,简化应用开发技术栈,提供Workflow工作流支持,以提升开发效率和体验。
情感机器(北京)科技有限公司 AI 生态负责人陈少宏以《SwanLab+openMind 打造国产 AI 开发者工具链》为题发表演讲,分享了打造SwanLab的心路历程。
他认为,好用的开发者工具是开发者生态的种子。基于昇腾底座,国内已经形成自己的工具生态。其中也包括SwanLab。SwanLab是一款专注于AI训练的过程记录工具,旨在帮助训练者挖掘出最有潜力的AI模型。它深度整合了超过三十种国内外流行的开源AI框架。此外,华为 AI 应用使能套件已经将SwanLab作为其官方的训练日志记录工具进行集成,将共同打造全球领先的人工智能研发工具链。
最后陈少宏表示,希望越来越多的工具能够相互集成,在未来形成“工具反哺社区,社区促进工具”的良性循环。
人工智能技术的不断创新和广泛应用,正推动着整个行业向前发展。在这个过程中,多元化的生态合作和协同进步为我国人工智能产业的繁荣贡献了巨大力量。展望未来,我们坚信,随着技术的普及和生态的完善,人工智能将为社会带来更加美好的明天。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Elasticsearch Serverless 中的数据流自动分片
作者:来自 ElasticAndrei Dan 在 Elastic Cloud Serverless 中,我们根据索引负载自动为数据流配置最佳分片数量,从而使用户无需摆弄分片。 传统上,用户会更改数据流的分片配置,以处理各种工作负载并充分利用可用资源。在 Elastic Cloud Serverless 中,我们引入了数据流的自动分片,使其能够根据索引负载自动管理和扩展。这篇文章探讨了自动分片的机制、其好处以及它对处理可变工作负载的用户的影响。自动分片的理念是积极增加分片数量并非常谨慎地减少分片数量,这样分片的增加不会因为工作负载在短时间内减少而过早地减少分片数量。 无服务器 Elasticsearch 中的数据流自动分片 想象一下,你有一个大披萨需要在聚会上与朋友们分享。如果你将披萨切成两片,供六个朋友食用,那么每片都需要供多人食用。这将造成瓶颈,一个人独占一整片,而其他人则在等待,导致共享过程缓慢。此外,并不是每个人都能同时享用披萨;你几乎可以听到那些等待的朋友的叹息声。如果更多的朋友意外出现,你将很难用两片披萨喂饱他们,并发现自己不得不当场手忙脚乱地重新塑形。 另一方面,如果你把...
- 下一篇
Vue3最新Router带来哪些颠覆性变化?
1 前后端开发模式的演变 jQuery时对大部分Web项目,前端不能控制路由,要依赖后端项目的路由系统。通常,前端项目也部署在后端项目的模板里,项目执行示意图: jQuery前端都要学会在后端模板如JSP里写代码。此时,前端工程师无需了解路由。对每次的页面跳转,都由后端负责重新渲染模板。 前端依赖后端,且前端无需负责路由,有很多 优点 如开发速度快、后端也承担部分前端任务,所以至今很多内部管理系统还这样。 缺点 如: 前后端项目无法分离 页面跳转由于需重新刷新整个页面、等待时间较长,让交互体验下降 为提高页面交互体验,很多前端做不同尝试。前端开发模式变化,项目结构也变化。目前前端开发中,用户访问页面后代码执行的过程: 用户访问路由后,无论URL地址,都直接渲染一个前端的入口文件index.html,然后在index.html文件中加载JS、CSS 之后,js获取当前页面地址及当前路由匹配的组件 再去动态渲染当前页面 用户在页面上点击时,也不需刷新页面,而直接通过JS重新计算出匹配的路由渲染。 前后两个示意图中,绿色的部分表示的就是前端负责的内容。后面这架构下,前端获得路由的控制权,在j...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Hadoop3单机部署,实现最简伪集群
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2全家桶,快速入门学习开发网站教程
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- SpringBoot2配置默认Tomcat设置,开启更多高级功能