首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://www.oschina.net/news/352485

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

Telegram 与 xAI 达成 3 亿美元合作

Telegram 已与埃隆马斯克的人工智能公司 xAI 达成合作伙伴关系,通过 Telegram 分发后者的聊天机器人 Grok,并将其集成到聊天应用平台上可用的应用程序中,为期一年。 Telegram 首席执行官帕维尔·杜罗夫 (Pavel Durov)周二表示,作为交易的一部分,xAI 将向该聊天应用支付3亿美元现金和股权。 Durov 表示,Telegram 还将从通过该应用购买的 xAI 订阅中获得50% 的收入。 今年早些时候,xAI 向Telegram 的高级用户开放了 Grok 聊天机器人。现在看来,Grok 可能会向所有用户开放。 Durov 在 X 上发布的一段视频显示,Grok 可以固定在应用内的聊天顶部,用户还可以通过搜索栏向 Grok 提问。值得注意的是,Meta 还将 Meta AI 集成到了Instagram 和 WhatsApp 的搜索栏中。 视频还展示了如何使用 Grok 撰写建议、总结聊天、链接和文档,以及创建贴纸。Grok 据称还能帮助企业解答问题并协助审核。

华为公布「盘古 Pro MoE」混合专家模型

日前,华为盘古团队正式公布了昇腾原生的分组混合专家模型——「盘古 Pro MoE」。 据盘古团队介绍: 混合专家模型(MoE)在大语言模型(LLMs)中逐渐兴起,该架构能够以较低计算成本支持更大规模的参数,从而获得更强的表达能力。这一优势源于其稀疏激活机制的设计特点,即每个输入 token 仅需激活部分参数即可完成计算。然而,在实际部署中,不同专家的激活频率存在严重的不均衡问题,一部分专家被过度调用,而其他专家则长期闲置,导致系统效率低下。 为此,盘古团队提出了新型的分组混合专家模型(Mixture of Grouped Experts, MoGE),其在专家选择阶段对专家进行分组,并约束 token 在每个组内激活等量专家,从而实现专家负载均衡,显著提升模型在昇腾平台的部署效率。 据悉,盘古 Pro MoE 模型基于 MoGE 架构,团队构建了总参数量 720 亿、激活参数量 160 亿,并针对昇腾 300I Duo 和 800I A2 平台进行系统优化。 性能表现上,盘古 Pro MoE 在昇腾 800I A2 上实现了单卡 1148 tokens/s 的推理吞吐性能,并可进一步通...

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Oracle

Oracle

Oracle Database,又名Oracle RDBMS,或简称Oracle。是甲骨文公司的一款关系数据库管理系统。它是在数据库领域一直处于领先地位的产品。可以说Oracle数据库系统是目前世界上流行的关系数据库管理系统,系统可移植性好、使用方便、功能强,适用于各类大、中、小、微机环境。它是一种高效率、可靠性好的、适应高吞吐量的数据库方案。

Apache Tomcat

Apache Tomcat

Tomcat是Apache 软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun 和其他一些公司及个人共同开发而成。因为Tomcat 技术先进、性能稳定,而且免费,因而深受Java 爱好者的喜爱并得到了部分软件开发商的认可,成为目前比较流行的Web 应用服务器。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。