谷歌发布高效运行语言模型的 C++ 库:LiteRT-LM
谷歌发布了LiteRT-LM早期版本,这是一个C++库,用于在边缘平台上高效运行语言模型。
LiteRT-LM支持跨平台高效运行Gemma-3N系列模型,支持2B和4B参数模型,适用于桌面环境(Mac/Windows/Linux)及物联网设备。
LiteRT-LM的README写道:
语言模型不再是一个单一模型,而是一个由多个模型和组件协同工作的流水线。LiteRT-LM 基于 LiteRT 构建,以支持这些流水线,包括:
- C++ API 高效运行语言模型
- 跨平台支持,通过便携式 C++实现广泛部署场景
- 灵活可定制,满足您的特定功能需求
- 硬件加速,释放设备硬件的全部潜能
开源地址
https://github.com/google-ai-edge/LiteRT-LM
https://huggingface.co/google/gemma-3n-E2B-it-litert-lm-preview

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
通用型 AI 智能体 Manus 推出全新的聊天模式
Manus AI 宣布推出全新的聊天模式,并面向所有的用户免费开放。 用户可通过简洁界面进行即时问答,覆盖日常咨询、知识查询等场景,并可无缝切换至代理模式,执行网页设计、数据分析等复杂任务。 此前,代理模式需订阅或消耗点数,而此次更新后,用户无需付费即可体验基础功能,显著降低使用门槛。 自 2025 年 3 月上线以来,Manus 已吸引超 200 万用户注册,而在今年5 月,还获得 Benchmark Capital 和红杉中国 7500 万美元融资,估值达 5 亿美元。 相关阅读: 通用型 AI 智能体 Manus 新增“文字生成视频”功能 Manus 开放注册,用户每天可免费执行一项任务
- 下一篇
Meta 发布强化学习框架 LlamaRL
Meta 发布了 LlamaRL 强化学习框架,基于 PyTorch 构建全异步分布式架构,通过独立执行器并行处理生成、训练和评分任务,并整合 DDMA 和 NVLink 技术实现高效数据传输。 实测显示,该框架在 4050 亿参数模型中,将强化学习步骤耗时从 635.8 秒缩减至 59.5 秒,效率提升 10.7 倍,80 亿、700 亿参数模型训练时间分别缩短至 8.90 秒、20.67 秒。其突破内存瓶颈与 GPU 利用率难题,同时在 MATH 和 GSM8K 等标准测试中模型表现稳定甚至增强,为未来更大规模模型训练提供可扩展解决方案。 论文地址:https://arxiv.org/abs/2505.24034
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Hadoop3单机部署,实现最简伪集群
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS关闭SELinux安全模块
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7安装Docker,走上虚拟化容器引擎之路