首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://www.oschina.net/news/359810

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

微软开源轻量级推理模型 Phi-4-mini-flash-reasoning

微软发布了一款专为受限环境设计、参数量仅为3.8B的轻量级开源模型Phi-4-mini-flash-reasoning,其在数学推理任务上表现出色,且吞吐量大幅提升。 Phi-4-mini-flash-reasoning专为在内存和计算资源受限的环境下执行高强度、多步骤的数学推理任务而设计。该模型采用了混合SambaY架构,结合了差分注意力、状态空间模型(SSM)和分组查询注意力(GQA),并支持64K的上下文长度。 Phi-4-mini-flash-reasoning的训练数据完全由更强大的推理模型Deepseek-R1生成的合成数学内容构成,旨在从更强的模型中提炼知识。 在AIME、Math500和GPQA Diamond等多个数学推理基准测试中,Phi-4-mini-flash-reasoning的表现与许多参数量远大于它的模型相当。与Phi-4-mini-reasoning相比,新模型在处理长序列生成任务时,吞吐量提升高达10倍,且延迟增长接近线性。 该模型已在Hugging Face上以MIT许可证发布,并可在Azure AI Foundry中使用。 https://hugg...

MiniCPM 端侧客户端正式发布并开源

MiniCPM 端侧客户端已正式发布。 全面支持 Intel Core Ultra 系列处理器本地部署,低延迟、高效率、隐私更安全。 基于 OpenVINO 推理框架深度优化,推理速度至高可达每秒 80 tokens! 专为开发者、研究人员与 AI 爱好者打造的本地大模型新体验。 主要功能: 支持 与模型进行文本&图片对话 支持 调用Intel集成显卡加速 支持模型: MiniCPM 4.0 8B & 0.5B MiniCPM 3.0 4B MiniCPM-V 2.6 8B(多模态) MiniCPM-V 2.0 2.8B(多模态) MiniCPM-2B-128K MiniCPM-1B-SFT-BF16 配置要求: 建议使用英特尔酷睿 ultra7 及以上移动端处理器 建议运行内存 32GB 及以上 下载地址:https://github.com/OpenBMB/MiniCPM/releases/tag/2.4.2

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。