秘塔AI搜索推出全新“极速”模型,响应速度最高400 tokens/秒
秘塔AI搜索推出了全新“极速”模型,新版模型不仅更快,准确率更高,逻辑也更清晰。
据介绍,秘塔AI团队通过在GPU上进行kernel fusion,以及在CPU上进行动态编译优化,在单张H800 GPU上实现了最高400 tokens/秒的响应速度,大部分问题2秒内就能答完。
用户可通过测速站点kuai.metaso.cn体验实际效果,但团队提示模型规模较小可能影响回答质量。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
GeekAI v4.2.4 发布:前端使用 Vite 重构,性能大幅提升
GeekAI 基于 AI 大语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。支持AI写作,AI生图,AI生音乐,AI生成视频,AI智能体等功能。 GeekAI v4.2.4 更新内容 功能优化:更改前端构建技术选型,使用 Vite 构建,提升构建速度和兼容性 功能优化:使用 SSE 发送消息,替换原来的 Websocket 消息方案 功能新增:管理后台支持设置默认昵称 功能优化:支持 Suno v4.5 模型支持 功能新增:用户注册和用户登录增加用户协议和隐私政策功能,需要用户同意协议才可注册和登录。 功能优化:修改重新回答功能,撤回千面的问答内容为可编辑内容,撤回的内容不会增加额外的上下文 功能优化:优化聊天记录的存储结构,增加模型名称字段,支持存储更长的模型名称 Bug 修复:聊天应用绑定模型后无效,还是会轮询 API KEY,导致一会成功,一会请求失败。 功能优化:如果管理后台没有启用会员充值菜单,移动端也不显示充值套餐功能 具体升级教程,请参考 GeekAI v4.2.4 升级教程。 演示地址 GeekAI 演示站 GeekAI 演示站(带管理...
- 下一篇
多模态大模型视觉推理能力评估:o3 仅得 25.8% 分数
清华大学、腾讯混元、斯坦福大学及卡耐基梅隆大学的研究团队近日联合发布了一项新评估基准 ——RBench-V,专门针对多模态大模型的视觉推理能力进行测试。 RBench-V 基准测试包含803道题目,涉及多个领域,包括几何与图论、力学与电磁学、多目标识别和路径规划等。与以往只要求文字回答的评估不同,这次评测特别要求模型生成或修改图像内容,以支持推理过程。这意味着,模型不仅需要理解问题,还需要像人类一样,通过绘制辅助线或观察图形结构来进行思考。 测试结果显示,即便是表现最好的 o3模型,在 RBench-V 上的准确率也仅为25.8%,远低于人类专家的82.3%。Google 的 Gemini2.5模型紧随其后,仅获得20.2% 的得分。更令人担忧的是,许多开源模型的准确率在8% 至10% 之间,甚至有些模型的表现接近随机作答。 RBench-V 的研究表明,当前的多模态大模型在处理复杂的几何问题时,往往采取了简化的策略。与人类通过直观的可视化方法进行思考不同,大部分模型更倾向于将图形问题抽象为代数表达,用文本推理代替真实的图像操作。这一现象反映出它们在深层理解图像信息上的不足。 研究团队...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- CentOS8安装Docker,最新的服务器搭配容器使用
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- Red5直播服务器,属于Java语言的直播服务器
- CentOS6,CentOS7官方镜像安装Oracle11G
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- SpringBoot2整合Redis,开启缓存,提高访问速度