百度文心大模型 4.5 Turbo 将于 4 月 25 日亮相
百度发布官方预告,文心大模型 4.5 Turbo 将于 4 月 25 日的 Create 大会上正式亮相。
Create 2025 百度 AI 开发者大会将于 4 月 25 日在武汉体育中心举办,大会将围绕 MCP、DeepSeek、Agent、AI 编程等热点话题设置六大分会场。
除此之外,百度还表示将在 4 月 25 日带来主旨会议、生态大会等内容,以及 40 多节 AI 公开课和 5000 平米 AI 展区。现场嘉宾包括:
-
李彦宏:百度创始人、董事长兼首席执行官
-
沈抖:百度集团执行副总裁、百度智能云事业群总裁
-
王海峰:百度首席技术官
-
神秘嘉宾
不久前的 3 月 16 日,百度发布了文心大模型 4.5 和 X1,文心大模型 4.5 已上线百度智能云千帆大模型平台,企业用户和开发者登录即可调用 API;文心大模型 X1 也即将在千帆上线,百度搜索、文小言 App 等产品也将陆续接入文心大模型 4.5 和文心大模型 X1。
文心大模型 4.5 是百度首个原生多模态大模型,在多模态理解、文本和逻辑推理等方面有显著提升,多项测试表现优于 GPT4.5,API 调用价格仅为 GPT4.5 的 1%;文心大模型 X1 则是一款性能上对标 DeepSeek-R1 的深度思考模型,同时还支持多模态、多工具调用能力,API 调用价格约为 R1 的一半。
阅读更多

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
英伟达开源 2530 亿参数推理大模型,效果直逼 DeepSeek-R1
英伟达开源了NVIDIA Llama Nemotron中最大尺寸的推理模型 Llama-3.1-Nemotron-Ultra-253B-v1,可用于聊天机器人开发、AI Agent 工作流、检索增强生成(RAG)和代码生成等场景。 根据英伟达开放模型许可证及 Llama 3.1 社区许可协议,该模型已获准用于商业用途。 NVIDIA Llama Nemotron 是英伟达在上个月推出的一系列支持推理和多样化 Agent 任务的模型。该模型系列提供三种不同尺寸: Nano:8B,基于Llama 3.1 8B进行微调,适用于在个人电脑和边缘设备上实现最高精度。 Super:49B,从Llama 3.3 70B蒸馏而来,适用于在数据中心GPU上实现最高精度和最高吞吐量。 Ultra:253B,从Llama 3.1 405B蒸馏而来,适用于在多GPU数据中心服务器上实现最大智能代理精度。 当时英伟达只放出了 Nano 和 Super 两个模型版本,现在他们终于把最大的版本 Ultra 给开源了。 目前,该模型的代码已在 Hugging Face 平台上公开,包含开放的权重和训练后数据。 模型地...
- 下一篇
豆包团队开源多语言代码修复基准 Multi-SWE-bench
字节跳动豆包大模型团队宣布开源首个多语言类 SWE 数据集——Multi-SWE-bench,可用于评估和提升大模型“自动修 Bug”能力。 据介绍,在 SWE-bench 基础上,Multi-SWE-bench 首次覆盖 Python 之外的 7 种主流编程语言,是真正面向“全栈工程”的评测基准。其数据均来自 GitHub issue,历时近一年构建,以尽可能准确测评和提高大模型高阶编程智能水平。 该数据集是业内首个面向多语言代码问题修复的大模型评测基准,覆盖 Java、TypeScript、C、C++、Go、Rust 和 JavaScript 等编程语言。 论文链接:https://arxiv.org/abs/2504.02605 榜单链接:https://multi-swe-bench.github.io 代码链接:https://github.com/multi-swe-bench/multi-swe-bench 数据链接:https://huggingface.co/datasets/ByteDance-Seed/Multi-SWE-bench Multi-SWE-bench...
相关文章
文章评论
共有0条评论来说两句吧...