OpenAI 与博通达成战略合作,开发定制 AI 芯片
OpenAI官宣与博通(Broadcom)建立战略协作,双方将联合开发定制AI芯片并部署规模达10吉瓦的推理基础设施,计划于2026至2029年分阶段落地,标志着OpenAI向AI基础设施自主化迈出关键一步。
此次合作突破传统“采购芯片”模式,由OpenAI主导芯片设计,注入模型算法洞见,博通则负责底层架构协作、硬件集成及网络方案支撑,涵盖芯片制造、网络互联至数据中心优化全链路。其定制芯片针对大型语言模型负载优化,结合博通硅光子学技术,可降低15-20%功耗并减少30%以上数据传输瓶颈。
OpenAI CEO Sam Altman表示,此举旨在构建从硬件到服务的全链条系统,破解算力短缺难题。该合作预计将大幅缩短万亿参数模型训练周期,为全球数十亿用户的智能助理规模化落地提供算力基座,同时推动AI硬件从通用向专用化转型。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
Andrej Kaparthy 开源 nanochat:从零开始的极简全栈训练/推理方案
“Vibe Coding” 概念提出者 Andrej Karpathy 刚刚发布了名为「nanochat」的开源项目: nanochat 是类似于 ChatGPT 的 LLM 全栈实现,代码库单一、简洁、最小化、可定制且依赖极少。 nanochat 设计用于在单个 8XH100 节点上通过如 speedrun.sh 之类的脚本运行,实现从开始到结束的完整管道处理。这包括分词、预训练、微调、评估、推理以及通过简单的 UI 进行网络服务,这样你就可以像与 ChatGPT 交谈一样与自己的 LLM 交谈。 https://github.com/karpathy/nanochat 下面内容来自Andrej Kaparthy 的推特: 与我之前的项目 nanoGPT 不同——后者只涉及预训练部分——nanochat 是一个极简、从零构建的、完整的 ChatGPT 克隆版训练与推理全栈流程。整个系统被封装在一个几乎没有依赖的代码库中。 你只需要启动一台云端 GPU 服务器,运行一个脚本,大约 4 小时后,你就能在 ChatGPT 风格的网页界面上与自己的 LLM 对话。 整个项目约 8000 行代...
-
下一篇
Rancher 社区双周报| Longhorn v1.10.0 重磅发布
在本期 Rancher 社区双周报 中,我们为大家带来了多个核心产品的最新版本动态: Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本,其中 v1.10.0 引入了 V2 Data Engine 的重大增强,带来更高性能与更强扩展性; Rancher 发布了四个版本(v2.9.12、v2.10.10、v2.11.6、v2.12.2),其中多个 Prime 版本聚焦于安全修复与系统稳健性提升; RKE2 与 K3s 分支均完成了 Kubernetes 版本的例行更新,优化核心组件并强化集群可靠性; 同时,Harvester v1.5.2 带来了更流畅的虚拟化体验,K3k v0.3.5 则在资源同步与镜像管理方面持续进化。 这一系列更新共同展现了 Rancher 技术生态的持续完善与活力,为用户在容器、虚拟化与边缘计算场景中的落地提供了更加坚实的基础。 Longhorn Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本更新。本次更新聚焦于系统稳定性与性能增强,同时引入了多项新特性与兼容性优化,进一步提升了 Longhorn 在企业级云原生存储场景中的...
相关文章
文章评论
共有0条评论来说两句吧...