Sam Altman 发文介绍 OpenAI 愿景:建设 AI 算力工厂
OpenAI CEO Sam Altman 近日在个人博客发表题为《丰饶的智能(Abundant Intelligence)》的长文,提出了未来 AI 基础设施建设的愿景。
Altman 表示,随着 AI 服务的快速发展,获取 AI 将成为经济发展的核心驱动力,甚至可能被视为“一项基本人权”。他强调,未来几乎所有人都希望有更多 AI 为自己工作。
在文章中,Sam Altman 提出了一个雄心勃勃的目标 —— 打造一座“每周能生产 1 吉瓦新 AI 基础设施的工厂”。他指出,这一计划的执行将极其困难,需要在芯片、电力、建筑和机器人等多个层面进行创新,但他相信这是可能实现的。
Sam Altman 还举例称,如果拥有 10 吉瓦计算力,AI 或许能够找到治愈癌症的方法、或为全球每一名学生提供个性化辅导。他强调,计算力的扩展将直接决定 AI 的潜力与应用范围。
此外,Sam Altman 透露,未来几个月将公布更多合作伙伴与计划细节,并在今年晚些时候介绍融资方案。他认为,这将是“有史以来最酷、最重要的基础设施项目”,并希望在美国本土建设更多产能,以应对全球竞争。
https://blog.samaltman.com/abundant-intelligence
以下是该博客译文:
人类对 AI 服务的使用增长速度令人惊叹,我们预计未来这种增长将更加惊人。
随着人工智能变得越来越智能,获取人工智能的能力将成为推动经济发展的根本动力,甚至最终可能会被视为一项基本人权。几乎每个人都希望有更多的人工智能在为自己工作。
为了提供世界所需的资源,这些资源既包括用于推理的算力以运行这些模型,也包括用于训练的算力以不断提升模型性能,我们正在为大规模扩展人工智能基础设施的宏伟目标打下基础。
如果人工智能继续沿着我们预期的轨迹发展,未来有可能实现一些令人惊叹的事情。也许只需 10 吉瓦的算力,人工智能就能找到治愈癌症的方法;或者用 10 吉瓦的算力,人工智能可以为地球上的每一个学生提供个性化的辅导。如果我们受到计算资源的限制,就必须在这些目标之间做出取舍;而没有人愿意做出这样的选择,所以让我们动手去建设吧。
我们的愿景很简单:我们希望打造一家工厂,每周能够生产出一吉瓦规模的新人工智能基础设施。实现这一目标将极其困难;我们需要多年时间才能达成这一里程碑,并且必须在整个技术栈的每一个层面进行创新,从芯片、电力、建筑到机器人技术。但我们一直在为此努力,并相信这一切是有可能实现的。
在我们看来,这将是有史以来最酷、也最重要的基础设施项目。我们尤其希望能在美国大规模建设这些设施;目前,其他国家在芯片工厂和新能源生产等领域的发展速度远远快于我们,而我们希望帮助扭转这种局面。
在接下来的几个月里,我们将开始介绍一些相关的计划,以及正在合作的伙伴。到了今年晚些时候,我们会谈到该项目的融资方式;鉴于算力的提升正是推动营收增长的关键,我们已经有了一些令人兴奋的新思路。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
周鸿祎:大模型不是越大越好,“大”和“有能力”并不完全成正比
9月24日,“罗永浩的十字路口”账号发布罗永浩与360创始人周鸿祎对谈的录播视频。两人对话时长近4小时。对话中,周鸿祎谈及对企业家IP与网红的观点,对Manus爆火的看法,AI对人类社会发展的影响,以及与互联网大厂的关系缓和等。 在谈及“在全职全能的模型出现之后,产品经理还有没有意义”时,罗永浩表示,具体要看如何定义“全职全能”。如果大模型所有方面的能力都比人类强,那可能没有必要了。但是那个点来临之前,产品经理是永远有用的。 周鸿祎表示赞同。他举例到,“如果去问任何一个大模型,航空发动机怎么造,航母怎么做?它肯定回答不出来。甚至让它写个AI浏览器或一套杀毒软件,它肯定做不出来。因为太多的专业知识不全是在互联网都能找到的,而是很多专家,很多企业的内部知识。” 所以,周鸿祎指出,大模型和智能体最终都要能够本地化、专业化,才能和业务结合。他还提到,大模型刚出来的时候,大家觉得应该越大越好。但现在发现“大”和“有能力”并不完全成正比。实际上很多模型很小但能力很强。 周鸿祎介绍到,现在360的战略由原本的All in AI具象化为All in智能体。360提出了三个目标。首先,员工要成为超级个体...
-
下一篇
BaikalDB MCP Server :链接数据库和AI的直通桥
导读 BaikalDB作为服务百度商业产品的分布式存储系统,支撑了整个广告库海量物料的存储。在大语言模型LLM蓬勃发展的现在,想在大模型里使用BaikalDB里的数据进行分析,都需要复杂的定制开发。看BaikalDB如何借助模型上下文协议(MCP),让数据库对话像聊天一样简单——无需编写代码,大语言模型即可完成复杂数据分析。 01 引言 在2025年以前,大语言模型(Large Language Model,LLM)想要使用数据库的数据,都需要开发人员设计接口、开发Agent插件、构建Prompt等费时费力的一系列定制开发;同时面对不同大模型的差异,还需要额外的重复性工作进行适配。 随着模型上下文协议(Model Context Protocol,MCP)的标准化普及,这一局面被彻底重构。MCP通过定义统一的上下文交互规范,为应用程序与AI模型建立了 “通用通信协议”。 基于此,BaikalDB团队创新推出BaikalDB MCP Server,将其打造为连接LLM与分布式存储系统的 “智能USB接口” ——该方案具备三大核心价值: 1. 零开发集成:支持主流LLM通过标准化协...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Crontab安装和使用
- Red5直播服务器,属于Java语言的直播服务器
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Docker快速安装Oracle11G,搭建oracle11g学习环境