扎克伯格:开源是 AI 积极发展的必要条件
Meta 在今天凌晨正式发布新一代开源大模型 Llama 3.1 系列。与此同时,Meta 创始人兼首席执行官马克·扎克伯格也发布了一封名为“Open Source AI Is the Path Forward”的公开信,描绘了 AI 发展的未来愿景。
他以闭源版 Unix 和开源 Linux 的发展为例,类比了 AI 行业的发展。
“在高性能计算的早期,当时的各大科技公司都投入巨资开发自己的闭源版 Unix。当时很难想象还有任何其他方法可以开发出如此先进的软件。但最终,开源 Linux 还是流行起来了......我相信 AI 也会以类似的方式发展。如今,一些科技公司正在开发领先的封闭模型。但开源正在迅速缩小差距。”
扎克伯格认为,Llama 如今已经在开放性、可修改性和成本效益方面处于行业领先地位。并预计从明年开始,Llama 型号则将成为业内最先进的型号。
为了佐证自己的观点,他例举了开源 AI 对开发人员更有利的几大因素,包括:可以拥有自己的模型进行训练、微调和提炼;不会被单一封闭的供应商所束缚;数据保护;高效且运行成本低廉的模型以及长期标准的生态系统。
而对于外界常提及的“是否担心开源 Llama 会放弃技术上的优势”这一问题,扎克伯格也进行了否认,并给出了几大缘由:
首先,为了确保我们能够使用最好的技术,并且不会长期被困在封闭的生态系统中,Llama 需要发展成为一个完整的生态系统,包括工具、效率改进、芯片优化和其他集成。如果我们是唯一一家使用 Llama 的公司,那么这个生态系统就不会发展,我们的境况也不会比封闭的 Unix 好。
其次,我预计 AI 开发将继续保持高度竞争,这意味着开源任何给定模型并不会失去当时相对于下一个最佳模型的巨大优势。Llama 成为行业标准的道路是一代又一代地保持竞争力、高效和开放。
第三,Meta 与封闭模型供应商之间的一个关键区别是,出售 AI 模型访问权限不是我们的商业模式。这意味着公开发布 Llama 不会像封闭提供商那样削弱我们的收入、可持续性或投资研究的能力。(这是一些封闭提供商不断游说政府反对开源的原因之一。)
最后,Meta 拥有悠久的开源项目和成功历史。我们通过开放计算项目发布我们的服务器、网络和数据中心设计,并让供应链在我们的设计上实现标准化,从而节省了数十亿美元。我们通过开源领先的工具(如 PyTorch、React 等)从生态系统的创新中受益匪浅。只要我们长期坚持,这种方法就会一直对我们有效。
在常争论的开源 AI 模型的安全性方面,扎克伯格的观点也是开源 AI 比其他选择更安全。
总的来说,扎克伯格认为开源 AI 将有利于开发人员、Meta 以及整个世界。他指出,开源是 AI 积极发展的必要条件,将确保全世界更多的人能够享受到 AI 带来的好处和机遇,确保权力不会集中在少数公司手中,确保这项技术能够在全社会得到更均衡、更安全的应用。
“当你考虑未来的机遇时,请记住,当今大多数领先的科技公司和科学研究都是建立在开源软件之上的......最重要的是,开源 AI 能代表了世界上利用这项技术为每个人创造最大经济机会和安全的最佳机会。”

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Meta 发布新一代开源大模型 Llama 3.1
今天凌晨,Meta 正式发布新一代开源大模型 Llama 3.1 系列,提供 8B、70B 及 405B 参数版本。 Llama 3 使用了超过 1.6 万个 H100 GPU、以及超过 15T token 的公开数据进行训练。 架构方面,该模型选择标准的仅解码器 transformer 模型架构进行调整,而不是混合专家模型,以最大化训练稳定性。 此外,Llama 3 采用了迭代的后训练程序,每一轮使用监督微调和直接偏好优化。 Meta 表示,Llama 3.1 系列在推理能力和多语言支持方面进行了改善,其上下文长度被提升至 128K,而模型参数也被提高到了 4050 亿规模,是近年来规模最大的大语言模型之一。该模型在通用常识、可引导性、数学、工具使用和多语言翻译等广泛任务中足以对标 GPT-4、Claude 3.5 Sonnet 等领先闭源模型。 Llama 3.1 现已于 Meta 官网和 Hugging Face 开放下载。 Llama 3.1 论文:https://ai.meta.com/research/publications/the-llama-3-herd-of-mod...
- 下一篇
比 RAG 更强的 AI 内存层 Mem0
Mem0 为大型语言模型提供了一个智能、自我改进的内存层,从而实现跨应用程序的个性化 AI 体验。 Mem0 包含对各种流行的大模型的内置支持,内存可以利用用户提供的 LLM,确保特定需求的高效使用,支持: 核心能力 用户、会话和 AI Agent 留存:跨用户会话、交互和 AI Agent 保留信息,确保连续性和上下文。 自适应个性化:根据用户交互和反馈不断改进个性化。 开发者友好的 API:提供简单的 API,可无缝集成到各种应用中。 平台一致性:确保不同平台和设备上的行为和数据一致。 托管服务:提供托管解决方案,以便于部署和维护。 与 RAG 的区别: 实体关系:Mem0 可以理解和关联不同交互中的实体,可以更深入地理解上下文和关系。RAG 则从静态文档中检索信息。 信息新鲜性、相关性和衰减:Mem0 优先考虑最近的交互并逐渐忘记过时的信息,确保记忆保持相关性和最新性,以便做出更准确的响应。 情境连续性:Mem0 在会话之间保留信息,保持对话和交互的连续性,这对于虚拟伴侣或个性化学习助手等长期参与应用程序至关重要。 自适应学习:Mem0 根据用户交互和反馈提高其个性化,使得记忆更...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Windows10,CentOS7,CentOS8安装Nodejs环境
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 2048小游戏-低调大师作品
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- 设置Eclipse缩进为4个空格,增强代码规范