Meta 或投数十亿美元押注 AI 独角兽 Scale AI
据美媒报道,美国社交媒体巨头Meta Platforms正洽谈向AI数据标注初创公司Scale AI投资数十亿美元的投资,该笔融资的价值可能超过100亿美元。这将是Meta有史以来最大的外部AI投资。目前交易条款尚未最终确定,仍存在调整空间。
Scale AI由两位华人Alexandr Wang和Lucy Guo创立于2016年,作为AI训练数据供应链中的关键一环,Scale通过大规模合同工队伍整理、标注图像、文本等多模态数据,支撑着AI模型的训练需求,其客户包括OpenAI、微软、Meta、英伟达、美国国防部等。
优质数据的重要性毋庸置疑,AI性能高低往往由数据质量决定,Scale正是凭借这一核心能力成为资本竞逐的对象,估值亦节节攀升。
2024年5月,Scale AI宣布完成10亿美元F轮融资,估值达138亿美元。此次融资由Accel领投,英伟达、Y Combinator、老虎环球基金、亚马逊、Meta、AMD、英特尔、思科、Service Now等参投。
而今年3月底,Scale AI被曝估值再次大涨,其寻求在潜在的要约收购中获得至多250亿美元。与此同时,Scale AI正处于快速成长阶段。据此前报道,该公司2024年营收达8.9亿美元,预计2025年将翻倍至20亿美元。
Meta对Scale AI的潜在巨额投资,正是当前全球AI军备竞赛的缩影。微软已向OpenAI投入逾130亿美元,亚马逊和谷歌母公司Alphabet也分别向Anthropic注资数十亿美元。
Meta首席执行官马克·扎克伯格也在今年初宣布,Meta将在2025年投入高达650亿美元,用于增强其人工智能(AI)项目。扎克伯格称,2025年将是人工智能的关键一年,预计Meta的AI助手将为超过10亿用户提供服务,Llama4模型将成为行业领先的尖端模型。
值得一提的是,Meta与Scale AI都在国防科技上也展现出共同兴趣。上周,Meta宣布与国防承包商Anduril Industries达成合作,批准美国政府机构及国防承包商使用其AI模型。
Meta与Scale AI此前已联合推出“Defense Llama”项目,即为军事用途定制的Llama语言模型版本。与此同时,Scale AI正加速拓展国防AI业务,已赢得美国国防部AI代理技术合同。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
AI 编程工具,2 分钟写出一个贪吃蛇游戏
在过去程序员掌握一门语言,是一个漫长的过程。学习基础语法,工作中试错,不断总结经验。 随着AI技术的成熟,AI编程工具随之出现,获取代码成了一件再简单不过的事。过去程序员要实现某个功能,往往是先从技术网站下载代码,再进行一番修改。如今,借助AI编程工具,可根据需求,精准生成代码,将程序员从编写基础代码的繁琐工作中解脱,从而可将经历放在更复杂的场景处理,项目流程优化中去,实现高阶价值。 AI编程工具的出现,彻底改变了程序员的搬运,哦,不,工作模式。实现了程序员从“所见即所得”到“所需即所得”。过去我们要实现一个贪吃蛇游戏,往往是先提取需求,然后思考代码逻辑,完成代码编写后,经过测试还会有一堆问题等着我们。 以飞算JavaAI(专为Java程序员打造的AI工具) 为例,在 “智能问答” 输入指令 : 生成贪吃蛇游戏,HTML + js 。因贪吃蛇功能简单,是一个成熟的 游戏项目案例,需求指令无须过多描述,便可得到精准代码。 将生成两个文件,页面部分:HTML,逻辑代码:js 浏览效果图: 浏览器打开,生成一个完成贪吃蛇游戏。 可以通过 智能问答,多轮对话,将贪吃蛇...
- 下一篇
小红书发布首个开源大模型 dots.llm1
小红书hi lab(Humane Intelligence Lab,人文智能实验室)团队宣布首次开源文本大模型 dots.llm1,一个中等规模的Mixture of Experts (MoE)文本大模型。hi lab团队开源了所有模型和必要的训练信息,包括Instruct模型、长文base模型、退火阶段前后的多个base模型及超参数等内容。 dots.llm1的基本情况: 模型参数:总参数量142B、激活参数14B MoE配置:6in128 Expert、2个共享Expert 预训练数据:11.2T token高质量数据,显著优于开源数据 训练效率:基于Interleaved 1F1B 流水并行的AlltoAll overlap和高效Grouped GEMM的MoE训练框架 在预训练阶段,dots.llm1一共使用了11.2T 高质量token,然后经过两阶段sft训练,得到dots.llm1 base模型和instruct模型,在综合指标上打平Qwen2.5 72B模型,具体指标对照情况如下: 关于dots.llm1开源,hi lab团队声称其做到了迄今为止行业最大力度: 开源do...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合Redis,开启缓存,提高访问速度
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2全家桶,快速入门学习开发网站教程
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库