中国 AI 初创公司「硅基流动」获近亿元天使+轮融资
36氪报道称,AI初创公司「硅基流动」(SiliconFlow)近日完成近亿元天使+轮融资。本轮融资由某知名产业方领投,跟投方包括智谱AI、360和水木清华校友基金等知名企业及机构,老股东耀途资本继续超额跟进,华兴资本担任独家财务顾问。
对本轮融资,创始人兼CEO袁进辉表示:
“非常感谢各位投资方对硅基流动的信任和支持。这次融资将帮助我们进一步加快产品创新,为开发者提供触手可及的AI云服务,促进AI应用层的繁荣,推动AGI技术普惠化。”
硅基流动是一家专注于AI Infra(AI基础设施)领域的创业公司,成立于2023年8月。创始人袁进辉是前OneFlow(一流科技) 创始人及CEO,曾任微软亚洲研究院主管研究员,获得微软亚洲研究院院长特别奖。
通俗地理解,硅基流动所在的AI Infra层,是上接AI应用层、下接算力芯片层的中间层,相当于大模型时代的“操作系统”。如何让大模型训练与推理更高效,充分释放底层硬件的潜力,降低生成式AI应用开发的门槛与成本,正是AI Infra需要解决的关键问题。
大模型训练包括对模型进行参数调优、数据训练等环节,让模型具备执行相应任务的能力;而推理则是在模型训练好之后,让模型进行预测与决策的过程,为AI应用提供智能能力。
其中,深度学习训练框架是AI Infra的重要组成部分。这个领域被大公司的开源产品所主导,典型框架有Facebook的PyTorch,谷歌的TensorFlow,国内有百度的PaddlePaddle等。从2016年开始,作为世界范围内研发工业级通用深度学习框架的唯一创业团队,袁进辉带领的OneFlow团队推出了高性能分布式深度学习框架。
之所以敢挑战以大厂主导的AI训练框架生态,是因为袁进辉确信:未来AI模型的参数量会越来越大。一旦模型变大,那么原有的深度学习框架不能满足开发者的需求,底层的AI框架就需要重构,而这是属于创业公司的机会。
随后,以GPT为代表的大模型热潮来临,OneFlow团队所积累的大模型训练技术和认知得到验证。2023年,处在大模型风口上的OneFlow团队被原美团联创王慧文所创立的大模型公司“光年之外”并购,随后,“光年之外”因故被美团并购,袁进辉带领团队创立新公司“硅基流动”。
再次出发,硅基流动依旧将方向定在AI Infra赛道。只是,随着大模型走入大规模应用落地时期,推理效率成为阻碍生成式AI应用成功的一大技术挑战。因此,硅基流动的技术方向瞄准了大模型推理领域。
延伸阅读

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
商汤发布首个“可控”人物视频生成大模型 Vimi
商汤发布首个“可控”人物视频生成大模型Vimi,该模型主要面向C端用户,支持聊天、唱歌、舞动等多种娱乐互动场景。 商汤方面称,Vimi可生成长达1分钟的单镜头人物类视频,画面效果不会随着时间的变化而劣化或失真,Vimi基于商汤日日新大模型,通过一张任意风格的照片就能生成和目标动作一致的人物类视频,并支持多种驱动方式,可通过已有人物视频、动画、声音、文字等多种元素进行驱动。 与图片表情控制类技术只能控制头部表情动作不同,商汤介绍,Vimi能够实现精准的人物表情控制,还可实现在半身区域内控制照片中人物的自然肢体变化,并自动生成与人物相符的头发、服饰及背景变化。 同时光影变化也能做到合理生成,让人物动作和视觉效果流畅自然,画面和谐唯美。更重要的是,Vimi 具备极强的稳定性,可稳定生成长达1分钟的单镜头人物类视频,画面效果不会随着时间的变化而劣化或失真,真正满足娱乐互动等需要长时间稳定视频生成需求。 据悉Vimi将完全面向C端用户开放使用。用户只需上传不同角度的高清人物图片,即可自动生成数字分身和不同风格的写真视频。目前,Vimi已在商汤科技官网开放预约。 Vimi 也入选了2024世界人工...
- 下一篇
一文为你深度解析LLaMA2模型架构
本文分享自华为云社区《【云驻共创】昇思MindSpore技术公开课 大咖深度解析LLaMA2 模型架构》,作者: Freedom123。 一、前言 随着人工智能技术的不断发展,自然语言处理(NLP)领域也取得了巨大的进步。在这个领域中,LLaMA展示了令人瞩目的性能。今天我们就来学习LLaMA2模型,我们根据昇思MindSpore技术公开课·大模型专题(第二期)第六讲_云视界live_直播_云社区_华为云 (huaweicloud.com)视频内容进行了学习整理,输出如下内容,欢迎大家前来指正。 二、LLaMA 介绍 1. LLaMA 简介 LLaMA 由 Meta AI 公司2022年发布的一个开放且高效的大型基础语言模型,共有 7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开数据集,无任何定制数据集,整个训练数据集在 token 化之后大约包含 1.4T 的 token。LLaMA 的性能非常优异:具有 130 亿参数Llama 模型「在大多数基准上」可以胜过 GPT-3( 参数量达 1750 亿),而且可以在单块 V100 GPU 上运行;而最大的 650...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装Docker,最新的服务器搭配容器使用
- Linux系统CentOS6、CentOS7手动修改IP地址
- 2048小游戏-低调大师作品
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS8编译安装MySQL8.0.19
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- MySQL8.0.19开启GTID主从同步CentOS8