Zilliz 年度印象:未来独角兽?RAG 首选?LLM 记忆体?
兔走龙来,不知不觉,又到了一年一度的保留节目—— Zilliz Moment。
AGI 时代的到来,让 Zilliz 的身上多了很多充满“时代烙印”的标签:未来独角兽、网红赛道公司、向量数据库大佬、大模型的长期记忆体、RAG 最强搭档……与此同时,我们也听说了一些有趣的标签:周边质量好、抢不到红包封面、公司产品都是鸟的名字……
那么,大家对于 Zilliz 的印象是不是真的如此标签化呢?为此,我们邀请了一些新老朋友,听听他们对于 Zilliz 过去一年的印象与看法。
- Zilliz Cloud 商业用户
我是一名中台架构部的小组长,具体公司就不透露了(谁还不是个独角兽呢)。日常工作内容是为业务同学提供稳定的数据库服务,所以经常和数据库的厂商们打交道。其实在我接触 Zilliz Cloud 之前,就已经使用过一年的开源向量数据库 Milvus(对 Milvus 社区提供的帮助表示感谢)。我们业务部门从 2023 年引入深度学习模型,也增加了 LLM 模型业务线,产生了向量的需求,且这个量到现在已经过亿级了,当时手头没有能做向量检索能力的数据库,在和部门同事的对比下选择了 Milvus,产品和社区也确实没有让我们失望,经过一段时间的试用我们向业务交付了向量数据库。
与 Zilliz 同学的结缘源于去年下半年的一次公司拜访,在使用 Milvus 的过程中我们遇到了一些运维稳定性上的问题,常常需要修修补补。Zilliz 的技术专家们给了我们一些使用建议,协助重构了表结构,推荐我们用 partitionkey 代替大量的表分 parition 带来的数据碎片,且对核心监控指标也做了细节指导。当时我们的 Milvus 是供公司内部业务使用,正规划下一年如何给客户部署可靠性服务方案,Zilliz 的专家们提出了商业版云服务的方案,并邀请我们业务上云做 POC。整个迁移过程还是顺利的,代码也考虑到了兼容性没做什么改动,一致性体检做比较好。最好的一点是性能保障的同时,业务找我协助纠错的次数少了,或者说有专门的托管服务快速解决了,帮助我们解决了核心的痛点。
在 2024 年我们还会对数据做进一步的放大,表结构也会有新增,希望 Zilliz Cloud 做大做强继续给我们提供更稳定更快速的服务,当然价格方面能给老用户回馈就更好了。
- Zilliz Cloud 商业用户
我们和 Zilliz 的交集是因为业务上要做 RAG 的相关探索,同时在文搜图场景下也有向量化的诉求。在上专业向量数据库之前,我也做过一些向量检索插件 OpenSearch、开源向量数据库方面的测试,最终选型 Zilliz Cloud。背后的主要考虑是后期业务膨胀的稳定性支持,考虑到人手问题需要专注到业务侧的快速开发,托管服务更适合我们。测试数据对比下来,比起自己部署的服务,Zilliz Cloud 的性能是能高出一筹的,且功能上的丰富性以及标向量混合检索的性能都不错,所以内部评审很顺利。
让我印象深刻的一点是,在线上线下交流过程中,Zilliz 专家们的耐心和专业度。从我自己的角度(可能我还不算专家)会去问很多细节的问题,他们都有做详细的回答并且以测试报告的形式打消疑虑,也建立了专属的联系渠道方便快速找到他们,并做了相对长时间的 POC 来保证产品确实能满足业务的诉求。
在我们后续的业务开发过程中,肯定会遇到更多的工程问题、场景问题,希望 Zilliz 从方方面面输出更多的案例帮助到我们这样的公司和行业,尤其是在技术研发和行业前瞻这块要多多输出。希望在 2024 年,Zilliz Cloud 能更进一步,在保障产品性能高速、稳定发展的同时,还能给大模型相关行业场景做出贡献。
- Zilliz Cloud 商业用户
我们应该是 Zilliz 最早的一批付费用户,其实在接触 Zilliz Cloud 之前,我们对于向量数据库是有自己的理解的,所以在业务上与 Milvus 结合得非常紧密,其使用效果和对业务的提升也非常明显。后来随着向量数据的增加,我们的运营工作负担也开始变大,所以选择了 Milvus 的商业版本 Zilliz Cloud。后来我们才慢慢发现,Zilliz Cloud 带来的不仅是运营管理效率的提升和高并发高吞吐的表现,还带来了诸如 private link、RBAC 等很多企业级功能,像多租户、混合查询等功能在业务上也给我们带来了很多启发。可以说,一直以来,Zilliz 都在为我们提供专业的 SaaS 服务,是我们能够信赖并愿意长期合作的伙伴。
- Milvus 社区 Committer 嵇斌
Milvus 2.3 终于支持 GPU 了,作为一名最早从 Milvus 0.10.0 GPU 版本用户一路追随过来的铁粉感到非常欣慰。但是突然又觉得向量数据库在支持 GPU 加速这件事情上不那么重要了。索引算法、工程优化大大提升了 Milvus 本身的性能,同时 2023 年兴起的以 RAG 为代表的大模型应用却对向量数据库在生态和灵活性上有了更多的诉求。或许这正是向量数据库最好时代的象征。
- 关注 Zilliz 的用户 那时刻
我过去一年对于 Zilliz 的印象,从完全陌生到偶然相识,到现在在应用中使用 Milvus。首先,七月份在一次公开活动中,来自 Zilliz 运营负责人李晨分享的《向量数据库:大模型的长期记忆体》让我对于 Zilliz 有了偶然相识的机会,其中印象最深的是 Zilliz 创业这么多年,只专注于向量数据库,被 Zilliz 对于技术的执着所折服。其次,通过 Milvus 这个单词发音以及其含义,知道 Zilliz 所有的产品都是鸟的名字,非常有趣。然后尝试学习和使用 Milvus 数据库,把他用于 RAG 架构开发内部 QA 机器人,它完备的 API 以及功能,让我可以快速开发这个工具。另外,可视化工具 attu 使我对于向量有更加直观的认识。
从公司层面,Zilliz Cloud 的应用,为云平台用户使用 Millvus 提供便利。Milvus 也在不停地迭代更新,支持 range search,单个 Collection 中的实体数量不断增大等等。这些功能很多来自开源社区大家的需求,Millvus 从开源中汲取了很多营养。我的总体感受,Milvus 开源社区的蓬勃发展,通过社区的需求反馈,促进 Milvus 自身的快速成长,从开源中来,到开源中去。
我希望在 2024 年 Zilliz 可以多举办些线下活动(希望来北京,因为我在,哈哈),介绍 Milvus 机制以及应用案例,促使更多的小伙伴参与其中。
- Milvus 社区用户 ZZ
我就说一句,Zilliz 每年的红包封面做得真的挺不错的,尤其是龙年的限定款。龙行龘龘!还等什么,开抢吧朋友们!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
告别 GPU 焦虑,玩转极致性价比的 CPU 文生图
作者:壮怀、竹刚 AIGC 中的 Stable Diffusion 文生图模型是开源流行的跨模态生成模型,用于生成给定文本对应的图像。但由于众所周知的原因,GPU 资源出现了一卡难求的现状,如何通过云计算快速提升业务规模,降低文生图的计算成本,以及更好的保护自定义的扩展模型?针对文生图模型特性和规模化场景,本文提供了一种新的思路,通过云原生部署方式提供推理服务 API,使用 CPU 矩阵计算能力针对模型进行无侵入优化,以及机密计算的环境的无缝切换,可以有效的替代部分 GPU 推理需求,提供稳定、高效、高性价比且安全的文生图服务。 通过在 Kubernetes 集群内添加阿里云第八代企业级 CPU 实例 g8i,不修改模型本身,通过云原生化的部署和推理优化,在 CPU 节点上实现秒级响应的成本低廉的文生图服务。本文介绍如何在 ACK 集群中快速部署一个使用 CPU 加速的 Stable Diffusion 文生图示例服务,并且您还可以将这个示例服务无缝迁移到机密虚拟机节点池中,为您的推理服务提供数据安全保护。 准备环境 在 ACK 集群内创建一个使用阿里云第八代企业级实例 g8i 的节点...
- 下一篇
腾讯蓝鲸 游戏服务全链路、真全栈无盲点可观测实践
01 序言 本文整理自2023年12月16日于北京清华大学举办的 以《网络为中心的零侵扰可观测性》的技术论坛, 来自蓝鲸观测平台团队的 刘文平 做了题为 《腾讯游戏真全栈观测实践》的演讲。 介绍了腾讯 IEG 蓝鲸观测平台如何运用前沿的 DeepFlow 的 eBPF 技术,结合传统的 APM 体系,实现了对游戏服务全链路、真全栈,无盲点观测。这一跨越系统、网络、应用、基础组件、服务到业务的监控能力,不仅提升了问题诊断的效率,还优化了应用性能,确保了游戏玩家能获得最佳的体验。 关键词: 视图、协议、应用层、开发者、蓝鲸、集成、架构、组件、插件、调用视图、系统调用、管理平台、容器管理、接入成本、数据服务、应用层数据、节点管理、服务模块 02 分享纪要 本次分享纪要总结了 刘文平 在《网络为中心的零侵扰可观测性》技术论坛上的演讲内容。演讲围绕腾讯游戏的真全栈观测实践,介绍了蓝鲸观测平台的功能、架构、以及与 OTel 和 eBPF 技术的结合使用。 以下是分享的主要内容: 1、蓝鲸观测平台介绍 提供了全面的架构图,涵盖从底层基础设施到上层 SaaS 应用的各种平台服务 观测平台位于架构中心,...
相关文章
文章评论
共有0条评论来说两句吧...