首页 文章 精选 留言 我的

精选列表

搜索[开启],共10000篇文章
优秀的个人博客,低调大师

🔥 开源 AI 驱动低代码引擎 VTJ.PRO 实现用户破万,开启全栈开发新阶段

摘要:2026年1月12日,AI驱动的开源低代码引擎VTJ.PRO迎来关键里程碑,其全球注册用户数突破10,000名。此次增长见证了该项目在赋能企业级应用快速开发、弥合设计与开发鸿沟上的努力,其近日发布的2.0版本更标志着正式迈入全栈低代码开发的新征程。 一、里程碑达成:万级用户验证开源产品力 2026年1月12日,VTJ.PRO项目团队正式宣布,该开源低代码引擎的全球注册用户数量成功突破10,000名。这不仅是数字的增长,更是开源社区对其“设计即生产”理念与技术路径的深度认可。 自诞生以来,VTJ.PRO凭借其核心的双向代码同步能力,在可视化设计和Vue 3手写代码之间架起桥梁,解决了传统低代码平台易被“锁定”的行业痛点,为开发者保留了完整的代码自主权。这一特性是其吸引并积累起庞大开发者用户群的关键。 二、用户增长驱动力:AI深度融合与工程化升级 用户规模的快速增长,直接根植于VTJ.PRO产品力的持续进化。通过深度集成AI能力,它将开发体验从“工具辅助”升级为“智能协同”。 智能化开发提效:支持从Figma/即时设计等工具的设计稿智能识别生成代码,更创新性地引入“自然语言开发”模式。开发者仅需用文字描述需求,即可驱动AI生成页面与逻辑,将部分功能的实现从“天级”压缩至“分钟级”。 企业级工程能力:项目并未止步于前端,其2.0版本的发布标志着VTJ.PRO正式进军全栈低代码领域。它提供了数据模型定义、API一体化开发、多环境部署、团队协作与版本管理等完备的工程化能力,使其从“页面制作工具”蜕变为能支撑中大型项目的“应用开发平台”。 活跃的社区生态:作为一个在Gitee上开源的免费项目,VTJ.PRO通过开放的社区运营、积极的用户反馈响应以及详细的开发文档,构建了良好的开发者关系,形成了产品迭代与社区需求相互促进的良性循环。 三、市场回响:聚焦中后台效率革命 来自市场的反馈显示,VTJ.PRO的用户画像高度集中于寻求数字化转型效率提升的群体。企业级中后台应用的快速构建是其核心应用场景,大量被用于开发如CRM、OA、ERP模块、数据仪表盘等系统。 多家早期采用的企业开发者反馈,使用VTJ.PRO后,其内部工具类、管理类应用的平均交付周期缩短了40%-60%。尤为关键的是,由于可随时导出标准Vue3代码,项目在后期复杂的定制化开发与系统集成阶段未受任何限制,彻底打消了技术团队对低代码灵活性的顾虑。 四、展望未来:持续深化AI与开源共创 用户破万对VTJ.PRO团队而言,是一个新的起点。项目创始人表示:“10,000名用户是对我们坚持开源与开放标准的巨大鼓励。我们的愿景始终是成为开发者的‘效率倍增器’,而非‘技术枷锁’。” 据悉,团队未来的路线图将重点聚焦于: AI能力再升级:探索更精准的代码生成与更智能的逻辑编排。 生态拓展:深化与更多国产化设计工具、云服务及开源项目的集成。 社区共建:推出更完善的贡献者计划,激励更多开发者共同定义下一代低代码开发体验。 五、关于VTJ.PRO VTJ.PRO是一款AI驱动的开源低代码引擎,基于Vite + Vue 3 + TypeScript等现代技术栈构建。它通过“设计即生产”的可视化开发、AI智能生成与企业级全栈工程能力,帮助开发者团队以前所未有的速度构建高质量、可自主掌控的现代化Web应用。项目始终坚持开源、开放,致力于将创新的开发范式带给每一位开发者。 立即体验: 在线应用平台:https://app.vtj.pro 开源仓库:https://gitee.com/newgateway/vtj 官方文档:https://vtj.pro

优秀的个人博客,低调大师

记忆张量携手商汤大装置开启国产 GPGPU 的下一代推理新范式

记忆张量联合商汤大装置宣布,在国产 GPGPU 上率先跑通业内首个以“记忆 - 计算 - 调度”一体化为核心的 PD 分离商用推理集群。相比传统仅依赖硬件隔离的方案,本次落地将 PD 分离与记忆张量旗下核心产品 MemOS 的激活记忆体系深度耦合,使 Prefill 批量化可调度、Decode 前台低抖动成为可能。 集群在真实 C 端负载下实现单卡并发效率提升 20%、吞吐提升 75%,综合推理性价比达到同代 NVIDIAA100 的 150%。这一成果标志着国产算力体系在大模型商业化路径上首次具备“体系级”竞争力,为高性能模型的大规模落地打开了全新的降本增效空间。 为什么是 MemOS? 解决大模型长期记忆和 Agent 协作的五大痛点 过去一年中,“PD 分离”几乎成了大模型推理优化里最热的技术关键词之一,但一个被反复忽略的现实是:如果只在算力层面做 PD 分离,而不对上层业务路径重构,能带来的收益是天然有上限的。 Prefill(计算密集)与 Decode(访存密集)在真实生产环境中的比例、触发频率和负载形态取决于业务本身——是长对话还是短问答,是高并发 C 端应用还是低频 B 端调用?在这些问题没有被重新建模之前,通过“算存拆分”,往往只能做局部吞吐的改善,却很难真正突破天花板。 随着 DeepSeek-R1 等高性能模型从 B 端试水走向 C 端大规模落地,局面发生了根本性变化:“记忆”不再只是一个锦上添花的高级能力,已经开始成为 C 端产品体验与成本结构的核心变量。 超长上下文、跨轮次的上下文复用、基于先验的影子预测、针对热门场景的 KV Cache 批量生成……这些能力正在把 Prefill 从原本一次性的“首字计算”,放大成一个高占比、可预测、可调度的批量任务集;而 Decode 则越来越像一个必须始终保持低抖动、低延迟、强稳定的“前台交互引擎”。 在这样的应用形态下,PD 分离的角色被彻底改写: 只有当 PD 分离与记忆结构深度耦合,变成一套围绕“记忆—计算—调度”重构的整体体系时,它才有机会真正超越传统意义上的性能上限。 MemOS 作为业内唯一一个以记忆为中心,覆盖从底层推理、到记忆模型,再到应用工程进行系统设计的记忆基础设施,它将大模型的认知结构划分为三类记忆: 参数记忆:承载长期稳定知识,对应模型本身的参数空间; 激活记忆:承载短期动态状态,包括 KVCache、隐藏层激活、注意力权重等; 明文记忆:承载可检索、可审计的外部知识与用户信息。 这三类记忆形成了一条跨时间尺度的调度链路,使得 MemOS 不再只是“一个向量库外挂”,可以进行精细地决策: 哪些计算应该前移到 Prefill,哪些必须留在 Decode; 哪些状态值得长期保留,哪些可以在一定条件下降级或淘汰; 哪些上下文可以复用,哪些需要重新计算。 PD 分离 × 业务路径在这里第一次被真正打通,而不是被割裂成两条平行的优化线。 相比传统的只做“长上下文拼接”的纯明文记忆系统,或只在参数空间做一些长期偏好固化的简单参数记忆模型,MemOS 更适合和 PD 分离进行结合——它拥有一整套可以“决定如何用这条通道”的调度逻辑,从而把 PD 分离原本有限的收益空间尽可能压榨到极致。 正因此,本次记忆张量与商汤大装置在某国产 GPGPU 上的解决方案,真正跑出一版带完整业务语境的 R1 满血推理集群—— 不仅在单机和小规模集群实验中有效,而且在严格 SLA 约束下,可以在 12 台 4P8D 架构的商用集群上稳定运行,将 PD 分离从“好主意”变成“可以被商业化复现的工程范式”。 结构共振:PD 分离第一次有了“落点” 在本次合作的方案中,商汤大装置提供了让 MemOS 三层记忆结构拥有物理载体的顶层系统级基础设施**。依托大装置 IaaS ** 的高效算力池、智能算力调度等为模型推理提供稳定的基础设施支撑;并借助Ignite 框架提供多后端推理适配、KV Cache 管理优化、关键算子加速、跨节点通信调优等性能增强,形成体系化的推理优化链路;同时,商汤万象 MaaS 平台​的统一调度策略确保 Prefill 与 Decode 服务在高并发场景下始终稳定运行。 集群的底层算力方面,则由算丰信息提供核心支撑,算丰信息在此次集群中承接管理了所有高性 GPGPU 计算资源、大规模文件对象存储以及高速互联网络服务,为 PD 分离架构的高效稳定运行提供了不可或缺的鼎力支持。 在商汤大装置的某国产 GPGPU 集群上,MemOS 的记忆结构被映射成了非常清晰的物理分工: P 域(Prefill Domain)变成真正的“记忆工厂”,集中承载影子上下文的预测与 KV Cache 的批量预生成,这些任务通常对吞吐敏感、对时延容忍度高,因此可以在 P 域以高并行、高利用率的方式被源源不断地消化掉,而不再与前台交互抢占资源; D 域(Decode Domain)则被打造为纯粹的“实时交互前台”,专注处理真实用户请求的解码过程,在保持超低 TTFT 的前提下,承担起 R1 这一类大模型在 C 端场景的连续输出与稳定响应; 跨节点 KV Cache 则通过高带宽互联与零拷路径实现“即产即用”,MemOS 的激活记忆机制与商汤在某国产 GPGPU 上打磨出的通信能力形成天然互补,使 Prefill 产生的 KV Cache 不再成为传输瓶颈,而是以极低开销进入 D 域的解码流程中。 这次合作是一次体系级的结构共振: PD 分离为 MemOS 打开了一条真正意义上的高速算力通道,而 MemOS 则为 PD 分离提供了精细到记忆单元级别的调度逻辑和业务上下文,让两者不再是孤立的“优化点”,而是共同长在同一棵体系树上的“结构分支”。 正因为有了这样的结构落点,PD 分离才第一次从一个工程团队内部的“性能小技巧”,变成一套可以被完整描述、完整度量、并在生产环境中长期运行的​新推理范式​。 数据验证:国产 GPGPU 第一次跑出 R1 的“完整形态” 在严格的生产级评测口径下——包括 ​2k 输入、1k 输出、TTFT<2s 的 SLA 约束、72 小时以上稳态运行、统一的限流与负载生成策略​——记忆张量与商汤大装置联合打造的国产 GPGPU 集群交出了这样一张答卷: 集群整体吞吐量提升 75+%,从 Naive 部署下的 107.85 tokens/s 提升到 189.23 tokens/s,不是因为“卡更强了”,而是 Prefill 与 Decode 真正做到了算/存解耦,流水线气泡被有效压缩,影子上下文的批量预计算也不再造成资源浪费; 单卡并发能力提升约 20%,从 25.00 并发/卡提升至 29.42 并发/卡,在 C 端场景下十分关键,这意味着在同等硬件规模下,集群能稳态承载更高的实时会话数,高峰期排队与溢出的风险明显降低; TTFT 全程稳定小于 2 秒,得益于 Prefill 全量前移和 D 域职责的“单一化”,Decode 不再被一些突发的重 Prefill 任务抢占资源,首字延迟因此从系统层面得到了保障; KV Cache 在热门场景中的命中率显著提升,可达 70%+,这使得诸如 MemOS-Chat 这一类需要高频、多轮交互的 C 端应用,在热点话题和常见任务上具备了极高的预计算复用率,推理成本被进一步摊薄; 在统一财务与技术口径下,综合推理性价比达到同代 NVIDIA A100 的 150% 左右,在严格 SLA 与相同负载结构下,某国产 GPGPU 在这一套“记忆原生 × PD 分离 × 业务调度”的框架中,第一次实现了对 A100 的体系级正面超越。 这些数字代表着: “国产 GPU 不再只是一个“可以跑大模型”的选项,而是真正具备了承载 R1 级 C 端业务的体系能力。“ 行业意义:下一代推理范式被点亮 从行业视角来看,这次联合实践更重要的价值在于清晰地描绘出了一条​未来大模型推理架构的可行路线​。 首先,PD 分离从“硬件层的算存优化”,升级为“围绕记忆的推理范式设计”。 在记忆缺位的系统里,PD 分离往往只能作用于算子级、节点级的小局部;而在 MemOS 这样以记忆为核心组织推理流程的系统里,PD 分离可以延伸到行为预测、上下文规划、激活记忆布局等更高维度,从而变成整体架构的一部分,而不再是孤立的工程优化。 其次,C 端场景将逐步从 Token 推理走向 Memory 推理。 过去我们习惯从“生成了多少 Token”、“延迟是多少”来评价系统,现在我们越来越需要思考的是:系统在多长时间尺度内能保持一致的人设、风格和偏好;它是否能记住用户的历史行为,并以此给出更智慧、更个性化的反应。在这个意义上,记忆不再是推理链路的外挂,而正在成为推理本身的中心。 未来,国产 GPU 不必也不应该只是在“算力参数”上做对标,而是有机会在体系结构上形成差异化领先。 通过记忆张量和商汤大装置的联合探索,我们可以看到:当底层架构与上层系统“共同为记忆和 Agent 这种新形态服务”时,国产生态已经可以定义自己的技术话语体系。 很多长期困扰工程团队的问题:“为什么 PD 分离在实验室里很好看、一到生产就塌方”,“为什么集群越扩越容易失控”,“为什么 C 端体验总会莫名其妙波动”——在这套框架下都有了同一个答案: 不是技术选型不对,而是体系结构不对。 当“记忆原生 × PD 分离”两件事同时准备好,这些瓶颈不再是孤立的 bug,而成为了可以被系统性地松动和重构的变量。 展望:记忆原生时代的国产算力新起点 未来,记忆张量与商汤将在这一范式之上继续深化合作: 一方面,围绕更大规模的国产 GPGPU 集群,构建真正意义上的记忆驱动流水线推理底座,让“影子上下文 - 激活记忆 - PD 分离 - 多级缓存 - AIOps ”成为一套可观测、可回滚、可演进的基础设施能力; 另一方面,在 Prefill 行为预测自治化、多级激活记忆管理、跨任务长时记忆一致性、面向 Agent 的轨迹记忆等方向上持续打磨,让这套范式不仅能支撑今天的聊天与问答,还能承载未来的伴随式 AI、具身智能体以及更复杂的长周期任务编排。 从更长远的视角看,这次联合实践带来的最大改变,也许不是某一个模型跑得更快、某一类集群利用率更高,而是—— 国产算力体系第一次拥有了另一条面向未来智能形态的可能“结构性路线”: 从参数计算走向记忆计算,从静态推理走向动态流水线,从模型中心走向记忆中心。 在这条路上,国产 GPGPU 不再只是“跟上来”的参与者,而完全有机会成为下一代推理范式的定义者之一。 而这一次,记忆张量与商汤大装置把这条路上的第一盏路灯点亮了。 关于 MemOS MemOS 为 AGI 构建统一的记忆管理平台,让智能系统如大脑般拥有灵活、可迁移、可共享的长期记忆和即时记忆。 作为记忆张量首次提出“记忆调度”架构的 AI 记忆操作系统,我们希望通过 MemOS 全面重构模型记忆资源的生命周期管理,为智能系统提供高效且灵活的记忆管理能力。

优秀的个人博客,低调大师

枫清科技高雪峰: Data-Centric新范式开启,知识引擎+大模型双轮驱动企业智能化

2024年12月,由智猩猩与智东西联合主办的2024中国生成式AI大会(上海站)在上海圆满收官。在第二日主会场进行的「AI Infra峰会」上,枫清科技创始⼈兼CEO高雪峰以《从数据到知识:AI 重塑百行千业的基石》为主题发表了主题演讲。 在演讲中,高雪峰谈到要将生成式 AI 真正应用到企业决策场景中,弥合其与决策智能之间鸿沟的技术突破点,就是利用好企业本地知识,同时将符号逻辑推理的能力和各种大模型的算法能力相融合。 枫清科技创始⼈兼CEO高雪峰 随后,高雪峰指出企业智能化的核心趋势,正在从以模型为中心(Model-Centric)的人工智能架构落地范式,转向以数据为中心(Data-Centric)这一新的人工智能落地范式。 他总结了企业智能化面临的四个典型困境:模型幻觉、可解释性、推理能力弱、安全与合规;以及企业级人工智能平台场景落地需要解决的四个技术挑战:数据孤岛、数据整合、知识校验、实时性与时效。 为此,他在演讲中表示,枫清科技可以为企业提供知识引擎与大模型双轮驱动的新一代智能体平台,通过构建全链路优化体系,帮助企业提升数据质量,将企业本地数据知识化,并融合大模型沉淀的泛化知识,在知识网络之上进行符号逻辑推理,实现可解释的智能, 进而使 AI 在多个场景下能够实现精准、透明的决策支持,推动企业智能化转型的顺利实施。 之后,他重点介绍了枫清科技助力企业智能化落地实现的两个示例,分别是为金融企业客户打造的智能指标问数这一示例,以及为 APEC 会议开发的中国-APEC 数字平台这一示例。同时,他也分享了为头部央企提供企业级知识引擎和智能体平台,从而推动其智能化转型这一合作案例。 演讲最后高雪峰透露,今年 4 月份以来枫清科技已经跟金融、化工能源、汽车制造等行业的多家头部央企展开深入合作,进行人工智能场景平台的落地。 以下为高雪峰的演讲全文: 各位来宾,下午好!今天很开心在这与大家一起探讨当下最热的话题:如何将人工智能技术真正应用于千行百业,真正发挥其作为"新质生产力"的核心作用。所以,我今天给大家带来的演讲题目是《从数据到知识:AI 重塑百⾏千业的基石》。 首先,我简单自我介绍下,我是高雪峰,枫清科技的创始人。在创办枫清科技之前,我曾担任 IBM 认知计算解决方案研究院院长,后来加入了阿里云,负责阿里云大数据和人工智能的技术产品。我一直在在大数据、人工智能和 ToB 企业市场领域摸爬滚打了大概 20 多年。因此,在 2021 年创办枫清科技时,我们一直坚持三个至今未变的原则: 我们在 2021 年谈到未来的人工智能以及 AGI 时,就曾跟大家说,将大模型与大图融合在一起,才能构建未来 AGI 的基础。 也就我们所说的,将符号逻辑推理与连接主义的概率融合在一起,才能够构建真正的人工智能。 一定要以数据为中心,从数据的角度出发,构建未来人工智能的基础平台。 坚持 ToB 领域的深耕。 这条路虽然慢,但这一领域能真正带来实际的生产力价值和长期回报。 01 信息化到智能化:人工智能的三大阶段 首先,我们来看一下人工智能的发展趋势。 为什么我刚才说,我们在 2021 年与投资人、客户交流时,都在强调"大模型与大图的融合"才是未来通往 AGI 的基础?我们可以看到,自从 1956 年人工智能这个概念被达特茅斯会议提出到现在,连接主义和符号主义两种技术交替发展。任何单一技术都难以独占鳌头,也无法靠单独的技术实现未来的通用人工智能。 因此,我们说深度学习,包括当下火热的大模型,都以 Transformer 技术为基础,是概率体系的典型技术代表。所以,去年大模型火爆出圈,所有人都认为连接主义、Transformer 一定是未来,能够带来真正的智能涌现,带来 AGI。这是业界一直以来的一种声音。 但是,当我们将生成式人工智能技术应用到企业决策场景当中时,就会发现,真正的决策智能是不可能仅由生成式智能这一单一的技术来实现的。所以,如何跨越生成式人工智能到决策智能之间的鸿沟,真正让人工智能的技术在企业场景侧发挥价值,是我们当下最需要突破的核心技术点。 当下在这个领域,有非常多的技术尝试和挑战,包括 OpenAI 新推出的 GPT-o1,也不再追求参数越来越大的智能涌现,而是在推理的框架侧进行符号逻辑推理与概率体系的深度融合。 再看下面,为什么刚才我说,我们在坚持"以数据为核心"推动智能场景落地。可以看到,从最开始的信息化时代,到数字化时代,到我们一直坚信的未来智能化的时代,都涌现出了非常知名的数据基础设施的体系和标准。 在信息化时代,典型的代表是关系型数据库,涌现出了 Oracle、DB2,以及一直延续到现在的 NewSQL 体系的关系型数据库,这些都是在信息化时代最伟大的沉淀。 回到数字化的时代,在互联网蓬勃发展的这些年,我们一直在强调、追求数字价值驱动企业决策。在这个时候,也涌现出了许多非常优秀的数据基础设施产品,如数仓、数据湖、智能湖仓等,都是这个领域典型的代表。 未来,当智能场景涌现在千行百业的时候,在智能化时代,也一定会有属于它的数据基础设施的形态。那么,这种数据基础设施的形态,与从生成式人工智能到决策智能之间的演进路径,是否有天然的结合点呢?这就是我们一直在探索、研究和实践的技术领域。 02 企业智能化趋势:从 Model-Centric 转向 Data-Centric 今年 4 月份,国家把"人工智能+"写进了政府工作报告当中,正式揭开了所有企业级的场景在行业中真正拥抱人工智能技术、带来生产力变革的序幕。我们也跟很多龙头企业、央国企展开了合作,帮助它们把包括生成式人工智能在内的多种人工智能算法和分析技术,结合企业本地的数据,在业务场景中真正发挥价值,尝试向决策智能迈进。 在此前提之下,我们认识到,在企业业务场景当中单独去进行模型微调,或者简单地围绕模型或企业数据的进行 RAG 检索,很难满足客户在业务场景中的真正需求。 今天,我们看到海外已经有很多声音,不再追求模型参数越来越大所产生的智能涌现。大家已经越来越少地谈论这件事情,而是开始关注如何在推理框架的能力上,将符号逻辑推理能力与生成式连接主义技术融合,尝试进行技术突破。 大家一直以来坚持的以模型为中心(Model-Centric)的人工智能架构落地的范式,在 ToB 的业务场景中也已经开始慢慢地转向以数据为中心(Data-Centric)的新的人工智能落地范式。 03 企业智能化的 4 个现实困境与 4 大技术挑战 所以,企业的智能化落地会有哪些典型的落地困境? 第一个是模型幻觉。 大模型会一本正经的胡说八道。有一些我们的企业客户跟我反馈,这叫大模型的"脑误"。这个问题在企业决策的场景当中,是必须要解决的。 第二个是可解释性。 当企业决策智能给出决策建议或辅助建议时,缺乏透明的思考逻辑和决策依据。企业的决策者很难真正地相信这些建议并据此做出相应的行动和决策。 第三个是推理能力弱。 仅靠 Transformer 的概率连接主义,很难增强其推理能力,所以我们需要把符号逻辑推理的能力融入到落地的技术平台当中。 最后一个是安全与合规性。 许多企业都面临同样的需求:部门A与子公司A或B的数据通常不允许互通。那么,如何将这些数据全部用于大模型的微调(Fine-Tune),又能单独为各部门和子公司提供智能决策建议呢?目前的技术无法同时满足这两个要求。因为只要将所有数据用于同一个大模型的微调,无论采用何种方式,都可能通过提示词(Prompts)提取出其他部门或子公司企业的数据。因此,要确保数据安全与合规,实现对知识进行细粒度的权限控制,是企业级智能化平台落地必须要满足的需求。 如果想要解决刚才说的四个困境,企业级人工智能平台落地时会遇到哪些具体的技术挑战呢? 第一个是数据孤岛。 我原来在阿里的时候,负责大数据产品,也就是飞天大数据,是阿里当时非常有名的登月系统。我们把阿里所有子公司的数据全部汇聚到 MaxCompute 大数据平台之上,当时耗费了 18 个月的时间,我们把它称为"登月"。那么现在,对一个大型企业来说,仅将结构化数据的数据孤岛全集中到一个大型数据仓库中,就已经是一件无法完成的的任务。更别说把企业闲置的 80% 以上的非结构化数据与结构化数据进行汇聚或连通,这一看就是很难完成的任务。 第二个是数据整合。 比如说,银行里存储的每个人的身份证信息,与其数据库表中该人对应的贷款、存款等信息之间存在实际的关联关系。那结构化数据表和非结构化数据的各种属性之间存在隐含的知识网络连接。所以,如何把数据整合起来,是一个非常大的挑战。 第三个是知识校验,如何将企业本地数据实现真正的知识化? 在这里提到的不是单纯的向量化,而是真正地实现数据的知识化。也就是说,如何利用企业数据,包括元数据,语义信息以及数据之间的关系等,构建出一个庞大的知识网络。这是企业构建真正属于自己的知识引擎必须要做到的事情,也是非常复杂的事情。 还有一个是数据的时效。 通常在做决策的时候,需要依据企业最新的数据,以便智能体平台能够为企业做出及时决策支撑和反馈。不管是 Fine-Tuning,还是预训练,都很难满足企业对时效性的需求。 04 Data-Centric:驱动AI场景化落地的新范式 因此,我们才提出要以数据为中心,搭建企业人工智能落地的平台架构。 最开始,业内使用"Data-Centric(以数据为中心)"和"Model-Centric(以模型为中心)"这两个词,是为了研究如何使模型算法更高效、更低成本地实现收敛,达到最好的模型效果。"Model-Centric"通过不断调整模型算法,而"Data-Centric"则通过做好本地数据的清洗和知识工程来达到最好的模型效果。在模型训练和收敛方面,业界已普遍采用 Data-Centric 的方式。很多大模型的企业,在研究算法的同时,也花费了很多精力构建自己的知识引擎,构建自己的数据知识化与知识工程。 而我们在此谈到的,并不是上述领域的"Model-Centric"和"Data-Centric",而是人工智能技术在企业多场景落地的过程当中涉及的两种架构范式:"Model-Centric"和"Data-Centric"。 此处的"Model-Centric"指的是企业部署一个或多个多模态大模型,然后通过两种方式利用企业的本地数据:第一种是扔给模型进行 Fine-Tune,让大模型能够体现本地数据的价值;第二种是简单地构建基础知识库,通过 RAG 的方式补充模型没有理解的一些本地数据。这就是以模型为中心,依然是概率体系的架构特征,并没有从根本解决幻觉、可解释性、推理能力等等问题。 相反, "以数据为中心"则是不一样的架构,关注的是企业本地的数据,并将其转化为可用的知识。 当然,这种转化也是通过智能的方式来构建。当我们需要使用大模型或多模态大模型去做内容理解的时候,就用它去做内容理解;需要给它足够的 Prompt 生成一长段内容的时候,我们就用它去做内容生成;当需要对结构化数据进行简单的数理分析时,可以用非常传统的数据分析的方法去做结构化的数据分析。这种以本地数据知识化为核心的架构,是企业级人工智能场景落地的有效范式。这种方法已经在多家大型的头部企业进行过验证,是一种能够快速将人工智能的技术应用在企业决策场景中的典型范式。 通过与多家头部央国企的接触,我们也观察到,他们已经开始寻求构建整个企业或者集团的大型知识库或知识网络体系。当然不止自己本地的数据,也会包含外部的各种各样的数据。我们把大模型中沉淀的知识称之为"泛化知识"。我们要做的是搭建一个平台,能够把企业的本地数据知识化,然后把大模型中的泛化知识与企业本地的知识融合在一起,来推动大模型在企业多个场景中的落地。 05 从数据到知识:企业智能化的技术路径 所以,我们具体的过程是什么呢?最开始一定是要对企业的本地多模态数据进行智能化治理,然后构建为企业的本地知识网络,同样要把它存储在知识网络里,并进行相应的多种类型的知识领域的应用。在应用的过程当中,可以利用大模型的能力进行内容生成或知识的构建。 在大模型出现之前,知识图谱的构建是一件成本非常高的事情。但是有了大语言参数模型,我们可以把构建庞大的企业知识网络的效率变得非常高。这里面涉及到很多技术细节的突破。同时,也有很多技术特点需要去解决并实现。 第一个是企业知识的表征。以前企业的本地很多各种各样的文档,把它向量化就可以了。但实际上,向量化的过程就是信息压缩、特征提取的过程。但是在这里,我们不是把企业本地的数据单纯地压缩或是特征提取向量化,而是把企业所有的数据,向量与向量之间关系、实体和实体之间的关系、实体和向量之间的关系等等,都构建了一个庞大的企业数据知识网络。 在这样的一个知识网络里面,需要我们能够具备融合图向量和类似 Mongo 的原文数据的分布式存储和计算的能力。 在这之上,其实我们还要能够通过智能体平台的方式,智能地构建不同领域的知识引擎,生成特定的 Prompts 来去结合不同的大模型的能力,连接大模型内部的泛化知识,最后赋能多场景价值的应用。 同时,我们的知识网络会不断丰富语义信息。例如在为金融客户构建知识库的时候,当问答系统遇到不理解的关键词,我们会通过用户反馈的方式,将这些词的语义理解叠加到知识网络中,使系统能够理解新的问题,或者用户诉求该如何满足。 06 知识驱动:创新路径加速大模型落地 所以,在人工智能的企业场景落地的平台当中,我们必须要解决的核心的问题就是模型幻觉、可解释性、推理能力、时效性和企业级安全能力。 为此,我们进行了多项技术创新,包括图和向量的分布式存储与计算融合、独创的 Hybrid RAG 技术、知识的运维与校验,以及针对大模型推理框架的 Graph of Thoughts 等前沿技术实现。这些都是我们在落地知识驱动的智能平台落地时需要解决的问题。 下图展示了我们如何通过图、向量融合等技术,有效地解决了大模型幻觉、推理能力弱以及大模型数据时效性等问题: 我们当下服务的都是龙头的央国企,即链主企业。通过链主企业,来构建对行业的影响力。 07 从 AI Market Place 到人工智能平台新范式 那么,一定是通过平台驱动的方式,来推动多智能化场景的均衡落地。下图是我们非常典型应用的一个平台搭建。 回到 AI 平台这个词或说这个事,我相信大家都听过很长时间了。在上一代人工智能技术出现的时候,我们就在谈 AI 平台。但那时的 AI 平台,是由算法、数据和应用场景以"烟囱式"堆积而成的平台。这个平台,我更愿意把它称之为 AI 的"Market Place"。 现在随着大模型的涌现,模型这一层可以汇聚到一个或者几个大模型领域当中。企业的模型在慢慢收敛到个位数级别,带来的影响是底下的数据也一定会收敛到个位数的统一级别,即刚才提到的数据知识化的过程。 通过这样的平台能力,去赋能多价值场景的落地,这是当下非常典型的人工智能平台落地的架构。 08 "知识引擎+大模型"双轮驱动企业智能化 下图是我们帮很多头部链主央企构建的真正能够解决实际场景落地价值的人工智能平台。最下面是基础设施(智算中心);上层是由各个大模型企业以及云厂商提供的模型工厂;再往上是大模型的运维平台,我们叫做 Model OPS 的平台,包括训练推理加速、模型的生命周期管理等等。很多企业在最开始尝试的时候,结合了行业的数据集直接面向了最上层的多应用场景的赋能。这个就是之前提及的 Model-Centric 的路径。 但是,大部分企业在这样的实践的过程当中,发现刚才那几个问题无法解决,无法真正实现决策智能的场景价值。所以,这也是为什么我跟所有企业说,中间其实缺了这样的一层,也就是我们枫清科技的"一体两翼"的产品矩阵,来进行知识的构建,把企业本地的数据构建为知识。它是一个数据关系的庞大网络,而在这个网络之上就可以进行符号逻辑推理,并结合大模型的生成能力,做真正可解释的智能。 然后,底下有我们核心的知识引擎、支持图、向量以及源数据的分布式存储计算的多模态智能引擎。在此之上有大模型应用支撑中心,能够链接并管理不同的大模型;同时有行业智能体平台,能够管理本地知识引擎,起到连接本地知识、行业知识以及模型中的泛化知识的作用。最后,所有应用场景都通过行业智能体的方式,透传给企业智能化的应用。 我早在 IBM 的时候,大概七八年前,IBM 内部就推出了一个非常秘密的项目:Intelligent Workflow。当时正在做的事情就是类似目前的这个架构,只不过没有把太多生成式人工智能技术融入其中。当时也有 Watson Debater,也是基于 Transformer 的技术,能够实现非常好的人机对话的实际应用。所以,我们要帮帮助 B 端客户慢慢地实现决策智能,必须要采用的这样的架构,没有任何第二个选择。 09 助力链主企业智能化实现示例和场景演示 下图是我们的一个案例,通过我们搭建的平台,针对于头部链主企业在实际业务场中具体的智能化诉求,我们提供了最基本的比对、交互、检索、创作、总结等行业智能化的 Agent 能力,并结合企业本地已经知识化的数据体系,可以给企业进行多场景智能化赋能,这些方案已在多家头部央企成功落地并应用于决策。 然后在这举个很简单的示例:智能指标问数。Text2SQL 其实不是大语言模型最擅长的,因为这不属于生成智能。但是,回归到企业的决策指标问数领域,我们依赖的可不单纯是企业本地的结构化数仓中的指标库数据,还需要关联企业本地的多模态数据。然后,这些数据对企业的决策产生影响之后,我们要做粒度非常细的、直接对话式的根因分析,才能够真正实现企业的决策智能。 在一个问数场景中,如何把我以上所说的这些理念以及技术点给融合在一起呢? 上面这张图展示的是我们为一个金融客户开发的智能指标系统。当用户查询不良贷款相关指标时,系统能够智能搜索并生成不良贷款指标数据及对比。当用户询问不良贷款指标的后续影响时,系统会直接呈现深度影响分析及解释逻辑。系统还集成了智能体工具。例如,当用户询问"A越高,B是否越低"等相关性问题时,智能体会调用相关性分析算法工具,给出相关性和相关系数。 在系统搭建过程中,我们将企业本地的非结构化数据(例如不良贷款客户类型比例限制等)也融入到知识网络中,以便在指标展示时直接提示用户是否违反了监管规定和指标约定。通过该系统,我们还能针对不良贷款比例超标的企业,基于银行数据的汇总,分析其与不同企业之间的交易往来,并进行不良贷款回溯分析,这正是典型的基于图的根因分析。 在 APEC 多国贸易领域,有非常多的结构化数据和非结构化的贸易相关的交易数据。我们把这些数据整合到企业的本地知识体系当中,可以开放给 APEC 成员国企业。帮助 APEC 成员国的企业查找上下游渠道商。系统还能智能生成贸易分析报告、风险投资回报比等详细信息,帮助企业决策出口产品到哪个 APEC 成员国能带来最大收益,以及在特定国家进行何种类型的贸易。 通过我们的智能体平台,两个礼拜内就可以帮助企业快速搭建具备业务场景价值的智能应用。 上图展示了我们为一家头部央企的集团搭建的智能平台架构,赋能并落地多个业务场景,包括私域文档智能问答、企业供应链智能问数、AI 科技情报智能分析,有效支持企业生产运营。例如,在生产线上,我们实现了智能化的风险检测,并结合企业安全知识库,为企业建立风险预警机制。当生产过程中出现潜在问题时,系统能够及时向工厂或企业提供风险点提示。这一切都依托于集团安全生产知识库的完善构建。平台成功融合了多模态数据与企业文本知识数据,为智能化生产提供了强大支撑。 我们通过一个平台可以赋能多个业务场景,同时还能够帮助企业将数据持续不断地沉淀在统一的知识平台和知识引擎当中。 从今年 4 月以来,我们已与多家头部央国企展开深入合作,在人工智能场景平台的落地方面积累了丰富经验,覆盖金融、化工能源、汽车制造等多个行业。我们与客户的数字科技企业紧密合作,共同探索人工智能的最佳应用路径。 我们观察到,越来越多企业正在积极探索如何将智能化技术真正融入决策过程。未来,我们希望能与在座的嘉宾和客户一起,共同迈向人工智能赋能千行百业的美好新时代。

优秀的个人博客,低调大师

当下一代防火墙遇上机器学习,智能威胁防御新篇章就此开启

2020年6月18日 - 北京——随着企业需要保护日益增多的网络入口,以抵御不断进化和升级的网络攻击,全球网络安全企业 Palo Alto Networks(派拓网络)日前宣布推出基于机器学习技术的下一代防火墙(NGFW)。该产品将机器学习(ML)技术嵌入防火墙核心,主动帮助并智能地阻止威胁,保护物联网设备,并推荐安全策略,此举再次树立了网络安全新标杆。 Palo Alto Networks(派拓网络)创始人兼首席技术官Nir Zuk表示,“13年前我们曾创造了下一代防火墙,彻底改变了网络安全格局。随着企业网络的扩展——混合云、物联网设备和家庭办公环境——以及攻击方式的快速且自动化演进,我们再次需要一种全新的方式来应对网络安全问题。PAN-OS 10.0开创了全球首款基于机器学习技术的下一代防火墙,在多个领域不断学习并主动提升安全性能,助力安全专业人员不仅仅是跟上安全趋势,而是保持领先地位。” Palo Alto Networks(派拓网络)PAN-OS®10.0基于机器学习技术的下一代防火墙引入了多项业界首创功能,包括: 1. 基于机器学习技术的本地恶意软件和网络钓鱼防御功能 随着攻击者使用机器自动变形攻击,签名在预防这些攻击方面的价值逐渐降低。以前,网络安全产品只使用机器学习模式进行远端检测,然而现在Palo Alto Networks(派拓网络)基于机器学习技术的下一代防火墙则使用本地机器学习模式来帮助预防以前未知的攻击。 2. 零延迟签名更新 Palo Alto Networks(派拓网络)在将威胁响应时间从数天缩短到数分钟方面,已经处于业界领先地位,现更引入零延迟保护,进一步将系统受感染机率减少99.5%。 3. 基于机器学习技术的集成式物联网安全功能 新的物联网设备正在激增,而且通常是在没有安全保障,而且信息安全团队也不知情的前提下加入网络。Palo Alto Networks(派拓网络)全新的物联网安全功能基于机器学习技术,可提供全面的设备可视性,包括那些从未见过的设备;突出显示异常情况及漏洞;并推荐适当的安全策略——所有这些都不需要额外的传感器或基础设施。 4. 基于机器学习技术的安全策略 基于机器学习技术的下一代防火墙可分析大量的遥测数据,然后推荐安全策略。通过PAN-OS 10.0和物联网安全功能,客户将能够查看并采用物联网安全策略建议的安全设备行为。这将节省时间,减少人为出错机率,并帮助保护物联网设备。 通过将这四项业界首创功能整合到单一系统,Palo Alto Networks(派拓网络)基于机器学习技术的下一代防火墙可帮助企业即时防范高达95%的未知文件和Web威胁;自动提供安全策略建议,以节省时间并减少人为出错机率;调整并提供实时防御功能;并将可视性和安全性扩展到所有设备,包括非托管型物联网设备,而无需部署额外的传感器。 此外,PAN-OS 10.0还为基于机器学习技术的下一代防火墙引入了的容器化解决方案CN-Series,以及70多种创新功能,包括简化解密、高可用性集群、全新高性能硬件板卡、威胁防御以及增强的DNS安全功能。 线上参会 2020年7月8日14:00,多位业界专家将与您同行和 Palo Alto Networks 的领导者们一同参加本次活动,分享自己的见解,并发布最新的创新技术,帮助保护您的企业安全。 点击链接(http://www.51cto.com/act/safe/paloaltoedm01)立即参与! 上市情况 PAN-OS 10.0版本预计将于7月中旬推出,所有Palo Alto Networks(派拓网络)现有客户持有效支持合同均可使用。 关于Palo Alto Networks(派拓网络) 作为全球网络安全领导企业,Palo Alto Networks(派拓网络)正借助其先进技术重塑着以云为中心的未来社会,改变着人类和组织运作的方式。我们的使命是成为首选网络安全伙伴,保护人们的数字生活方式。借助我们在人工智能、分析、自动化与编排方面的持续性创新和突破,助力广大客户应对全球最为严重的安全挑战。通过交付集成化平台和推动合作伙伴生态系统的不断成长,我们始终站在安全前沿,在云、网络以及移动设备方面为数以万计的组织保驾护航。我们的愿景是构建一个日益安全的世界。 更多内容,敬请登录Palo Alto Networks(派拓网络)中文网站www.paloaltonetworks.cn 或拨打热线电话 400-9911-194。 Palo Alto Networks、PAN-OS 以及 Palo Alto Networks 标识是 Palo Alto Networks, Inc.在美国和全球范围内的商标。本文使用或提及的所有其他商标、商品名称或服务标记均属于各自所有者拥有。 【责任编辑: 张燕妮 TEL:(010)68476606】

优秀的个人博客,低调大师

算力为王 新华三服务器搭载全新AMD EPYC处理器开启高性能计算时代

近日,AMD 发布了最新一代 EPYC处理器,包括AMD EPYC 7F32、EPYC 7F52以及EPYC 7F72三款全新产品,在全新架构的基础上提供更高的主频和更大的缓存。作为AMD的重要合作伙伴,紫光旗下新华三集团推出HPE Apollo 2000 Gen10 Plus、HPE ProLiant DL385 Gen10 Plus两款服务器产品支持最新的EPYC处理器,并且计划在H3C UniServer R4950 服务器中适配全新AMD EPYC处理器 ,以更强算力满足行业客户的需求。 HPE Apollo 2000 Gen10 Plus服务器 芯突破实现新效能 AMD EPYC 7F32(8核心)、EPYC 7F52(16核心)以及EPYC 7F72(24核心)三款处理器采用7nm制程工艺,具备更高的晶体管密度和更低的发热性,在同等性能情况下可以实现功耗减半,进一步提升第二代EPYC处理器面对各种工作负载的处理能力,实现了更高的计算效能。更高的基础频率和大容量L3高速缓存配合,有效提升处理器在关系型数据库、高性能计算和超融合基础架构方面的性能表现,第二代EPYC处理器的微架构也做了相应增强,翻倍的数据位宽、向量寄存器位宽、读取宽度提供更高浮点运算性能。 全方位提升带来服务器性能的飞跃 新华三集团率先在Apollo 2000 Gen10 Plus服务器中搭载全新AMD EPYC处理器,同时对产品进行深度优化升级,进一步满足高性能计算和人工智能应用的业务需求。基于共享基础架构,Apollo 2000 Gen10 Plus服务器实现单个2U机箱容纳4个独立节点,计算密度达到通用1U机架服务器的2倍;系统还提供可扩展的电源功能,依据数据中心的电源策略选择最佳匹配,最大限度地提高客户使用率;HPE Performance Cluster Manager软件实现了集群管理的智能化,有效降低运行成本。此外,在业界知名的SPECPower_ssj2008 测试中,搭配HPE ProLiant XL225n Gen10 Plus 计算节点的 Apollo 2000 Gen10 Plus服务器创造了10项能效记录,并在2项基准测试中获得第一。 面对业务不断创新和拓展的需求,Apollo 2000 Gen10 Plus服务器提供更灵活的横向扩展构建模块化设计,用户可自定义服务器系统存储和I / O以匹配当前的工作负面对业务不断创新和拓展的需求,Apollo 2000 Gen10 Plus服务器提供更灵活的横向扩展构建模块化设计,用户可自定义服务器系统存储和I / O以匹配当前的工作负载载,选择尺寸合适的模块构建数据中心,并根据业务未来的发展需要扩展到部署数千台相关服务器的业务系统。新华三集团还提供全面的软件产品组合,让用户根据数据中心策略实现节点、机架、集群的管理。 Apollo 2000 Gen10 Plus服务器还具备极致的安全性,通过使用iLO5和可信硅根,将固件固化在芯片中来确保安全。可信硅根与AMD安全处理器联动,对固件信息深度加密,预防外部攻击造成的系统固件损坏。 深化合作 打造全新行业生态 在本次发布会中,新华三集团智慧计算产品线副总经理刘宏程表示:从2017年第一代EPYC处理器问世伊始,新华三即在第一时间推出了相关的服务器产品,随着AMD处理器的技术升级和产品迭代,新华三不断加深与AMD的合作,打造丰富的服务器产品线。同时,双方推动生态建设,实现新一代EPYC处理器与操作系统和软件的适配,加强对各种应用的优化,为用户提供体验最佳的x86服务器平台。 在2020 NAVIGATE 领航者峰会上,新华三集团以“双全、多元、广生态”为整体布局,发布“成就智慧计算”战略,实行H3C+HPE双品牌策略,实现计算、平台、产品形态的多元化,将数字生态链引入客户平台,进一步发挥智慧计算优势,充分满足所有智能化计算场景的需求,帮助客户实现数字化转型。 【责任编辑: 张诚 TEL:(010)68476606】 点赞 0

优秀的个人博客,低调大师

2018全球无眠区块链领袖峰会即将开启,数百位行业顶尖人物在杭州等你

目前已集结了全球各国商业的领袖们,包括业内知名人士、技术大咖、行业精英以及上千个优质项目方和数家百亿级持牌基金等。 毫无疑问,近年来区块链技术的飞速发展在2018年初迎来了一波爆发。区块链技术被誉为价值网络,是彻底重构互联网生产关系的革命性技术。因此GBLS组委会联合金色财经、金塔,将于2018年6月6日在杭州G20会场隆重举办全球无眠区块链领袖峰会暨全球区块链领袖颁奖盛典。 GBLS会议亮点 1.G20原场馆,20000平米以上的场地,行业最大规模盛会; 2.数百位行业顶尖人物,上千个行业顶级品牌方,十余万为区块链行业相关人才; 3.区块链行业年度颁奖盛典,嘉宾走红毯并现场颁奖,直达荣誉之巅; 4.198个行业内网站,1126个公众号和自媒体,300余家媒体现场报道,可覆盖20万微信社群。 目前已集结了全球各国商业的领袖们,包括业内知名人士、技术大咖、行业精英以及上千个优质项目方和数家百亿级持牌基金等,齐聚一堂,普及知识,以积极开放的心态共同讨论区块链技术的应用和发展。 本次峰会以“路演+展会+圆桌会+酒会”等多样化的形式,共同支撑区块链项目的落地应用。其中,路演将会以金融、支付、医疗、数字身份认证、物联网作为切入点,呈现给大家上百个尚未挖掘的优质项目。项目涵盖多个领域来自不同的行业。 作为区块链年度盛典,峰会当晚筹备组在G20杭州峰会的场地还为嘉宾们准备了高端的酒会,众多区块链专家学者、行业精英将盛装走上红地毯步入酒会现场。在酒会现场,嘉宾们在品味美酒的同时还可以与大咖们零距离交流,进一步探讨区块链技术革新的伟大意义。 原文发布时间: 2018-04-20 10:06 本文作者: 高度财经 本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

优秀的个人博客,低调大师

镁客网M-TECH AI助力中国智造产业论坛即将开启,这些大咖在深圳等你

12月28日,镁客网M-TECH AI助力中国智造产业论坛即将来临,如果你想成为这个瞬息万变时代的领先者,绝对不能错过。 半个月前,我们对外宣布,镁客网要在深圳掀起一场人工智能热潮。 在深圳这样一个充满野心创业者的城市,镁客网M-TECH AI助力中国智造产业论坛活动让我们有机会看到敢想、敢做的冒险家和创新技术的领袖,带来最具代表性、最前沿的技术应用分享,探讨人工智能浪潮是如何一点点改变我们的科技生活。 AI+中国智造,我们能改变什么? 当索菲亚机器人获得公民身份的时候,我们在思考是否未来有一天机器会取代人类,人工智能会像《西部世界》或者《银翼杀手》里描述的那样,成为杀戮人类的武器吗?影视作品中,总是会突出技术“恶”的一面,将其戏剧化,然而现实情况又是怎样呢? 在一个连小学生都要学习Python的时代里,人工智能真的已经“无孔不入”地渗透到我们生活的方方面面,其中最为关键的就是我国的智能制造行业。 双十一、双十二期间高效的物流转运、可以陪伴聊天的服务机器人、城市的天眼系统、工厂里灵活完成复杂机械安装工作的工业机器人……越来越多的智能产品、智能化生产进入到我们的社会。 从智能工厂、智能生产再到智能物流,可以看到我国的智能制造行业正在和云计算、大数据、物联网等新一代信息技术与制造技术深度融合,实现真正的“中国制造2025”。 那么,在我们的M-TECH AI助力中国智造产业论坛上,到底会有哪些具有科技独角兽潜力和商业敏感度的公司的领袖人物,来一场AI如何颠覆传统制造业的头脑风暴呢? 和来自高通、康力优蓝、大族机器人的大咖共话“AI+中国智造” "M-Tech" AI助力中国智造产业论坛活动聚集了从芯片、算法、AI技术到机器人、VR等领域的开创者,呈现关于AI和中国智造碰撞出的颠覆性火花。 有累计量产十万台机器人的服务机器人领域翘楚康力优蓝、二次元女友琥珀制造者公子小白以及消费级家庭服务机器人系统拥有者NXROBO;有锤子大爆炸系统背后的技术创造者三角兽;有专注于机器视觉的阅面科技、华捷艾米;还有国内最早量产VR头显的3Glasses…… 除此之外,致力于全球3G、4G与下一代无线技术研发的高通;国内直驱电机领先者、工业机器人的核心缔造者大族机器人等都将来到我们M-TECH AI AI助力中国智造产业论坛。 在12月28日的活动正式开始前,我们每天会陆续给大家剧透一位重量级嘉宾,如果你想成为这个瞬息万变时代的领先者,绝对不能错过镁客网M-TECH AI助力中国智造产业论坛活动。 最后,戳右边报名链接,在现场第一时间感受2017年科技圈的最后一波大事!http://www.huodongxing.com/event/5415391081900 原文发布时间: 2017-12-16 09:37 本文作者: 巫盼 本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

优秀的个人博客,低调大师

前端成像或将开启“视觉2.0时代”

目前国内AI视觉,几乎都把焦点集中在对图像的后端处理上。虽然算法足够优秀,但产品落地却困难重重,原因是忽略了前端成像的重要作用。 “计算机视觉的前端成像技术,背后是至少100亿数量级的庞大需求!” 在日前刚结束的2018 AWE现场,身为眼擎科技CEO的朱继志,满怀激动的下了这么一个结论。 朱继志说话的语气非常笃定,因为他们的eyemore X42芯片上市不到两个月,就已一路高歌,初露峥嵘。而业内对eyemore X42的看法是:这款全球第一款完全自主研发并正式对外发布的AI视觉成像芯片将“引领AI机器进入视觉2.0时代”。 既然这款芯片目前在国内甚至全球同领域内属于独一份,好奇之下,我们不禁就和他多聊了几句。 2018将是AI落地第一年,视觉市场规模潜力巨大 近几年,人工智能的火热是毋庸置疑的,上到国家两次将其写入政府工作报告,下到雨后春笋般出现的各种AI公司,所有这些都在昭示着一个崭新的人工智能时代即将到来。 同样的,在众多的AI技术和应用中,计算机视觉是最大的切入点和最具潜力的领域。毕竟,在我们获取的全部信息中,视觉信息的比例达到了80%以上,因此,这将是一个前景无限的市场方向。 计算机视觉的应用领域几乎涵盖了我们所知的所有行业,自动驾驶、金融风控/交易、安防、新零售、智能手机、机器人...... 国内计算机视觉领域,商汤和旷世算是两只最大的独角兽,而他们于去年上演的融资竞赛更是吸引了无数业内人士的目光:先是2017年7月,商汤科技B轮融资4.1亿美元,接着到10月31日,旷视科技Face++又宣布获得4.6亿美元C轮融资,随后商汤即传出接受阿里15亿元投资的消息...... 不用多说什么,仅从这一连串创纪录的融资金额中,我们就可以感受到计算机视觉在AI界的热度。 据相关研究报告预计,2018年全球计算机视觉市场规模将达到50亿美元左右,而到2020年,中国计算机视觉市场规模将增长至725亿元,未来前景极为广阔。 “2016年是AI的概念年,2017年是demo年,2018年是落地第一年。”朱继志认为,在未来的三年内,AI会很快的实现更为广泛的落地应用 。 “尽管现在整个产业很多技术都还有一些问题,但是其整体架构已经出来了。”朱继志说。 深耕前端成像领域,视觉2.0将为产业生态带来质变 众所周知的是,目前国内AI视觉领域的科技企业,几乎都在使用传统摄像头,都把焦点集中在对图像的后端处理上。这就导致了一个尴尬的现象:绝大多数的AI公司算法足够优秀,但前端成像技术不过硬,导致实际落地时机器的“眼睛”不能适应外界光线变化,识别效果差的尴尬局面。 以自动驾驶汽车为例,在诸如车辆经过隧道、对面驶来的车开大灯、夜间红绿灯被道路景观灯遮挡/干扰、夜色漆黑伸手不见五指等等异常情况下,往往会由于识别不准而发生行车事故; 同样,安防领域也会因为红外黑白画面和逆光的人脸发黑而无法识别、工业检测中会有因为高光和反光导致无法检测的情形等等。 “在复杂的光线环境下,AI机器获取的图像信噪比会受到极大影响,这是导致市场上AI视觉产品难以落地的最大原因。”朱继志认为,要彻底解决这一难题,关键在于做好AI视觉产品的前端成像。 要克服AI机器在复杂光线下的图像识别,就要首先解决图像的获取和前端处理。目前,业内主流的解决方案有3种。 第一种就是我们所熟知的激光雷达,在光线不好的情况下,通过主动发射激光并利用光线反射来获取物体的图像和三维信息。激光雷达的优点非常明显,它可以获得极高的角度、距离和速度分辨率,同时也具有良好的抗干扰能力。 不过,受限于巨大的体积和昂贵的价格(各类32线、42线、64线等型号产品,价格动辄数万数十万甚至上百万,虽然在持续降低,但依然不亲民),它正在被边缘化。正如马斯克所说的,“激光雷达就像一根拐杖”。这个比喻很恰当,视觉能力不行的时候,需要依靠激光雷达这样的拐杖,但拿着拐杖却是永远跑不快的。 剩下的两种方案则都是在相机和成像处理的基础上加以改进。首先是阵列计算相机技术,原理有点类似于蜻蜓、苍蝇等多目昆虫的复眼,通过数个、数十个甚至上百个相机组成的阵列,拍摄出拥有亿级以上像素的动态图像,为AI机器提供视觉支持。 目前,这一技术尚在研发阶段,受限于体积和供应链的制约,其产品也还处在落地的早期阶段。 第三种方案,即是眼擎科技所做的,AI视觉前端成像引擎芯片eyemore X42。 据朱继志介绍说,眼擎所做的这种方式,像人的眼睛一样,核心是把人的眼睛视力弄好——解决AI机器在各种光线下自动适应光线的能力。 “我们坚信,以后AI机器的眼睛应该和我们人类一样,以后它们的视力一定不会比人眼差,甚至比人眼强。这就是我们创业的初衷,我们要从根本上解决AI的视力问题。” 眼擎eyemore X42芯片,视觉2.0时代的AI机器成像引擎 关于AI视觉,马斯克曾经提出过“全天候被动光学图像识别”的概念,就是要解决复杂光线,包括弱光、逆光、反光下的精准识别,这也是AI机器要解决的刚需问题。眼擎科技把这种自动适应光线的视觉,称之为“视觉2.0”。 2018年1月19日下午,在2018极客公园创新大会上,国内AI视觉成像芯片科技公司眼擎科技正式对外发布“eyemore X42”芯片。据悉,eyemore X42是全球第一款完全自主研发并正式对外发布的AI视觉成像芯片。 数据显示,eyemore X42成像引擎芯片,拥有比传统ISP高20倍的计算能力,采用了20多种新的成像算法,集成了超过500种不同场景下的复杂光线数据。 eyemore X42芯片有三个特点:首先它是一颗独立成像芯片。目前各种相机、智能手机、摄像头里都有成像功能,但都是被集成在主芯片里面的,只能叫集成成像。而eyemore X42整颗芯片只专注于一件事情,那就是成像。这有点像Intel的CPU带了集成显卡功能,但我们知道,只有像NVIdia的专用GPU才一定是未来的主流。 第二个特点,eyemore X42抛弃了传统的ISP成像架构,采用了全新的成像引擎架构,来解决复杂光线下的成像难题。而传统的ISP,从架构上来讲,无论如何也无法完美解决复杂光线的问题。 第三个特点是,eyemore X42提供了丰富的API接口,让做后端图像识别的算法工程师,可以很方便的控制成像的过程。 eyemore X42的性能有多强大?也许其发布会当天现场演示的“微光/暗光环境下实现精准识别”的实验,就能很好的说明问题。 “如果你问所谓的微光会微到什么程度?这个很简单,我们有一个基本的标准,就是和人眼比,我们就是要超越人眼”,朱继志说到。 人眼的视网膜里有大约1.25亿个视杆细胞和视锥细胞,它们扮演感光器的角色。其中,视杆细胞感知光线的明暗,而视锥细胞负责感知颜色。到光线的明暗达到一定程度(过亮或过暗)的时候,视锥细胞就停止工作,转而切换到视杆细胞,因此这时人眼就只能感受到黑白的灰度,暂时失去了感知颜色的能力。 “我们现在做的事情是比人眼18个DB的八倍,在那种情况下。所以,在人眼看不清颜色、只能看清轮廓的情况下,我们能够精准的还原颜色。” 人对世界颜色的感知能力是有限的,虽然理论上说人的眼睛可以分辨出出高达1200万种颜色,但实际上远远低于这个数字。但机器能不能分辨出一百万种、一千万种甚至更多种颜色呢?这完全有可能。 我们很难想象的到,一个机器超越人眼之后可以做些什么。高维视觉和低维视觉相比,具有无可比拟的优越性。 比如看到一朵花,我们看到的只是白色的,但机器看到的是五颜六色的,因为可能有100种白。这就是机器进步的核心能力,能够看到更多的信息,所以能够给出更精准的反馈。 AI实体化之下,5年内视觉芯片将有100亿数量级需求 随着AI技术的进一步发展和应用的持续扩大,各种由AI芯片驱动的机器/设备持续出现,使得AI已经越来越呈现出实体化的趋势。 “得益于人工智能的广泛应用,目前已经形成了一个很大的技术生态。在这个庞大的生态海洋里,AI机器这个新的物种已经开始进化出来,这些AI机器将会迅速进入我们的现实世界。”朱继志说。 AI机器区别于一般机器的最大特点是,它不是一个普通的工具,它自己有大脑。我们可以把自动驾驶、机器人、包括工艺检测设备、智能的安防摄像头/门禁/锁具等等,都看做一个AI的机器。 另一方面,从信息时代发展到如今的AI时代,竞争核心已经从加工制造工艺/硬件设备性能的竞争,升级为算力和算法的比拼。由此,作为算法和算力承载的芯片,就成了当今时代最大的竞争焦点。 而AI机器需要数量更多的、性能更强大的芯片,即各种AI芯片。 “AI机器这个新物种,就是被各种芯片所驱动的。在比拼算法和算力的时代,一个AI机器所需要的芯片的数量,也就是芯片的密度,会呈现数量级的增长。” 以目前突然蹿红的比特币为例,其挖矿的设备——矿机,就是芯片的需求大户。在一个普通的矿机里,就会有几十到数百颗处理器芯片,而这个在以前是不可能想象的。 除此之外,基于万物互联场景下的自动驾驶汽车,它的视觉系统、路径规划系统、车内温度调节、对外通讯通信等等,每一个独立的处理单元都至少需要一颗芯片;同样的还有各种机器人、各种无人机、安防监控、无人超市...... 朱继志认为,以后一台AI机器对各种各样的芯片的需求,会有成百上千个。在视觉2.0的内因驱动下,各类AI芯片的大规模应用时代已然来临,AI机器这个新物种,将为AI芯片开辟一个庞大的新增市场。 AI机器对视觉器官的需求量同样是巨大的,由此AI视觉芯片的供应量也将随之激增。 在汽车领域,一台自动驾驶的汽车,将会安装10个视觉摄像头;在安防领域,所有的监控摄像头,都面临着人脸识别的升级;在工业设备领域,通过视觉的方式进行产品的检测,将会成为每一条产线的标配,以后每一条产线上都将配置超过10个智能摄像头;在无人零售,如Amazon go正在把关注的重点从商品的标签迁移到每个顾客的消费习惯,它的每家无人零售店都配置了超过100个以上的摄像头。 据不完全预测,未来5年内,各种各样的AI机器将会带来100亿数量级的视觉设备需求,而视觉芯片的需求量将高于这个数字。 “这将是所有AI芯片创业者的机会。” 原文发布时间: 2018-03-21 15:11 本文作者: 纤尘 本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

优秀的个人博客,低调大师

30多位AI大咖齐聚南京,2017中国人工智能峰会9月开启“头脑风暴”

与诸多AI顶级专家、企业家代表共话人工智能技术的创新与应用、产业的变革与突破。 走过一个甲子的时间,人工智能经历了“三起两落”。如今,人工智能已经迎来了第三次浪潮,而在其中,我们看见了深度学习算法、语音识别、计算机视觉、自动驾驶等技术的和行业应用在落地上的循序渐进,也看见了政府对于人工智能产业的大力支持。 就在日前,我国国务院发布了首个针对人工智能的“国”字号文件——《新一代人工智能发展规划》(以下简称《规划》),为人工智能行业下一步的发展规划提出了方向性的意见,包括“三步走”战略、市场规模的预期等等。 围绕这份文件,在2017年9月12号,一场大型峰会——“2017 中国人工智能峰会”(CAIS 2017)将于南京国际博览会议中心的中华厅隆重开幕。 此次峰会以“创新·变革·突破”为主题,由南京市人民政府、中国人工智能产业发展联盟主办,南京市商务局、南京市科学技术委员会、南京经济技术开发区管理委员会、中国信息通信研究院承办,ACM、AAAI、中国人工智能学会、江苏省人工智能学会、镁客网、机器之心、创新工场等一批知名机构共同参与战略合作。 CAIS 2017是国务院《规划》发布后,中国地区举办的第一场人工智能峰会。届时,“递归神经网络之父”Jürgen Schmidhuber、微软全球资深副总裁王永东、创新工场CEO李开复等来自世界各地的顶尖人工智能科学家、企业家,以及科大讯飞执行、地平线机器人、旷视科技等AI企业代表人士都将亲临峰会现场,与1500+专业观众共同探讨人工智能技术的创新与应用、产业的变革与突破。 此次峰会历时一天,继上午的开幕仪式、致辞以及著名人工智能科学家、企业家主旨演讲之后,下午我们还将看到产业、技术两大专业主题论坛,与现场多位人工智能专业人士来一场行业性的“头脑风暴”。 峰会期间,作为硬科技第一产业媒体,除了现场的第一手消息报道,深度参与其中的镁客网还将在会后带来更多的干货整理。 原文发布时间: 2017-08-18 17:05 本文作者: 韩璐 本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

优秀的个人博客,低调大师

阿里云助力创业者从零开启视频之路,史上最低门槛,299元打造视频点播平台

近年来,互联网的内容形态快速演变,从最原始的文字博客。到微博时代的图文混合,再到早已主流普及的长视频与近期如火如荼的短视频模式,一直是趋于更具互动性、丰富性的迭代。据公开数据显示,截至2016年12月,中国网络视频用户规模达5.45亿,这个数字足以证明视频已经成为当下最为主流的内容形态。 作为平台方或内容提供方,迎合主流的用户消费习惯,更新迭代内容形态载体,才能留住用户。打个比方,大多数在线教育网站都已经支持视频授课,那些只沉迷于图文课件的教育网站也被市场竞争慢慢淘汰。所以,越来越多的行业应用、创业者纷纷入局,争相融入视频服务。与此同时,因为视频服务的复杂性与技术门槛所限,视频云服务的市场也被催生和激活。 阿里云视频点播服务(ApsaraVideo for VOD)是集视频音视频采集、编辑、上传、自动化转码处理、媒体资源管理、分发加速

优秀的个人博客,低调大师

TinyVue自动导入插件重大升级,@opentiny/unplugin-tiny-vue1.0.0版本开启单组件包引入新模式

近日,@opentiny/unplugin-tiny-vue 发布了其重要的1.0.0版本更新,此次更新带来了全新的单组件包引入模式,显著提升了开发者的本地编译效率以及整个项目的构建速度。 在之前的版本中,开发者需要一次性加载整个TinyVue 库,这个不仅增加了初始时间,也使得项目构建过程变得相对缓慢。然而,随着新版本的发布,这一问题得到了有效的解决。通过引入单组件包模式,开发者现在可以根据实际需求选择性地加载所需的组件,从而极大地减少了不必要的资源消耗,提高了应用的响应速度和整体性能。 具体来说,当开发者使用 @opentiny/unplugin-tiny-vue 的新功能时,他们可以指定仅加载那些在当前项目中真正被使用的组件。这意味着,对于大型项目而言,这种按需加载的方式能够大幅度减少构建时间和内存占用,进而为开发者提供了更加流畅的工作体验。 接下来我们一起来看看如何使用~ 安装配置 安装 npm i @opentiny/unplugin-tiny-vue -D 配置 单组件按需引入(推荐用法,可以加快编译和构建速度) 例如:TinyVueSingleResolver('TinyModal') => import TinyModal from '@opentiny/vue-modal' Vite // vite.config.js import { defineConfig } from 'vite' import Components from 'unplugin-vue-components/vite' import AutoImport from'unplugin-auto-import/vite' import { TinyVueSingleResolver } from '@opentiny/unplugin-tiny-vue' exportdefault defineConfig({ plugins: [ Components({ resolvers: [TinyVueSingleResolver] }), AutoImport({ resolvers: [TinyVueSingleResolver] }) ] }) Webpack // webpack.config.js const Components = require('unplugin-vue-components/webpack') const AutoImport = require('unplugin-auto-import/webpack') const { TinyVueSingleResolver } = require('@opentiny/unplugin-tiny-vue') module.exports = { plugins: [ Components({ resolvers: [TinyVueSingleResolver] }), AutoImport({ resolvers: [TinyVueSingleResolver] }) ] } 温馨提示 因为 pnpm 工程的特点之一是:项目中显示引入的依赖需要提前在 package.json 中声明(防止幽灵依赖),所以在 pnpm 工程使用该插件时需要在 package.json 中声明项目用到的每一个 TinyVue 组件依赖(TinyVue 每个组件都是一个 npm 包)。依赖声明可以参考以下配置: { "dependencies": { "@opentiny/vue-button": "~3.x.x", "@opentiny/vue-alert": "~3.x.x", "@opentiny/vue-input": "~3.x.x", ... } } 如何使用 完成第一步配置后,开发者就可以在自己工程的页面模板使用 TinyVue 组件了(无需导入),具体的示例工程可以参考:https://github.com/opentiny/unplugin-tiny-vue/tree/main/example 示例代码如下: <template> <div> <h2>函数式调用</h2> <div class="content"> <span>弹窗模式:</span> <tiny-button @click="baseClick"> 基本提示框 </tiny-button> <tiny-button @click="successClick"> 成功提示框 </tiny-button> <tiny-button @click="confirmClick"> 确认提示框 </tiny-button> </div> <h2>标签式调用</h2> <div class="content"> <tiny-modal v-model="show1" title="基本提示框" message="窗口内容1" show-footer></tiny-modal> <tiny-modal v-model="show2" title="基本提示框" message="窗口内容2" status="success" show-footer></tiny-modal> <tiny-button @click="show1 = true"> 打开弹窗1 </tiny-button> <tiny-button @click="show2 = true"> 打开弹窗2 </tiny-button> </div> </div> </template> <script setup> import { ref } from 'vue' const show1 = ref(false) const show2 = ref(false) function baseClick() { const modal = TinyModal.alert('基本提示框', '标题') setTimeout(() => modal.vm.close(), 3000) } function successClick() { TinyModal.alert({ message: '成功提示框', status: 'success' }) } function confirmClick() { TinyModal.confirm('您确定要删除吗?').then((res) => { }) } </script> 关于 ts 类型声明 使用此插件可以自动生成两个 ts 类型声明文件:auto-imports.d.ts、components.d.ts 只需要工程的 tsconfig.json 增加如下配置即可正常使用组件的类型声明: "include": ["auto-imports.d.ts","components.d.ts","src/**/*.ts", "src/**/*.d.ts", "src/**/*.tsx", "src/**/*.vue"], 新旧版本对比说明 此次升级为开发者带来哪些提升呢? 接下来比较一下之前使用 TinyVueResolver 和新版本使用 TinyVueSingleResolver 的差别(只使用 TinyButton 和 TinyModal 组件): TinyVueResolver 本地编译: 222个请求 14.7MB项资源 完成用时:2.34秒 构建生产包: TinyVueSingleResolver 本地编译: 31个请求 1.5MB 项资源 完成用时:340毫秒 构建生产包: 关于OpenTiny 欢迎加入 OpenTiny 开源社区。添加微信小助手:opentiny-official 一起参与交流前端技术~ OpenTiny 官网:https://opentiny.design OpenTiny 代码仓库:https://github.com/opentiny TinyVue 源码:https://github.com/opentiny/tiny-vue TinyEngine 源码: https://github.com/opentiny/tiny-engine 欢迎进入代码仓库 Star🌟TinyEngine、TinyVue、TinyNG、TinyCLI~ 如果你也想要共建,可以进入代码仓库,找到 good first issue标签,一起参与开源贡献~

资源下载

更多资源
腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

WebStorm

WebStorm

WebStorm 是jetbrains公司旗下一款JavaScript 开发工具。目前已经被广大中国JS开发者誉为“Web前端开发神器”、“最强大的HTML5编辑器”、“最智能的JavaScript IDE”等。与IntelliJ IDEA同源,继承了IntelliJ IDEA强大的JS部分的功能。

用户登录
用户注册