首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://my.oschina.net/u/5489811/blog/18484005

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

可观测性+AI,如何奠定数据底座?

来自北京快猫星云科技有限公司的联合创始人&CTO华明在开源中国社区做了一场视频直播,畅聊在AI大模型时代,服务可观测性如何实现智能化。 分享主要涉及几个主题: 可观测性离智能化远吗? 智能化的愿景、阶段 智能化的跳转和关键障碍 Flashcat的方法、实践和效果 常见问题和思考 首先,华明简介了可观测性的概念,包括三个支柱:指标、日志、链路,以及Opentelementry。 这个是老生常谈了,算是给观众扫盲。 华明认为可观测性实现智能化会分为两个阶段:从智能化增强观测到智能化闭环观测。我们正在向智能化增强观测迈进,而后文所分享的内容都主要围绕这个阶段展开,因为智能化闭环观测的时代,已经没有人类的位置(短期应该不会到来...)。 接下来,华明拆解了人类和观测系统交互的模型,以及AI所在的位置。智能化的过程就是AI逐步取代人类工作的过程。因此相关的周边系统、知识系统都需要面向AI设计。 基于这个模型,华明分享了两个在数据观测智能化领域比较有代表性的公司,分析了他们实现智能化的核心思路。这两家公司是 Resolve.ai和 WisdomAI。 这两家公司指出了实现数据观测分析智能化...

「DeepSeek 技术解析」:LLM 训练中的强化学习算法

编者按: 本文首先解析了为什么 LLM 训练需要强化学习,详细讲解了 RL 和 RLHF 的工作原理;继而系统比较基于价值、基于策略和 Actor-Critic 三大强化学习范式的优缺点;最后深入剖析 TRPO 和 PPO 算法,重点展示 GRPO 如何通过分组结构和相对优势估计实现训练效率与稳定性的双重突破。 作者 | Shirley Li 编译 | 岳扬 这是 DeepSeek 系列文章的第六篇,我们将深入探讨 DeepSeek 模型训练策略中的关键创新之一[1, 2]:群组相对策略优化(Grouped Relative Policy Optimization,GRPO)[3]。 为确保本文自成体系并阐明 GRPO 的理论基础,我们将首先介绍强化学习的基础概念,重点解析强化学习(RL)及基于人类反馈的强化学习(RLHF)在 LLM 训练中的核心作用。接着我们将探讨不同的强化学习范式,包括基于价值的强化学习、基于策略的强化学习和 Actor-Critic 强化学习,回顾经典算法如置信域策略优化(TRPO)和近端策略优化(PPO),最后解析 GRPO 带来的优化创新。 本文目录结构: ...

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。