首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://my.oschina.net/selectdb/blog/18974835

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

LazyLLM教程 | 第19讲:高阶RAG:基于知识图谱的RAG

一、前言 "知识图谱作为结构化知识的代表,正在深刻改变我们获取和利用信息的方式。” 在本文中,我们将从基础概念出发,首先解析知识图谱的本质——它如何以『实体-关系-属性』的形式组织海量信息,使机器能够像人类一样理解世界的关联性。 接着,我们将探讨知识图谱在搜索引擎中的应用,看看它如何帮助Google实现从『关键词匹配』到『语义理解』让搜索更智能、更精准。 而在当今大模型时代,知识图谱与RAG(检索增强生成)系统的结合,进一步释放了结构化知识的潜力。我们将深入分析知识图谱如何优化RAG的检索过程——它不仅能够提供更精确的上下文片段,还能通过实体关系增强语义连贯性。 为了更直观地理解这一技术融合,之后我们将介绍两个基于知识图谱的RAG开源实现方案GraphRAG和LightRAG,剖析它们的设计思路和关键技术。 最后,我们将通过实战和两个案例分析说明知识图谱如何显著提升RAG系统的准确性。 二、背景介绍 RAG(Retrieval Augmented Generation) 是 LLM 问世以来生成式 AI 领域最热门话题之一,它是结合了 检索(Retrieval) 和 生成(Genera...

对长上下文能力有不同要求,怎么选择合适的模型?

编者按: 当一项技术的参数指标成为行业焦点,我们是否容易落入"数字迷信"的陷阱?在大语言模型竞相宣传"百万级上下文窗口"的今天,更长是否真的意味着更强?我们今天为大家带来的这篇文章,作者的核心观点是:上下文窗口的长度并不能完全代表模型的实际能力,真正决定模型在长文本场景下表现的是其背后的架构设计与技术权衡。 文章系统梳理了当前主流大模型在处理长上下文时所采用的不同技术路径 ------ 从优化后的精确注意力机制(如 GPT-5、Mistral)、稀疏或混合注意力机制(如 Claude、Gemini),到彻底脱离注意力范式的状态空间模型(如 Mamba),并深入剖析了每种架构在记忆持久性、推理深度与计算效率之间的权衡。 作者 | Phuoc Nguyen 编译 | 岳扬 在过去三年中,大语言模型(LLMs)的上下文窗口已从几千个 token 扩展至数十万量级 ------ 在某些系统中甚至达到数百万。Gemini 2.5、Claude 4.5 Sonnet、GPT-5 Pro 和 Llama 4 Scout 均宣称具备百万 token 级别的处理能力。乍看之下,这似乎意味着模型能够"记住...

相关文章

发表评论

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。