LazyLLM v0.7.1 重磅发布 | 智能体、RAG 与生态全面跃迁
一、简要介绍 LazyLLM v0.7.1 相较于 v0.6.1 实现了重大飞跃,在智能体能力、RAG 基础设施及模型部署灵活性方面均有显著增强。 本次发布通过支持新型存储供应商(Elasticsearch、OceanBase)扩展了生态系统,并整合了更多在线模型提供商(SiliconFlow、MiniMax)。全新引入的综合缓存系统有效提升了性能表现。智能体模块、文档处理器及启动系统均进行了重大重构,显著提升了代码可维护性与清晰度。 0.7.1版本在保持向后兼容性的同时,实现了更优的稳定性和用户体验。 二、亮点 本次发布引入多项重大增强,拓展了LazyLLM的功能并提升开发者体验: 重大变更:智能体模块重构-lazyllm.tools.智能体模块经全面重构以提升可维护性与清晰度。 扩展存储支持- 新增与Elasticsearch和OceanBase的集成,作为存储后端提供更多可扩展的RAG(检索增强生成)部署选项。 新增在线模型提供商- 集成支持SiliconFlow和MiniMax,用户可通过统一的'OnlineChatModule / OnlineEmbeddingModule ...


