您现在的位置是:首页 > 文章详情

DeepEval —— 开源 LLM 评估框架

日期:2025-07-02点击:5

DeepEval 是一个简单易用的开源 LLM 评估框架,用于评估和测试大型语言模型系统。它与 Pytest 类似,但专门用于对 LLM 输出进行单元测试。DeepEval 结合了最新研究成果,基于 G-Eval、幻觉、答案相关性、RAGAS 等指标来评估 LLM 输出,它使用 LLM 和其他各种在本地运行的 NLP 模型进行评估。

无论你的 LLM 应用程序是 RAG pipelines、聊天机器人、AI 代理,还是通过 LangChain 或 LlamaIndex 实现,DeepEval 都能满足你的需求。借助它,你可以轻松确定最佳模型、提示和架构,以改进你的 RAG 管道和代理工作流,防止 prompt drifting,甚至可以自信地从 OpenAI 过渡到托管你自己的 Deepseek R1。

 

  • 以类似于 Pytest 的方式轻松地“单元测试” LLM 输出。
  • 即插即用 30 多个 LLM 评估指标,其中大多数都有研究支持。
  • 支持端到端和组件级评估。
  • 对 RAG、代理、聊天机器人以及几乎任何用例的评估。
  • 使用最先进的进化技术生成合成数据集。
  • 指标易于定制并涵盖所有用例。
  • 红队,安全扫描 LLM 应用程序是否存在安全漏洞。

此外,DeepEval 还有一个云平台Confident AI,允许团队使用 DeepEval在云端进行评估、回归测试、红队和监控LLM 应用程序。

原文链接:https://www.oschina.net/p/deepeval
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章