声网联合美团、xbench 发布 AI 外呼智能体评测基准:VoiceAgentEval
声网宣布联合美团、xbench 共同推出用于评估大模型在 AI 外呼场景性能表现的综合评测标准 VoiceAgentEval ,旨在填补行业空白,让从业者更清晰的了解在真实 AI 外呼业务场景中各个大模型的综合性能表现,并为 AI 外呼场景的落地与技术体验的优化提供核心参考依据。 根据介绍,VoiceAgentEval 实现了从“基准测试构建”、“用户模拟器”和“交互质量评估方法”三个主要维度评估 AI 外呼的能力。 该框架的主要特点包括: 基准测试构建:构建一个基于真实外呼业务数据的语料库。该语料库涵盖六大业务领域(客服、销售、招聘、金融、调研、主动关怀与通知)和 30 个子场景。对于每个子场景建立了详细的评估方案,包括场景特定的流程分解、加权评分系统和领域自适应指标,为细致和客观的评估奠定了坚实基础。 用户模拟器:通过利用来自真实业务场景的交互数据,我们构建了大量有效且稳定的用户模拟器。这使得能够在可控和可复现的环境中测试模型,检查它们在不同沟通风格下的任务完成能力。 评估方法:建立“文本+语音”双维度评估,针对文本评估开发了一个双层评估系统,包括任务流程遵循和一般交互能力,通过标...

