阿里通义实验室发布端到端语音识别大模型 FunAudio-ASR
阿里巴巴通义实验室发布了其端到端语音识别大模型 FunAudio-ASR。该模型通过创新的 Context 模块,成功将高噪声场景下的幻觉率从 78.5% 大幅降低至 10.7%,降幅接近 70%。
模型使用了数千万小时的音频数据进行训练,并融合了大语言模型的语义能力,在远场、嘈杂、多说话人等复杂条件下,其性能已超越 Seed-ASR、KimiAudio-8B 等主流系统。
FunAudio-ASR 提供了轻量化版本 FunAudio-ASR-nano,在保持较高识别准确率的同时,具备更低的推理成本,适合对资源敏感的部署环境。
两个版本均支持低延迟流式识别、中英无缝切换以及用户自定义热词功能。目前,该技术已在钉钉的 “AI 听记”、视频会议以及 DingTalk A1 硬件中落地应用。其 API 也已在阿里云百炼平台上线。
体验地址:https://modelscope.cn/studios/iic/FunAudio-ASR
技术报告:https://github.com/FunAudioLLM/FunAudioLLM.github.io/blob/master/pdf/FunAudio-ASR.pdf
