OpenAI 加码音频 AI 技术,为首款智能硬件产品铺路
OpenAI 正在大幅强化音频人工智能模型研发,目标是为未来推出的语音优先 AI 设备做好技术准备。根据《The Information》的报道,过去两个月内,OpenAI 已将多个工程、产品及研究团队整合统一,集中攻关音频交互技术,以提升语音 AI 模型的对话表现和响应能力。整个产品生态将聚焦纯音频交互,由 Sam Altman 与 Jony Ive 团队主导开发。 据知情人士透露,OpenAI 内部认为目前用于语音对话的音频模型在准确性与响应速度上仍落后于文本模型,因此加速推进架构升级,新一代模型计划在 2026 年第一季度发布。新模型将具备更自然、富有感情的语音输出能力,并能更好地处理对话中的实时打断与交互场景。 这次音频技术升级不仅是为了改善现有语音体验,更与 OpenAI 即将发布的语音优先个人设备密切相关。报道指出,该设备预计将在约一年后推向市场,并可能不只是一款产品,而是一个设备系列,例如无屏智能眼镜、屏幕极简的语音助手等形态。这些设备的设计旨在减少对屏幕的依赖,通过自然语音交流来提升用户体验。 此外,新音频模型预计能够在对话时支持“边听边说”功能——即在用户尚未说完时就...
