上海 AI 实验室发布首个视频转网页评测基准 IWR-Bench
上海人工智能实验室与浙江大学等机构近日联合推出IWR-Bench,这是首个专门评估大语言模型将视频转化为交互式网页代码能力的基准测试。该基准旨在更真实地衡量多模态大语言模型(LVLM)在动态网页重建方面的能力,填补了AI前端开发领域动态交互评测的空白。
与传统的图像转代码(Image-to-Code)任务不同,IWR-Bench要求模型观看记录用户完整操作流程的视频,结合网页所需的所有静态资源,重建网页的动态交互行为。任务复杂度涵盖从简单的网页浏览到复杂的游戏规则重建,包括2048游戏、机票预订等多种应用场景。
测试结果显示了当前AI模型在这一任务上的显著局限。在对28个主流模型的评测中,表现最好的GPT-5综合得分仅为36.35分,其中交互功能正确性(IFS)得分为24.39%,视觉保真度(VFS)得分为64.25%。这一数据清晰反映出模型在视觉还原方面相对较强,但在实现事件驱动逻辑和动态交互功能方面存在明显短板。
从评测方法来看,IWR-Bench不仅关注模型的视觉还原能力,还通过自动化代理评估其交互功能的正确性。每个任务都提供完整的静态资源,且所有文件名经过匿名化处理,迫使模型依靠视觉匹配而非语义推理来关联资源。这种设计更贴近真实开发场景,要求模型理解操作视频中的因果关系和状态变化,然后将其转化为可执行的代码逻辑。
研究人员还发现了一些有趣的现象。带有"思考"机制的模型版本在某些任务中表现更好,但提升幅度有限,表明基础模型的能力仍是决定性因素。此外,专门针对视频理解优化的模型在该任务中的表现并不如通用多模态模型,说明视频转网页任务与传统视频理解任务存在本质差异——前者需要的不仅是理解视频内容,更需要将动态行为抽象为程序逻辑。
从技术挑战来看,视频转网页任务的难点在于多个层面。首先是时序理解,模型需要从连续的视频帧中提取关键交互事件和状态转换。其次是逻辑抽象,需要将观察到的行为模式转化为事件监听、状态管理等编程概念。第三是资源匹配,在匿名化的静态资源中准确找到对应的图片、样式等文件。第四是代码生成,需要产生结构合理、逻辑正确的HTML、CSS和JavaScript代码。
GPT-5仅获得36.35分的综合得分,说明即使是最先进的多模态模型,在将动态行为转化为可执行代码这一任务上仍有很大提升空间。24.39%的交互功能正确率意味着模型生成的网页中,超过四分之三的交互功能存在问题。这可能包括事件响应不正确、状态管理错误、业务逻辑遗漏等问题。
IWR-Bench的推出对AI研究和应用都有重要意义。从研究角度看,它为多模态模型的动态理解和代码生成能力提供了新的评测维度,有助于识别当前技术的薄弱环节。从应用角度看,视频转网页能力如果成熟,可以大幅降低前端开发的门槛,让非技术人员通过演示操作就能生成功能原型。
不过需要注意的是,即使模型在该基准上取得高分,距离实际应用仍有距离。真实的网页开发涉及性能优化、兼容性处理、安全防护、可维护性等多个维度,这些都难以通过视频演示来完全传达。此外,复杂的业务逻辑、边缘情况处理和用户体验细节,也很难仅从操作视频中完全推断出来。
从行业趋势来看,IWR-Bench代表了AI代码生成从静态向动态、从单帧向多帧、从描述向演示的演进方向。这与当前AI编码助手主要依赖文本描述的模式形成对比,为"所见即所得"的智能开发工具提供了技术基础。如果未来模型在该任务上取得突破,可能催生新一代的原型开发工具,让产品经理或设计师通过录制操作视频就能生成可交互的网页原型。
从测试结果来看,当前AI模型在理解复杂动态交互方面仍处于早期阶段。视觉保真度64.25%相对较高,说明模型已经能够较好地还原页面的静态外观。但交互功能正确性仅24.39%,表明将观察到的行为转化为正确的程序逻辑仍是巨大挑战。
 关注公众号
关注公众号
					低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 
							
								
								    上一篇
								      JetBrains 宣布停用云开发平台 CodeCanvas,转向 AI 驱动新产品JetBrains 官方宣布,将于 2026 年 3 月 31 日正式停用旗下云开发环境平台 CodeCanvas。该项目自 2022 年启动、2024 年公开发布以来,旨在为开发者提供基于云的 IDE 与协作体验。 然而,JetBrains 表示,随着人工智能在软件开发中的迅速普及,传统云开发环境的定位已逐渐变得“小众化”,难以匹配新一代 AI 驱动的开发需求。 自 2025 年 10 月 16 日起,CodeCanvas 将停止发放新许可证及订阅升级,并在 2026 年 1 月 1 日结束支持期。在此期间,付费客户可与团队协作讨论迁移方案。届时用户仍可继续使用至 3 月底,之后平台及相关制品将被完全下线。 JetBrains 同时透露,他们正研发一款“以 AI 为核心、云原生”的新型开发平台,旨在帮助专业团队与自主 AI 代理协作。公司表示,CodeCanvas 的经验与反馈将成为这款新产品的重要基础。 
- 
							
								
								    下一篇
								      由 DeepSeek-OCR 启发的新思路:所有输入给 LLM 的内容都只应该是图像Andrej Karpathy(特斯拉前自动驾驶负责人、OpenAI 联合创始人)在推特对 DeepSeek 最新开源的DeepSeek-OCR发表了自己的看法: 我很喜欢 DeepSeek-OCR 这篇新论文。它本身是一个很不错的 OCR 模型(可能比 dots.ocr 稍差一点),当然,它的成功离不开数据收集等工作,但这不重要。 对我来说,更有趣的部分在于它提出的一个核心问题(尤其我骨子里是个搞计算机视觉的,只是暂时伪装成搞自然语言处理的):对于大语言模型(LLM)来说,像素(图像)会不会是比文本更好的输入形式? 换句话说,我们现在用的文本令牌 (text tokens) 作为输入,是不是既浪费又糟糕? 也许,未来所有给 LLM 的输入都只应该是图像,这样可能更合理。就算你拿到的是纯文本,或许也应该先把它“渲染”成图片再输入给模型,因为这样做有几个显而易见的好处: 1️⃣更高的信息压缩率:就像这篇论文展示的那样 ,把文本转为图像,可以用更少的视觉令牌表示更多的内容。这意味着更短的上下文窗口和更高的效率 。 2️⃣信息流变得更加通用:输入不再局限于纯文本,还可以轻松包含加粗、彩色文字... 
相关文章
文章评论
共有0条评论来说两句吧...

 
			


 
				 
				 
				 
				 
				 
				 
				



 微信收款码
微信收款码 支付宝收款码
支付宝收款码