ICCV 2019 参赛回顾 | 为了让计算机“看懂”视频,我们做了这些......
计算机视觉领域顶级会议 ICCV 2019 于11月2日在韩国首尔完美落下帷幕。在大会 Comprehensive Video Understanding in the Wild (简称:CoVieW) Workshop 举办的挑战赛中,新华智云团队研发的视频综合理解系统取得了第一名的成绩。
那么,
智云团队究竟在这次 CoVieW 挑战赛做了哪些工作从而取得本次大赛第一呢?
我们特别邀请了智云团队的领队——北京 AI LAB 负责人蒋宇东详细介绍了本次挑战赛中,智云针对视频综合理解问题所提出的解决方案。
除此以外,小编还准备了一个“缩略易懂版”方便大家快速了解~
缩略易懂版
- 让计算机“看懂”视频!
CoVieW 视频综合理解挑战赛是本届 ICCV 上针对视频理解的挑战赛,而所谓视频理解其实就是要让计算机“看懂”视频。
目前针对视频理解的研究的工作多数聚焦在行为分类或者场景分类等某一个独立的问题上,没有很好地考虑场景和行为间内在的联系。这次 CoVieW 挑战赛要求对视频进行多角度的综合理解,同时完成行为分类、场景分类、视频综述三个任务,可以说是非常有挑战性了。
- 我们的解决方案
1.我们采用I3D+Non-local Attention 方法进行视频分类,并采取了异步数据加载的解决方案,提升 GPU 使用效率,在实验中,GPU的利用率始终保持在90%以上。
2.我们将基于内容的视频推荐研究方法运用到了视频综述问题研究中,从而从一段长视频中提取出对用户最有意义的片段或关键帧信息。
3.虽然 CoVieW 可以说提供了视频综述领域最大规模的数据集,但对于视频理解问题来说,数据量依然较小。因此我们还采取了一些 Tricks(自学习和数据增强)防止过拟合在训练中过早的发生。
从使用场景来看,预计到2020年视频将占据互联网总流量的80%,在信息爆炸数据时代,不管是视频的生产、编辑还是审核推荐,都会需要更多机器的参与。我们希望通过算法,能从视频中快速提炼有效信息,提高机器的视频理解效率,避免用户信息过载。
更具体专业的介绍请继续往下看吧~
详细专业版
By 新华智云北京 AI LAB 负责人 蒋宇东
- 问题
在视频理解领域,我们设计了很多的任务用来让计算机“看懂”视频。如:行为分类、场景分类、事件检测、视频综述、视频描述等。特别是在行为分类领域,在 Kinetics、Youtube-8M 这样的大规模数据集的驱动下,涌现出了非常多的优秀工作。多数的工作都聚焦在行为分类或者场景分类等某一个独立的问题上,而没有很好的考虑场景和行为直接存在着内在的联系。同样,视频摘要也与分类存在着非常紧密的联系,如何能够在充分理解一个人在做什么,在哪里发生的行为,同时还能概括出视频中描述的关键信息,是非常重要的问题。CoVieW 2019 挑战赛提出了这个非常具有挑战性的问题:对视频进行多角度的综合理解,同时完成行为分类、场景分类、视频综述三个任务。
- 数据集
整个数据集采集自 Youtube-8M, 包含了1500段长视频,按照每5秒钟一个片段切割成了67615条片段。每个片段都标注了场景/行为标签,一共包含99个行为类别,79个场景类别。同时每个片段都都会经过重要度的打分,分数取值0~2,0代表不重要,2代表非常重要。每个片段的重要性都经过了20个人的评分,所有人评分的均值作为该片段最终的重要性得分。值得一提的是,之前被广泛使用的视频综述数据集:TVSum包括50个视频,SumMe包含25个视频,MED包含160个视频,OVP包含50个视频。之所以视频综述的数据集都非常小,是因为标注这样的数据集需要非常多的人力成本,笔者粗略估算一下,仅就CoVieW2019的重要性标注来讲,需要人工标注1,352,300次视频片段的重要程度,大概相当于 620(天/人) 的工作量。在视频综述领域,CoVieW2019 是最大规模的数据集。
- 评价指标
视频分类的评价指标采用 Top-K hamming 得分:
其中 L=2, K=5, 当A和B的label一致时 AND(A,B)=1,否则AND(A,B)=0。
视频重要性得分采用如下定义:
其中Score(k,GT_i) 代表了第k个video中按重要性排序的第i个片段的Ground truth summary得分,Score(k, sub_i) 代表了按提交重要性排序的第i个片段的Ground truth summary得分。
- 视频分类解决方案
首先采用了 I3D+Non-local Attention 方法进行视频分类。
分成2种情况,(1)场景和行为分类做为2个分支共享同一个backbone。(2)每个任务做一个独立的模型。
另外,我们采一些公开数据集进行数据的补充,对于行为识别任务使用了来自HMDB、Kinetics、UCF-101的数据;对于场景识别,采用了Places360,Sun数据集。由于场景识别采用了图像数据,所以我们也使用了 ResNet50 + Avg Pooling的方案训练了基于图像训练的视频场景识别分类器。最终,我们将所有的模型进行了集成,作为提交结果。
为了加速视频训练的速度,我们采用了异步数据加载的解决方案。可以部署在不同机器上的 Producer 负责数据的 IO,视频解析抽样,数据的 augmentation,最终将数据处理成可直接载入GPU的形式,写入 GPU 服务器上的内存队列中。视频训练 Consumer 直接从内存中读取训练数据,然后加载到GPU 中进行训练,省去了等待 IO 和 CPU 处理的时间,提升了 GPU 的使用效率。在实验中,GPU 的利用率始终保持在90%以上,大大的提升了视频训练的效率。
- 视频综述解决方案
视频综述就是从一段长视频中提取出对用户最有意义的片段或关键帧信息。我们采用基于内容的视频推荐方案来解决该问题。整个系统的流程如图1所示:
采用特征提取器对原始的视频片段进行特征提取,包括基于帧级别的高层语义特征、基于帧序列的高层语义特征、基于视觉底层的特征、音频特征等。系统对每一个片段建立输入特征与用户反馈(重要性分数)的关系进行建模,对视频片段在整个视频序列中的重要性进行预测。
因为判断某个视频片段是否重要取决于两部分的信息:
- 视频片段本身是否具有吸引力
- 整个视频所描述的信息与该视频片段的关系。
因此系统采用了对片段和整个视频序列进行显式建模的方案,提出了如图2所示的网络结构:
SegNet 负责对输入的视频特征进行融合与建模,将每一个视频片段都 embedding 到一个n维的特征空间中。VideoNet 负责对整个长视频进行建模,将 SegNet 编码的视频片段序列输入到系统中,VideoNet 对序列进行学习后将该序列 embedding 到一个m维的向量空间中。片段特征与视频整体特征进行 concate 后,输入到 HighlightNet 中,预测该片段的重要性。其中 SegNet 采用2D卷积神经网络实现,VideoNet 采用双向GRU实现,HighlightNet 采用双层全连接实现。
- 缓解过拟合
由于数据量比较小,并且视频的重要性存在比较大的主观性因素,模型在训练时非常容易出现过拟合状况。为了防止过拟合在训练中过早的发生,我们采用了一些Tricks。
Trick1: 自学习
在训练VideoNet过程中,假设一个更加鲁棒*的视频建模网络可以区分出视频片段的先后顺序是否是正确的。我们选取一小部分的视频片段随机打乱顺序,让VideoNet对打乱顺序的片段位置进行预测,同时假定部分视频片段的顺序发生变化不应该影响对综述任务的判定。
该方法有如下的好处:
- 通过多任务训练可以有效的抑制过拟合的提早发生。
- 自学习的方式可以采用辅助数据对模型进行预训练。
- 随机的打乱视频中片段的顺序实际上相当于做了数据增强处理。
通过实验发现,这样的操作让模型表现从80.69%提升到了81.64%。
图3 Trick1 自学习
Trick2: 数据增强
从每个视频片段中只采样一部分的信息组成整个视频的信息输入到 VideoNet 中,这样同样一段视频就可以生成多种向量编码。采用平均池化操作将多种编码压缩成一个特征编码,作为视频的最终编码。该操作可以帮助模型带来0.29%的提升。
图4 Trick2 数据增强
- 总结与展望
个人感觉,因为主办方采用的重要性平均的评价方法导致比赛中所说的视频综述问题实际上变成了 Highlight Detection 问题,算法并不需要考虑所选择视频片段间的多样性、代表性等内在结构问题。而1500条长视频的数据集虽然在综述领域已经是最大规模的数据集了,但是对于这样一个复杂的问题仍然太小。此外,由于该问题与用户的行为息息相关,搜集更多的用户行为数据并引入更多的推荐系统相关技术对研究是非常必要的。
我们正在尝试解决视频理解领域更多有挑战性的问题,如果感兴趣,欢迎你的加入。
加入我们,请联系 hr@shuwen.com
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
MaxCompute中使用OSS外部表读取JSON数据
一、打开OSS,上传json文件 json文件内容展示: {"id":5644228109524316032,"sourceType":1} {"id":-736866360508848202,"sourceType":3} 二、登录DataWorks,建立外部表 建表语句: CREATE EXTERNAL TABLE `json_table` ( `id` bigint, `sourcetype` int ) ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe' STORED AS TEXTFILE LOCATION 'oss://oss-cn-beijing-internal.aliyuncs.com/gjt-demo/home/jsondata/'; 三、建立临时查询,查看数据 需要设置的flag语句以及查询语句 set odps.sql.type.system.odps2=true; set odps.sql.hive.compatible=true; select * from json_table; 查询结果展...
- 下一篇
湖畔论剑 | 汇“数”下英雄,煮茶论中台
二〇一九 中台元年烽烟起 英雄出作为媒体数据中台第一门派新华智云中台掌舵人首席数据官介然收到一封来信 12月6日甲子光年联合创始人曼祺坐镇“中台客栈”化身客栈老板娘特邀四位数据英雄 新华智云CDO 介然奇点云CEO 行在数澜科技CEO 风剑袋鼠云创始人 拖雷 湖畔论道忆往昔,话中台往事观现在,论中台未来廓清中台概念迷雾分辨需求热潮探讨商业化落地场景 既是英雄会智云在此一同发起英雄帖邀请天下数据豪杰共赴盛会 现场将开放30个席位欢迎扫描海报中二维码关注直播点击这里报名参加 若您届时无法出席活动当天我们也将开放直播通道欢迎各位希望参与讨论的朋友线上交流 关于新华智云媒体数据中台 媒体是最需要数据中台的行业之一。从环境监测信息到最近五年猪肉价格涨跌,大部分公开数据对媒体来说都具有价值,只要媒体有能力挖掘到这些价值点,就能以此生产出传播内容。 由新华智云自主研发的”媒体大脑数据中台“作为媒体全域数据的共享能力及服务中心,可以助力媒体数据资产化管理,聚合和统筹跨域跨界跨类数据,为媒体提供一个具有通用、百变生产能力的平台。通过挖掘数据中的价值点,让媒体机构按需高效利用数据,生产符合用户需求、互联网...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7安装Docker,走上虚拟化容器引擎之路
- CentOS6,CentOS7官方镜像安装Oracle11G
- CentOS8编译安装MySQL8.0.19
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Thymeleaf,官方推荐html解决方案