汤晓鸥为CNN搓了一颗大力丸
大把时间、大把GPU喂进去,训练好了神经网络。
接下来,你可能会迎来伤心一刻:
同学,测试数据和训练数据,色调、亮度不太一样。
同学,你还要去搞定一个新的数据集。
是重新搭一个模型呢,还是拿来新数据重新调参,在这个已经训练好的模型上搞迁移学习呢?
香港中文大学-商汤联合实验室的潘新钢、罗平、汤晓鸥和商汤的石建萍,给出了一个新选项。
他们设计了一种新的卷积架构,既能让CNN提升它在原本领域的能力,又能帮它更好地泛化到新领域。
这个新架构叫做IBN-Net。
它在伯克利主办的WAD 2018 Challenge中获得了Drivable Area(可行驶区域)赛道的冠军。相关的论文Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net发表在即将召开的计算机视觉顶