很遗憾AI还不能审查出儿童性侵录像:沙漠也被当成小黄片
伦敦大都市警方希望两到三年内,能有AI算法可以识别录像中孩子是否被性侵,以及审查录像是否为儿童色情作品。不过目前来说,这套系统还不能判断裸露的身体和光秃秃的沙漠之间的区别。
警方现在已经开始使用图像识别算法,从电子监控录像中,甄别出犯罪行为,或与犯罪相关的物品,比如毒品、强制和大量成捆的现金。但对于裸体来说,现有的AI算法的判断结果还不够可靠。
“有些时候,给系统看沙漠组图,系统会认为是小黄片。”数字法医部部门主任Mark Stokes对电讯报说。“由于某种原因,很多人会用沙漠做屏保,然后我们的系统就以为这些人在看片。因为沙漠和皮肤的颜色太相近了。”
从手机或电脑上排查儿童色情作品工作量很大,做内容审查的人只能人工地看一个又一个的录像,工作内容特别乏味,精神上非常容易崩溃。
所以警方为了减轻人类的工