直播内容不合规怎么办?智能AI为您解决审核难题
背景
近些年来,视频直播快速发展,大量的直播平台如雨后春笋一般出现,但是这同样给直播内容的监管带来了巨大的挑战,一方面国家对于直播内容监管的要求日益严格,另一方面相对于文字内容的审核,多媒体内容的审核复杂度更高,资源耗费也更大技术门槛相对也较高,所以这逐渐成为制约直播服务健康发展的一个瓶颈,尤其是对于一些刚刚起步的中小直播平台。
对于内容审核,一些平台还是采用人肉审核的方法,雇佣大量的直播审核员,来从海量的直播视频中寻找那些不合规的视频,但是受限于人的精力,往往不能达到很好的效果,而且审核人员的紧缺薪水也响应的水涨船高。
幸好,人工智能的快速发展,给这个问题的解决带来的转机,人工智能审核+人工复审成为主流。
传统解决方案
有技术积累和人力的公司往往会自己组建自己的AI团队,根据自己的业务场景和海量的资源来训练自己的检测模型,这样优势是,能够
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
一文读懂深度学习模型近年来重要进展(附梳理图)
唐杰老师学生帮忙整理的Deep Learning模型最近若干年的重要进展。有4条脉络,整理很不错。分享一下。 track1 cv/tensor 1943年出现雏形,1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路、计算能力不足以处理大型神经网络。停滞! 1986年hinton正式地提出反向传播训练MLP,尽管之前有人实际上这么做。 1979年,Fukushima 提出Neocognitron,有了卷积和池化的思想。 1998年,以Yann LeCun为首的研究人员实现了一个七层的卷积神经网络LeNet-5以识别手写数字。 后来svm兴起,这些方法没有很受重视。 2012年,Hinton组的AlexNet在Image
- 下一篇
LeCun、Bengio、Hinton三巨头曾合体,Nature发文综述深度学习(论文精华)
深度学习三巨头Yann LeCun、Yoshua Bengio、Geoffrey Hinton曾在Nature上共同发表一篇名为《深度学习》的综述文章,讲述了深度学习为传统机器学习带来的变革。 从2006年Geoffrey Hinton为世人展示深度学习的潜能算起,深度学习已经蓬勃发展走过了10多个年头。这一路走来,深度学习究竟取得了怎样的成就,又会何去何从呢? 文摘菌节选了这篇论文的精华部分进行编译,对这些问题作出了回答。在公众号后台对话框内回复“三巨头”即可下载这篇论文~ 左起:Yann LeCun(Facebook)、Geoffrey Hinton(谷歌/多伦多大学)、Yoshua Bengio(蒙特利尔大学)、吴恩达(deeplearning.ai) 借助深度学习,由多重流程层组成的计算模型能够从不同层级的抽象数据中学习数据的特征
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- SpringBoot2整合Redis,开启缓存,提高访问速度
- MySQL8.0.19开启GTID主从同步CentOS8
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS8编译安装MySQL8.0.19
- CentOS8安装Docker,最新的服务器搭配容器使用