不用鉴黄师,还要给视频直播一片净土,Facebook 会怎么做?
不管你喜欢打游戏,还是看比赛,如今,移动端的视频直播都能满足你。
但伴随用户规模骤增、直播数量上涨,诸如暴力、色情等不当内容也开始泛滥。解决这个问题,“积极地使用更好的算法,比采取法律手段有用得多”。据路透社报道,Facebook 作为视频直播巨头,将使用 AI 对网民的视频直播进行实时的监控识别,避免违规内容的传播。
Facebook 负责“应用机器学习技术”的总监康德拉(Joaquin Candela)向媒体披露,Facebook 正在开发一个能够对视频直播中不当内容进行监控和识别的工具,并已经开始在 Facebook 的直播产品“Facebook Live”中进行测试。Facebook 希望,人工智能技术能够帮助其主动监控视频直播中的违规违法情况。
(图片来自:Reuters)
人工智能技术对实时视频影像的鉴黄分析主要是从三个方向进行:是否有人物、人形轮廓的肤色比例、姿态分析。直播视频可以通过解码抽帧,识别固定时间段中抽取的图像来鉴定是否是色情视频。当图片或视频帧达到十万的量级,深度学习就能跑起来。鉴黄的难点就在于,机器容易将正常图片(例如肉色裤子)误判为色情图片,这需要后期大量的数据不断训练和纠正,投入不小。
那么为什么不用人工识别呢?人工确实可以处理视频直播中违规违法情况,但由于内容数量多,用户规模大,人工处理不仅投入大,成本高,而且不稳定,速度慢,易漏判误判。目前,仅国内视频直播应用用户规模已达 2 亿台,增速还在提高,2016 年第一季度同比就增长了近一倍。因此运用 AI 监控视频直播确实是一种理想而必然的选择。
(图片截自 Talkingdata)
目前,图像识别已经广泛应用于互联网图片鉴黄、明星脸识别、暴力恐怖等信息的筛选和过滤。今年 6 月,Facebook 已经开发出能够自动识别标注极端组织的技术;而在 9 月,雅虎开源了自己构建的一套深度学习神经网络,专门用于自动监测图片是否含有色情内容。该识别系统会通过通用 Caffe 深度神经网络模型以图像作为输入并输出一个概率,给图片评估一个 NSFW(Not Suitable/Safe For Work)值,最无害的是 0,最极端是 1。
(图片来自:Yahoo! Engineering)
视频监控方面,今年4月,Twitter 的人工智能团队 Cortex 开发出了一款即刻识别直播视频内容的算法,该技术利用深度学习的方法来识别视频中的活动。其通过学习大量样例来训练大型模拟神经网络,以识别输入的内容。样例视频由雇员观看,并添加标签,为视频提供足够复杂的语义理解框架。
当下,众多公司都在争夺视频直播的阵地,亚马逊 (Amazon) 2014 年斥资 10 亿美元,收购了游戏直播网站 Twitch;Twitter 2015 年花费 5000 万美元收购还未正式发布的视频直播应用 Periscope;Yahoo 旗下 Tumblr 今年 6 月也宣布推出直播服务;Facebook 则因为手握巨大用户量,Facebook Live 日观看量可达 40 亿人次。
国内市场中,也已经有近 200 家在线直播平台,不乏在游戏、弹幕、视频、秀场、移动等5大类垂直直播平台。用户总数已达 2 亿,数字也十分可观。但潜藏在这片红海下的违规违法行为,如何通过人工智能技术手段处理,是视频直播公司一直需要面对的问题。