你接到的老板电话可能并不是真的,而是 AI 的新诈骗

公司

2019-07-22 15:20

还记得去年在色情行业掀起一阵风暴的 Deepfakes 吗,通过 AI 神经网络和演员的照片,反复进行机器学习之后,就能让 AI 自动识别和替换掉影片里某人的脸部数据。

后来 B 站也掀起了一阵「万物皆可徐锦江」的热潮,比如雷神和海王,乃至很多的经典电影的片段都出现了徐锦江的脸,甚至其中还包括《新白娘子传奇》里的白素贞。

▲ AI 换脸徐锦江. 图片来自:Bilibili

这一次花式操作确实秀,也让更多人了解了什么是 Deepfakes 和 AI 换脸。

现在,「Deepfakes」已经泛指那些被人工智能改变过的媒体内容,只要是某人没有做过的事被 AI 做出来都可以认为是 Deepfakes,而且不止是视频,音频同样也可以通过 AI 来伪造。

▲ 图片来自:axios

但现在 Deepfakes 正在从过去的色情范围进一步扩大到了犯罪的世界,现在有一些犯罪分子使用 Deepfakes 来冒充公司的高管进行诈骗,目前他们使用的是 Deepfakes 的音频而非视频来进行诈骗。

相关的技术其实早已经有所应用,比如网络上那些伪造的 Trump 讲话,这一段乔丹·皮尔「配音」的奥巴马演讲也堪称经典案例

而这种诈骗,要比「小 X,明天来我办公室一趟」可要厉害不知多少倍,用被忽悠瘸的范伟老师的话说就是「哎呀,防不胜防!」

作为一家网络安全公司,赛门铁克表示已经发生了至少三起对私营企业成功的音频诈骗,都是将自己伪装成 CEO 的声音要求财务进行紧急汇款。

当然,犯罪分子也为此做了很多训练,用人工智能伪装声音不必多说,他们还通过电话、Youtube 视频和 TED 演讲视频来模仿该公司 CEO 说话习惯,在进行数小时的演练和计划之后才会实施。

▲ 图片来自:fastcompany

这三起诈骗让每家公司都损失了数百万美元,但公司的名称目前并没有被披露出来,BBC 最先报道了这些攻击事件。

显然,Deepfakes 对企业的威胁是切实存在的,尤其是在已经有三起成功案例之后。但目前这样的运用方法仍然只是「小儿科」的简单手法,真正令人胆寒的是这样技术能用于更大的破坏。比如你想要拉低苹果公司的股价怎么办,只要一份刻意伪造的音频剪辑,并放出一些类似库克私人谈话等不利信息,苹果的股价恐怕很容易就能蒸发数十亿美元。

▲ 图片来自:PetaPixel

然而目前并没有非常好的方式去监测这些造假音频,因为技术的越发成熟,这些 Deepfakes 的音视频制作正在变得越来越容易,同时破绽也越来越少。但绝大多数企业都对此没有准备。

更糟糕的是,从行业上说,对于 AI 造假的媒体来说,目前来看尚没有高效的检测和抵御解决方案。

技术方面,赛门铁克表示他们正在开发检测音频造假的技术。购买第三方公司服务的话也同样不便宜,New Knowledge 是一家帮助公司抵御虚假信息的公司,但它们的服务费用可能从 5 万到数百万美元不等。

而最让人头疼的是,当这些 AI 造假的音视频被揭穿时,通常损失已经造成了。

题图来源:TechRepublic

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中