麻省理工学院的一项技术报告指出,可以进行“深度造假”的设备可能成为“伪造虚假新闻者的理想武器,他们希望影响从股票价格到选举的一切”。
CNBC网站在其报道中称,“深度造假”将成为“2020年美国总统选举中的大事件”。就像2016年的“虚假新闻”一样,“深度造假”视频将在2020年的美国大选中,掀起更强大的血雨腥风。当然,为了未雨绸缪,包括加州和德州在内的不少州都已经制定法律,当这些“深度造假”视频用于2020年的选举中时,将被认为不合法。
《麻省理工学院技术评论》杂志旧金山分支机构负责人马丁·贾尔斯在一份报告中写道,事实上,“人工智能工具已被用于把其他人的面部照片安在色情明星身上,让其他人说的话从政客们的口中说出。”他说,这个问题并非由GAN制造,但GAN会让问题变得更糟糕。
成也萧何败也萧何
正所谓成也萧何败也萧何!维拉塞纳今年2月份曾撰文指出,虽然人工智能可以用来生成“深度造假”视频,但也可以用来检测它们。由于任何计算机用户都可以使用该技术,越来越多的研究人员将注意力集中在“深度造假”视频的检测上,并且正在殚精竭虑地寻求管控这些“深度造假”视频的方法。
脸书和微软等大公司已经采取行动,旨在发现并删除“深度造假”视频。据路透社报道,这两家公司于今年早些时候宣布,他们将与美国顶级大学合作,建立一个庞大的假视频数据库,以进行深入的分析研究。
辛格指出,普通用户也可以用自己的双眼来观测并检查出“深度造假”视频。他说:“目前,如果你近距离观察,会出现一些轻微的突兀之处,比如耳朵或眼睛不匹配、脸部轮廓模糊、皮肤太光滑等等。”
但是他也强调,随着“深度造假”技术日益精进,视频会看起来越来越真实,人们要分辨也变得越来越困难。
维拉塞纳也提醒人们,在技术不断发展演进的同时,用来发现造假的检测技术“往往落后于最先进的生成造假的手法”。因此,更值得深思的一个问题是:人们更有可能相信“深度造假”视频,还是将这类视频作为“深度造假”的检测算法?