2019年度报告

盘点2019:人工智能给我们带来的麻烦

李军:2019年是AI逐渐深入社会生活、同时开始带来麻烦的一年。和平利用AI,将与和平利用原子能一样,成为未来人类持续面临的挑战。

2019年,是人工智能技术(以下简称AI)逐渐开始降温的年份。在Gartner 8月份发布的技术成熟度曲线上,所有的AI应用都还没有越过第二阶段的泡沫顶峰。

尽管AI技术还处于发展的初级阶段,离大规模商用还有相当远的距离,但这一点也不妨碍AI技术给人类社会带来各种麻烦和争议。2019年AI给人类带来的麻烦和潜在的风险,包括了其中以下方面:

信息伪造

使用AI技术进行图像和视频编辑是AI应用最广泛和最成熟的领域之一。随着越来越多的开源软件可以自动化完成相关的视频图像编辑操作,有一天这个技术门槛终于被彻底推倒了。

2017年底,一个名叫“deepfakes”的用户匿名在社交平台Reddit上传了基于对抗式神经网络开发的程序包,提供视频编辑“换脸”操作的功能。2018年1月,一款名为FakeApp的手机应用在应用商店上架,进一步提供傻瓜操作视频“换脸”。短时间内,从名人视频“换脸”到成人视频“换脸”,各种“成果”蜂拥而出。但总的来说,2018年时的AI“换脸”视频的细节处理还比较粗糙,很容易被识破。

让公众震惊的时刻终于到来。2019年5月,一个名为“Ctrl Shift Face”的账号在YouTube上传了一段比尔•哈德尔的高清访谈视频。在视频过程中,比尔•哈德尔的面部逐渐演变为阿诺德•施瓦辛格的面部,中间的“换脸”过渡几乎是天衣无缝,而且是渐变式完成的。这段三分钟的视频最终被观看1200万次,并得到了15万次的点赞。

AI的视频伪造技术终于达到了以假乱真的水平。并且由于模型开源的缘故,AI伪造技术目前对使用者的要求极低,只要有基本的编程常识,按图索骥就可以搭建类似的AI运行环境。

互联网巨头们坐不住了。这种能够轻易污染信息源,生成虚假信息的“核武器”目前已经开始散落在民间。互联网巨头们必须重新掌握筛选甄别虚假信息的能力,否则就无法抵抗来自民间的海量虚假内容的“攻击”。

2019年9月,Facebook 宣布将投资 1000 万美元发起 Deepfake 检测挑战赛(Deepfake Detection Challenge)。这并不是鼓励Deepfake技术的进一步发展,而是希望借助挑战赛全面了解Deepfake的技术特点,以便有针对性的寻找快速甄别的手段。

Facebook、微软以及牛津大学、加州大学伯克利分校、麻省理工等企业和大学组建了 Partnership On AI。作为这个联盟的一份子,Facebook 正在致力于通过更好的检测技术来打击对 Deepfake 的滥用。

2019年8月,德国和意大利的高校研究人员建立了FaceForensics技术标准,用于判别AI生成的虚假视频。Google作为共同发起人,也参与了FaceForensics技术标准的制定。

您已阅读21%(1143字),剩余79%(4240字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×