俗话说“眼见为实,耳听为虚”,而当科技发展至今,人们亲眼所见也不一定就是“真相”。前一段时间异常火爆的换脸 app ZAO,用户只需上传自己的面部照片,就能在 AI 的帮助下替换掉影视剧中演员的脸,让明星们变成用户的“替身”。虽然 ZAO 没有披露应用的技术细节,但其与开源的 Deepfakes“换脸”技术有着极强的相似性。
而 Deepfakes 技术最早起源于两年前,目前有九成以上的应用都落在色情领域。在 2017 年,第一批应用该技术制作的换脸视频被用户传到了 Reddit 论坛上。只要有脸部照片,这项技术就能将视频中的人脸替换成任何一个你想看的人,而且效果十分逼真,肉眼难辨真假。
随着 AI 技术的飞速发展,其在一些应用领域带来的安全风险与日俱增。尤其是人脸识别,作为 AI 技术落地最广泛的场景之一,面临的安全、伦理和道德等挑战愈发严峻。人脸信息作为个人隐私中十分重要且敏感的一部分,已经和智能设备解锁、支付,甚至一些公共设施、政府类等业务的身份验证直接绑定在一起。一旦出现问题,不论是在金融、还是公共安全等领域都将造成巨大威胁。
针对该问题,美国学术界、政府机构和一些企业已经着手研究反制措施。通过设计独特的图像与视频验证技术、标记技术等手段,比如在拍摄时自动添加时间、定位等信息内容,来对抗“AI 换脸”带来的威胁。