来源:央广网
AI换脸技术(央广网发 图片来源:CFP)
央广网北京3月19日消息(记者冯烁)据中央广播电视总台中国之声《新闻纵横》报道,近日,国家互联网信息办公室、公安部指导各地网信部门、公安机关加强对语音社交软件和涉“深度伪造”技术的互联网新技术新应用安全评估工作,并依法约谈映客、小米等11家企业。“深度伪造技术”究竟是什么意思?如何让技术不跨越危险的边界?
一年前,一条“爱因斯坦生前预告新冠肺炎”的视频流传于网络,这段视频里的爱因斯坦看上去如假包换,如果他说的不是新冠肺炎病毒,确实会让人信以为真。
而这个视频里运用的技术就是“深度合成技术”。所谓深度伪造(Deep Fake)是深度合成技术的一个具体应用,指借助深度合成技术伪造以人为主体(不光是人脸,还有头部、肢体和声音)的视听觉内容,以达到欺骗的目的。
当我们为这样的技术催生了一些娱乐视频而哈哈大笑时,却不知在大洋彼岸,这样的技术也能成为攻击他人的利器。
就在本月,美国宾夕法尼亚州东部的一名女子在一场骚扰和欺凌活动中制作了一系列深度伪造视频,意在恐吓跟她女儿竞争的十几岁女孩并将她们踢出当地的拉拉队。受迫害的女孩们在被伪造的视频中看起来像是裸体,吸电子烟或喝酒。
从技术溯源的角度讲,深度合成技术本身没有善恶之分,问题的出现是在于有人滥用技术,跨越了伦理和法理的边界。中国科学院自动化研究所模式识别国家重点实验室研究员赫然告诉记者,深度合成技术是人工智能技术的前沿方向,但它和人工智能技术一样都存在两面性。赫然说:“深度合成技术实际上是广泛存在于我们现实生活中的,比如说语音导航、智能语音客服,我们平常见到的虚拟主播、银行的虚拟客服,平常使用的美颜相机里面的换脸或者换发型,都属于深度合成,所以整个技术还是有正面意义的,它也代表人工智能在生活方面的前沿应用。但是深度合成如果被不法分子所使用的时候,就会产生比较大的影响或者产生恶劣的影响。”
深度伪造技术的可怕之处在于——普通人难辨真假。除了AI换脸有可能带来的色情泛滥以外,人们更加担心“深度伪造”技术在侵犯隐私、操纵政治选举等方面带来的挑战。美国加利福尼亚大学伯克利分校教授哈尼·法里德表示,如果相关的伪造信息在互联网中肆意蔓延,将会进一步冲毁互联网世界的真实性边界。哈尼·法里德说:“我们应该担心‘深度伪造视频’的出现,如果我们不能相信看到的来自世界各地的视频、听到的音频,那就是很危险的,事关国家安全。”
这也是为什么此次国家网信办及公安部加强对涉“深度伪造”技术的互联网新技术新应用进行安全评估工作。目前为止,从国家监管层再到业界、学界也都在不断探索,如何去为合成技术铸造一道墙,避免人们对它的恶意运用。科大讯飞AI研究院视频分析技术专家吴子扬说:“比如说我们结合着一些语音假音检测、口型的口唇识别,包括一些音视频的同步性检测,人脸的一些活体的检测,其实都对深度伪造有一定的抵抗力。”
不过有观点认为,技术发展和监管之间始终在上演“道高一尺魔高一丈”的博弈。在赫然看来,要想让技术能在合理的范围内被人们善用,关键在于不断研发鉴伪技术,并配合管控政策一起打一套“组合拳”。
赫然说:“现在学术界有很多具体的算法去鉴别合成的视频是否是真实的,但是由于深度合成技术它发展比较快,所以鉴别难度还是比较大的,它相当于一个矛盾的对抗体,它们都是快速发展的。但是专业的机构,比如说大的企业,还有国家层面的机构,它们有一定的计算能力去区分合成的结果。”
目前从我国的相关法律法规来看,如果未经本人许可,换脸行为是被法律所禁止的。同时,民法典第一千零一十九条第一款规定,不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人肖像权。此次两部门的加强管理其实也释放出一个明显的信号:那就是要进一步遏制由深度伪造技术引发的乱象。北京岳成律师事务所高级合伙人岳屾山说:“在我们国家就很明确的把不管是丑化还是进行深度伪造,至少现在在民法层面有一个非常明确的禁止性规定了。”