盘和林:用AI打败AI“深度造假”
近期,知名歌星泰勒·斯威夫特AI不雅照在网上疯传,这不仅对泰勒·斯威夫特的个人形象造成影响,也再一次将AI造假问题推到风口浪尖。针对此次事件,很多人都感到意外:美国现行的联邦法律中居然没有相关条文能够阻止创建或分享此类未经同意的“深度造假图像”。
美国其实已经在推动AI立法,有议员正在推进《防止亲密图像深度造假法案》,1月份,立法者还提出了《禁止人工智能假冒复制品和未经授权的复制(禁止人工智能欺诈)议案》,但大部分提案尚未通过,依然停留在纸面阶段。2023年10月,拜登也签署了首份行政命令,该命令将要求科技行业制定安全保障标准,引入新的消费者保护措施,并调整高技能人才的移民壁垒。
欧洲在立法方面要快于美国,去年12月,欧盟委员会、欧洲理事会和欧洲议会就“AI协调规则提案”达成协议,欧盟《人工智能法案》出台。而中国在人工智能立法层面也走在前列,早在去年8月,网信办等7部门就已经联合发布了《生成式人工智能服务管理暂行办法》,着手通过制度完善来规范AI的应用。
可以看到,中美欧等主要经济体都在针对生成式AI完善立法,或者是已经有了方案,或者是正在制定方案,但是不是有立法就天下太平了呢?其实并非如此。因为深度造假的真正罪魁不是AI,而是人。
思考一个问题,在AI出现之前,有没有类似的深度造假图像?答案是肯定的,图片编辑已经存在数十年,PS抠图换脸功能等技术早已实现,AI所做的,仅仅是降低了制图师的门槛,过去专业制图师才能换头,且很多职业制图师由于水平问题,很难做到以假乱真。而如今AI降低了制图师的门槛,让普通人也能通过AI合成瞬间换头,实现深度造假。
所以,深度造假由来已久,并不是AI出现才有的。AI作为一种工具,只是被不法分子利用。由于过去深度造假门槛较高,制图师、剪辑师、特效师都是“金饭碗”,大多不屑于去赚那些违法乱纪、损人肥私的“脏活”,所以我们遇到的深度造假相对较少。而如今AI降低了造假的门槛,赋予几乎所有人能力,这其中势必包括一些不法分子。于是,“法外狂徒”利用AI做的坏事逐渐增多,而AI工具则成为 “背锅侠”。
如何应对“深度造假”?有人说可以通过限制生成式AI的技术发展来解决“深度造假”的问题,个人认为这种观点是“因噎废食”,生成式AI是技术演化的必然趋势,是一种必然。过去就有深度造假技术,只不过如今生成式AI强化了它而已。所以解决AI“深度造假”问题的根本,在于管住人,而不是限制技术发展。
如何管住人?通过技术发展。我们不仅不能停止生成式AI的发展,甚至还要通过生成式AI的逆向机制来规范管理深度造假。比如泰勒·斯威夫特这个案例,AI可以在两件事上发挥作用,第一AI可以识别“深度造假”,真图片和伪图片通过肉眼很难分辨,这本身是一种欺骗眼睛的技术,而如果用AI来识别,那就可以“一眼看穿”,因为AI能够识别像素点级别的微小差异,且当前很多AI机器学习算法本身就可以逆向。第二AI可以一键删图,社交平台X正在调动大量人力寻找深度造假的图片,实际上人力搜寻效率远不如AI高,也不如AI彻底,社交媒体发现侵权问题,删除图片靠用户自觉几乎是不可能的,而结合AI,则能事半功倍,效率倍增。
说到底,生成式AI只是工具,它让过去需要数年学习的专业技能成为人人都能掌握的普通应用,从而大大提高了生产力水平,这里的生产力是精神产品的生产力,也就是内容创作的能力。而能够监管生成式AI的,不是工业时代的法律条文,而是AI技术自身。我们不但要发展AI技术,更要让正义力量尽可能多地掌握AI技术,这样才能对不法分子形成技术压制。
那么,怎么解决生成式AI的深度造假问题?如前所述,关于生成式AI的立法层面,我们应该针对的是人,比如某人利用生成式AI去干坏事,我们应该让这个人去承担法律责任、赔偿责任,而不是AI。对违法行为的威慑,从来就是针对人而不是工具。关于生成式AI的现实治理层面,我们应该积极探索监管技术,比如在AI生成内容的时候要求加入水印标签,注明来源出处;比如对互联网AI深度造假侵权的图片进行算法检索,找到并删除;比如对已经确定侵权的图片,进行算法溯源,并用算法对网络上侵权图片进行删除。“打败魔法的一定只会是魔法”,正因为我们需要AI魔法,所以我们需要以发展的态度来对待生成式AI,防止技术落在居心不良的人手中,从这个角度,发展生成式AI技术才是打击“深度造假”的最佳手段。(作者是浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员,工信部信息通信经济专家委员会委员)