财经三人谈:“AI换脸”以假乱真,哪些风险不容忽视?
编者的话:近日,由人工智能生成的美国歌手泰勒·斯威夫特说一口流利的中文,以及一些中国明星说一口流利英语的视频在网络走红。随着深度学习技术取得巨大进展,“AI换脸”技术作为成果之一,已经展现出广泛的应用潜力。与此同时,其衍生出的种种风险也受到关注。相关技术将如何发展?涉及的版权、肖像权、翻译权等问题应如何解决?其背后的道德和法律风险如何应对?
须意识到技术的“双刃剑”属性
沈阳
AI换脸及其背后的技术已在各个领域展现出广泛的应用潜力。与此同时,“面孔之变”背后的伦理迷宫与法律光谱同样值得深究。
在娱乐产业中,AI换脸技术可用于后期制作,提高效率并降低成本,甚至可能彻底改变我们对于“明星”概念的认识。影视作品可以无缝地更换演员,或者让去世的演员“复活”,给观众带来全新的体验。然而,这同时也可能降低对演员个人表演艺术的重视,造成行业内部资源的重新分配。
广告行业可以利用AI换脸技术根据不同市场的需求定制广告,以更加精准的方式吸引目标群体。这种个性化的广告制作方式将可能引领一场市场营销的革命,但同时也提出了对消费者的隐私保护等问题。
AI换脸及其背后的技术能够为用户提供更加真实的互动体验,这不仅仅是技术的展示,更是服务业态向更加个性化发展的趋势体现,为虚拟客服和个性化内容创造等领域带来更广阔的市场。
新技术在带来机遇的同时亦带来挑战,AI换脸技术的发展引发了社会、法律与道德议题。在商业应用的前景展望中,我们必须意识到技术的双刃剑属性。AI换脸技术的滥用,如制造不实信息、诈骗、侵犯隐私等,都是不容忽视的风险。而在规避这些风险的过程中,技术的进步、法律的完善以及社会的共识构建都至关重要。
从规范和监管的角度来看,技术的发展需要与时俱进的法律监管相匹配。我们应该致力于发展AI换脸检测技术,建立和完善相关的法律法规,制定行业道德规范,并且加强公众教育,提升大众对这一技术的理解和辨识能力。
电影、安全、教育等行业的变革表明,AI换脸技术不仅仅是技术层面的进步,更是社会运行方式变革的推手。它对传统的版权、肖像权等法律制度提出了挑战,要求我们在尊重个体权利的前提下重新审视和构建相关的法律体系。
解决AI换声、AI换脸背后的版权、肖像权、翻译权等问题,需要全社会的共同努力。技术手段的开发、法律手段的完善、国际合作的深入以及行业自律的加强,是构建一个健康发展环境的必经之路。(作者是清华大学新闻学院教授)
平台需承担相应法律责任
郝敏
AI换声、AI换脸主要是指通过AI人像视频工具,对原受访者的语言表述进行较为准确的翻译和润色,模拟原受访者的声线和情绪,调整原受访者的嘴型和其他身体动作,进而生成新的视频表达,以达到以假乱真的效果。在开发应用过程中,如下法律风险也须予以关注。
就原视频著作权保护的角度而言,AI换声、AI换脸前的原视频多呈现为相声、小品、综艺脱口秀等表达形式,均属于我国《著作权法》保护的作品范畴。网友利用AI人像视频工具将原相声、小品、综艺脱口秀等“翻译”为其他语言,必须经过原著作权人的同意。尽管我国《著作权法》规定“为个人学习、研究或者欣赏,使用他人已经发表的作品”属于合理使用,但网上发布新视频的行为显而易见不属于个人学习,亦不属于艺术欣赏等用途,故不能落入合理使用范围。涉嫌侵犯原作品著作权的具体权项则有翻译权和信息网络传播权。
翻译权的保护是指未经他人授权,不得翻译他人作品。网友通过AI人像视频工具将相声、小品、综艺脱口秀翻译为其他语言,必须经过原著作权人的授权。新视频生成后,网友将其发布在社交媒体后,引发大规模流量关注并转发,获得可观的经济收益,涉嫌侵犯原视频的信息网络传播权。
对于被替换声音的公众人物的权利保护主要表现为对于肖像权的保护。我国《民法典》规定,任何组织或个人未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。AI换声服务将公众人物的形象在新视频中加以使用,并未获得公众人物的同意,涉嫌侵犯公众人物的肖像权。
结合AI技术升级带来的法律风险问题以及未来的发展趋势,AI换声、AI换脸等服务的规制需要多主体协同共治。除国家立法与国际合作之外,平台承担的主体责任不容忽视。要知道,标注“AI出品”绝非免责的“保护伞”,未经著作权人许可的AI技术生成的视频是侵权作品,平台不得推送。如若推送,平台便具有过错,需承担相应的法律责任。(作者是国际关系学院知识产权与科技安全研究中心主任)
高度重视道德和法律风险
姚佳
总体而言,我们应肯定AI换脸及背后的相关技术在商业上有较为广阔的使用前景。在更为细分的技术应用领域,如影视行业和动画行业,相关技术将可能产生较为深刻的影响,甚至可能制造出“颠覆效应”。
然而,AI换脸背后的技术也有可能被滥用,并导致严重的伦理道德风险和法律风险,比如诈骗、虚假信息传播、侵害个人信息权益乃至侵害人格权等等。这些案例也加剧了人们对“深度伪造”的恐惧。同时,“技术不可信”“开发者、应用者不负责”等问题再次成为问题焦点。
为防止人脸识别技术被滥用等风险,监管部门和相应规范都聚焦于深度合成、人脸识别等技术应用,更好保护个人信息权益及其他人身和财产权益,维护社会秩序和公共安全。比如,2022年11月《互联网信息服务深度合成管理规定》中,人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术都被归入深度合成技术之中,并且该规定也明确,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵害他人合法权益等法律、行政法规禁止的活动。
可见,禁止滥用AI人脸识别技术,旨在充分保护自然人的人格权和公共安全等社会公共利益。2023年5月公布的《网络安全标准实践指南——人脸识别支付场景个人信息保护安全要求(征求意见稿)》,以人脸识别支付为场景,对常见风险情形有所提示,包括人脸识别数据的强采、偷采、滥采、滥用,未经授权处理人脸相关数据,敏感个人信息泄露等。2023年8月发布的《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,也从技术应用安全管理的角度,规范人脸识别技术应用。
此外,根据《民法典》相关规定,深度伪造有可能侵害相关主体的肖像权。如果不法分子将相关自然人的肖像替换到色情或暴力等视频中,然后在网络上传播或出售,将涉嫌构成对他人的名誉权的侵犯。人脸作为最典型的生物识别特征之一,《个人信息保护法》中也将生物识别信息规定为“敏感个人信息”,即一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的个人信息。因此,若未经个人事先同意,AI换脸存在侵害个人信息权益等问题。(作者是中国社会科学院法学研究所教授)