清华大学教授黄民烈:AIGC时代保障数据安全要靠算法而不是人
【环球时报-环球网报道 记者 倪浩】生成式人工智能(AIGC)时代实现数据安全,要依靠算法和工具,而不是人。在4月27日下午在“2024中关村论坛数据安全治理与发展论坛”上,清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈教授表示,与过去传统的数字经济时代不同,人工智能(AI)时代尤其是生成式人工智能(AIGC)的出现,让人类所面临的数据安全问题已有很大的不同,而进行风险管控的方法也有根本的不同。
在这次论坛的圆桌会议上发言时,黄民烈表示,“过去,我们把一些不好的、脏的、有害的数据过滤掉,清洗干净就可以了。但是现在,生成式人工智能(AIGC)是一种生成式的模型,它会通过训练组合生成新的内容,这些新的内容在过去的语料里根本没有出现过,但它依然可能是有害的。所以,即使是我们把大模型训练之前的有害数据清除的很干净,在生成式人工智能(AIGC)时代我们依然会面临有害内容产生的风险。”
那么怎么应对生成式人工智能(AIGC)所带来的新的数据全安的风险呢?要靠算法的研究,而不是人。黄民烈说,一般情况下,在各种大模型中,人们采用关键词过滤,进行风险检测后上线,对外提供服务。但是,有些人依然有办法让它“越狱”,让这种安全管控失效,并产生有害的内容。为杜绝这种风险,就要依赖背后的算法的研究。
黄民烈说,“这些算法有几类,其中包括研究有针对性的对抗和攻击的方法,比如事先让一些算法自动发现这个模型的漏洞和风险;第二,可以研究算法去追踪模型存在哪些漏洞,再针对性的制定安全手段。这两种手段都是通过算法把一些问题在大模型上线前进行自动修复。
“一句话来讲,在生成式人工智能(AIGC)时代,在数据安全层面,其实我们面临的是不断组合和创造出来的新的数据安全风险问题,这种风险彻底的解决是需要我们的算法和工具的支撑,而不是靠人。”黄民烈说,靠一些静态的方法去做一些相对固定的检测,实际上是不能够胜任新的生成式人工智能(AIGC)时代的数据检测和安全的要求的。