沙磊:美AI治理新动向,给我们提了个醒
近期,美国成立了人工智能安全研究所联盟(AISIC)。它隶属于美国国家安全与技术研究所的人工智能安全研究所,将致力于为高级人工智能模型制定合作研究和安全指南。这种将人工智能(AI)与安全直接联系的美国人工智能治理新动向,值得我们高度关注。
这首先标志着美国政府将人工智能安全性问题提升到国家战略高度。过去几年,美国在人工智能研发上持续加大投入力度,在算法、芯片、应用场景等取得长足进展。与此同时,华盛顿也愈加意识到人工智能可能带来的安全风险,例如利用深度学习进行的语音合成、图像生成等技术产生的信息误导与欺诈性问题;自动驾驶、医疗辅助决策等领域的算法偏见问题导致的歧视与伤害;数据和模型的隐私与权限控制漏洞引发的安全事件;以及不同自动化系统之间信息交互和决策失误导致的连锁反应等。尤其是最近大语言模型技术将人工智能的效果提升到一个新的高度,同时也带来更大的安全挑战。正是基于对种种潜在风险的认知,美国政府通过AISIC的建立将人工智能安全问题上升到国家战略高度,以推动跨部门、跨领域的系统治理。
美国人工智能安全研究所联盟的主要任务之一是制定红队攻击、安全检测评估等方面的指导方针。所谓“红队攻击”,是指模拟黑客入侵系统、发掘系统漏洞的一整套测试方法论。这类方针和标准一旦建立,将对人工智能安全研究的开展带来规范化和制度化的引导。比如标杆测试要求会推动各类系统在设计开发过程中必须考量并达到的安全指标;风险评估框架会提供更加明确系统的思路,以将安全研究贯穿人工智能技术的生命周期。我国有一些机构(比如中关村实验室)虽然也开展了一定的大模型安全相关的技术研究,并进行了初步的评估体系构建工作,但整体而言相关标准化工作还比较薄弱。这提醒我们,需要紧密关注,并加快在数据评估、模型审计、算法健壮性等领域的检测及标准研究布局。
该联盟采取政府牵头,产学研多方共同参与的组织模式。除了政府相关部门外,知名企业的安全部门负责人,以及来自顶尖高校与科研机构的专家学者也参与其中。这一方面凸显美国政府在重大战略科技领域推进联合攻关、产学研深度协同的政策取向;另一方面也正反映出人工智能安全问题的高度复杂性,需要跨界、跨领域的通力合作与融合创新。这种推进模式为我国提供了有益借鉴,我们也应进一步加强部门之间以及与企业、高校、科研院所之间在人工智能安全标准制定、监管体系构建、技术研发等方面的信息沟通和合作,形成政策引导、规范建设和科技供给的协同效应。
未来,美国政府极有可能在人工智能安全领域继续推出更多重要举措,以进一步完善顶层设计和治理格局。鉴于当前人工智能发展仍处于上升期并呈加速迹象,各类应用创新层出不穷,安全隐患和风险也会逐步显露。因此,美国在安全政策、法规制定以及技术解决方案等方面的持续作为,都需要我们保持积极关注。同时,这也可以为我国人工智能安全治理体系建设提供重要经验。
我国也可采用一些有效措施来提升人工智能系统的安全性。比如,通过及时掌握人工智能安全领域的最新态势,更早发现可能的风险点:可以构建一套动态的人工智能安全事件监测系统,通过实时监测在线人工智能系统的输出,实时跟踪国内外人工智能领域出现的数据泄露、算法歧视等安全事件。在此基础上,可以进一步开发人工智能系统输出的在线检测工具,对文本、音频、视频等不同模式的人工智能生成内容进行安全风险审核。此外,还需要构建快速的人工智能系统安全风险反馈和修正机制。也就是说,当检测到算法或者模型生成的不当有害内容时,可以迅速定位系统中的问题,并反馈给相关企业和研究机构,要求其修正模型以减轻风险。这样一套“监测—检测—反馈—修正”的闭环系统,可以更加及时地发现人工智能潜在的安全隐患,并推动行业主体积极履行安全生产责任。总体而言,在构建系统化、规范化的人工智能安全政策及技术体系上,我们需要有更加清晰的思路和行动指引。(作者是北京航空航天大学人工智能学院教授)
热门相关:北宋大表哥 总裁大人,又又又吻我了 玉堂金闺 艳遇传说 庶子风流