OpenAI员工发表公开信 警示人工智能监管缺失风险
美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。
据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。
信件指出,外部人士对上述风险中的大部分不知情,因为人工智能企业“目前只承担与政府分享部分相关信息的微弱义务,也没有义务与公民社会分享信息”,“我们不认为能全然依靠企业自愿分享信息”。
信件还指出,一般的法律保护对人工智能行业“吹哨人”而言“不够”,因为不少引人担忧的风险在法律监管方面仍属空白。另外,人工智能企业员工受制于保密协议,通常不得对外实质性披露企业所掌握的人工智能实力。
联名信签署人中,2人与“深层思维”有关,4名OpenAI现员工要求匿名。组织者包括OpenAI前工程师丹尼尔·齐格勒和前员工丹尼尔·科科塔耶罗。
齐格勒4日告诉美联社记者,他2018年至2021年在OpenAI工作时参与聊天机器人ChatGPT部分技术研发,当时不担心在企业内部讲出他发现的问题,但他现在担心,行业内企业竞相将相关技术迅速商业化会让它们承受忽视风险的压力。“相较于责备OpenAI,我更感兴趣的是借此机会让全部人工智能前沿企业切实投入,强化监管和透明度,增进公众信任。”
科科塔耶罗则发表书面声明说,他今年早些时候离职,是对OpenAI“能采取负责任行为丧失希望”,特别是在企业尝试打造通用人工智能系统之后。对于这类功能强大、却又鲜为人熟知的技术,企业“快速出手、打破常规”,行事方式与所需“恰恰相反”。
OpenAI同一天回应联名信时强调,已设立匿名举报热线和安全委员会保护“吹哨人”,相信能以科学方法应对风险。