美国政府警告科技公司:不要过分夸大人工智能
随着OpenAI公司开发的ChatGPT人工智能聊天机器人走红全世界,各大科技公司和资本也急了起来,纷纷投入AI行业的军备竞赛之中,投资现有产品,或者自力更生,研发自己的语言模型库。
短短两三个月里,几大科技巨头就都公布了自己的产品计划:微软使用ChatGPT语言库改进Bing搜索引擎和Edge浏览器;谷歌将在“未来几周内”将聊天机器人Bard投入使用;Meta(前脸书)的CEO扎克伯格也宣布了自家的大型语言模型LLaMa。
Bard在刚发布时的表现并不理想
我国如腾讯和百度等公司、韩国的Naver公司、俄罗斯的Yandex公司,以及一批我们此前闻所未闻的小型企业,也开始了这方面的探索。
新兴行业需要政府对市场的适当监管来实现良性发展。目前看来,美国的科技企业在AI领域先行一步,市场趋向饱和。美国的联邦贸易委员会(FTC)也须率先行动起来,至少要在宣传和营销方面进行必要的监管。
正如FTC官网上最新的一篇博客文章所说的那样:“关于产品功效的虚假或未经证实的声明,是我们的生计所在。”科学家和科技公司对AI的定义也许并不统一,但是对于FTC而言,AI只是一个现在很火的营销术语,而广告商向来无法阻止自己过度使用和滥用营销术语。
这篇文章题为“控制您的AI声明”,发表于2月27日,由FTC的广告业务部律师编写。FTC批判了科技公司和广告商的“AI炒作”现象,还指出,某些声称具有AI的产品,可能根本无法像宣传的那样发挥作用。在文章中,FTC列了四种涉嫌炒作乃至虚假宣传的可能。
第一,夸大AI产品的功能,甚至声称它可以做一些超出任何人工智能或自动化技术当前能力的事情,例如“对人类行为做出可靠的预测”等科幻小说里才有的设定。
AI能够生成“人类进化”主题的图像,并不代表AI能够预知人类进化的未来
如果科技公司对产品的性能声明缺乏科学依据,或者他们的产品仅适用于某些类型的用户及某些特定条件之下,那么公司的声明就含有欺骗性。
第二,承诺AI产品比非AI产品更好。广告商经常说新技术让他们的产品变好,以便收取更高的服务费用,或者减少劳动力的使用。互相比较两种产品的主张,同样需要切实的证据。
第三,对于产品向市场投放的风险缺乏了解。文章没有明说是什么风险,但公众已经看到了AI产品带来的一些问题,如聊天机器人给出歧视或冒犯意味的言论,或者使用AI剽窃学术或艺术作品的行为等。
“你应该放弃你的妻子来找我”之类的奇怪对话,可能也算一种风险
FTC认为,科技公司理应了解AI技术可预见的风险及影响。如果产品出现类似的风险,不能仅责怪提供技术支持的第三方开发商,负责投放与发行的科技公司更该负责,因为他们在使用这项技术前对其缺乏测试和理解。
第四,产品没有真的使用AI。FTC声称,他们会深入了解并分析科技公司提供的材料,还提醒这些公司:仅在开发过程中使用AI工具,并不等同于产品内部包含AI。
文章作者在最后说:“无论AI能做什么或不能做什么,它都很重要,您对它的主张也很重要。您并不需要一台机器,来预测FTC会在您的声明不受支持时做些什么。”听起来像玩笑或某种预言,实质则是一次来自政府部门的警告。
而且这次警告是认真的。不久前的2月18日,FTC成立了技术办公室(OT),正在招聘技术专家加入团队。技术办公室主要提供跨机构、跨学科事务的技术专业知识和建议,涵盖“数据安全、软件工程、数据科学、数字市场、机器学习、人机交互设计”等方方面面,当然,也包括“剖析AI产品的声明,以评估产品是不是‘蛇油’那样的骗局”。
FTC对于虚假宣传的分类判定标准,以及设立专业技术团队的行动,想必将在遏制AI技术野蛮生长、消除公众对AI的误解和恐慌等工作中发挥关键作用,值得其他国家参考。不过,这些措施的实际效果,就和AI的真实潜能一样,还需要时间来检验。