段伟文:脑机接口的激进发展需直面七大伦理难题
日前,美国企业家马斯克宣布,他的科技初创公司Neuralink已将芯片植入到首位人体测试对象的大脑中且患者恢复良好。尽管Neuralink的早期探索重点是帮助因运动障碍和脊髓损伤而瘫痪的人,但与专注于应对癫痫、帕金森氏震颤或瘫痪等的其他大多数同业不同的是,其技术路线超越了具体的医疗目的,而主要基于脑机直连这个第一性原理,力图创造一种能够有效联结人类思维和计算机与人工智能的通用接口。由此,马斯克还进一步指出,运用其脑机接口技术,可以扭转人们目前普遍担忧的人类面对人工智能挑战的颓势,将其意义提升到克服人工智能对人类生存带来的风险、解决人机共生问题的高度。
从科技界、学术界到社会公众,Neuralink在植入式脑机接口技术上的每一次突破,都会引发广泛讨论,欢呼声有之,更多的则是惊叹、困惑和担忧。在由此引出的诸多话题和争议中,最引人深思的是脑机接口的加速研发和广泛应用在社会伦理层面产生的长期与深远影响。其中值得关注和思考的有以下七大伦理难题。
一是神经技术与人的深度融合带来的对精神与物质、人类与技术的边界如何划分的问题。从存在论意义上来讲,植入式脑机接口的发展实质上开启了人机合成思维的新时期,神经技术设备及其软件将日益发展为合成思维的有机构成部分。人类思维将因此面临一场前所未有的嬗变:如果神经技术将长在人的脑神经系统之中,快乐、忧伤和记忆都可以用植入芯片加以调节,那么人的思想意识和能改变思想意识的技术是否应该有一个伦理边界?
二是对神经数据的普遍与深度采集和人们因此对精神隐私与自主权难保的担忧。随着神经技术的发展,大脑和神经系统数据势必将以更高分辨率、更大量、更普遍的方式更直接地收集。谁可以拥有完美的大脑和神经数据,谁有权访问它们,神经技术会发展成干预我们作出独立决策的读心术吗?为了应对这些问题,联合国教科文组织正在研议制订神经技术伦理方面的规范性文件,且就是否需要引入神经权利这一新型权利展开讨论。
三是神经技术对人的心智和思想特征进行推断与干预的伦理界限何在。质言之,通过对大脑电化学活动的检测、记录、分析和干预,脑机接口等神经技术具有神经成像(推断心智特性)和神经干预(改变心智特性)两大功能。除非绝对禁止,这两个功能必然带来复杂的伦理争议,必须通过跨学科对话与研究、公众讨论、行业自律等探寻一种可为相关群体接受的伦理界限,以此影响相关的法律规制、政府监管和产业等的科技向善实践。
四是神经技术对主体性特别是人的尊严和人格完整的冲击不容忽视,必须划定相应的科技伦理底线。实际上,神经技术对人的长期影响中最值得关注的可能是对人的主体性的侵蚀、欺骗和僭越。除了对人的生物身体和物理行为的远程控制等有形的控制之外,还应该关注对主体性各种无形的肆意损害。应该看到,植入记忆、信念或情感状态、诱导人的自我封闭心理等将人的精神和思想作为控制对象的神经技术研发和应用,都极可能严重损害人的尊严。严重改变大脑电化学特性的神经技术则可能会引起身心状态的复杂改变、影响人的自我认同、使主体的精神完整性和身心和谐遭到不可逆的伤害。
五是神经技术带来的认知增强的可能性及其限度,以及由此衍生出的神经技术的可及性问题、个人心智特征改变的自决权及其限度问题。从认知能力增强的角度来讲,神经技术在改善认知能力障碍方面大有可为,但考虑到认知增强可能带来的不确定风险和研究资源有限等因素,一般认为对于能力正常者改善性的认知增强应审慎展开。从科技普惠性的维度看,目前值得关注的是神经技术发展如何提高可及性,以满足更多失能者的需求。但随着神经技术的成本和门槛的降低,自助性的神经技术的普及必然会带来个人能否完全具有心智改变的自决权等需要认真对待的伦理难题。
六是如何通过提升公众神经伦理素养,应对掌握神经技术的个人和非传统实体对神经技术的滥用。神经技术未来的许多威胁很可能来自不受管理和监管约束的个人和非传统实体,对这类挑战,很难通过一般的法律伦理加以规制,这使得个人神经伦理素养的提升成为必不可少的应对之道。
七是神经技术产品和服务如何通过可操作的伦理设计推进负责任的神经技术研究与创新。其要点是将对神经技术的伦理考量与用户的使用实际相结合,通过更加透明的操作、更多自主性的选择、动态的神经数据流保护和强调用户视角的设计等,减少应用的风险。
面对脑机接口、人工智能等驱动的深度科技化的未来,我们每个人需要更加认真地审视科技的现实利弊和深远影响,成为善于驾驭科技与伦理双螺旋的科技智人。(作者是中国社科院科学技术和社会研究中心主任、研究员)