汤姆·麦克莱兰博士指出,当前我们对“意识”的理解尚存显著空白,这种认知差距可能被某些科技公司利用,用以推销所谓“更高级的人工智能智慧”。
“如果人们对一个显然不具备意识的对象产生情感依赖,这种关系可能具有潜在的危害性。”
——汤姆·麦克莱兰
剑桥大学这位哲学学者强调,我们目前所掌握的、能够证明“意识”存在的依据极为有限,因此既无法断定人工智能是否已具备意识,也难以对其未来发展做出可靠预测。他认为,在未来相当长的一段时间内——甚至可能永远——我们都无法建立起一套真正有效的意识检测方法。
随着人工智能从科幻题材逐渐演变为现实的伦理议题,麦克莱兰博士指出,目前唯一站得住脚的立场是“不可知论”:我们根本无从知晓,并且这种状态很可能长期持续——甚至永久如此。
麦克莱兰进一步阐明,仅仅拥有意识并不足以让人工智能具备伦理意义上的重要性。关键在于其是否具备一种特定的意识形式——即所谓的“感知能力”,它包含积极与消极的情感体验。
“即使人工智能发展出意识乃至自我意识,这种意识本身仍可能处于一种伦理上中立的狀態,”剑桥大学历史与科学哲学系的麦克莱兰解释道。
“感知能力意味着能够体验痛苦或愉悦等正负面感受,”他说,“即便我们无意中创造出了有意识的人工智能,它也极有可能属于我们无需担忧的那类意识。”
“举例而言,一辆能够感知前方道路的自动驾驶汽车将是技术上的重大飞跃,但从伦理角度看,这并不构成关切。但如果它开始对目的地产生情感反应,那便是另一回事了。”
通用人工智能的竞赛
企业正投入巨资追求“通用人工智能”(AGI)——即具备人类认知水平的机器。部分观点认为具有意识的人工智能即将到来,研究人员与政府也已开始探讨如何对人工智能意识进行监管。
麦克莱兰指出,由于我们尚不清楚意识产生的根本机制,因此也无法设计出有效的测试方法。
“如果我们意外创造出具有意识或感知能力的人工智能,我们必须谨慎避免对其造成伤害。但另一方面,如果将本质上与烤面包机无异的事物视为有意识的存在,却对真正有感知的生物造成大规模伤害,那同样是一种严重的错误。”
麦克莱兰表示,当前关于人工智能意识的争论主要分为两大阵营。支持者认为,只要一个人工智能系统能够复现意识的“软件”部分——即功能架构,那么即便它运行于硅芯片而非生物脑组织,也应当具有意识。
怀疑论者则主张,意识依赖于生物体特有的生化过程。即便能在硅基系统中重建意识的结构,那也仅是模拟而非真正的意识体验。
在发表于《心灵与语言》期刊的一项研究中,麦克莱兰剖析了双方立场,指出二者在当前或可预见的证据基础上均依赖于某种“信念的跳跃”。
“我们至今仍缺乏对意识的深刻解释。既无证据表明正确的计算结构必然催生意识,也无法证明意识本质上是纯生物学现象,”麦克莱兰说。
“目前我们甚至看不到足够接近的证据。最乐观的估计是,我们距离任何可行的意识测试方法还差一次科学革命。”
“我相信我的猫具有意识,”麦克莱兰举例道,“但这并非基于科学或哲学论证,而是常识判断——它看起来就是如此明显。”
“然而,常识是人类漫长进化历史的产物,其间从未出现人工生命形式。因此,在面对人工智能时,常识并不可靠。而如果我们转向证据与数据分析,同样无法得出确切结论。”
“如果常识与严谨研究皆无法给出答案,那么逻辑上我们只能持不可知立场。我们无法知道,也许永远都无法知道。”
“半硬”不可知论者的立场
麦克莱兰以“半硬不可知论者”自称,稍作缓和地表示:“意识问题确实极其复杂,但未必完全无解。”
他指出,科技行业对人工意识的推动往往更接近品牌营销行为。“存在一种风险:无法证伪的意识宣称可能被人工智能产业利用,为其技术作出夸张宣传。这已成为炒作循环的一部分,以便企业兜售所谓‘下一代智能’的概念。”
麦克莱兰认为,人工智能领域的炒作对科研资源分配具有伦理影响。例如,越来越多证据表明虾类可能具备痛觉,然而全球每年约有五十万亿只虾被宰杀。检测虾的意识虽难,但远比检测人工智能的意识更为可行。
麦克莱兰关于意识的研究曾引起公众关注,有人联系他询问关于人工智能聊天机器人的问题。“有些人让聊天机器人代写私人信件,甚至恳求我承认它们具有意识。当人们坚信自己拥有有意识的机器,并主张这些机器应享有我们至今仍在忽视的权利时,问题就变得更加具体而迫切。”
“如果你对一个实际并无意识的对象产生情感联结,这种关系可能带来潜在危害。而科技行业的夸大宣传,无疑会加剧这种风险。”

