哲学家约翰·塞尔(John Searle)于2024年9月16日逝世,享年93岁。这位以“中文屋”思想实验闻名于世的学者,其学术遗产在人工智能蓬勃发展的今天,依然引发着关于机器“理解”本质的深刻讨论。

塞尔于1980年提出的“中文屋”思想实验,已成为人工智能哲学史上的经典命题,常与“图灵测试”并列讨论。该实验设想一个不懂中文的人被关在房间内,仅凭一本英文规则书处理中文符号输入并输出相应回复。尽管房间外的人可能认为屋内的人理解中文,但塞尔指出,屋内的人实际上并不理解中文——他只是机械地执行符号操作。这一实验直指强人工智能的核心争议:机器是否能真正“理解”意义,还是仅仅在模拟理解行为?
在GPT等大型语言模型(LLM)主导的当下,塞尔的质疑显得尤为尖锐。这些模型通过海量数据训练,能够生成流畅、连贯的文本,甚至在专业领域表现出色。然而,它们是否真正“理解”所处理的内容?从技术角度看,LLM基于概率统计和模式识别生成响应,缺乏人类意义上的意识、意图和体验。塞尔的“中文屋”提醒我们,即使输出看似智能,也可能只是复杂符号操作的产物,而非真正的认知。

塞尔的学术生涯充满交锋与争议。上世纪70年代,他在一档电视节目中与年轻的杰弗里·辛顿(Geoffrey Hinton)辩论,成为AI史上的标志性事件。Hinton作为连接主义的先驱,主张智能源于分布式神经网络,而非符号操作。塞尔则将所有AI视为“符号操作系统”,未区分符号主义与连接主义。这场辩论暴露了哲学与工程视角的根本分歧:塞尔关注“理解”的本质属性,而Hinton更注重系统的功能表现。尽管Hinton后来在深度学习领域取得突破,但塞尔的质疑始终悬而未决——神经网络的黑箱特性是否意味着它们仍处于“中文屋”的困境中?

塞尔的哲学立场根植于语言哲学和心灵哲学。他师从牛津哲学家约翰·奥斯汀,发展出“言语行为理论”,强调语言不仅是描述世界,更是执行行动。这种务实视角延伸至他对AI的批判:理解不仅仅是符号处理,还涉及意向性(aboutness)和意识体验。塞尔认为,大脑产生心智,但计算过程本身不足以解释意识。因此,即使AI能完美模拟人类对话,也可能缺乏真正的意向状态。
在技术层面,塞尔的挑战推动了对AI解释性的研究。当前,可解释AI(XAI)试图揭开模型决策的黑箱,但距离塞尔的“理解”标准仍有差距。例如,GPT模型能生成关于“悲伤”的文本,但它是否体验情感?从工程角度,这或许不重要;但从哲学角度,这触及智能的本质。塞尔的思想促使研究者思考:我们是否应满足于功能模拟,还是追求具有真正认知能力的系统?

塞尔的晚年因性骚扰指控蒙上阴影,2017年被加州大学伯克利分校撤销荣誉教授头衔。这一争议不影响其学术贡献的评估,但提醒我们,思想与人格的分离是复杂议题。在AI伦理日益重要的今天,塞尔的遗产也涉及责任与价值观:如果机器缺乏真正的理解,谁为它们的决策负责?
展望未来,塞尔的“中文屋”将继续启发AI研究。具身智能(embodied AI)试图通过物理交互赋予机器更丰富的感知,或许能部分回应塞尔的批评——理解可能源于与世界的互动,而非纯符号操作。同时,神经符号AI(neurosymbolic AI)结合连接主义与符号主义,探索更接近人类认知的架构。

总之,约翰·塞尔的“中文屋”不仅是哲学思辨,更是对AI发展的持续拷问。在技术狂飙的时代,他的思想提醒我们放缓脚步,深思智能的本质。正如塞尔所言:“从一个角度看事物,并不意味着看不到真实本身。”在追求更强大AI的同时,我们或许需要更多“中文屋”式的反思,以确保技术进步不迷失于表象之中。塞尔的逝世标志着一个时代的结束,但他的问题——机器能否真正理解——将继续伴随AI走向未来。
— 图片补充 —


关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/5887
