对“中文屋"思想实验四个主要版本的考察作者:王佳来源:《武汉理工大学学报(社会科学版)》2011年第04期摘要:“中文屋”思想实验提出30年来,学界对该思想实验在批判强人工智能的有效性问题上一直争论不休。
特别是强人工智能的支持者往往通过转换视角,添加问题或构建新理论模型等方式试图躲避“中文屋”的责难。
为应对各种回应,塞尔在保持“中文屋”论证的基本逻辑结构和要点不变的前提下,通过修改思想实验的描述形式进行一一答复,从而保证了该思想实验对强人工智能批判上的效力。
借助对“中文屋”几个主要版本及其相关答复的考察,表明“中文屋”在批判强人工智能上的有效性,同时指出这种有效性并不依赖于思想实验外在描述形式的变化,而依赖于蕴含其中的论证结构和论证形式。
关键词:“中文屋”思想实验;强人工智能;语法与语义;模拟与复制中图分类号:B08文献标识码: A DOI:10.3963/j.issn.1671-6477.2011.04.021一、强人工智能与“中文屋”思想实验在《心、脑与程序》一文中,约翰·塞尔(JohnSearle)首次提出用来反对强人工智能的著名思想实验——“中文屋”(Chinese Room)。
他以罗杰·尚克(Roger schank)等人构想的“故事理解”程序为依托,通过设想可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。
“故事理解”程序具有如下特征:该程序设计的目的是试图模仿人类理解故事的能力。
就这种理解能力而言,当被问及与故事相关却没有直接提及的信息时,人类可以表现出能够根据故事情景予以推断的能力。
尚克等人设想:如果存在这样一台具有“故事理解”程序脚本的机器,当人们向它呈现相似的故事情节并问其同样问题时,机器如果能够像人类那样给出预期的答案,那么这台程序化的机器就是真实地理解了故事的意义,进而也就具有了真实的认知能力。
塞尔将类似于尚克的理论构想称之为强人工智能(strongAI),该理论与弱人工智能(weak AI)相区别,后者只强调计算机在实现人工智能时的工具意义,而强人工智能则主张“程序即心灵”,即机器或计算机只要被给予恰当的程序,如尚克的“故事一理解”程序,并通过图灵测试,那么就可以判定它具有理解力和相关的认知状态。
为了批判强人工智能,塞尔提出了一种用于检验心灵理论的有效方法,“如果我们的心灵实际按照这一理论所说的那种所有心灵都采用的原则去工作,将会出现什么样的情况”,基于此种方法,塞尔提出了“中文屋”思想实验。
“中文屋”思想实验可以概述为:只懂英文的塞尔被关在一个屋子中,屋中存有一批中文符号和相对应的英文规则书,塞尔的工作就是按照规则书将屋外传进来的中文符号以另一种排序方式传出屋外,但他始终不知道传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。
在屋外的观察者看来,屋内的塞尔由于理解了中文问题,因而做出了适当的回答。
而事实上,塞尔仅仅是按规则书操作符号,即模拟程序工作,他始终没有理解中文问题。
既然屋中的塞尔不理解中文,那么,尚克所设想的具有“故事一理解”脚本的计算机也就同样不理解故事的含义。
因此,塞尔认为只要程序被定义为基于纯粹形式原理的计算操作,那么程序本身就同“理解”没有关系。
由此,即“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”。
二、“中文屋”论证结构及其要点“中文屋”思想实验的有效性依赖于蕴含其中的论证结构,任何对该思想实验有效性的质疑,如果最终没有撼动这一论证结构的话,那么从根本上说都是无效的。
同样,对“中文屋”思想实验的理解必须首先把握它的论证要点,否则任何指责和评论都将背离“中文屋”的原初用意。
塞尔在《心、脑与科学》中明确指出“中文屋”论证具有如下的简单的逻辑结构。
前提: 1,脑产生心。
2,语法不足以满足语义。
3,计算机程序是完全以它们的形式的或语法的结构来定义的。
4,心具有心理的内容,具体说具有语义内容。
结论:1,任何计算机程序自身不足以使一个系统具有一个心灵。
简言之,程序不是心灵,它们自身不足以构成心灵。
2,脑功能产生心的方式不能是一种单纯操作计算机程序的方式。
3,任何其他事情,如果产生心,应至少具有相当于脑产生心的那些能力。
4,对于任何我们可能制作的,具有相当于人的心理状态的人造物来说,单凭一个计算机程序的运算是不够的。
这种人造物必须具有相当于人脑的能力。
上述论证结构中实际包含两个方面的论证要点,一个是批判要点:批判将语法等同于语义、程序等同于心灵;另一个是主张要点:主张人工智能事物至少应具有大脑产生心灵的因果力。
塞尔将这两个论证要点概括为需要辩护的两个重要的命题:其一,人类(和动物)的意向性是大脑的因果特性的产物,这是心理过程同大脑真实因果关系的经验事实,这说明某种大脑过程对于意向性来说是充分的;其二,示例一个计算机程序本身绝对不可能构成意向性的充分条件。
“中文屋”论证结构中又蕴含有两种论证形式。
塞尔在《“中文屋”中的二十一年》中指出,“中文屋”的有效性始终依赖于它所蕴含的两个逻辑真理,即“语形不等同于语义”以及“复制不等同于模拟”。
而依据这两个逻辑真理,我们又可以从上述论证结构中提取出两种论证形式:逻辑论证和经验论证。
就逻辑论证而言,其有效性依赖于“语法不等同于语义”,它用于支撑“中文屋”论证中的批判要点,表述为如下推理形式。
前提:1,语法不足以满足语义。
2,计算机程序是完全以它们的形式的或语法的结构来定义的。
3,心灵具有心理的内容,具体说具有语义内容。
结论:程序不是心灵,它们自身不足以构成心灵。
就经验论证而言,其有效性依赖于“复制不等同于模拟”,它用于支撑“中文屋”论证中的主张要点,表述为如下推理形式。
前提:1,模拟不等同于复制。
2,大脑具有产生心灵的能力。
3,计算机程序仅仅作为工具对心灵进行模拟。
结论:凡是具有心灵的人造物至少应复制等同于大脑产生心灵的因果力。
概括起来,“中文屋”论证表达了两个方面的要点,蕴含了两类论证形式。
其中论证要点体现了“中文屋”思想实验所要表达的反强人工智能主旨,而两类论证形式则是它有效性的根本保证。
下面我们将依托“中文屋”论证要点和论证结构,考察几类质疑“中文屋”有效性的典型观点,并借此分析“中文屋”不同版本的有效性。
三、对“中文屋’’四个版本及相关回复的考察(一)“内化了”的“中文屋”——系统回应及答复在对“中文屋”思想实验的有效性予以质疑的众多回应之中,系统回应(The Systems Reply)的影响最大。
该回应可以概括为:理解不应归于部分,而应归于整个系统。
丹尼特(Danielc.Den—nett)是系统回应的代表。
他在《计算机神话:一次交流》中提到:“一个读者同美国国家图书馆再加上其服务人员听起来不正是一个超级系统吗?它拥有比它任何特有的部分或子系统更多的特性和力量。
”丹尼特承认超级系统本身并不赋予它的子系统某种特殊的力量或者特性,但他却确信超级系统本身拥有比子系统更多的力量和特性。
在他看来,重要的不是作为系统部分的塞尔,而是作为超级系统的整个“中文屋”是否能够理解中文故事。
“中文屋”思想实验由部分推及整体的模式,由于忽略了整体所具有的独特特性而应该遭到质疑。
塞尔在对系统回应的答复中指出,尽管超级系统层次和子系统层次存在性质上的差别,但这种区分与“中文屋”的讨论无关,因为无论哪个层次都无法赋予中文符号以意义。
“内化了”的“中文屋”可以说明这个问题:设想屋中的个体(塞尔)内化到整个系统(“中文屋”)的所有组成部分中去,个体记住了规则书中所有的规则以及中文符号数据库中所有的信息,并且可以通过心算方式完成相关计算。
这样一来,个体与整个系统融为一体,甚至可以摆脱屋子在室外工作。
尽管如此,“内化了”的个人依然无法理解中文,当然整个系统也就不能理解中文。
塞尔指出,问题的关键在于一个超级系统如何赋予形式符号以某种意义。
系统回应者同其他强人工智能者一样,始终无法在语义获得问题上给予任何解答,而这正是“中文屋”思想实验批判强人工智能的要点所在。
这里还需要进一步考察“内化了”的“中文屋”在反驳系统回应上的有效性。
首先,系统回应者试图表明“中文屋”思想实验的有效性依赖于如下错误的推论形式。
前提:1,部分没有属性A。
2,部分蕴含在整体之中。
结论:整体也就没有属性A。
系统回应者认为,整体具有不依赖于部分的属性,因此,不能通过个体没有特性A而恰当地推导出整体不具有特性A。
因为整体也许恰好具有个体所不具有的特性A。
初看起来这个论据相当具有说服力,然而,当我们将系统回应者所持有的观点通过如下推论形式表达出来时,问题就显现出来了。
前提:1,整体具有部分的特性,并且具有部分没有的特性。
2,部分没有A特性。
结论:整体具有A特性。
这里的结论无法从前提1和2中直接推出,因为即使整体具有部分没有的特性,这一特性为什么一定是“理解中文”这一特性呢?系统回应者始终没有对“为何整体一定就会拥有部分所不具备的理解能力”这样的问题给予新的解释。
如果系统回应者还是以语形操作作为对心的解释,那么“中文屋”思想实验依然有效,因为系统回应并没有触及以“语法不足以满足语义”为依托的逻辑论证。
可见,系统回应者的根本问题在于,他们没有区分“中文屋”思想实验的描述形式与蕴含于其中的论证结构和形式之间的不同。
他们仅仅以思想实验的外在的描述形式为基点推断其可能存在问题,而没有认识到思想实验的有效性实际上依赖于其背后蕴含的论证结构和形式的有效性。
正像劳伦斯·苏德(Lawrence Souder)指出的那样:思想实验提出者的立场和描述思想实验的细节对于理解思想实验都是十分重要的,当把思想实验分析为前提和结论的时候往往会丢掉一些极为重要的细节。
其次,塞尔认为系统回应实际上是对“中文屋”论证的直接妥协。
因为它已经承认子系统所具有的符号操作本身不能够实现语义,因此,它们试图从系统的其它部分中寻找到符号,要么是规则书、纸、笔、黑板等等的叠加;要么寻求所谓的其它子系统。
而系统回应者所妥协的部分正是“中文屋”论证的要点所在。
(二)机器人脑中的“中文屋”——机器人回应及答复一些强人工智能的支持者试图通过强调机器同外界的因果关联来回应“中文屋”的批判,这类回应被塞尔称为“机器人回应”。
它的基本主张可以概括为:我们将具有程序脚本的计算机放置在一个机器人“大脑”中,这台计算机不仅接收形式符号作为输入,发出形式符号作为输出,并且可以实际地驱动机器人做一些同人类日常活动十分相像的行为,如感知、行走、吃喝等。
机器人拥有电子眼可以观察到外在世界,拥有手臂和腿可以与外界互动,这些行为都由它的计算机“大脑”所控制。
机器人回应者认为,此种情景下所展现的与外界互动的机器人可以说真正地具有“理解能力”和相关的其它心理状态。