人工智能是近年来引起很大兴趣的一个领域,经常被简写成“AI”。AI的目标是用电子仪器尽可能地模拟人的精神活动,并且或许在这些方面最终改善并超出人的能力。AI的结果至少在四个方向是有趣的。尤其是有关机器人的研究,它在很大的程度上是有关工业对可实行“智力”的,也就是万能和复杂的、原来需要人干预或控制的任务的机械仪器的实际需要,并使他们以超过任何人的能力的速度和可靠性,或者在人类处于危险的各式各样条件下运行。
心理学是和人工智能有直接关系的另一领域。人们希望通过利用电子仪器来模拟人脑或某些其他动物头脑的行为,倘若发现做不到,也可以知道有关头脑工作的某些重要的东西。最后,还存在一个乐观的希望,就是由于类似的原因,AI可为精神概念的意义提供洞察,并为其深刻的哲学问题提供一些答案。
迄今为止,AI已进展到何等程度呢?
W·格雷·瓦尔特的“乌龟”是20世纪50年代早期制造的第一批人工智能仪器之一。在电池快用光前,它会以自己的动力在地面上四处爬行,然后它跑到离得最近的电插座那儿,把自己插上给电池充电。当充满了电以后,自己又会从插座拔出,并重新在地面上爬行!从那时起人们制造出来许多类似的东西(例如,参见瓦尔兹1982)。另一独立发展的线索是以特雷·维诺格拉德在1972年设计的电脑程序为例子,它在模拟中可以和一堆不同形状和颜色的木块打交道,以不同的顺序和排列把一块放在另一块的上面。尽管早期获得这类成功,人们证明了,要设计甚至一个简单的能操纵自如的、避开人类看来“显然”需要动作来躲开的障碍物的、连接的“机器人手臂”是何等的困难。视场的解释通常也是AI步骤在目前根本无法接近人脑(以及绝大多数其他动物的头脑)似乎能“轻而易举”做到的那种程度的领域。
K·M·柯尔贝在20世纪60年代中期发展的电脑程序也许更和图灵检验相连贯。它成功地模拟成一位精神疗法专家,以至于某些病人发现自己宁愿要电脑而不要人类的医疗家,并且对电脑比对人类的对手更愿把自己的内心袒露得更多些。
电脑下棋也许为机器能显示可认为是“智慧行为”的最好例子。现在(1989)一些机器在与人对奕时实际已达到极受尊敬的水平,达到了“国际大师”的水准。
下棋机除了精确的计算能力外,还大大地依赖于“博学多闻”。值得评论的是,只要落子动作要求非常快,下棋机总的来说比相当的奕手高明一些。如果每一步允许的时间更长,则奕手的表现相对地比机器好。在玩困难的东方围棋时,这一差别就更显著,那里每一步的可能数目比国际象棋大得多。
人工智能宣称为理解精神品质,譬如快乐、痛苦、饥渴等等提供了途径。让我们举格雷·瓦尔特的乌龟为例子。它在电池快用完时会自动去补充自己的能量存储。这和人类或任何动物感到饥饿时的行为非常类似。因此说它饥饿了并没十分歪曲语言。
类似地,某些AI的支持者摹想,可以这种方式来适当模拟诸如痛苦和快乐的概念。让我们把情形简化,并只考虑从极端“痛苦”(分数-100)到极端“快乐”(分数为 100)的单独的“感觉”测度。想象我们有一台仪器,譬如讲是某种电子的、具有记录它自己的(假想的)“快乐——痛苦”度量,我们把它称作“苦乐表”。这一仪器具有一定的行为模式和一定的内部的(譬如它的电池状态)或外部的输入。其想法是把它开动以使其苦乐度取最大值。(可能会有许多影响苦乐度的因素。)我们肯定可以做这样的安排,使得电池中的电荷就是其中的一个因素,低电荷算作负的,而高电荷算作正的,但是还有其他因素。也许我们的仪器装有某些太阳光电池,这是获取能量的另一种手段。这样,当光电池起作用时就不消耗电池的能量。我们可以把光电池朝向光线以增加其苦乐度。这就是不存在其他因素时它所要做的事。(在实际上,格雷·瓦尔特乌龟通常避开光线!)我们需要某种实行计算的手段,使得它能弄清它上面部分的不同动作最终在它的苦乐度上的可能效应。可以引进概率权重,使得计算在苦乐度表上具有更大或更小的效应,依其所根据的数据的可靠性而定。
还必须为我们仪器提供仅仅为了维持它的能量供应以外的其他“目的”,否则我们就没有办法去把“痛苦”从“饥饿”中区别出来。在此刻要求我们仪器有生育等等机能无疑是太过分了,性的问题不予考虑!但是,我们也许能对它注入一种和其他同类仪器相陪伴的“需求”和它们相遇就得到正的苦乐值。我们或者可以为了其自身的缘故“渴望”学习,使得只要储存有关外部世界的事实即能在苦乐表上得正分(我们可以更自私地安排在为我们作各种服务时得到正分,正如一个人在制造机器仆人时所要做的那样!)也许有人会论争道,由于凭一时高兴这种“目的”加到我们的仪器上显得有些做作。但是,这和自然选择加在作为个体的我们身上的,在很大程度上是由于传宗接代的需求所支配的一定“目标”,并没有什么非常大的差别。
现在,假设我们的仪器按照所有这一切已被成功地造出。我们有什么权利去宣称它的苦乐值为正时它确实感到快乐,而苦乐值为负时感到痛苦呢?AI(或行为主义)的观点是,我们简单地从仪器行为的方式来判断。由于它以一种尽可能增加其正值的(并且尽可能久地)以及相应地尽量避免负值的方式行为,那么我们可以合理地把它的正值定义为快乐的感觉,而相应地把负值定义为痛苦的感觉。人们会说,此定义的“合理性”正是来自于人类对于快乐和痛苦以目标方式反应的这一事实。当然,人类的事情实际上并不像这么简单:我们有时似乎特地招惹痛苦,故意回避某种快乐。
我们应该问:在我们的仪器的苦乐度为负或为正时,它是否真正地感觉到了痛苦或快乐呢?我们的仪器在根本上是否能感觉到什么呢?行为主义者或者会斩钉截铁地说“显然如此”,或者把这一问题斥为无稽之谈。但是,这里很清楚地存在一个要考虑的、严肃的困难问题。它对我们自己具有不同种类的影响。有些像痛苦或快乐可意识的,但是还有其他我们不直接知道的。这可由一个人触摸到热火炉的经验得到清楚的阐明。他在甚至还未感到痛楚之前就采取了抽手回来的不情愿的动作。事情似乎变成这种不情愿的动作比痛苦或快乐的实际效应更接近于我们仪器对自己的苦乐度的反应。
人们经常用一种拟人化的语言,以一种叙述性的、通常是滑稽的方法来描述机器的行为,比如“今天早晨我的车仿佛不想开拔”;或“我的手表仍然认为这是加利福尼亚时间”;或“我的电脑宣布,它不理解上一条指令,而且不知道下一步要做什么”。我们当然不是真正地表明车实际上会要什么,或者手表在思维,或者那台电脑真的宣布任何事情,或者它理解甚至知道自己在做什么。尽管如此,假使我们仅仅在它们企图的意义上而不是按字面宣布上接受这样的陈述,则它们可以是描述性的,并且对我们自己的理解有真正的帮助。这个学科还很年轻。“AI”电脑会变得更快速,具有更大的可快速存取的空间、更多的逻辑元,并可并行地进行更大数目的运算。在逻辑设计和程序技术方面将会有所改善。这些机器,这种AI哲学的载体将在它们的技术能力方面得到大幅度的改善。此外,该哲学本身也不是固有的荒谬的。也许电脑,也就是当代的电脑的确能非常精确地模拟人类的智慧。这种基于今天被理解的原则,但是具有更伟大得多的能力、速度等等的电脑一定会在近年内被制造成功。也许甚至这样的仪器将真正是有智慧的;也许它们会思维、会感觉以及具有精神。或者它们也许还制造不出来,还需要一些目前完全缺乏的原则。这些都是不能轻易排斥的问题。
既然宇宙目前只有一个地球才能养育人类,那么,人类就要倍加爱护地球,保护地球。
最近,一批世界上卓越的科学家担心人类的活动正在把我们推向与自然界发生冲突的过程,并联合签署了一份“科学家对人类的忠告”,进而提出了建立一门第二环境科学——人类与环境相互作用学的必要性和重要性,旨在通过这一领域的研究,帮助人们更多地了解他们所面临的环境问题的本质以及人类活动给环境最终带来的严重后果,从而为促使人类同自然界“和睦”相处,协调发展而奋斗。