书城科普写给大家的AI极简史:从图灵测试到智能物联
56933400000003

第3章 自动化的下一步:机器决策

“当你不知道该做什么时,智力就是你需要使用的东西。”

——[瑞士]让·皮亚杰(Jean Piaget),生物学家和发展心理学家

识别、洞察、行动

特斯拉正以每小时130公里的自动驾驶模式在高速公路的左车道上行驶。前方右车道上,几辆卡车以每小时90公里的速度行驶。特斯拉离卡车纵队越来越近了。车队尾部的卡车打出了左边的车灯,表示它要变到左边道。这时,特斯拉必须做出复杂的决定:是应该继续以同样的速度行驶甚至加速以确保它能够在卡车变道之前通过,还是应该鸣喇叭警告卡车司机?在这种情况下允许超车吗?还是说特斯拉应该为了安全起见,以增加行驶时间为代价,制动并礼让卡车?当然,只要没有一位激情驾驶的跑车司机跟在特斯拉后两米处,那么刹车是最安全的选择。

几年前,在任何情况下,我们都完全有理由不把这个决定权交给机器。从统计学上来说,这项技术还没有被证明比我们自己坐在方向盘后面更有可能把我们安全地带到目的地,因为我们不仅熟悉交通规则,有丰富的经验与预测人类行为的能力,还有直觉。

然而今天,特斯拉的驾驶员们已经将许多驾驶决策委托给计算机。这并非没有风险。无论是在特斯拉、谷歌还是在像梅赛德斯、奥迪、日产、现代和沃尔沃这样的传统汽车公司,自主驾驶的运行远非完美。这些公司不知疲倦地研发自动驾驶系统,但出于安全考虑,有许多功能都未被投入使用。在天气良好和有清晰标注的公路上,自动驾驶系统显然已经是比人类更好的驾驶员。而在城市里,晚上或在大雾天,自动驾驶系统优于人类驾驶也只是个时间问题。

正如一句老话所说:“对于人类来说很难的事情,对机器来说很简单。”反之亦然。在每一次驾驶的过程中,计算机都有成千上万个小且复杂的决策要做,而这对于以前的计算机来说是不可能的任务。为什么现在情况改变了?从抽象的角度来说,答案是:因为从可控硬件中学习数据的软件已经越来越熟练地掌握了识别、洞察和执行这个三角系统。

在上面特斯拉和卡车的例子中,不仅特斯拉所配备的GPS导航、高分辨率照相机、激光和雷达传感器能精确地告知自动驾驶系统汽车的位置、卡车的行驶速度、道路状况及右边是否有紧急通道,该系统的图像识别软件还可以可靠地识别出闪烁的灯是卡车的转弯信号灯,而不是远处建筑工地上的灯。计算机在过去的几年里已经获得了识别事物的能力。如今最好的计算机已经能区分出地面上的物件是汽车能安全碾过的碎纸还是它需要绕行的石头。

所有的视觉(和其他感官)数据流入一个小型的超级计算机,也就是汽车的人工大脑。它是由许多计算机中央处理器和图形处理器组成的。处理器必须以秒为单位对信息进行排序,同时将实时数据与先前收集的数据、已编程到系统中的规则同步。特斯拉系统知道在这种情况下它有通行权。交通规则规定,卡车司机只有在没有车辆从后方接近的情况下才允许变道。通过对几十亿英里的道路交通信息——反馈数据——进行学习,自动驾驶系统得到了加强,它甚至知道卡车司机并不总是遵守交通规则。它知道,尽管特斯拉正从后面驶来,卡车还是很有可能会变道。它也知道,如果一辆自动驾驶汽车冒着发生严重事故的危险坚持遵守交通规则,是不符合乘客最大利益的。

自动驾驶系统根据观测到的情况、编程规则和以往的经验,在许多可计算的场景中推断出避免事故的最佳选择,同时仍然带领特斯拉快速前进。在本质上,这是一个认知决定,一个对行动方针的选择。这个问题的最佳解决方案其实是一个基于许多变量的概率计算。

而部分自动辅助驾驶系统仅为驾驶员提供建议。例如,如果卡车不仅发出信号,而且做出小的转向运动,那么辅助驾驶系统会通过发出“哔”声警告并指示驾驶员将方向盘打向左边。人类驾驶员则可以选择遵循系统的建议或忽略它。但是一个真正的自动驾驶系统将直接做出自行的判断并付诸行动。它会控制汽车刹车或继续向前行驶。自动驾驶系统会以非常熟练的方式控制物理机器的功能,如控制油门、刹车和转向。比如飞机的自动驾驶仪在正常情况下比任何头戴机长帽的飞行员都能更精确地控制飞机起飞或降落。又比如在完全数字化系统下用于高频股市交易的机器人会自动执行决策。以上的应用虽然不同,但是它们的自动化原理是一样的:识别数据中的模式,从统计和算法中推断出结论,再通过技术程序将结论变成决定并加以执行。举例来说就是机器在研究市场趋势之后,发现了有利的交易机会,然后帮你点击了“立即购买”。

博兰尼悖论

衡量决策的影响并将其纳入未来决策是人工智能系统本质的一部分。人工智能系统是基于反馈做出决定的。如果特斯拉在上述的决策下发生了事故,它会将事故作为反馈传送回中央计算机,那么所有其他特斯拉将(希望如此)在类似的情况下更谨慎地驾驶。相似的,如果用于批准贷款的AI软件发现很多贷款人有违约的情况,它就会提高申请者的贷款标准;如果一个水果收割机收到其采摘的苹果有很多没熟的反馈,那么在下一次作业时,它将会调整苹果表面红绿色的比例,以做出更好的采摘决定。人工智能和传统IT系统的本质区别在于人工智能能够独立改进自己的算法并对结果进行评级。自动校正是内置在AI系统中的。

自20世纪40年代第一台大型计算机问世以来,计算机编程意味着人类需要耗费大量精力将理论模型输入机器之中。而该模型包含机器可以应用的特定规则。如果人类向机器投喂特定任务或问题的数据,那么它通常能比人类更快、更精确、更可靠地解决这些问题。这令人印象深刻。但本质上,经典编程就是将现有知识从程序员的头脑中转移到一台机器上。但是这种技术方法有一个自然的限制:人类的大部分知识是隐性的。

比如,人类可以识别出面孔,但不知道自己是如何做到的。进化赋予了人类这种能力,但是我们没有很好的理论来解释为什么我们能够瞬间识别安吉拉·默克尔(Angela Merkel)或乔治·克鲁尼(George Clooney),即使在光线很差或是人脸被遮住了一半的情况下,我们也能识别。比如要精确地向孩子描述滑雪和游泳的最佳方法几乎是不可能的。还有一个有关隐性知识的著名例子是:什么是色情?美国最高法院大法官波特·斯图尔特(Potter Stewart)想为其找到一个在法律上无懈可击的定义,却始终没有成功,只找到一个令人失望的答案:“我看到它就知道是不是色情了。”这个问题有一个名字:博兰尼悖论。它描述了一个以前软件程序员无法逾越的极限:没有理论,没有规则,我们就不能把知识和能力传授给机器。

人工智能则克服了博兰尼悖论——人类只创造机器学习的框架。人工智能各流派在此概念下发展出来的方法和途径不计其数。但是他们中的大多数,其中包括最重要、最成功的那些流派,遵循的基本原则都是只给计算机目标,而不是理论和规则。计算机通过许多例子和反馈,学习如何在训练阶段达到人类设定的这些目标。

在这个背景下,人们经常讨论的一个问题是反馈回路中的机器学习在实际上是否是智能的。许多人工智能研究者并不是特别喜欢“人工智能”的概念,而更喜欢用“机器学习”这个词。

强弱人工智能

1955年,在著名的达特茅斯会议上,马文·明斯基(Marvin Minsky)与一众计算机先驱们发明了“人工智能”这个概念。此后,这个概念一直备受争议。即使今天,科学家们仍然没有就“人类智能”的构成达成共识,那么“人工智能”这样的概念是否能用于机器呢?关于人工智能的讨论很快就转向了其基本问题。例如,没有意识的思考是否存在,机器是否很快就会比人类更聪明,机器是否会聪明到自行迭代,变得越来越智能,甚至发展出自我意识及喜好?如果是这样,我们是否必须授予有自主思维的机器以人权?或者人类和机器是否会融合,形成超级人类,将人类进化提升到下一个阶段?

这些关于强人工智能(或称为广义的人工智能)——有强认知的、像人类一样的AI——的问题很重要。对这项技术将带来的长远影响的思考应该与技术的发展同步进行,就像我们对待核武器那样。本书的最后一章将谈到这些问题。不过,这些担忧还离我们很远。更紧迫的是“弱人工智能”这个议题,包括那些今天在技术上就已经可以实现的弱人工智能,以及在可见的未来会出现的弱人工智能。那么首先,我们需要搞清楚什么是弱人工智能(狭义的人工智能)。

美国语言哲学家约翰·罗伯特·塞尔(John Robert Searle)在40年前就提出了强弱人工智能的区别。目前,强人工智能还只存在于科幻小说中,而弱人工智能已然存在于计算机系统中,并处理着各种直到最近我们还以为只有人类大脑才能处理的任务。弱人工智能通常涉及经典的知识性工作任务,例如审核保险公司的案卷或写作新闻或体育报道。

人工智能嵌入到物理机器中,不仅能使汽车智能化,而且能使工厂、农业设备、无人机及救援和护理机器人智能化。我们常常将它与人类行为比较,试图找到两者的相似之处,但其实智能机器完全不必模仿人类完成任务的方式或人类大脑中任何意义上的生化过程。它们通常具有自主搜索数学解析路径、改进已有算法,甚至独立开发算法的能力。结果是机器比人类做得更好、更快,也更便宜。在解决问题方面,如果机器比人类更优越,机器系统的普及速度就会更快。然而,正如数字革命的传教士所宣称的那样,根据数字拷贝不花费任何成本的原则,这不会以零边际成本的情况发生。数字技术很贵,这一事实在短时间内也不会改变。如果你对这一事实存有疑虑,你可以去询问任何一位首席信息官。但事实证明,新技术的引进和传播周期正在缩短。

人类对于文明的态度将加速或减缓创新被接纳的速度。正如当前的机器人在欧洲是敌人,在美国是佣人,在中国是同事,在日本是朋友。但从长远来看,投资回报率才是影响全球对机器人态度的关键。而收益通常是以金钱衡量的。当亚马逊在市中心设立无人售货的小商店时,相机、传感器和射频识别芯片会自动计算购物车里商品的总价。虽然亚马逊需要在自动化货架和收银机系统上投资数百万美元,但在人事成本上它却节省了数百万美元,于是它在之后的某月或年中就可以收回成本。但是,如果纽约基因组中心能够在10分钟内用IBM Watson应用程序分析患者的遗传物质,以便提出可能成功的治疗方法,而高水平的医生需要160个小时进行同样的分析,那么这时机器人所带来的回报就不是以美元计算了,这时候的衡量标准变成了被挽救生命的数量。

“人工智能将像电一样改变世界。”这句话出现在许多关于人工智能的文章和研究中。在技术范式转变的时代,专家——尤其是乐观派——在做出有关人工智能的预言时应该谨慎。如果没有根本性的变化,以过去的数据预测未来的可靠性最多只有50%。

在这方面,数字化本身就产生了一个有趣的悖论。更多的数据和分析提高了人们对未来的预测能力。但是数字技术的破坏性造成了不可预知的变化。然而,我们仍然坚持这样的假设,即智能机器将在未来20年从根本上改变我们的生活、工作、经济和社会。如果把从数据中学习的系统看作一种跨界技术,那么将之与电类比是正确的。和内燃机一样,塑料、互联网的发展都在多个领域产生了影响,同时也为那些我们甚至在今天都无法想象的新创新的出现和影响创造了先决条件。

电力使得高效的火车、装配线、图书馆照明、电话、电影工业、微波、计算机和电池驱动的火星漫游者在崎岖的地表上的探索任务成为可能。我们无法想象没有电的现代生活。今天,没有人知道人工智能这种跨界技术是否会产生类似的巨大影响。斯坦福大学教授、谷歌和百度AI团队的前负责人安德烈回答了人工智能将影响哪些领域的问题:“可能思考AI产业将不会改变什么比思考AI产业将会改变什么更容易。”这不再是对未来的陈述。它描述的是现在,包括积极的方面和令人不安的方面。

对机器的愤怒?

今天没有人能够可靠地预测人工智能系统是否将毁掉人类的工作,或者在下一波热潮中是否会创造新的工作,就像没有人能可靠地预测早期的技术革命所带来的影响一样。19世纪早期反对机器的勒德分子用大锤击碎了英格兰中部的第一台机械纺织机。对机器的愤怒曾使人们想要摧毁任何可能毁掉人类本身的东西。但愤怒毫无用处。虽然生产力和国内生产总值迅速上升,但对他们来说,工作条件却日益恶化。几十年后,自动化投资的回报率才以更高的工资和更好的社会安全网的形式惠及子孙后代。机器的破坏者成为经济和社会巨变中迷失的一代。古典经济学家大卫·里卡多(David Ricardo)将其总结为“机械问题”(machinery question)。历史学家罗伯特·艾伦(Robert Allen)用文学术语“恩格斯停顿”(Engels'Pause)来形容从1790年到1840年的工资停滞。

从长远来看,对于机械问题我们已经找到了令人满意的答案,那就是进步。在农业上,虽然联合收割机取代了农民,但工业化不仅创造了制造联合收割机的机械师的职业,还制造了大量的簿记员,后来又需要大量的营销专家来向客户介绍产品。这些产品由于工厂的规模经济而变得越来越低价,同时质量却越来越高。

乐观的研究者和政治家们希望人工智能也会有类似的发展路径和结果——当然是以更快的速度,而且没有“恩格斯停顿”。他们认为自主学习的计算机系统将在未来几年提供相当可观的生产力和GDP增长,因此个人、公司和社会就能更多地投资于教育和更好的工作。在一项研究中,埃森哲(Accenture)计算出,由于人工智能的出现,到2035年美国GDP可以以每年4.6%的速度增长,这几乎是无人工智能情况下的两倍。在德国,到2035年其GDP年增长率应该能达到2.7%,几乎是现在的两倍以上。日本政界将人工智能视为处理本国劳动力短缺问题的机会。他们相信人工智能和机器人最终会把这个国家从顽固的滞胀中解救出来。

中国通过人工智能实现经济增长的前景最为光明。因为中国拥有开发和使用人工智能的所有重要组成部分:资本、廉价的计算能力,以及从美国的大学及初创企业涌回中国的智慧头脑,而中国的大学也在培养越来越多的人才。最重要的是,中国拥有的反馈数据就像沙特阿拉伯的石油储备那么丰富。世界上大约一半的互联网数据来自于人口数达14亿的中国,由移动消费设备从他们身上收集的数据对于人工智能系统尤其有价值。从纯粹的经济角度来看,中国有机会进一步加速成为经济超级大国,从而带领数百万人摆脱贫困。

与乐观派持相反意见的是一大批劳动力经济学家。他们计算出有大量的人类活动可以由人工智能代替完成。根据他们的悲观预测,巨大的规模经济和网络效应带来的低成本将导致全球大规模失业。2013年,牛津经济学家迈克尔·奥斯本(Michael Osborne)和卡尔·本尼迪克特·弗雷(Carl Benedikt Frey)计算出美国约有一半的工作会受到严重威胁。他们的同行经济学家对这项研究的方法提出了严重质疑,但它在世界范围内还是引发了一场争论。因为他们同时还天真地提出,被第三次自动化浪潮淘汰的人只需要一点点善意及政府的再培训计划,就能迅速找到新的好工作。今天美国和欧洲的许多人都认为数字化正在把劳动力市场分割成良好的工作和糟糕的工作两块。对于受过高等教育的数字化赢家,尤其是对于那些创建和操作数据资本主义工具的人来说,工作是令人愉快的,并且收入颇丰。其他人则不得不在雨中送快递。

这个画面当然有夸大的成分,而今天的情况是:人工智能和机器人的加速应用肯定会影响就业率,但是到底会产生何种影响,目前还尚未清晰。所有的预测,无论乐观或悲观,都还无法完全自圆其说。我们根本无法估计下一代AI系统将如何接管各种任务,或者将如何动态扩张。做出可靠预测的难题就在于其本质上是一个速度问题。人工智能越快将触角伸向人类工作场所,人们调整个人资质和集体安全系统的时间就越少。那么新一代人类就可能在自动化面前败下阵来。尽管预测中充满了不确定性,但可以确定的是,全世界的政客们已经找到了稀少的还算明智的答案来应对下一波自动化浪潮的挑战。但是,我们还没有做好解决“机械问题”的充分准备。

机器的瑕疵

对于人类来说,更紧迫的问题可能是:未来是否会出现一个这样的“超智能系统”,它能够自主地在反馈回路中计算勾画出一个更好的世界和它自身的形象?牛津大学未来人文研究所所长尼克·博斯特罗姆(Nick Bostrom)称这是一个将把人类“从最高思考者的位置上驱赶下去”的人工智能系统。结果就是人类将无法控制这个超智能系统。那么,这种超智能系统会不会像科幻小说中那样反抗人类,最终灭绝人类呢?

我还是快点告诉你个好消息吧:就目前来说,人工智能系统还不会奴役人类。没有人知道计算机在未来200年内能发展到什么程度,但起码我们知道,计算机科学家还不知道任何可能导致超级人工智能的技术途径。于是,世界末日又被推迟了。人工智能系统存在内在弱点,使得它们容易做出错误的决策,这限制了它们的使用。但我们还是要时刻保持警醒,因为人类有责任不断批判性地看待它们的算法。

令人吃惊的是,人工智能系统的弱点与人类的非常相似!比如,和人类一样,人工智能系统的神经网络也会有偏见。这些偏见不是由软件开发人员编写的,而是隐含在训练数据中的。如果人工智能支持的贷款发放过程根据训练数据的结果,认为少数民族或53.8岁以上的男子或戴黄头盔、有一辆8速自行车的人偿还贷款的可靠性较低,它就会把这种判断纳入评分模型中,而不管这种判断是否荒谬或是否合法。

我们人类知道要对种族主义提高警惕,并且可以加以纠正。但人工智能系统不会这么做。比如曾经有个AI系统可以帮助美国法官决定是否可以提前释放囚犯,该囚犯重犯的风险有多高,但人们却怀疑这个系统让非洲裔美国人和西班牙人处于不利的地位。这个系统因此成为具有内置偏见的人工智能系统的教科书范例。未来,我们可能需要较长的时间识别机器的偏见,或根本识别不出来。谁能想到一台机器会歧视戴着黄色头盔的自行车骑手,并因此做出荒谬的决定呢?

自动化决策系统(ADM)的开发人员已经开始寻找解决机器偏见的技术方案。例如,IBM在2018年9月发布了一个开源工具包,用于检查机器学习模型中的偏见。这个应用程序被称为“人工智能公平360”(AI Fairness 360)。而更多的此类应用也将在未来出现。开发人工智能的公司知道,人们是否能够接受人工智能系统在很大程度上取决于人们对它们的信任,因此人工智能系统不仅要做到公平公正,还要给与我们充分的理由去信任它们。

未来将会继续有许多声音要求为AI系统内置一个申辩功能。如果一台机器为某个病人推荐一种特殊的化疗,那么它不是仅仅像颁布神谕一样简单地说出它的建议,而是需要向主治医师证明它是如何确定这是最佳解决方案的。这种貌似合理的解释功能已经初具雏形,但还存在一个基本问题。

机器在神经网络中的学习过程是数百万个连接的结果,并且它们中的每一个都会对结果产生细微的影响。因此,决策过程非常复杂,以至于机器无法向人类解释或展示它是如何得出这个“可信”或“不可信”的结论的。这简直就像是科技史上的一个笑话。现在,受“博兰尼悖论”影响的不再是人类,而是机器,因为机器知道太多无法向人类解释的东西。这意味着,即使人类注意到人工智能系统犯了错误,也几乎不可能对其进行纠正。机器无法告诉人类错误来自哪里,因为它自己也不知道。

因此,对于“博兰尼悖论”的大逆转,人类只能回到启蒙运动的起点去找答案:我们必须批判性地审视机器所告诉我们的一切。启蒙运动转向理性和科学,为查尔斯·巴贝奇(Charles Babbage)在18世纪中叶构想出第一台计算机,以及康拉德·祖斯(Konrad Zuse)在一个多世纪后建造第一台可编程计算机奠定了基础。大约在25年前,蒂姆·伯纳斯—李(Tim Berners-Lee)将计算机连接成全球网络,将巨大的数字机器变成了人类有史以来最强大的工具。现在机器正在学习如何自主学习——我们需要与他们保持更远的距离。

我们必须搞清楚在哪些情况下机器辅助对我们有用,在哪些情况下又会阻碍我们的思维。我们必须学会与所谓的“超级假货”(deepfake)共存。它们可以让一个人模仿另一个人的声音,或者把一个人的头放在另一个人的身体上。但是我们必须要警惕,人工智能算法可以通过在社交媒体上精心安排帖子来左右人们的思维,从而颠覆我们的民主。全世界的政治家和公民都应该密切关注军方对人工智能武器的开发和应用。立法者,而不是军人,应该考虑当机器自动开枪时所触发的所有伦理问题。智能机器的开发者在用人工智能系统做杀人武器的时候,一定要三思而后行。(2018年6月,谷歌拒绝与五角大楼续签一份合同,因为这份合同令许多参与人工智能研究的员工异常愤怒。)

但是恐惧不应该遮蔽我们的双眼,让我们对人工智能的好处视而不见。决策自动化为社会的个人、组织和社区提供了巨大的机会。但是随着机器能做出越来越好的决策,我们人类就越来越需要集中精力思考:我们要把什么样的决策权委托给人工智能。因为即使在用人工智能进行自动决策的时代,人类仍然希望决策能带来幸福,但这对计算机来说没有意义。机器永远感觉不到什么是幸福。