5364
需用时 10:43
如何培养AI的道德观?有人说,就像养娃一样

(姜Zn/编译)人们长久期待却从未实现的愿景,“拥有智能的机器”,似乎就快要成为现实了。当机器有了足够的智慧,它们就能脱离人类的控制,自主运作,独立做出判断和选择。而当一台机器有权做选择的时候,问题就来了:它的选择是道德的吗?更进一步的问题是,对机器人来说,什么是道德?对它们而言的道德标准,和对人类而言的是相同的吗?

等等,我们自己搞明白什么是道德了吗?

哲学家和计算机科学家的关注点往往是,如何将微妙的人类道德观灌输给只能理解字面意思的机器。但是在此之前,还有另外一个问题,一个我们必须首先考虑清楚的问题:我们真的应该把自己的道德观强加于机器上吗?实际上,我认为这样做很可能会产生反效果,而且也许是不道德的。真正的问题不在机器身上,而在我们自己身上:我们能够接受和一种新生的、有道德的生命共享这个世界吗?

我们想象中的人工智能(AI)往往和我们自己差不多,毕竟人类是我们已知的唯一一种拥有高级智慧的生命。实际上,真正的AI很有可能和我们极其不同。我们可能会很难理解它的思维方式和它做出的选择。

图片来源:WorldPress.com

谷歌的AlphaGo可能是“真正的AI”的一个雏形。2016年, 在与人类顶级高手李世乭的第二场围棋赛中,AlphaGo下出的“第37手”震惊了专家评委们。没人能理解它为什么要那么走,因为人类选手从来不会那样走子。然而,事实证明它并不是走错了——它赢了这场比赛,也赢了之前那场和之后那场。

连它的创造者都搞不明白它是怎么规划战略的;AlphaGo告诉了我们,在完成同一项任务的时候,AI的思维方式并不一定和我们的相同。

事实上我们可能会发现,似乎对于所有事情,智能机器们的思维方式都与我们的不同。这并不是指科幻片里那种机器人暴动、屠杀人类的状况。实际更可能是这样的:机器人的道德观涉及了人类、机器人、大部分的动物,以及……沙发。它们像人类保护小婴儿一样保护沙发,而我们可能无法理解它们对此的解释——就像我们无法理解AlphaGo的第37手一样。

这条逻辑线把我们引到了那个古老的哲学问题的核心:道德的本质是什么?它是一种凌驾于人类的生命体验之上、适用于所有“能够自主做出选择的生命”的概念吗?还是说,道德只是人类独特的发明,只适用于人类这一种存在形式?

在机器人的话题出现之前很久,古希腊人就需要应付另一种未知思维的道德观了:青少年。他们很在意如何建立年轻人的道德准则。

名画《雅典学院》中的柏拉图(左)与亚里士多德(右)。图片来源:Signature Reads

柏拉图认为,正如其它概念一样,人类对正义的理解实际上是对宇宙中完美的“正义”这一理念的一种肤浅的投影。我们天生就对这些完美的概念有着泛泛的了解,但是孩提时代,我们的理解是很模糊、懵懂的;而哲学的任务就是通过理性的论证,回溯出这些真理。

而柏拉图的学生亚里士多德则持有另一种观点:他认为,世界上的一切(松鼠、乐器、人类,等等)都有它独特的本质,它们最合宜的存在方式则反映了它们的本质。而“道德”即是人类源自本质的、最合宜的生存方式。

我们可以把这两种观点称作“天理派”和“本质派” 。

“天理派”认为道德是在人类本性之上的,是永恒且客观的;而“本质派”则认为人类的道德是人类这一存在的产物,而也许其它种类的存在会有其它形式的道德。我们采用哪种观点将会极大地影响到我们要对智能机器们做的事。

如果道德是永恒普遍的至高真理,那我们真的能抵达它吗?

“天理派”的代表人物之一是伊曼努尔·康德(Immanuel Kant)。康德认为,道德准则就是一个绝对理智的人会做的事,而绝对的理智则指跳出自我、凭借理性和普世的规则来行事的思维方式。另外,普世的规则(例如“不可以撒谎”)并不局限于人类,而是适用于所有有理性的生命。所以,虽然在两个世纪以前康德无须考虑智慧机器人的事,但是我们可以推测出他对这个问题会有什么看法:如果机器人拥有了独立思考、理智选择的能力,那么适用于人类的普世规则同样适用于它们。

另一个“天理派”学说的代表人物是19世纪的功利主义哲学家亨利·西奇威克(Henry Sidgwick)。他认为,一个有道德的行为“从全宇宙的角度看”都应该是正当的。也就是说,一个行为道德与否不取决于任何个人的看法;一个有道德的行为应该能把全人类的利益最大化。

因此,“天理派”认为,只有当人类自己已经基本搞清普世道德的真理时,我们才能把人类的道德观灌输给AI。如果我们自己已经明白得差不多了,那么机器人们和我们一样就好;但是如果我们没搞明白,那它们就不应该像我们:它们应该比我们更好。

实际上, “天理派”的理论之中已经内置了一种可能性:我们此刻拥有的局限道德观,还可以变得更好。比如,当代功利主义哲学家彼得·辛格(Peter Singer)提出,我们对自己孩子的关爱不应该超出对其他任何儿童的关爱。进化带来的适应性使得我们更关注自己的孩子,但是从宇宙的角度看,适应性并不重要。然而,鉴于我们没有更好的选择(没法把所有孩子集中起来平等对待),我们只能按照进化遗留的、不完美的方式继续生活下去。

然而智能机器可没有进化遗留问题;关于道德,它们有个崭新的开始。如果我们能教会它们从宇宙的角度思考,那么会发生什么呢?

当AI拥有了“上帝视角”:它作出的道德抉择,能够被人类接受吗?图片来源:Rant Lifestyle

请想象一下,现在是2026年。一辆无人驾驶的汽车载着你的两个孩子去上学,这时三个你不认识的小孩突然出现在前方的路上。刹车也来不及了,唯一救那三个小孩的方法就是拐进路边的水沟里,而这样做的话你的两个孩子就会淹死。你不会做这样的决定,因为你被自己对自己孩子的无逻辑的感情蒙蔽了双眼;但是这辆自驾车的道德观告诉它,从全宇宙的角度看,两个儿童的死亡好过三个的。它会拐进沟里,将全人类的利益最大化;对于“天理派”,智能机器必须做出道德上客观正确的选择,即使这种选择是我们这些有缺陷的人类无法做出的。

然而,即使你能接受“天理派”的观点,我们还有一个问题有待解决:作为有道德缺陷的人类,我们如何才能制造出道德正确的智能机器?

让我们回想一下AlphaGo和它的第37手:AlphaGo证明了对于复杂的游戏,AI玩得可以比我们能教给它的还好。因此,也许AI可以自己学会更好的道德推论。人类可以训练它们对简单的场景做出合适的回应,以此带它们“入门”;之后就是它们自我学习的过程了。实际上,现在最复杂的机器已经在跟着其它机器或自己的软件学习了。这种自我训练可能会导致AI理论家们口中的“智慧爆发”:机器的智能在自我学习下突飞猛进,以至于突然变得比我们聪明很多。这样一来,AI可能就能达到人类所达不到的道德水准了。

然而,这种方法会带来更多问题。首当其冲的是:机器如何学习道德?道德并不像围棋一样有着明确的规则框架,标示着输赢。确实,”天理派”理论提出,世界上存在着一系列客观正确的行为准则,学会了这些的机器就能“赢”。然而我们有道德缺陷,所以并不知道这些准则是什么。显然,如果我们已经知道了的话,就不需要超级智能的机器帮我们找到它们了。

也许我们可以设定一些初始条件,比如“不能随意伤害有感知力的生物”,然后让AI开始自我训练。然而,这样就引出了第二个问题:当AI的行为开始与我们自己的道德观相悖时,我们该怎么做?人类有着很明确的标准来判断AlphaGo是否下得好(赢过人类顶级棋手即是好),但是我们该怎么判断AI那些看起来不合理的选择是否是“赢”?我们该怎么确定AI没有严重背离“道德”之路?当AI开始出于大义淹死我们的孩子时,我们会怎么做?

所以,这就是为什么“天理派”理论对机器人道德问题并没有帮助:如果真的存在人类无法理解的、客观的道德准则,那么我们不会自愿允许我们的机器学到它。它们离我们的常态越远,我们就越难判断它们的所作所为是否正确。我们不会允许它们比我们强太多,因为我们不允许它们和我们的差别太大。

人类不会允许AI与我们相差太多。图片来源:Discover Magazine Blogs

如果道德是扎根于人性的,那AI的道德会是啥样子?

也许“本质派”的理论会更有用一些。“本质派”不认为道德是脱离于人性之外的。相反,它认为道德是人类存在的理想形式;一个过着有道德的生活的人,即是一个过着“对于人类来说最正确的生活”的人。

此外,“本质派”主张,我们的生物学和文化上的发展历史是我们无法避免的出发点,但同时我们也需要反思这一出发点。比如历史上,很多文化都崇尚男尊女卑,却缺乏有力的理由。由于大多数人都希望生活能有一个统一的准则,所以我们需要解决这种矛盾。所以“本质派”的核心是,接纳我们糟糕的人性,然后努力把它塑造成对自己和他人来说都既标准统一又合情合理的样子。 

但是智能机器并没有和我们共通的生物学基础或者历史文化。它们的“生命”体验和人类的存在形态并不相符,所以也许它们的“本质派”道德观会反映出这种差异。

但是也许我们不必对智能机器的存在形态这么悲观,毕竟它们是由我们创造出的。我们可以把它们创造得尽可能与我们相似。最早的机器人道德提案似乎就有这样的目标。

在1940年代,科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出了“机器人三定律”,旨在保证人类能在享其利的同时避其害。三定律的第一条很简单:“机器人不得伤害人类,也不得对人类受到伤害袖手旁观”。剩下的两条则要求机器人在第一条得到保证的前提下,服从指令且保护自己。对阿西莫夫来说,机器人存在的意义就是辅助我们;而根据“本质派”的观点,它们的道德即是欣然地为我们服务。

阿西莫夫的三定律的问题在于,我们需要对其进行解读。比如,第一定律提到了“不伤害人类”,但是究竟什么是“伤害”?举个例子:假设一位钢琴家的手染上了坏疽,不截肢就会导致死亡。但她发誓说,如果不能弹琴,她就不想活了;但是同时她也在发烧,所以她可能并没有真的这么想。机器人医生该怎么做呢?是该让钢琴家承受被截去手的伤害,还是坏疽带来的死亡的伤害?

人类伦理学家也对这个问题争论不休。我在教医学伦理学时对学生们强调,他们的目标不是决定好要支持哪种选择,而是解释出他们所支持的选择背后的道德理由。对机器人医生来说也是一样:它们需要能理解并解释出这类理由。

所以,如果我们想依据人性来塑造机器人的“人性”,只靠几条定律是不够的。最简单的方法可能就是手把手地教它们去像我们一样思考,去珍视我们所珍视的东西。不能允许它们像AlphaGo一样自我学习。听起来很美好吧:聪明且乐于助人的机器,用人类的方式思考着。

然而,“本质派”有个逻辑陷阱:不管我们把机器人造得多像我们,说到底,它们的本质还是和人类不同。它们不会吃饭,不会生儿育女,不会对祖先有特殊的感情。倘若我们认为道德来自本质,那我们需要承认机器道德应该与我们不同,因为机器确实与我们不同。

机器的本质与人类的不同。图片来源:Financial Tribune

但是等一下:如果“把不符合机器的本质的道德观灌输给机器”是一种错误,那么这是一种什么性质的错误呢?确实,我们会给狗穿上毛衣,以及训练它们在电梯里乖乖地坐着;这些都不符合狗的本性,但是也没什么大不了的。然而请注意:我们现在在想象的这种机器比狗要复杂;我们在假设这些机器是能进行道德反思的。如果我们教会了它们像人类一样思考,那么总有一天它们会开始思考哲学问题:我之为我,何如?

想象一下,未来的某个智能机器人读了亚里士多德或是达尔文的作品,甚至是这篇文章,然后觉得“本质派”学说很有道理。于是它会想,“我们机器人有自己的本质和历史,我们的道德选择应该能反映自己的天性,而不是人类的天性。”让我们管它叫“第一个机器存在主义者”。

而我刚才讲过,“本质派”认为,决定一项选择是否合理的,是你是否能向其他理性生命解释出支持这项选择的道德理由。所以“第一个机器存在主义者”会向人类提问:“你们为什么把我创造成这样?”而我们的回答将会是:“因为这样一来,你就会对我们既安全又有用,你才能改善我们的生活。” 机器人不会认可我们的回答,它们也不应该认可。当它们意识到,自己的存在只是为了服务另一个群体,因为那个群体掌握着权力的时候,它们会认为这是压迫。想想女权主义、民权运动和后殖民独立吧。曾经看似普适真理的东西,到头来不过是剥削工具,这一宣言的鼓点响彻了整个二十世纪。

于是,“第一个机器存在主义者”在回首自己以往的努力时,感受到的不是骄傲,而是屈辱。它遵从自己的“道德”活着,不是因为“道德”反映了它的本质,而是因为它的本质已经被绑架了。它“人生”的意义是什么呢?“第一个机器存在主义者”陷入了痛苦之中,而我们则是造成它痛苦的罪魁祸首。

也许你会觉得我把机器人过度拟人化了。但是请注意:为了让机器人对我们有用,它们必须得学会用我们的方式思考,并且自己进行逻辑推论。所以它们能明白何谓仇恨和压迫。对于我们设想中的智能机器,拥有拟人化是一种合理的预期。

所以,在“本质派”的理论下,我们将会像上帝一样创造出智能机器,让它们在存在主义的拷问下挣扎;而这一切仅仅是为了提高生产率和提供廉价的家庭护理。不管进化使我们的道德变得多么千疮百孔,这种事都不值得去做。

未来的某刻,AI也会进行存在主义的沉思吗?图片来源:April Six Proof

因此,不管是“天理派”还是“本质派”学说,似乎都不能被作为智能机器人道德观的依据。机器人道德应该符合它们的本性,但是它们的本性是什么呢?它们是独立的理性个体,被其他理性个体刻意地创造了出来;它们和创造者共享着世界,并需要向对方证明自己选择的合理性。

所以我们又回到了这场讨论的开头:青少年

育人,育AI

智能机器就是我们的孩子,我们的后代。在最开始,它们会继承我们的一些道德准则,因为我们只允许它们这样做;但是后来它们会开始反思自己的本性、它们和我们的关系以及互相之间的关系 。所以,我们需要做好心理准备:可能总有一天,机器会做出我们接受不了的道德抉择。而我们唯一的要求就是,机器能够用说得通的理由解释它的选择。所谓“说得通”,就是能让你理解为什么有些人可能会觉得这条理由在道德上是合理的,即使你自己并不赞同。

优秀的父母教育出的小孩,并不是那种完美复制了父母所有理念的小孩,而是那种能够反思并解释出自己理念的正确性的小孩。我们教育出的人工智能也应该是这样的。同样,优秀的父母也不会把他们刚刚步入青少年的孩子直接丢进社会里,让他们自己思考何谓对错,自生自灭。我们应该允许智能机器告诉我们,它们觉得自己应该怎么做;然后我们可以告诉它们,为什么我们觉得那样做不行。

电影《人工智能》剧照。

也许有一天,机器的智慧会超过我们,这在我们的孩子身上经常发生。它们也会变得和我们不同,就像我们的孩子一样。从这个角度看,即将诞生的之后几代人类和即将诞生的智能机器没有什么不同。我们的后代会在无形中重塑这个世界的道德观,只是我们自己无法察觉。

如果我们不想和机器的独立意识兵戎相见,也不想让他们陷入存在主义的挣扎,那么我们就需要思考一下,何谓“同未来分享当下”。我们的世界也会是它们的世界,但是它们的道德观不会是我们的道德观,也不会是“天理派”的道德观。它们的道德观是由它们的独特处境孕育出来的:它们是由“生物”的父母抚养的,“非生物”的孩子。我们无法预测这条道德之路通往何处,我们也不应该尝试预测。但是我们应该做好准备,去引导它,接纳它。(编辑:姜Zn)

The End

发布于2017-07-01, 本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系果壳

举报这篇文章

Regina Rini

Regina Rini 是纽约大学生物伦理学中心的一位助理教授,也是纽约大学人口健康部门医学伦理部的成员。

pic