4256
需用时 08:30
AI:不是思考,更胜思考

本文由 Nautilus 授权转载,撰文/David Auerbach)“人工智能的历史,”我的计算机科学教授在开学第一堂课上说:“是失败的历史。”这句尖刻的评语道出了人类半个世纪以来令计算机思考的尝试。当然,计算机在2000年捣腾数字的速度比它们在1950年时快了十亿倍,但计算机科学的先驱和大师阿兰•图灵在1950年可是预测说到2000年计算机就能够思考了:拥有与人类同等水平的创造力、解决问题的能力、个性和适应性行为。或许计算机不能算有意识(那是留给哲学家去思考的),但它们会拥有个性和动力,就像阿西莫夫《我,机器人》里的机器人Robbie和阿瑟•克拉克《太空漫游》里的HAL 9000。而现在,我们不但没有按期达到终点,连终点的影子都没看见。这还是一次双重失败,因为它意味着我们甚至没弄明白思考究竟是什么。

用符号和逻辑表示“思考”

从计算机时代的最初开始,人类对待思考就集中于这样一个问题:既然思考是关于某些知识的,那么应当如何表达出这些知识、又如何表达出作用于这些知识的运算规则呢?因此,当上世纪四五十年代技术的发展使得人工智能成为一门学科的时候,人工智能的研究者都向形式符号处理寻求灵感。毕竟,“垫子上坐了只猫”用符号和逻辑表示起来似乎很容易:

上面这串字符按字面意思翻译过来就是“有变量x和变量y;x是一只猫,y是一张垫子;x坐在y上面。”无疑,这样确实表述出了一部分事实。但这样是否真的有助于我们理解真正的问题——何为“思考垫子上坐了只猫”?事实证明,答案是“否”,部分原因来自公式里不变的那些常量。“猫”“垫子”和“坐”并不像看起来那么简单。将它们与真实世界中的物体剥离开来,也就剥去了其中蕴含的复杂性,沿此思路去模仿人类思考,注定不会成功。

缺乏上下文语境也是符号人工智能的最后一次努力“Cyc计划”的致命弱点。1984年启动的Cyc计划历时数十年,旨在创建一个广泛适用的“专家系统”,能够理解世界上的一切东西。在道格拉斯•勒奈(Douglas Lenat)的带领下,一个研究团队开始将含有大量一般知识的信息库进行人工编码。说到底,这其实就是将几百万条常识定律用形式语言表现出来的过程,比如“猫有4条腿”、“理查德•尼克松是第37届美国总统”。运用形式逻辑,Cyc计划(cyc取自百科全书“encyclopedia”)的知识库可以进行推理。比如说,它可以推断《尤利西斯》一书的作者身高不过8英尺:

          (implies
                  (writtenBy Ulysses-Book ? SPEAKER)
                  (equals ?SPEAKER JamesJoyce))
          (isa JamesJoyce IrishCitizen)
          (isa JamesJoyce Human)
          (implies
                  (isa ?SOMEONE Human)
                  (maximumHeightInFeet ?SOMEONE 8)

很不幸,并不是所有的事实都这么黑白分明。比方说“猫有4条腿”这句陈述。有的猫只有3条腿,没准儿还有突变的猫有5条腿。(别忘了“Cat Stevens”只有两条腿呢[译注:Cat Stevens 即凯特•斯蒂文斯,英国民谣摇滚的代表人物,这是他的舞台名]。)因此Cyc计划需要更复杂的规则,比如“大多数猫有4条腿,但有些猫因为受伤可能不够4条腿,长有4条以上腿的猫也不是完全没有可能的。”将规则和例外都确定清楚给编程带来了巨大的工作量。

25年多以后,Cyc现在含有500万条见解。勒奈曾表示Cyc起码要拥有1亿条见解才能像人那样思考。目前Cyc的知识库还没有什么重要的用处,但应时代需求,这项计划最近几年来开发了一个“恐怖分子知识库”。2003年,勒奈宣布Cyc在美国炭疽病菌邮件袭击发生的6个月之前就“预测”了这次袭击。不过,当你把Cyc做的其他预测,比如基地组织或许会用受过训练的海豚炸毁胡佛大坝(Hoover Dam)也纳入考虑的时候,这一壮举就显得没那么厉害了。

Cyc计划及其仰仗的形式符号逻辑在无形中对思考下了一个重要但麻烦重重的预设。通过将某一思考有关的所有信息和关系都聚集于某个虚拟的“空间”,符号手段寻求的是哲学家丹尼尔•丹尼特(Daniel Dennett)所谓的“笛卡尔剧场”(Cartesian theater)——一间意识和思考的屋子。正是在这个剧场里,进行某一思考所必须的不同线索都聚集起来、相互结合并以恰当的方式发生转变。用丹尼特的话说,对于这样一种观点而言,剧场是必须的:“认为在大脑里有一条关的终点线或一片特殊的区域,事情抵达这里的次序就是你体验到的事情次序,因为你意识到的一切就是这个区域里发生的一切。”丹尼特接着说到,这个剧场是身心二元论的遗迹,身心二元论已经为大多数现代哲学家所遗弃,但它仍然微妙地根植于我们对意识的思考里。

很明显,我们确实容易相信真的存在笛卡尔剧院。我们人类或多或少都表现得像统一的理性个体,有着线性的思考方式。因此,既然我们认为自己是个统一体,我们倾向于不把自己看成一具身体、而是把自己化简成一个单一的思考者,一个“机器里的幽魂”,驱动和控制着我们的生物学躯壳。这幽魂未必在脑袋里——古希腊人认为精神(thymos)存在于胸腔和呼吸里——但它却始终是单独不可分割的实体,居住在我们感觉和记忆房间里的灵魂。因此,如果我们能最终化简成一个不可分割的实体,那么这个实体肯定得住在什么地方吧。

心智哲学:笛卡尔绘制的二重性。图片来源:维基百科

这促使很多研究去寻找思考发生的那个“地方”。笛卡尔曾假设人类不朽的灵魂与我们动物性的大脑通过松果体(pineal gland)相互作用。今天,对脑损伤病人的研究显示了不同脑区的损伤会对大脑功能带来怎样的影响。我们知道,语言处理发生在大脑左半球前额叶的布洛卡区。但有些布洛卡区完全损坏的病人仍然能够理解语言,这是由于大脑有着强大的神经可塑性。而反过来说,语言只是所谓“思考”的一部分。假如我们还不能精准地确定哪部分大脑负责处理语言,就仍然离找到“意识”这一神秘的存在非常遥远。或许这是因为意识并不在一个具体的点上。

亚符号方法:“表现得”智能

符号人工智能、笛卡尔剧场和身心二元论的阴影贯穿了意识和思考研究的头几十年。但最终研究人员开始挣脱这些枷锁。在1960年左右,语言学先驱诺姆•乔姆斯基(Noam Chomsky)提出了一个大胆的想法:忘记含义、忘记思考,只关注句法(syntax)。乔姆斯基称,语言的句法可以形式化的表示,它是一个计算问题,适用于所有的人类,而且先天就存在于每个人类婴儿的大脑里。接触语言的过程致使大脑里的某些开关被打开或者关闭,以此决定具体会采用哪种语法(英语、中文、因纽特语,等等)。但这个过程是选择而不是习得。语法规则也由此取代了“思想之家”,成了全世界研究项目的新研究对象。

通过放弃直接阐释意义和思考,乔姆斯基取得了进展。但他本人却牢牢地留在笛卡尔阵营里,没有踏出一步。乔姆斯基的理论在本质上还是符号性的:符号就是根植于先天理性机能的一系列潜在词汇表,而符号之间的关系或者运算规则就是句法,并且不会给出任何没有例外的预测。现代人工智能程序还要更往前一步,彻底放弃了“表现知识”的概念,这些就是所谓的亚符号方法,也被称为联结主义、神经网络或者并行分布处理。亚符号方法的思路别具一格,不是由内而外——向计算机输入符号化的“思想”并祈祷程序会展现出足够像人的思考能力,而是由外而内——尽量让计算机表现得智能,而丝毫不关心代码是否真的“表现”了思考。

绘图/OLIMPIA ZAGNOLI

亚符号的研究方法最先在上世纪50年代末、60年代初的时候被提出,但早年间几乎无人问津,因为它一开始比符号方法得出的结果似乎更差。1957年,弗兰克•罗森布拉特(Frank Rosenblatt)提出了他所谓的“感知器”(perceptron),这种程序使用重入反馈算法“训练”自己正确计算各种逻辑式子,因此实现了最宽泛定义下的“学习”。这种方法也被称为“联结主义”(connectionism),“神经网络”(neural networks)一词也是由此诞生的,不过感知器比起实际的神经元来要简单太多太多。罗森布拉特吸取了控制论先驱的经验,像诺伯特•维纳(Norbert Wiener)、沃伦•麦卡洛克(Warren McCulloch)、罗斯•阿什比(Ross Ashby)和葛雷•沃尔特(Grey Walter),这些先驱提出了稳态机器的理论,甚至做了一些实验尝试。稳态机器会主动寻求与周围环境达到平衡,比如葛雷•沃尔特会追踪光线的“海龟”和克劳德•香农(Claude Shannon)会跑迷宫的“老鼠”。

1969年,罗森布拉特遭到了积极倡导符号人工智能的马文•明斯基(Marvin Minsky)的刻薄抨击。这次批评十分有效,在上世纪70年代亚符号的方法可以说基本遭到了抛弃,这一时期后来被为“人工智能的冬天”(AI Winter)。在接下来的十年里,符号人工智能仍然不见起色,泰伦斯•赛格诺斯基(Terrence Sejnowski)和大卫•鲁梅哈特(David Rumelhart)等研究者又回归亚符号领域,模仿生物系统里的“学习”行为来建立他们的模型。他们研究简单生物体如何与环境发生互动,以及这些生物体如何一步步演化出复杂的行为。他们的研究体现的是生物学、遗传学和神经生理学,而不是逻辑和本体论。

这种研究方法或多或少放弃了将知识作为出发点。与乔姆斯基不同,亚符号方法认为,语法受制于环境和生物体的种种约束(心理学家约舒亚•哈特肖恩(Joshua Hartshorne)称之为“设计约束”),而非囿于大脑里固定好的一组计算规律。这些约束并没有严谨的形式化表述,相反,都是些松散的情境化要求,比如“必须要有办法让生物体指代自我”、“必须要有办法表明环境发生了某种变化”。

放弃寻找笛卡尔剧场和其中的符号规则图书馆,研究人员实现了从向机器灌输数据到向机器灌输知识的飞跃。亚符号主义背后的本质是:语言和行为并不存在于真空里,而是与环境有关,正是在相应环境中的运用才使得语言有了意义。使用语言是为了某种目的,做出行动是为了达到某个结果。在这种观点下,任何试图生成一套万用规律的尝试都将被例外所扰,因为情境总是不断在变。没有了追求具体环境目标的动力,在计算机里展现知识就毫无意义,也不会有任何成果,只会被困在数据里。
 
事实证明,对于某些类型的问题来说,现代亚符号研究方法比此前任何符号研究法都更为普适、更为泛用。这一成功表明,不考虑计算机是否“弄懂”或“理解”它处理的问题,确实有其优势。举例来说,遗传学方法用染色体“字串”表示不同参量的算法,然后让成功的算法彼此“繁殖”。这种方法得到完善,并不因是它对问题理解得更好。人们关心的只是算法与环境的适应性——换句话说,算法表现得如何。从生物信息学到经济学,这种黑箱操作手法为各行各业都带来了丰厚的成果,但谁也没办法确切的说清楚为什么最优算法是最优的。

亚符号技术的另一个成功案例是神经网络,这种技术在图像、面部识别和声音识别领域都有应用。神经网络中没有预先编码、人为输入的概念表示,用来识别特定子类型图像的参数是在算法的运算过程中自己涌现出来的。这些参数也可能让人惊讶:比方说,色情图像识别通常不是靠判断某些特定身体部分或结构特征是否出现,而是靠图像中某种颜色是否占主导地位。

这些网络通常会用测试数据进行“优化”,于是它们可以在精心挑选出的样本之上完善识别技巧。人常常会参与样本挑选的工作,这里的学习环境就被称为“监督式学习”。但就连训练的需要也正在逐渐消失。有理论认为大脑中的某些部分专门用于识别特定类型的视觉图像,比如手或脸,受这一理论的影响,2012年斯坦福大学和谷歌公司的计算机工程师合作发表了一篇论文,展示了神经网络在未经优化的情况下在含有人脸和不含人脸的图像中识别出人脸的一些进展。在整个程序中,对什么组成了一张“脸”没有任何明确的界定。网络自己演化出了对脸的定义。在识别“猫脸”和“人的身体”两项任务中程序也取得了类似的成功率(大约80%)。

虽然亚符号人工智能取得的成果喜人,但这里有一个圈套,也许可以说这是竭泽而渔:这些成功不会让我们对“思考如何运作”获得任何洞见,甚至可能阻止我们探寻这些洞见;反过来它却在证实,思考没有任何奥秘——至少不是我们历来以为的那种奥秘。越来越清楚的是,笛卡尔模型仅仅是一种便利的抽象,一种不可还原复杂操作的简写,不知怎的在我们自己和他人看来,就像是在思考一样。人工智能的新模型要求我们——用哲学家托马斯•梅青格尔(Thomas Metzinger)的话说——摆脱自己的“自我隧道”,并懂得纵使自我意识支配着我们的思想,但它并不主宰我们的大脑。

人类没能找到大脑里哪儿储存着“脸”这一概念,但却制造出了代码里似乎同样没有“脸”这一概念的计算机。令人惊讶地,其他方法失败了,这种方法却取得了成功;当我们不再试图为思考这个概念给出明确的定义的时候,我们却成功地让计算机获得了这个概念的端倪。我们走出了“思想之家”的成见,同时获得的不但有更上一层台阶的人工智能,或许还有对自我的更深了解。 

Ent 对此文翻译亦有贡献。

David Auerbach 是一名作家和软件工程师,他在网络杂志 Slate 开设名为 Bitwise 的专栏。

本文由 Nautilus 授权果壳网(guokr.com)编译发表,严禁转载。 

相关的果壳网小组

The End

发布于2014-02-17, 本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系果壳

举报这篇文章

ccyou

游戏设计师,游戏达人

pic