【果壳实验室线下沙龙回顾】人工智能的未来,奇点何时到来?

读图模式

看影片,猜嘉宾啦~

难道是新朱莉,艾丽西亚·维坎德?

果壳实验室的技术宅们肯定享受不到这样的福利T_T 有机会也会被“美丽也是技术活”的美姐们给抢去…

不过技术宅也有技术宅的偶像,这不5月19日,就邀请伦敦帝国理工学院的默里·沙纳汉教授,也就是电影《机械姬》的人工智能技术顾问来到果壳实验室举办线下沙龙,并接受了采访。

沙龙回顾

沙龙根据人工智能的三个发展阶段分为三部分,分别是弱人工智能(Artificial Narrow Intelligence ,ANI),强人工智能(Artificial General Intelligence,AGI),和超人工智能(Artificial Superintelligence,ASI)。

从1997年“深蓝”使用树形检索战胜国际象棋冠军,到2016年“阿尔法狗”使用深度学习,增强学习,和蒙特卡洛算法击败世界围棋冠军,这已是当今世界最先进的人工智能技术,但仍处在最初级的弱人工智能阶段,因为只能处理单方面事情。比如阿尔法狗可以给出程序设计者和专业围棋手都不是明白的妙手,但它只能下围棋。不像是对手李世石除了可以玩围棋外,还可以聊天和陪伴等。

而如何从弱人工智能进化到强人工智能呢?教授说到,硬件方面的计算能力最低需要每秒达到一百万兆浮点计算,也就是10的18次幂。而现在全世界最强大的超级计算机“天河二号“运算能力也才达到每秒33.86千万亿次浮点运算。所以说强人工智能的硬件起码需要比“天河二号“强33倍。

除了计算能力外,强人工智能还需要知道如何使用这些计算能力。现在计算机上运行的两个最前沿的人工智能软件是“机器学习”和“计算机视觉”,但是还不够,强人工智能需要更多的软件。这些软件需要有创新能力(creation),常识(common sense),和抽象概念(concept)。阿尔法狗只知道在围棋领域的创新,无法在其它领域创新;阿尔法狗除了下围棋,并不具有其它常识,比如围棋在这个世界的地位和意义;阿尔法狗还需要有总结抽象概念的能力,去和外界交流想法。

现在大概有三条通往强人工智能的路:一是传统的机械方法,比如人并没有制造出类似于鸟类的扑翼系统,而是通过固定翼的飞机翱翔天空;二是复制大自然,也就是完全复制人类大脑;再一个是两者的结合。

如果有一天我们达到了强人工智能,那距离超人工智能就不远了。因为超人工智能最重要的一点就是可以自我改进。一旦超人工智能意识到它的本质是以电子工程为基础以后,它将会突破这些限制,比如加速硬件的升级,通过加大储存信息种类来增加对外面世界的认知等等。

那一刻,便是“奇点”的到来。

采访内容

1.请问你是如何被邀请成为电影《机械姬》的技术顾问的?

电影的导演亚历克斯·加兰从我上本书《Embodiment and the Inner Life》中得到一些启发,于是给我发了封邮件。在邮件中说这本书清晰了他对人工智能和自我意识的认识,并邀请我一起吃午饭。于是接下来我和导演吃了好几次午饭,对一些台词做了评论,并研究电影的逻辑是不是正确等。

2. 请问你觉得你对电影《机械姬》最大的贡献是什么?

很难量化出来,可能更多的是在人工智能和自我意识的理解上对导演有影响吧。比如机器人的自我意识,我们人类如何对待一个有了自我意识的机器人。虽然电影最后机器人伤害了人类,但最初她是一个受害者。她被囚禁在了一个封闭的空间,没有自由。但是看电影的观众并不觉得这有什么问题,人类往往会原谅人类所犯下的错误。

3. 请问你在伦敦帝国理工学院进行哪些方面的教学和研究呢?

搜索我名字的时候,出现的结果是“认知机器人教授”。那是因为在授予教授头衔时,我的研究领域是机器人。而我现在主要是研究人工智能,同时我还在教“计算机神经网络”的课。

4. 那你当初是怎么喜欢上机器人这个专业的。

小时候读艾萨克·阿西莫夫小说时产生的兴趣,于是我决定进入这个领域。高中的时候自学了编程,大学到博士便一直以计算机科学为专业。

5. 你现在最感兴趣的领域是什么?

我现在最感兴趣的领域是深度强化学习(Deep Reinforcement Learning)。增强学习(Reinforcement Learning)的原理是通过试验和犯错,从错误中学习。然后再和深度学习(Deep Learning)的人工神经网络结构相结合,就是“深度强化学习”了,这也是AlphaGo的核心技术。

6. 为什么我们需要研究人工智能呢?

这需要分短期和长期来看。短期的话,比如现在有几千种应用背后有人工智能的技术,像Siri等语音助手,对于英文的语音识别已经非常成熟了,这些应用将会大大的方便我们的生活。还有自动驾驶汽车,这将会减少车祸的发生。在医疗领域将会迎来一场革命,人工智能将会对采集到的各项身体数据进行分析和建模,找到最适合于这个人的个性化解决方案。

长期来说,人工智能将会从事些更加困难的问题。比如帮助你了解这个世界;和你交谈,真正的了解你的需求,成为你的朋友等等。

7. 成为朋友?那你的意思是人工智能的未来会是类人机器人吗?

过去我对类人机器人非常感兴趣,认为如果要了解人类,机器就必须是和人差不多的。但是我最近认为,类人机器人只是一个小众的市场,很多人工智能产品都不是人形的。最突出的例子就是自动驾驶汽车了,它是机器人,但不是人形的机器人,它是汽车形状的机器人。还有营救机器人,从火灾或地震现场把被困的人营救出来。你不需要它是人形的机器人,你希望它越小越好。或者医疗机器人,你希望能把它注入到身体里,去寻找癌细胞或者血栓等,也是越小越好。

8. 你认为人工智能实现时,有什么参考标准或定义吗?

好难回答的问题,可能那一天如果真的到来,人类便会意识到。意识到人工智能就在我们的身边,做着和我们一样的事情。

9. 你为什么认为人工智能一定会实现呢?

因为我们认为人类的大脑可以做到。大脑虽然非常复杂,但它依然是物质,遵循物理的法则。据我所知,我们可以复制所有的物理法则,计算机可以模拟大脑中所有的过程。当然了现在有了新的争论,从数学角度上说,真实物理世界是连续数学,电子世界是离散数学。数学上本质的差异的确容易引起争论,人工智能到底能不能复制人脑。但我个人认为,计算机可以复制大脑中任意的工作过程。我们现在只是不知道如何复制大脑,这是工程领域的限制,并不是理论的限制。

10. 现在对大脑的研究如何和人工智能进行结合?

可以理解为从哪种层级去复制大脑。量子的层级?还仅仅是脑电波的层级就可以了。现在还没有一个准确的答案,但是我认为脑电波已经足够了。当然,这还属于科学假说的阶段。我们对大脑模拟的程度已经非常成熟,但也要取决于你想要哪种层次的模拟。量子层级的模拟我们可能并不需要。

11. 为什么你觉得能不能感到疼痛是一个很重要的标准?

疼痛意味着痛苦,因为动物会感到痛苦,所以人类对动物越来越好。如果人工智能也能感到痛苦,这将决定人类对待人工智能的态度。

12. 人工智能可能会遇到些道德问题,请问该如何解决呢?

我们可以用程序来约束它,就跟法律来约束人类似的。人工智能带来的种种道德问题,并不是人工智能引起的,它只是将人类一些没有解决或者平时忽视的问题呈现了出来。如果我们人类解决了这些问题,只要把解决方案写入程序中,让人工智能去执行就可以了。当然,这个过程做比说困难多了。

13. 你认为人类对人工智能最大的误解是什么?

第一点是每当人工智能在技术上取得突破的时候,人们就会觉得人工智能马上就要到来了,我们的生活很快就要像电影里演的一样了。而实际上,人工智能离我们还有一段距离才能达到;另外被误解的一点是人类会觉得人工智能会和人类一模一样,不仅仅是外观,还有行为方式。

14. 那能预测一下人工智能何时实现呢?

强人工智能还需要很长时间,可能是10年以后,也可能100年以后。5~10年间,弱人工智能技术将会不断的提升人类生活质量。在2025年到2040年期间,可能会出现一些强人工智能技术,但机率还是非常渺茫的。2040年到2100年期间,强人工智能的实现可能性会增加,但技术上会存在一些不稳定性。到2100年,强人工智能的发展将会达到一个新的高度。 而在更遥远的下一阶段,人工智能可能会向超级人工智能方向发展,即其行为和思考将超越人类。

15. 如果想学习人工智能这个专业,那我该如何开始呢?

先要学会编程,所以计算机科学这个专业会是一个很好的入门。同时数学和物理专业的思维方式也很重要,我刚刚招的一位博士就是物理专业的。


评论 (4) 只看楼主

全部评论

  • 1楼
    2016-06-02 11:24 filthyblood 只看Ta

    计算机被发明出来就是一件为人类服务的工具,无论多智能,都只是件工具,而我们制造工具,就是为了弥补自身的不足,所以,人工智能在某些方面会而且必须远远超越人类,但不可能全面超越人类。

    人工智能依靠程序和运算来“思考”,但人类从来不用“运算”来思考。这是本质的不同。

    现在所谓的人工智能在很多方面依然很愚蠢,基本称不上智能,最多是鹦鹉学舌的模式。人工智能的方向不应该是模拟人类的模式进而超越人类,而是如何更高效地辅佐人类,最终的决定权依旧在于人类。

    [0] |
  • 2楼
    2016-06-02 20:04 南海墨 只看Ta
    引用@filthyblood 的话:算机被发明出来就是一件为人类服务的工具,无论多智能,都只是件工具,而我们制造工具,就是为了弥补自身的不足,所以,人工智能在某些方面会而且必须远远超越人类,但不可能全面超越人类。人工智能依靠程序和运算...

    我的态度和你不一样,我觉得人工智能取代人类是自然而然的。因为人工智能本身就是人类进化的方向

    来自果壳网移动版
    [0] |
  • 3楼
    2016-06-02 20:59 lukefury 只看Ta

    强AI的出现需要系统能实现自由进化,人类写不出强AI的代码。

    [0] |
  • 4楼
    2016-06-02 21:19 爱抚 只看Ta

    1L3L,别忘了互联网就是一个标准的神经元式的大脑,而且能实现自增长,不增长也够用了. 不要企图用生物模式预测AI未来的运作模式. 它的基础很强大,前途也很可观. 甚至难以预测. 连顶尖的程序设计师和科学家都无法做出准确的预测,尔等如此断言,多少显得武断.

    我看好AI的未来,也不太担心被AI灭掉

    [0] |

最新帖子

关于我们 加入果壳 媒体报道 帮助中心 果壳活动 家长监控 免责声明 联系我们 移动版 移动应用

©果壳网    京ICP证100430号    京网文[2018] 6282-492号    新出发京零字第朝200003号     京公网安备11010502007133号

违法和不良信息举报邮箱:jubao@guokr.com    举报电话:18612934101    网上有害信息举报专区    儿童色情信息举报专区