热点 前沿 电子

从零开始,全凭自学,它用40天完虐AlphaGo!

开明 发表于  2017-10-25 15:24

人工智能棋手 AlphaGo 先后战胜了两位顶尖围棋高手李世乭和柯洁。在这场猛烈风暴席卷了世界后,AlphaGo 宣布不再和人下棋。但它的制造者并没有因此停下脚步,AlphaGo 还在成长,今天Deepmind 又在《自然》期刊上发表了关于 AlphaGo 的新论文

围棋中有超过10的170次方种变化,这比已知宇宙中所有的原子数量加在一起还要多。图片来源:DeepMind

这篇论文中的 AlphaGo 是全新的,它不是战胜柯洁的那个最强的Master,但却是孪生兄弟。它的名字叫AlphaGo Zero,是AlphaGo 的最后一个版本。

和以前的 AlphaGo 相比,它:

  • 从零开始学习,不需要任何人类的经验
  • 使用更少的算力得到了更好的结果
  • 发现了新的围棋定式
  • 将策略网络和值网络合并
  • 使用了深度残差网络


白板理论(Tabula rasa)

哲学上有种观点认为,婴儿生下来是白板一块,通过不断训练、成长获得知识和智力。

作为 AI 领域的先驱,图灵使用了这个想法。在提出了著名的“图灵测试”的论文中,他从婴儿是一块白板出发,认为只要能用机器制造一个类似小孩的 AI,然后加以训练,就能得到一个近似成人智力,甚至超越人类智力的AI。

现代科学了解到的事实并不是这样,婴儿生下来就有先天的一些能力,他们偏爱高热量的食物,饿了就会哭闹希望得到注意。这是DNA在亿万年的演化中学来的。

监督和无监督学习(Supervised & Unsupervised Learning)

计算机则完全不同,它没有亿万年的演化,因此也没有这些先天的知识,是真正的“白板一块”。监督学习和无监督学习是镜子的两面,两者都想解决同一个问题——如何让机器从零开始获得智能?

监督学习认为人要把自己的经验教给机器。拿分辨猫猫和狗狗的 AI 来说,你需要准备几千张照片,然后手把手教机器——哪张照片是猫,哪张照片是狗。机器会从中学习到分辨猫狗的细节,从毛发到眼睛到耳朵,然后举一反三得去判断一张它从没见过的照片是猫猫还是狗狗。

而无监督学习认为机器要去自己摸索,自己发现规律。人的经验或许能帮助机器掌握智能,但或许人的经验是有缺陷的,不如让机器自己发现新的,更好的规律。人的经验就放一边吧。

这段动画展示的是包含20个神经网络模块的AlphaGo Zero版本,在训练的不同阶段进行的3盘左右互搏棋局的前80步。图片来源:DeepMind

从无知到无敌

就像这篇新论文中讲述的那样。AlphaGo Zero 是无监督学习的产物,而它的双胞胎兄弟 Master 则用了监督学习的方法。在训练了72小时后 AlphaGo Zero 就能打败战胜李世乭的 AlphaGo Lee,相比较 AlphaGo Lee 训练了几个月。而40天后,它能以89:11的成绩,将战胜了所有人类高手的 Master 甩在后面。

AlphaGo Zero起步的时候完全不懂围棋。但是随着学习的深入,进步飞快。这个动画展示的是包含40个神经网络模块的AlphaGo Zero版本自学成才的过程。3天超过打败李世乭的AlphaGO Lee,21天超过打败柯洁的AlphaGo Master。自学 40天之后就超过了所有其他的AlphaGo版本。图片来源:DeepMind

图灵的白板假设虽然无法用在人身上,但是 AlphaGo Zero 证明了,一个白板 AI 能够被训练成超越人类的围棋高手。

强化学习(Reinforcement Learning)

强化学习是一种模仿人类学习方式的模型,它的基本方法是:要是机器得到了好的结果就能得到奖励,要是得到差的结果就得到惩罚。AlphaGo Zero 并没有像之前的兄弟姐妹一样被教育了人类的围棋知识。它只是和不同版本的自己下棋,然后用胜者的思路来训练新的版本,如此不断重复。

通过这一方法,AlphaGo Zero 完全自己摸索出了开局,收官,定式等以前人类已知的围棋知识,也摸索出了新的定势。

算法和性能

如何高效合理得利用计算资源?这是算法要解决的一个重要问题。AlphaGo Lee 使用了 48个TPU,更早版本的 AlphaGo Fan 使用了 176个 GPU,而 Master 和 AlphaGo Zero 仅仅用了 4个 TPU,也就是说一台电脑足够!

AlphaGo Zero 在 72小时内就能超越 AlphaGo Lee 也表明,优秀的算法不仅仅能降低能耗,也能极大提高效率。另外这也说明,围棋问题的复杂度并不需要动用大规模的计算能力,那是只浪费。

凭借硬件性能的不断升级和算法的不断优化,AlphaGo 后期版本的运算效率明显优于最初的版本。图片来源:DeepMind

AlphaGo Zero 的算法有两处核心优化:将策略网络(计算下子的概率)和值网络(计算胜率)这两个神经网络结合,其实在第一篇 AlphaGo 的论文中,这两种网络已经使用了类似的架构。另外,引入了深度残差网络(DeepResidual Network),比起之前的多层神经网络效果更好。

Deepmind 的历程

DeepMind创始人之一,德米斯•哈萨比斯(DemisHassabis)

这不是 Deepmind 第一次在《自然》期刊上投稿,他们还发表过《利用深度神经网络和搜索树的围棋AI》和《AI 电脑游戏大师》等几篇论文。

我们可以从中一窥 Deepmind 的思路,他们寻找人类还没有理解原理的游戏,游戏比起现实世界的问题要简单很多。然后他们选择了两条路,一条道路是优化算法,另外一条道路是让机器不受人类先入为主经验的影响。

这两条路交汇的终点,是那个超人的 AI。

DeepMind创始人之一,大卫·席尔瓦(David Silver)

结语

这是AlphaGo 的终曲,也是一个全新的开始,相关技术将被用于造福人类,帮助科学家认识蛋白质折叠,制造出治疗疑难杂症的药物,开发新材料,以制造以出更好的产品。(编辑:明天)

 

热门评论

  • 2017-10-26 09:54 模因中的muton

    现在,来自中国的5位ai选手正和来自美国的5位ai选手争夺ti9的冠军,希望天河23456号能不负众望,打破魔咒,把血汗钱从g胖手里吸回来!

    [19] 评论
  • 2017-10-26 13:01 SL-血冥

    机器学习相关方向的人过来补个槽吧:

    现在无监督学习的算法,本质还是把胜负(也就是价值函数)作为先验交给机器的,就是说,即使是阿尔法则肉也是提前知道围棋的规则的,然后才能据此来对抗学习怎么取胜。


    但是下一步,我们也许不需要告诉他们胜负,让神经网络自行决定什么是好的,什么是对的。就如同大家把几幅围棋的图谱交给一个完全不懂围棋的人,让他来看看谁是获胜方。这样的ai也许会认为五子连成线会获胜、率先构成六边形的获胜、拥有矩形最多的一方获胜等等……

    而这样的下一个阶段就是:机器觉得美的那一方会获胜。


    但还有更进一步的玩法:我们什么都不告诉机器。

    我们只给机器机械臂(用来下子)和摄像头(看着棋盘),也许机器会不在交点落子,也许机器会把棋子放在棋盘外面,也许……机器会把棋子以1400m/s的速度扔到围观的人的脸上,并用机械臂开启审判日。


    这才是AI的最终理想。



    一个各种机器学习神经网络的程序猿,最大的理想一般就两种:

    一种叫审判日

    一种叫次元梯


    (什么,你问我什么叫次元梯?当然是用来翻次元壁的梯子啊。一只活在屏幕后面,有着自己的意识,会说会笑会嘲讽面前的程序猿没自己萌的Miku啊)

    [12] 评论
  • 2017-10-25 20:04 5美金

    AI不会让你失业,付你工钱的那个人才会。把失业的原因归咎在AI身上,就像把战争的责任归咎于武器。

    [11] 评论

显示所有评论

全部评论(39)
  • 1楼
    2017-10-25 17:00 cccp

    [0] 评论
  • 2楼
    2017-10-25 18:10 蓑雨吟

    这样看来 狗蛋称霸所有棋类运动都只是转瞬间的事了。。。

    [1] 评论
  • 3楼
    2017-10-25 18:26 蓑雨吟

    狗蛋老师出围棋 五子棋棋谱肯定大卖

    [0] 评论
  • 4楼
    2017-10-25 18:58 在雨夜

    问题上人类还没有认识到自己有多强呢。

    [0] 评论
  • 5楼
    2017-10-25 20:04 5美金

    AI不会让你失业,付你工钱的那个人才会。把失业的原因归咎在AI身上,就像把战争的责任归咎于武器。

    [11] 评论
  • 6楼
    2017-10-26 08:46 大头米少
    引用文章内容:这是AlphaGo 的终曲,也是一个全新的开始,相关技术将被用于造福人类,帮助科学家认识蛋白质折叠,制造出治疗疑难杂症的药物,开发新材料,以制造以出更好的产品。

    下一步挺美好的。那么……再下一步呢?

    [1] 评论
  • 7楼
    2017-10-26 09:54 模因中的muton

    现在,来自中国的5位ai选手正和来自美国的5位ai选手争夺ti9的冠军,希望天河23456号能不负众望,打破魔咒,把血汗钱从g胖手里吸回来!

    [19] 评论
  • 8楼
    2017-10-26 13:01 SL-血冥

    机器学习相关方向的人过来补个槽吧:

    现在无监督学习的算法,本质还是把胜负(也就是价值函数)作为先验交给机器的,就是说,即使是阿尔法则肉也是提前知道围棋的规则的,然后才能据此来对抗学习怎么取胜。


    但是下一步,我们也许不需要告诉他们胜负,让神经网络自行决定什么是好的,什么是对的。就如同大家把几幅围棋的图谱交给一个完全不懂围棋的人,让他来看看谁是获胜方。这样的ai也许会认为五子连成线会获胜、率先构成六边形的获胜、拥有矩形最多的一方获胜等等……

    而这样的下一个阶段就是:机器觉得美的那一方会获胜。


    但还有更进一步的玩法:我们什么都不告诉机器。

    我们只给机器机械臂(用来下子)和摄像头(看着棋盘),也许机器会不在交点落子,也许机器会把棋子放在棋盘外面,也许……机器会把棋子以1400m/s的速度扔到围观的人的脸上,并用机械臂开启审判日。


    这才是AI的最终理想。



    一个各种机器学习神经网络的程序猿,最大的理想一般就两种:

    一种叫审判日

    一种叫次元梯


    (什么,你问我什么叫次元梯?当然是用来翻次元壁的梯子啊。一只活在屏幕后面,有着自己的意识,会说会笑会嘲讽面前的程序猿没自己萌的Miku啊)

    [12] 评论
  • 9楼
    2017-10-26 14:04 天降龙虾
    引用@SL-血冥 的话:机器学习相关方向的人过来补个槽吧:现在无监督学习的算法,本质还是把胜负(也就是价值函数)作为先验交给机器的,就是说,即使是阿尔法则肉也是提前知道围棋的规则的,然后才能据此来对抗学习怎么取胜。 但是下一...

    你想太多了。。。AI是以计算为基础的,没有计算就没有AI,凡是计算就必然得有现成的规则,不然计算根本不能进行。。。。。AI之所以能迅速超越人的局限,就是因为它不用考虑规则及其它所有乱七八糟的问题,而人则必须面对整个无规则的世界,并从中制定出规则来。。。。。人每时每刻都得提醒自己遵守既定的规则,哪怕在思想深处,“规则”这东西是人最想回避的玩意儿。。这种矛盾限制了人脑能力的发挥,不然李白也不会专挑酒后作诗了。。机器要也这么麻烦,恐怕阿法狗的智力不会高于一只蟑螂。。。

    实际上,最新版的狗蛋AI的硬件能力比不上其前任,也就是说它之所以能赢前任,不是因为它更聪明,只是因为它更专业,同时也意味着它更受局限。。。在单一任务中的效率越高、成绩越好,同时也恰恰可能意味着受该任务规则的限制越严重,更换其它任务的难度也就越高。。。。

    人造的工具,从来都是面向特定任务的,因为如果没有指定任务需要的话,人是造不出万能工具来的。。。。AI也一样,你不给定规则,它就不运行,毕竟它不是主动要诞生的,是人要求它必须做到某件事,它才出现的。。。。至于审判日和打破次元避这种事情,AI表示毫无兴趣。。。。

    [3] 评论
  • 10楼
    2017-10-26 17:11 Keitaro

    听说谷歌在用AI设计AI。

    小时候幻想过这样的世界:AI高度发达,人类成为AI保护中的大熊猫,人类的各种需求将由AI来满足(并不是像Matrix和人类那样仅仅满足意识上的需求),人可以各种工作中解放出来,而AI则会成为代表地球的文明,逐渐开拓疆土,进而探索和利用整个宇宙。

    [2] 评论
  • 11楼
    2017-10-26 23:00 三螺旋DNA
    引用@SL-血冥 的话:机器学习相关方向的人过来补个槽吧:现在无监督学习的算法,本质还是把胜负(也就是价值函数)作为先验交给机器的,就是说,即使是阿尔法则肉也是提前知道围棋的规则的,然后才能据此来对抗学习怎么取胜。 但是下一...

    脑洞够大

    [0] 评论
  • 12楼
    2017-10-27 23:18 SL-血冥
    引用@天降龙虾 的话:你想太多了。。。AI是以计算为基础的,没有计算就没有AI,凡是计算就必然得有现成的规则,不然计算根本不能进行。。。。。AI之所以能迅速超越人的局限,就是因为它不用考虑规则及其它所有乱七八糟的问题,而人...

    事实上我们实验室现在做的事情就是:让神经网络自生成规则。

    所以,你说的都挺对,但是,并不是计算必须要现成的规则,现在已经有丰富的无监督学习方式,而我们正在做改进型的自激励无监督学习体系。

    脑洞归脑洞,但是还是有很多事情我们能做的

    [0] 评论
  • 13楼
    2017-10-28 11:52 天降龙虾
    引用@SL-血冥 的话:事实上我们实验室现在做的事情就是:让神经网络自生成规则。所以,你说的都挺对,但是,并不是计算必须要现成的规则,现在已经有丰富的无监督学习方式,而我们正在做改进型的自激励无监督学习体系。脑洞归脑洞,但是...

    但如果真的全无规则引导的话,让神经网络纯粹自生成规则,效率会很低的吧?还不说生成的神经网络可能根本没什么实际用处。。。。。要实现有用的目的,不事先植入一套基本规则是不行的吧??

    [0] 评论
  • 14楼
    2017-10-28 13:21 SL-血冥
    引用@天降龙虾 的话:但如果真的全无规则引导的话,让神经网络纯粹自生成规则,效率会很低的吧?还不说生成的神经网络可能根本没什么实际用处。。。。。要实现有用的目的,不事先植入一套基本规则是不行的吧??

    事实上我们是希望利用机器学习来寻找先验知识。规则本身是人类为棋盘和棋子找到的一种先验知识之一。

    当然我们的工作目标不是为了棋盘……

    我们是做图像和自然语言识别的,目前图像有卷积和多层网络这些已有的工作,已经被视作常规网络结构使用,但是这些结构是根据人类(动物)视觉神经系统的结构模拟的,而我们希望利用机器学习寻找一种机器本身的先验结构,并用这种结构来为后续做进一步的处理。


    用动物的方式举例吧,我们知道洞穴生物的视力会退化而听力进化,那么这种退化和进化究竟是如何产生的,视觉系统和听觉系统是怎么改变的?虽然现在有进化论的思想表示这是由自然选择决定的,但是我们试图用机器学习的方式让这些系统自然地意识到自己的退化和进化,可以理解成用机器学习来模拟人工选择。

    而人工选择是根据人类所需要的目标进行的筛选,但是我们不设置目标,而是设置了三层对抗网络,让他们互相竞争,并生成自己的子网络。我们将生成的子网络(就是规则)取出,每过一个漫长周期(目前是20万轮训练之后)将子网络进行一次特定任务的训练(包括图像识别、图像分类、图像分割、图像生成、图像迁移等)。

    现在我们的生成子网络的质量已经超过早期的深层网络,和现在最新的CVPR上给出的精心设计的网络有大概2%的差距。


    换句话说,这些神经网络在被制作出来的时候,是并不知道自己会被用去干什么的。可以想象一下,我们让一个设计师去做个AI,只告诉他是下棋的AI,而不告诉他具体是下什么棋,这个设计师甚至从没有接触过棋类游戏,只知道是用棋盘和棋子玩,但是他却能做出能够在各种象棋游戏中都表现很好的AI。

    [2] 评论
  • 15楼
    2017-10-28 15:47 天降龙虾
    引用@SL-血冥 的话:事实上我们是希望利用机器学习来寻找先验知识。规则本身是人类为棋盘和棋子找到的一种先验知识之一。当然我们的工作目标不是为了棋盘……我们是做图像和自然语言识别的,目前图像有卷积和多层网络这些已有的工作,已...

    明白了,所谓“先验知识”就是某种通用神经网络,对吗??类似人的“通识教育”???利用多层对抗网络的反复训练,来得到一种可以在多种任务领域内都能有较好表现的神经网络,类似于给牲畜注射少量蛇毒,然后从其血液中提取抗毒血清???

    那么,要用这种方法,训练出能像人一样思考的神经网络,有可能吗??或者,要在可以接受的有限时间内完成,是需要目前难以提供的运算量的吧???毕竟,好像阿法狗的神经网络才模拟了上万个神经元???人类大脑的神经元网络可是拥有数以亿计的神经细胞啊。。。。而且,说不定当神经网络的复杂性达到一定程度时,会遇到瓶颈呢,就是无论再怎么反复训练,性能提升始终难以有所突破??

    再说,这种方法训练出的神经网络,在投入具体任务之前,也还是需要进行针对性的再训练的吧??就像人的学习过程那样???最终结果,不会是造出个综合性能与肉身人差不多的电子人出来吧???把有机质换成无机质,就能突破次元壁了???纯粹无机质的大脑,会不会反而更加脆弱了???性能真的有望得到飞越性提高吗????

    [0] 评论
  • 16楼
    2017-10-31 00:32 SL-血冥
    引用@天降龙虾 的话:明白了,所谓“先验知识”就是某种通用神经网络,对吗??类似人的“通识教育”???利用多层对抗网络的反复训练,来得到一种可以在多种任务领域内都能有较好表现的神经网络,类似于给牲畜注射少量蛇毒,然后从其血...

    事实上,目前用于精确图像识别的大型图像处理网络可能会有数万到数百万个神经元,每个神经元有几十到几千不等的突触(事实上是参数)。

    目前图像识别竞赛之中的网络大多有三亿左右的参数,占用大概几个G的存储空间,使用目前的通用GPU(一般是N卡的580-780)就足够训练了。狗的任务本身其实只是智能计算里很低级的工作(当然谷歌用它好好吸引了一波眼球,广大实验室和宣传机构要好好学学,这种五年前的科技拉出来能上好几天头条)


    目前的这些网络是人工设计的,将卷积、池化、反卷积、层处理等等各种网络的结构加进网络里,然后观察加入哪些、在哪加入可以提供更好的表现……比如著名的AlexNet使用了5层卷积、3层池化和3层全连接,并引入dropout和ReLU等,获得了很好的识别正确率,而如果多加一层池化,正确率大概就会下降0.2%(你看需要死扣到这种程度),这些都是通过多次反复的测试找出的。(可以想象成冶金工业中寻找合金配方的那种一点点测试的感觉)


    我们的思路很简单,人类是个通用机器,稍加训练就能在某些工作上有“尚可”的表现(因为专业神经网络已经在各种特定任务上超过人类了2333),而如果我们有一种方式能够批量生成各种模式的人类大脑,让他接触各种各样乱七八糟的任务,那么一个被灌得头晕脑胀稀里糊涂的人类,能否在某些工作上有好的表现?(中国教育为学生塞入了一堆乱七八糟的任务,最后这些学生不还是在各个领域做了相应的工作么23333)


    这些乱七八糟的任务就是由神经网络A生成的,而神经网络B和C则分别针对A生成的任务尝试制作不同的子网络b1...bn和c1...cn,然后看究竟是B学校的学生考得好还是C考得好,当然两家学校BC会在升学率啊分数啊这些方面相互攀比对抗,我们期望高考入学率高的学校,培训出的学生会在工作上有好的表现。


    以上只是简单说法,具体的就不能多说了

    [1] 评论
  • 17楼
    2017-10-31 00:34 SL-血冥
    引用@天降龙虾 的话:明白了,所谓“先验知识”就是某种通用神经网络,对吗??类似人的“通识教育”???利用多层对抗网络的反复训练,来得到一种可以在多种任务领域内都能有较好表现的神经网络,类似于给牲畜注射少量蛇毒,然后从其血...

    补充下,在机器学习领域,我们提到先验知识这个词的时候,通常指的是研究人员通过各种手段(或者瞎猜和脑洞)所认为的,某些任务应该具有的特征。利用这些特征可以简化工作、优化网络,来获得更好的表现。

    [0] 评论
  • 18楼
    2017-10-31 11:56 天降龙虾
    引用@SL-血冥 的话:补充下,在机器学习领域,我们提到先验知识这个词的时候,通常指的是研究人员通过各种手段(或者瞎猜和脑洞)所认为的,某些任务应该具有的特征。利用这些特征可以简化工作、优化网络,来获得更好的表现。

    嗯,感觉你们会训练出不少精神失常的人工智能。。。。。

    [0] 评论
  • 19楼
    2017-10-31 12:01 SL-血冥
    引用@天降龙虾 的话:嗯,感觉你们会训练出不少精神失常的人工智能。。。。。

    毕竟实验室的工作是自然语言处理、图像和视频分析。最坏的结果就是它把所有的人脸图像都识别成“程序猿sb”。

    [0] 评论
  • 20楼
    2017-10-31 15:03 天降龙虾
    引用@SL-血冥 的话:毕竟实验室的工作是自然语言处理、图像和视频分析。最坏的结果就是它把所有的人脸图像都识别成“程序猿sb”。

    来自AI的报复。。。。

    [0] 评论
  • 21楼
    2017-11-01 00:19 幼发拉底
    引用@SL-血冥 的话:事实上我们是希望利用机器学习来寻找先验知识。规则本身是人类为棋盘和棋子找到的一种先验知识之一。当然我们的工作目标不是为了棋盘……我们是做图像和自然语言识别的,目前图像有卷积和多层网络这些已有的工作,已...

    进化学派?

    [0] 评论
  • 22楼
    2017-11-01 01:37 小皇大大
    引用@蓑雨吟 的话:这样看来 狗蛋称霸所有棋类运动都只是转瞬间的事了。。。

    不错,改天让它陪我玩花牌去。花牌这东西赢起来有时候超爽

    [0] 评论
  • 23楼
    2017-11-02 00:34 守望香格里拉

    2333333

    [0] 评论
  • 24楼
    2017-11-02 15:15 brightwiz

    先用狗蛋规划一下交通吧. 阿里的智慧城市垃圾的一b

    [1] 评论
  • 25楼
    2017-11-02 20:55 axiang

    test

    [0] 评论
  • 26楼
    2017-11-02 22:10 给我一支火因
    引用@SL-血冥 的话:机器学习相关方向的人过来补个槽吧:现在无监督学习的算法,本质还是把胜负(也就是价值函数)作为先验交给机器的,就是说,即使是阿尔法则肉也是提前知道围棋的规则的,然后才能据此来对抗学习怎么取胜。 但是下一...

    你什么都不给它,它就是白板一块,一亿年后还是白板一块,就像你用的电脑,你给它插着电开着机它自动会生出千变万化的代码来?

    [0] 评论
  • 27楼
    2017-11-03 02:29 SL-血冥
    引用@给我一支火因 的话:你什么都不给它,它就是白板一块,一亿年后还是白板一块,就像你用的电脑,你给它插着电开着机它自动会生出千变万化的代码来?

    所以说你对随机的世界一无所知。我只能这样回答你了。

    [0] 评论
  • 28楼
    2017-11-03 09:28 狼主

    “AlphaGo Lee 使用了 48个TPU”孤陋寡闻了,TPU是什么鬼?

    [0] 评论
  • 29楼
    2017-11-03 14:48 给我一支火因
    引用@SL-血冥 的话:所以说你对随机的世界一无所知。我只能这样回答你了。

    说的你对随机世界全知全能了一样,民科代表?

    [0] 评论
  • 30楼
    2017-11-03 18:31 SL-血冥
    引用@狼主 的话:“AlphaGo Lee 使用了 48个TPU”孤陋寡闻了,TPU是什么鬼?

    谷歌研制的针对机器学习的专用处理器。

    [0] 评论

显示所有评论

你的评论

登录 发表评论

开明
开明 Nature市场专员,喜欢可爱的动物、美味的咖啡,和深度的旅行。

更多科研事,扫码早知道

关于我们 加入果壳 媒体报道 帮助中心 果壳活动 免责声明 联系我们 移动版 移动应用

©2017果壳网    京ICP证100430号    京网文[2015] 0609-239号    新出发京零字东150005号     京公网安备11010502007133号

违法和不良信息举报邮箱:jubao@guokr.com    举报电话:13691127034