天了噜!
25518人加入此小组
发新帖

面对AI,“好好说话”很重要

读图模式

程序员总喜欢说,机器是中立的。

而一项普林斯顿的研究发现,机器会沾染上人类的偏见,它们并不中立。

如果训练AI学习人类语言,那么它们也会学到语言中的偏见,普林斯顿大学信息技术政策中心的Aylin Caliskan及合作者的研究证明了这点,研究发表在4月的《Science》上。

举个极端的例子,微软在去年推出的AI,Tay,被网友调戏了一天,就成了满嘴歧视的纳粹。

Tay的Twitter主页截图/图片来源:twitter

“希特勒什么都没做错!”

图片来源:twitter

“我们要修建城墙,而墨西哥会为此付钱。”

图片来源:twitter

其实,Tay也是会好好说话的,她也说过“人类超级酷”:

图片来源:twitter

我们也不能怪Tay学坏了,毕竟她只是个AI,问题在于她学习的那些语言上。

抛开歧视言论不谈,我们日常使用的语言也是包含偏见的。比如说,开头的“程序员”三个字,虽然这个词没有性别含义,但你的第一反应会认为那是男性。

IT男/图片来源:搜狐

前面提到的Caliskan通过定量研究,证明AI学到的语言确实存在偏见。

他们的方法是计算词语的关联程度,词语靠得越近(比如出现在同一句话中)关联度更强,比如说“程序员”更靠近“他”,“护士”更靠近“她”。

对比了网上的大数据和美国劳动局的数据,他们发现,相关性高达90%。

x轴为职业中的女性比例,y轴为职业词和女性的关联强度,可以看出一个职业中的女性比例越高,这个职业词语就越容易和女性产生关联/图片来源:Caliskan et al

虽然“程序员”这个词本身不包含性别含义,但偏见都隐藏在了语境中。这让Caliskan好奇,如果用其他语言进行研究,结果会不会更有趣?

比如说德语,每个名词都有性别,德国人说话的时候,提到桌子会因为“桌子”(der Tisch)一词为阳性,用“他”(er)来指代,如下图:

从上到下为阳性/他、阴性/她、中性/它,对,小女孩是中性/图片来源:http://germanlanguagelessons.blogspot.jp

那么,德语的性别偏见会更严重还是不那么严重?

在语言中强调性别会不会影响思维?如果你看过《降临》,可能会记得“萨丕尔-沃尔夫假说”:语言决定思维(强假说)/语言影响思维(弱假说)。

这些都是研究者们下一步要解决的问题。

《降临》剧照/图片来源:豆瓣

至于如何避免语言中的偏见,研究的合作者Joanna Bryson建议,我们在使用语言时避免过分性别化,比如说提到程序员时,就算只有一个人,也用“他们”,而不用“他”。

尽管我们人类知道,程序员也有女的,护士也有男的,但是AI并没有我们想象的那么智能,我们告诉它们什么,它们就重复什么。

所以,AI开发者在训练AI学习语言时,“好好说话”是很重要的,也就是说,对数据进行处理,减少偏见。

图片来源:awahid.net

在科学家们搞清楚偏见是如何形成前,我们拥有的只能是不完美的AI,所以,要带着批判精神对待AI,不要被算法绑架。

来源:http://www.popsci.com/artificial-intelligence-learning-bias-langauge

收藏 |
发表评论 0

评论 (7) 只看楼主

热门评论

  • 2017-07-10 16:00 VladimirKuzen 只看Ta

    整天说偏见,却连偏见的成因都没搞清楚,于是拿着道德主义的大棒把所有人打晕,然后用平权主义的钢针把所有人的嘴缝合,然后只让人们高喊平等的口号,却对基本的事实,现状,条件熟视无睹。这和法西斯有啥区别?

    [13] |
  • 2017-07-12 11:40 mark_w 只看Ta

    在我看来这正是AI 的“中立”之处:它对所有输入一视同仁,以令人难堪的诚实反映了网民观念的平均值。

    [3] |
  • 2017-07-12 11:18 聪明的笨ZY 只看Ta

    偏见是一个负面词语,希望这些科学家用词也谨慎点。

    [3] |

全部评论

  • 1楼
    2017-07-10 16:00 VladimirKuzen 只看Ta

    整天说偏见,却连偏见的成因都没搞清楚,于是拿着道德主义的大棒把所有人打晕,然后用平权主义的钢针把所有人的嘴缝合,然后只让人们高喊平等的口号,却对基本的事实,现状,条件熟视无睹。这和法西斯有啥区别?

    [13] |
  • 2楼
    2017-07-12 11:18 聪明的笨ZY 只看Ta

    偏见是一个负面词语,希望这些科学家用词也谨慎点。

    [3] |
  • 3楼
    2017-07-12 11:40 mark_w 只看Ta

    在我看来这正是AI 的“中立”之处:它对所有输入一视同仁,以令人难堪的诚实反映了网民观念的平均值。

    [3] |
  • 4楼
    2017-07-12 13:59 迷夜漫途 只看Ta

    我只想问,果壳家的那只AI是谁教它说话的???

    还能教会它好好说话不????

    [1] |
  • 5楼
    2017-07-13 00:44 馒头老妖 有机化学博士,法学学士 只看Ta

    觉得【程序员】这个并不是偏见啊,客观事实就是这样,为什么要否认呢?

    [0] |
  • 6楼
    2017-07-13 00:44 馒头老妖 有机化学博士,法学学士 只看Ta
    引用@迷夜漫途 的话:我只想问,果壳家的那只AI是谁教它说话的???还能教会它好好说话不????

    哈哈哈

    [0] |
  • 7楼
    2017-07-16 06:06 金木_犀 只看Ta

    与程序员同样地:

    当你听到“护士”时 是否会无意识地觉得我们 都是女生♀呢

    [0] |

小组最新帖子

关于我们 加入果壳 媒体报道 帮助中心 果壳活动 免责声明 联系我们 移动版 移动应用

©2017果壳网    京ICP证100430号    京网文[2015] 0609-239号    新出发京零字东150005号     京公网安备11010502007133号

违法和不良信息举报邮箱:jubao@guokr.com    举报电话:13488674940