当前位置:首页 > 新闻资讯 > IT业界 > 新闻
AI性别歧视?人类社会的真实再现
  • 2018/10/23 13:51:59
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:电脑报
  • 作者:
【电脑报在线】近日,有消息爆出亚马逊的AI机器人在筛选应聘者时有明显的性别倾向,似乎并不喜欢女性应聘者。于是乎,一石激起千层浪,关于AI性别歧视的话题再次展开,亚马逊AI机器人刺到了社会最敏感的痛点。


AI性别歧视?人类社会的真实再现

 

近日,有消息爆出亚马逊的AI机器人在筛选应聘者时有明显的性别倾向,似乎并不喜欢女性应聘者。于是乎,一石激起千层浪,关于AI性别歧视的话题再次展开,亚马逊AI机器人刺到了社会最敏感的痛点。

 

早在2014年,为了在堆积如山的求职简历中尽快的筛选出符合亚马逊公司标准的应聘人员,亚马逊公司便开始尝试用人工智能筛选简历,实现人才搜索的智能化,帮助公司挑选出合适的员工。通过科研人员系统的训练,亚马逊的AI机器人为HR节省了大量时间的同时,竟然学会了重男轻女的陋习。

 

AI歧视女性的现状已经不是个例。

 

我们是已经进入人工智能的世界中,但是我们不得不承认的是,我们依旧处于弱人工智能,甚至在弱人工智能中都属于比较低级的阶段。亚马逊的所谓的人工智能招聘系统,其实就是一个算法的带入程序,这样低等级的人工智能在没有“诱导”的情况下是不能主动做出歧视女性这一行为的。然而,人工智能在进行性别选择时,出现重男轻女的现象已经不是个例了。

 

2016年,微软和波士顿的研究人员发现, 谷歌新闻文字的软件再次出现了人类的性别偏见。当研究人员对软件进行提问,“如果男性是程序员那么女性是?”它的回答是“家庭主妇”。

 

2017年,在Google身上同样发生了类似的事情,Quartz 报道了一篇题为《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,获得的结果中大部分都是白人男性。为什么,AI总是将女性与家庭主妇联系在一起,将男人与医生联系在一起,因为AI“智能”的认为女性就“该”站在厨房呆在家里。

 

 

为什么会出现AI歧视女性这一现象?

 

AI的算法学习导致了其在性别的选择上出现了重男轻女的现象,其问题的根源还是出在对人工智能进行训练的人类身上。如果你一直处于一个男人是一家之主的家庭里,那么你自然的会认为女人就该为男人服务,就该在家里操持家务。AI的算法学习也是一样的,用于训练人工智能的教学资料正是人类建立的数据库,而在这个数据库中,关于性别歧视的陋习不仅存在,而且还会被人工智能放大进行学习,从而”理解外面的世界”。也就是说人工智能自己本身是一个纯洁无邪的小孩,它没有能力也不会自主的学会歧视。但如果给小孩上课的老师—亚马逊招聘的数据库里自身出现了对女性的歧视,那么这些歧视就会被单纯的人工智能学会。或者说,人工智能是从人类社会中,学会了人类对女性的歧视。

 

人类文明进入到19世纪的时候,才出现了女权意识的萌芽,特别是在第二次工业革命之后,通过“美国芝加哥劳动妇女罢工游行”等运动,才渐渐使得女性的社会地位提高。但是在21世纪的今日,性别歧视的恶习在人类社会的各个角落依然频频的出现。在如今的印度,女人根本就没有社会地位这一概念, 如果家庭里有女婴的诞生会被认为是不详的征兆,甚至被活活溺死;在中东地区女人是不可以在公众场所工作和出行的。这些歧视女性的恶习在当今社会依旧不胜枚举。

 

在现阶段的人工智能学习中,还没有办法主动地去判断一个事物的好坏,当然更加不具备情感的选择或故意施加歧视的能力。事实上,“歧视”一词在人工智能的学习中本身就不是一个有特殊意义的词汇。对于人工智能来讲,这个词汇与其他学习到的所有词汇是一样的。现在的人工智能机器只是一个机械的输入和输出,很诚实的反映了数据库乃至人类社会中真实存在的歧视。

 

 

遇到AI歧视怎么办?

 

人工智能时代已经到来,很多大公司都会使用人工智能进行招聘。所以我们每个人在不久的将来肯定会与AI招聘进行直接接触,如果我们在AI应聘的过程中遇到了性别歧视该怎样有效的解决?

大公司只是将AI招聘系统作为一种辅助的工具,并且大多数情况下我们是通过与AI对话来进行“面试”。所以能把握的事就是在与AI的对话过程中全程录音,如果AI有不恰当的“言论”,我们有证据向用人公司进行投诉。

 

 

AI性别歧视到底何去何从?

 

尽管亚马逊AI招聘的项目被关停,Google也及时的纠正了算法,但是谁也不敢保证AI的性别歧视将再也不会出现。因为人类社会的性别歧视更加严重,重男轻女的恶习弥漫在各行各业,令人窒息。

AI本身就处在一个中立的立场,虽然AI本身并不知道中立这一词的感情色彩。所以,为了尽可能的避免AI性别歧视的再次出现,我们需要训练人工智能的科研人员用更好的,尽可能减少歧视的数据库去训练人工智能。

本文出自2018-10-22出版的《电脑报》2018年第41期 A.新闻周刊
(网站编辑:zoey)


我来说两句(0人参与讨论)
发表给力评论!看新闻,说两句。
匿名 ctrl+enter快捷提交
读者活动
48小时点击排行
论坛热帖