隐藏在人工智能AI招聘工具背后的问题,值得我们HR思考!

2018年03月18日 14719次浏览
编者注:这个主要是聊到AI招聘工具可以帮助消除偏见,但这背后并不是一蹴而就的,需要不断努力,举了两个小栗子:AI面部识别会把黑人的犯罪倾向增加,而白人就会低。还有就是高质量的程序员喜欢看漫画。。。当然这个关联性是否真的,都是AI带来的问题。

推荐阅读下,蛮有意思的。

作者:Ben Whitford  

土耳其语没有性别代词:“o”这个词在英语中是由“他”、“她”或“它”完成的。这种语言怪癖对机器翻译工具提出了挑战:将土耳其语翻译成英语,像谷歌翻译这样的工具必须猜测其主体的性别——在这个过程中,往往会暴露出其固有的偏见。

例如,谷歌将土耳其语“o bir doktor”翻译成“他是一名医生”和“o bir hem?”她是个护士。谷歌的算法同样认为,总统或企业家是男性,但保姆、教师或妓女是女性。即使是性格特征也会与假定的性别一致:一个努力工作的人被认为是男性,而懒惰的人

尊敬的用户:
当前内容已经归档,暂时无法访问!