哥本哈根大学计算机科学家的研究表明,人们通常用描述行为的词来描述男性,用描述外貌的形容词来描述女性。

这一研究通过机器学习分析了350万本书的文本数据。

“美丽”和“性感”等是常用来形容女性的两个词,而“正义”、“理性”和“勇敢”等则常被用来形容男性。

哥本哈根大学的一位计算机科学家和她的美国同事一起,分析了不计其数的文学作品,希望找出人们形容男性和女性时用语的区别。这些书都是在1990年到2008年之间出版的英文作品,体裁包含了小说和专业学术作品等。

分别形容男性和女性频率最高11个正面和负面的词汇

“我们可以清楚地看到,人们描述女性时使用的“外观形容词”比描述男性时使用得更多,在统计层面上我们已经确认了这种普遍的观点。”计算机科学家和助理教授Isabelle Augenstein说。

研究人员提取了与性别名词(例如“女儿”和“空姐”)相关的所有形容词和动词,比如“性感空姐”或“女孩八卦”这种组合。然后,他们分析了这些词是否具有正面,负面或中性倾向,最后分析了这些词应该被分配到哪些类别。

结果表明,有关外表的负面描述的使用频率中,女性是男性的五倍。有关外表的正面和中性形容词的使用频率中,女性是男性的两倍,而作者们通常用有关行为和其他特点的形容词描述男性。

技术的发展是研究进行必不可少的条件。以前,关注性别偏见现象的人主要是语言学家,且只使用少量的研究数据。但是,现在结合机器学习算法,计算机科学家能够利用大量数据来分析——这项研究分析了110亿个词。

Augenstein指出,虽然很多书都是在几十年前出版的,但它们仍然扮演着重要角色。被用于人工智能机器分析的文本数据都来源于网络,比如智能手机识别的声音以及Google提供的关键字提示。

photo by:Sergey Nivens

“算法所做的是识别词语,每次它们观察一个词语时,都视其为“正确的”(true)。如果某些词语带有偏见性的含义,结果也会显示“偏差”。系统收集人类的语言,也包括性别刻板印象和偏见类的词语,”Augenstein说。

“如果我们使用不同的词语形容男性和女性,比如在雇佣员工时,那么当公司使用IT系统对求职者进行筛选时,这将对选人结果产生影响。”

—— Augenstein

随着人工智能和语言技术的发展,人们应该意识到许多文本是带有性别偏见的。Augenstein说:“接下来,我们可以尝试在开发机器学习模型时考虑到这一点,方法是使用较少偏见的文本、强制模型忽略此类文本,或偏见词汇,这三件事都是可能的。“

研究人员指出,这项研究有其局限性,因为它没有考虑编写文本的人,以及词汇偏见程度是否有差别。此外,它没有区分文学流派,比如爱情小说和学术文学之间是否有不同,所以这项研究未完待续。

文字及图片来源:;utm_medium=email&utm_source=Main%20list%20-%20Live%20data-All_Users&fbclid=IwAR2cTbDuxzjrzOFBvdGLEA16IcMFlapSXy6CauPGCoDicsBFj6vmKQBKxMI;Colorbox

Website 官网:

Wechat Official 微信公众号: ambkina

Sina Weibo 新浪微博: 丹麦驻华大使馆

LinkedIn 领英: DKinChina

Facebook: AmbKina

Twitter: DKinChina