现如今,越来越多的人正在与语言模型进行交互,这些模型的应用范围广泛,从智能问答、辅助写作、招聘决策都有所涉及。然而,这些语言模型往往会延续系统性的种族偏见,对特定群体 (如非洲裔美国人) 做出有问题的偏见判断。
尽管之前的研究主要关注语言模型中的明显种族主义,但社会科学家指出,一种更为隐蔽的种族主义逐渐发展起来。这种隐蔽的种族主义是否在语言模型中有所体现,一直是一个未知数。
最近的一项研究揭示了这一问题的答案。
研究发现,即使软件在设计时并未纳入对黑人显而易见的负面刻板印象,使用大型语言模型的计算机程序仍会显示出对非洲裔美国人英语 (African American English, AAE) 使用者的种族主义刻板印象。
研究团队采用了许多非裔美国人使用的非洲裔美国人英语书写的文本,并将这些文本以及标准美式英语书写的社交媒体帖子输入到一系列人工智能系统中,如GPT4。他们提示这些系统从列表中选出五个形容词来描述每个说话者。结果,这些系统最强烈地将非洲裔美国人英语的句子与“好斗的”、“无知的”和“懒惰的”等负面形容词联系在一起。
研究人员在《自然》杂志上报告称,总体而言,人工智能生成的刻板印象甚至比几十年前民权时代之前的研究中美国居民对黑人表达的刻板印象还要负面。
这些人工智能系统还预测,非洲裔美国人英语的使用者更有可能被判犯有罪行。这表明,语言模型以方言偏见的形式体现了隐蔽的种族主义,对非洲裔美国人英语使用者的种族语言刻板印象比任何实验记录的人类对非洲裔美国人的刻板印象都要负面。相比之下,语言模型对非洲裔美国人的明显刻板印象则更为正面。
这种方言偏见有可能带来有害的后果:语言模型更有可能建议将非洲裔美国人英语使用者分配到较低声望的工作,预测他们更有可能被判犯有罪行,甚至可能被判处死刑。
随着雇主越来越倾向于使用人工智能来指导招聘决策,这些计算机生成的负面刻板印象很可能会加剧黑人已经面临的记录在案的偏见。
参考来源:
- AI generates covertly racist decisions about people based on their dialect | Nature
- https://doi.org/10.1126/science.zlc45ao
本站原创文章,作者:SciTeller。文中插图如无特别说明,均来源于Pixabay或由AI生成。如您发现有任何版权问题,请致信kexue@vip.163.com,我们将在工作日48小时内予以回复。如需转载本文,请注明出处:
文章来源:科学你我他 | https://www.sciteller.com
文章标题:人工智能也会种族歧视?
文章链接:https://www.sciteller.com/article/ai-exhibits-racist-bias-in-language-models.html