5 种展示人工智能偏见的算法

2025年4月14日 | 阅读时长 6 分钟

引言

关于我们社会的一个不幸的事实是,偏见根植于人性。人类可能有意地偏见某些种族或宗教少数群体、性别或民族成员,也可能由于从小受到的社会条件、家庭历史和社会影响而无意中产生偏见。无论出于何种原因,人们都存在偏见,而这些偏见现在被传递给由人类开发的人工智能系统。

5 Algorithms that Demonstrate Artificial Intelligence Bias

在包含人类偏见、历史不平等或基于人类性别、种族、民族、性取向等各种判断指标的数据上训练的人工智能系统可能会将这些偏见从人类继承到人工智能偏见中。例如,亚马逊发现其人工智能招聘算法对女性存在偏见。该算法的基础是过去十年中提交的简历数量和雇佣的候选人数量。由于大多数候选人是男性,该算法倾向于男性而非女性。这个例子表明人工智能中的偏见会产生重大的负面影响。这种偏见损害了受偏见群体充分参与世界并为经济平等做出贡献的能力。而且,虽然它损害了算法偏向的群体,但它也损害了人类对人工智能算法公正运作的信任。它降低了人工智能应用于商业和工业所有方面的可能性,因为它助长了不信任和个人可能面临歧视的担忧。因此,在将这些人工智能算法投放市场之前,开发它们的技术行业必须确保它们没有偏见。企业可以通过促进人工智能偏见研究来努力在未来消除偏见。然而,在此之前,我们必须首先了解各种算法所展示的人工智能偏见的例子。因此,让我们研究它们,以便了解未来算法不应该做什么。

什么是人工智能偏见

人工智能 (AI) 偏见,也称为机器学习偏见或算法偏见,是指由于人类偏见扭曲了原始训练数据或 AI 算法,从而可能产生有害结果,导致偏见结果的现象。

未解决的人工智能偏见可能对组织的绩效以及人们参与经济和社会的能力产生负面影响。偏见会降低人工智能的准确性,从而降低其潜力。

产生扭曲结果的系统不太可能为企业带来利润。此外,人工智能偏见造成的丑闻可能会加剧女性、有色人种、残疾人、LGBTQ 群体和其他边缘化群体之间的不信任。

人工智能模型吸收了社会偏见,这些偏见可能悄悄地嵌入到它们训练的庞大数据中。在招聘、警务、信用评分等用例中,反映社会不平等的历史偏见数据收集可能对历史上边缘化的群体造成伤害。

哪些算法展示了人工智能偏见?

以下是一些展示人工智能偏见的算法。值得注意的是,这种偏见总是针对少数群体,例如黑人、亚洲人、女性等。

  1. COMPAS 算法对黑人存在偏见
    COMPAS,即惩教罪犯管理分析替代制裁系统,是一种由 Northpointe 开发的人工智能算法,在美国用于预测哪些罪犯未来更有可能再次犯罪。法官根据这些预测,包括他们的刑期和保释金额,对这些罪犯的未来做出决定。普利策奖获奖的非营利新闻组织 ProPublica 发现 COMPAS 存在偏见。研究发现,黑人罪犯未来再次犯罪的可能性是他们初次犯罪可能性的两倍。另一方面,白人罪犯被认为风险相对较低。即使在暴力犯罪案件中,黑人罪犯被错误地归类为更危险的情况也几乎是白人罪犯的两倍。这一发现表明 COMPAS 不知何故学会了常见的人类偏见,即黑人平均犯罪率远高于白人,而且未来也更有可能再次犯罪。
  2. PredPol 算法对少数民族存在偏见
    PredPol,也称为预测性警务,是一种人工智能算法,旨在利用警方收集的犯罪数据(例如逮捕次数、特定区域的报警电话数量等)预测未来可能发生犯罪的地点。该算法已在美国加利福尼亚州、佛罗里达州、马里兰州和其他州的警察部门使用,其目标是通过将犯罪预测委托给人工智能来减少部门内的人类偏见。然而,美国研究人员发现 PredPol 存在偏见,无论犯罪率如何,都会将警察派往拥有大量少数民族的社区。这是由于 PredPol 中存在一个反馈循环,该算法预测在警方报告较多的地区会发生更多犯罪。然而,可能是更高密度的警察——可能由于现有的人类偏见——导致这些地区的警方报告数量增加。此外,这导致算法中存在偏见,从而导致更多警察被派往这些地区。
  3. 亚马逊招聘引擎对女性存在偏见
    亚马逊招聘引擎是一种人工智能算法,旨在分析申请亚马逊的求职者的简历,并确定哪些人将获得进一步面试和筛选的资格。亚马逊创建该算法是为了自动化他们寻找人才的过程,并消除所有人类招聘人员中固有的偏见。然而,事实证明亚马逊的算法在招聘过程中对女性存在偏见。这可能是因为招聘算法通过研究亚马逊在过去十年中对提交的简历的回复来训练,以分析候选人的简历。然而,之前分析这些简历的人类招聘人员大多是男性,对女性候选人存在固有的偏见,这种偏见被传递给了人工智能算法。当亚马逊研究该算法时,他们发现它会自动对包含“女性”等词语的简历打分,并降低两所女子学院毕业生的分数。因此,亚马逊放弃了该算法,不再使用它来评估招聘候选人。
  4. 谷歌相册算法对黑人存在偏见
    谷歌相册包含一个标签功能,可以根据图片中显示的内容为照片添加标签。这是通过卷积神经网络 (CNN) 实现的,该网络通过监督学习在数百万张图像上进行训练后,利用图像识别来标记照片。当一名黑人软件开发人员和他朋友的照片被谷歌分类为大猩猩时,该算法被发现存在种族歧视。谷歌表示他们对此感到震惊和真诚的歉意,并承诺将来会纠正。然而,直到两年后,谷歌才从卷积神经网络的词汇中删除了大猩猩和其他类型的猴子,确保没有任何照片被识别为这些物种。谷歌相册对所有与猴子相关的搜索词(包括大猩猩、黑猩猩和人猿)返回“无结果”。然而,这只是一个临时解决方案,因为它没有解决根本问题。图像标注技术仍然不完善,即使最复杂的算法也完全依赖于它们的训练,无法检测现实生活中的特殊情况。
  5. IDEMIA 的面部识别算法对黑人女性存在偏见
    IDEMIA 是一家为美国、澳大利亚、法国等地的警察部队开发面部识别算法的公司。在美国,该面部识别系统分析约 3000 万张大头照,以确定个人是否是罪犯或对社会的威胁。美国国家标准与技术研究院发现,与白人女性甚至黑人和白人男性相比,该算法显著错误识别黑人女性。根据美国国家标准与技术研究院的数据,Idemia 的算法错误匹配白人女性脸部的错误率为万分之一,而错误匹配黑人女性脸部的错误率为千分之一。这意味着黑人女性的错误匹配率是白人女性的 10 倍,这是一个很大的数字!一般来说,面部识别算法的错误匹配率达到万分之一被认为是可接受的,但黑人女性的错误匹配率明显更高。Idemia 声称,经过 NIST 测试的算法尚未商业发布,并且随着种族之间身体差异的出现,他们的算法正在以不同的速度改进。