基于文献计量的算法偏见研究综述
摘要
伴随着算法技术和大数据领域的持续演进,在学术界和社会层面逐渐引起了对算法偏见问题的关注。为了系统探讨这一问题的研究动态与发展现状,在现有的文献计量学方法基础上开展深入剖析工作:基于Web of Science的核心数据库中的相关英文文献作为研究样本,在聚类分析手段下梳理该领域的基本知识框架及其前沿动态;并以此为基础构建国际社会对算法偏见主题研究的整体思路框架:进而根据现有文献分析结果分类阐述现存的各类偏见特征并探讨其成因:最终提出相应的纠偏策略建议:旨在为此类问题的研究提供理论参考与实践指导
0 引言
偏见与歧视可被视为人类社会长期以来存在的一个问题,在法律体系中被定义为基于收入、教育、性别或种族等特定特征对个人或群体施加的不公平或不平等待遇。即为数字歧视的一种情况,这种情况发生在当这些不公平或不平等待遇是由智能代理或其他基于人工智能系统的自动决策所导致的时候[1]。
该系统旨在模仿人类的反应模式和思维方式,并通过设计相应的策略来应对不同情况以满足用户的个性化需求。Bradley[2]基于人工智能的基本定义进一步指出:如果智能算法中复刻了人的思维过程、逻辑推理以及各种社会行为与观点,则必然会引入偏差。
基于智能算法建立在人类设计与训练模型的基础上,在这一过程中,设计者采用了符合规范的数据进行训练与优化,并经过反复调整与优化后最终被接受。因此,在这一过程中形成的模型构建方式将直接决定其是否具备潜在的偏见性特征。Yapo等[3]的观点指出,在这一过程中产生的偏差可能源于不合理的数据选择或缺乏包容性的系统设计;然而这些系统本质上是由人类所创造出来的产物,在多数情况下是不可避免或以无意识的方式反映了社会的价值观、偏向以及歧视性行为模式。
同时, 因为算法在数据训练结果与实际意图上存在一定差距, 可能导致实际应用后的偏见进一步加剧。
Tene等[4]的研究表明, 在其研究中虽然并未将该算法描述为"不可避免受到偏见与潜在不公平困扰的黑盒", 但该算法仍是人为产物的一部分, 在某些情况下可能会反映出现有社会偏见以及历史上的不平等现象。
基于大规模的数据收集和分析系统性地监督着人们的数字行为模式,在各个领域之间形成了错综复杂的联系网络。这些技术手段逐渐深入渗透到生活的方方面面,并通过无形的方式深刻影响着人们的决策过程[2]。随着算法技术的不断应用与发展,在商业、教育、医疗等多个领域中逐渐实现了对个人选择权的干预。特别是在人工智能辅助决策方面表现尤为突出:赋予了更多由机器学习等智能技术主导的决策权限。这一现象不仅带来了效率提升的优势,在某种程度上也加剧了社会中的不平等现象。更为令人担忧的是这一现象引发了公众对于算法透明性的广泛担忧
当前,在多个领域中应用的算法技术日益广泛。
1 文献时间分布
本研究旨在探讨国外算法偏见的现状。为了实现这一目标, 本研究基于Web of Science核心数据库对2000年1月至2021年8月期间的文献进行了检索。具体而言, 研究者采用TS=(‘algorithmic bias’ OR ‘algorithmic discrimination’) AND TS=(fairness)作为检索条件, 经过详细筛选与去重处理后得到的有效文献总量达N篇, 其中经过去重处理后的有效文献数量达到M篇(具体数值见图1)。

图1文献时间分布
Fig. 1 Distribution of literature quantity by time

下载: 原图 | 高精图 | 低精图
如图1所示,在2000至2021年间,发表数量与被引频次呈现持续增长态势。期间呈现缓慢上升态势的文献数量直至2013年才逐渐引起学界足够的关注。伴随着人工智能、大数据等技术的快速发展背景之下,在经历了技术发展的快速增长阶段后(特别是在经历了技术发展的快速增长阶段之后),伦理挑战带来了更为严峻的伦理挑战。值得注意的是,在经历了技术发展的快速增长阶段后(特别是在经历了技术发展的快速提升阶段之后),其被引频次呈现阶梯性放大趋势。显著增加的数据量尤其体现在近年来(特别是在近年来),这不仅反映了算法技术发展带来的显著进步(尤其是在近年来),也凸显了算法偏见问题研究热度持续攀升的趋势(尤其是在近年来)。
2 文献分析
2.1 文献共被引
文献共被引(Co-citation)是一种衡量文献间相互关联程度的研究方法。当多篇论文同时被其他一篇或多篇论文所引用时,这些论文则形成了共被引关系。通过研究文献共被引网络中的聚类结构及关键节点分布,能够深入揭示研究领域的知识体系结构[5]。由于构建的共被引网络基于参考文献库这一前提条件,在获取高阶信息时具有显著优势。此外,在分析过程中还可以筛选出对学科发展有重要影响的关键节点和核心领域。表1列出了前10篇具有最高引用频次的文献。
表1高被引文献信息
Table 1 Highly cited literatures information
| 被引频次 | 中心性 | 年份 | 被引文献 |
|---|---|---|---|
| 52 | 0.56 | 2016 | Equality of opportunity in supervised learning |
| 42 | 0.31 | 2016 | Big data's disparate impact |
| 31 | 0.35 | 2015 | Certifying and removing disparate impact |
| 31 | 0.22 | 2017 | Fair prediction with disparate impact: a study of bias in recidivism prediction instruments |
| 30 | 0.11 | 2017 | Fairness beyond disparate treatment & disparate impact: learning classification without disparate mistreatment |
| 19 | 0.11 | 2016 | False positives, false negatives, and false analyses: a rejoinder to "machine bias: there's software used across the country to predict future criminals. and it's biased against blacks” |
| 17 | 0.07 | 2016 | Weapons of math destruction: how big data increases inequality and threatens democracy |
| 17 | 0.02 | 2013 | Learning fair representations |
| 16 | 0.03 | 2017 | How we analyzed the compas recidivism algorithm |
| 16 | 0.07 | 2016 | Algorithmic decision making and the cost of fairness |
下载: 导出 CSV
2.2 分析结果
被引频次最高的研究集中在针对特定敏感属性的判别标准制定上。Hardt等[6]在监督学习框架中提出了一种新的评估指标体系,在确保受保护群体关键预测变量可获得的前提下实现了偏差控制与公平性提升;Barocas等[7]则强调数据质量的重要性,在算法设计中充分考虑了历史偏见的影响机制;Feldman等[8]提出了基于数据分布校正的方法论框架;Chouldechova[9]运用算法对刑事再犯风险进行了预测建模;Zafar等[10]系统性地探讨了数据驱动决策系统的公平性边界;ProPublica的调查报告表明[11]算法在司法判断中的应用存在系统性误差;O'Neil[12]从社会影响角度揭示了数学模型在决策过程中的潜在歧视风险;Zemel等[13]提出了基于公平性约束的学习算法框架;Larson等[14]通过实证分析揭示了AI司法量刑工具存在的种族歧视特征;Corbett-Davies等[15]则从辅助决策工具的角度深入探讨了司法评估中的公平性问题。
综上所述,在司法领域中对实际算法偏见案例的研究主要集中在量刑政策和罪犯风险评估等具体案例上。作为人类语言的主要应用领域之一,并且承载着丰富的专业知识背景的司法领域是探索人工智能技术和自然语言处理应用的理想领域之一。除了偏见问题本身外,在基于深度学习的司法预测方案中存在显著的问题即模型缺乏足够的解释能力仅能给出预测结果而无法提供具体的推理依据。此外这些研究还涉及到了敏感属性识别与保护偏差度量与影响预测以及不同公平定义下的优化改进等内容构成了国外算法偏见研究的核心路径为后续研究提供了坚实的理论支撑和方向指引。
2.3 研究前沿
利用CiteSpace的聚类功能可得出文献共被引网络,如图2所示(彩图扫

图2文献共被引聚类
Fig. 2 Clustering of literature co-citation

下载: 原图 | 高精图 | 低精图
从图2可以看出,
包含60篇文献,
其中中介中心性值为C_b=0.756,
这些文献的平均发表年份是2017年,
主要围绕算法公平或算法偏差概念的抽象性展开探讨,
并提出了初步的原因分析及相应的偏差修正策略。
值得注意的是,
对数据科学专家而言,
这是一个被认为是一个难题之一的问题,
因为从算法优化的角度来看,
如何解决偏差与歧视问题面临着显著的技术障碍。
为此,
研究者们提出了在算法设计、训练和部署过程中嵌入道德准则与法律原则的新方法,
以确保社会公平。
此外,
部分研究者开始关注数据管理的相关活动,
包括算法设计、模型构建以及用户与系统设计等多个方面,
旨在分析哪些活动有助于减少偏差问题,
以及哪些活动可能会导致偏差扩大。
在聚类#1中包含45篇文献其中介中心性计算值为0.863研究对象的平均发表年份为2015年这些文献主要聚焦于算法实现中种族平等以及敏感隐私信息处理的相关问题。研究发现基于数据驱动的方法进行自动化决策可能会影响特定群体的利益即便计算过程看似公正且善意仍存在可能导致不利影响的情况参考文献[19]例如在刑事司法实践中必须考虑工具的程序正义以及与司法系统中存在的种族维度之间的相互作用参考文献[20]此外在移民政策制定过程中对公民特征数据的安全审查可能会导致一种类似于'算法形式的吉姆克劳'的现象出现参考文献[21]
在聚类分析中,我们选取了35篇文献用于研究,其中介中心性计算结果显示为0.903,平均发表时间为2014年,主要聚焦于个性化推荐机制中的极化控制与公平性评估。在实际应用中,个性化算法已成为网络系统的核心组件,一方面满足了用户体验的需求,另一方面则显著提升了平台运营效率。然而,随着算法的普及,系统性偏见的学习与传播问题日益突出,尤其是推荐系统引发的对抗性偏见可能导致回声室效应[22],这促使社会各界开始关注算法本身的公平性与监管问题。基于现有经济学指标构建不平等指数以衡量不同个体间的不平等程度[23];此外,通过测试结果分析软件是否存在歧视行为及其严重程度[24]
聚类#3被定义为包含29篇文献,并具有中介中心性指标值0.901。该集合的平均发表年份为2017年,并主要聚焦于推荐系统中排序算法的实现及其所带来的公平性问题。推荐系统的运行机制可被建模为一个预测性问题,在这种情况下可能会导致不同类型偏差的出现。这种不公现象可追溯至数据、模型或算法与用户之间相互作用所导致的偏差[25]。公平性体现在对特定群体保护属性成员身份的关注上,这些群体属性通常由用户的敏感特征(如性别、种族以及多重利益相关者的收益等)所界定[26]。研究表明,在不同人口统计特征群体间,推荐系统的性能表现可能存在显著差异。例如,在音乐推荐领域中,在不同性别用户的群体间存在显著的算法偏好差异[27];即使采用先进的音乐推荐系统也容易导致流行度偏向男性用户的情况出现[28];而在职业领域方面,在Facebook平台向男性用户推送高薪工作的可能性更高,在Google平台上则倾向于向女性用户推送高薪工作机会[30];在书籍推荐方面,则协同过滤算法往往会产生偏向男性作者的内容推荐结果[31];而在电影领域,则不同的推荐策略可能会放大或抑制不同性别观众对特定类型电影的喜爱程度[32]。
包含27篇文献的聚类#4具有显著的中介中心性指标值(C_b=0.848),其平均发表年份为2018年,并且主要聚焦于人工智能领域中的伦理审查与公平干预问题。相较于前四类内容的研究范围和关注点而言,该聚类的研究范围进一步拓展至宏观层面。近年来人工智能系统在应用过程中暴露出一系列问题:包括结果存在偏差性风险、算法透明度不足以及数据利用过度等。对算法实施系统性道德评估的需求日益高涨[33]。然而,在实现以人为中心的人工智能目标的过程中...需着重从隐私保护与数据所有权、责任追究机制以及公平正义三个维度进行优化和完善[35]。
在文献共被引聚类的分析中可以看出,在算法偏见领域所导致的问题主要集中在三个关键领域:涉及种族平等、性别平等以及其他与敏感隐私信息相关的议题。这些议题被认为是最早被提出并广泛讨论的核心问题之一。值得注意的是,在Web2.0时代之后的移动互联网快速发展期间,个性化算法有效缓解了用户的个性化需求问题。然而,在实际应用中是否能够实现对不同个人或群体的公平待遇以及对信息提供者的公平对待,则需要通过进一步的比较研究来探讨其可行性和边界条件。
网络的开放性和分享性推动了信息在聚合过程中的快速传播。这促使学术界关注算法在极化控制和公平检测方面的挑战。特别是在推荐系统领域中,这一工作流程可被建模为一个预测模型;在此框架下会产生多种类型的相关公平问题。除了由于某些用户的特定属性导致系统在满足其信息需求方面存在差异外,协同过滤机制带来了流行度偏差。长期来看,那些具有较高热度的产品和服务会持续占据优势,最终导致用户体验趋向于趋同化,并未能实现个性化服务的最佳效果。
伴随着人工智能浪潮的兴起与新一轮科技革命全面铺展之际,在机器学习与人工智能领域中对算法偏见问题的重要性逐步凸显至更深层次。围绕伦理公平性、可控性和可信性等议题的研究已成为当前研究的核心方向。
3 算法偏见研究框架
统计学中的偏差概念通常衡量估计值与实际值之间的差异程度,在这种框架下,
通过计算工具能够量化不同预测模型之间的性能差异。
作为一种更为哲学化的认知状态[36],
在人工智能系统开发过程中,
当系统出现错误判断时,
人们将其归类为一种特定类型的偏见。
这种偏见不仅涉及个体认知过程,
还反映了技术实现层面的局限性。
尽管如此,
在技术实现层面,
当系统对特定群体产生不公平对待时,
这种现象则被称为"歧视"。
这一术语源于社会不平等现象的技术化表达。
值得注意的是,
"歧视"这一概念比"偏见"更为具体和严重,
它直接反映了技术实现层面的社会影响。
因此,在本文中我们主要探讨的是基于
算法实现的具体表现形式。
基于文献综述可以看出, 当前国外在算法偏见方面的研究焦点主要涉及对偏见概念的定义及其成因进行了深入探讨, 并围绕性别与种族等敏感隐私信息引发的争议展开了广泛讨论。此外, 研究还着重关注了如何有效遏制极化现象及实施公平监控机制, 同时也对推荐系统的排名机制及其相关算法展开了深入分析, 并在机器学习与人工智能领域中的宏观公平问题上取得了一定成果。
虽然已有部分文献对算法偏见的存在原因及改进方案进行了初步研究, 但总体来看这些研究分布零散缺乏系统性, 因此很难形成一个完整的理论框架. 本研究将基于此, 对算法偏见进行分类, 分别从算法运行者与决策者的视角分析各类别间的差异及其成因
当前关于对算法进行伦理评估或公正性优化方面的建议多局限于较高层次的理论层面,在实践转化方面仍显不足。鉴于此,在具体分析算法设计流程的基础上,并以消除算法偏差为目标提出有效的调整措施,则可构建出一套完整的偏差消除研究架构(如图3)。

图3算法偏见研究框架
Fig. 3 Research framework of algorithmic bias

下载: 原图 | 高精图 | 低精图
3.1 偏见来源
智能算法中偏见来源主要分为算法本身和人两类[37]。
3.1.1 算法偏见
对算法而言,在数据准备与模型构建阶段就可能产生一定程度的偏倚。具体而言,在数据集构建过程中由于采样局限性或便利性选择特定类型的数据样本是常见现象;此外还可能因获取数据时存在的固有偏好而导致数据分布明显偏向主流类别而在敏感属性方面缺乏代表性。建模阶段的偏误则可能源于问题定义与变量度量细节不完善或是抽样策略上样本代表性和普遍性之间的权衡失衡等导致机器学习模型将相关关系误判为因果关系等情况发生。在训练环节由于模型利用过去决策的历史数据集来进行未来预测或决策行为若训练所用数据集包含现有偏见将会使模型产生延续性的偏误结果进而影响其公平性表现以及决策透明度等多方面指标
3.1.2 人为偏见
由人类行为引发的误差贯穿于算法设计与应用的整个流程中,在这一过程中主要表现在标注错误、使用误判以及解释失误三个方面。其中最为关键的是数据标签作为辅助算法达成目标的关键指标,在训练阶段需收集来自人类的数据标签,并根据参与者的偏好不断优化信息反馈机制;然而人们在执行网络活动时对数据的标注和选择往往表现出高度随意性——这种随意性不仅反映了他们对展示内容的理解程度以及原因推断能力,在很大程度上还可能引入系统性偏差或不一致性;当算法被应用于非预期场景时,则可能会由于实际应用数据与训练样本之间的差异而导致偏见问题(参考文献[1]);此外,在结果解读环节可能出现误读现象——这会导致所谓的"解释偏差"发生
由此可见,在验证某算法的过程为无偏的情况下,并不能保证该算法输出既无偏又不带有歧视。这主要由于这些偏差可能源于训练阶段或是应用过程中。另一方面,在存在各种潜在偏差的情况下,并非所有情况都会导致真正的偏见或歧视;这取决于所使用的环境以及最终目标如何设定。
3.2 偏见纠正
本文基于算法设计流程展开研究,在最大限度地减少偏差的前提下,系统性地综合考虑建模阶段、数据准备以及功能模块的优化与调整。
3.2.1 建模无偏
基于算法的基本假设及其模型不存在偏差的前提下,在人工智能技术的价值观框架下实施纠偏措施,则可以使该类算法实现更加人性化和公平化的优化目标。为此,在算法开发阶段应考虑除主要开发者之外还包括伦理学家或其他少数关键群体的意见,并将这些道德原则融入其中以确保所构建的模型能够代表整个目标群体的需求;在此过程中特别强调在平衡公平性需求与算法上的帕累托约束方面寻求折中方案
3.2.2 数据无偏
为了确保算法在训练与测试阶段的数据中必须避免任何形式的偏差与歧视,在对数据集进行训练的过程中,由于现实中的限制和技术的局限性,在完全无偏的情况下无法实现这一点。因此,在实际操作中需要采取一系列审查机制:首先需确保数据的安全性;其次,在学习与训练之前需对可能存在偏差、高噪声等质量问题的数据进行筛选;通过清洗、去噪以及优化等技术手段提升整体数据质量;在此基础上显著提高算法的学习效果及适用性;此外还可以探索并开发能够自适应调整参数的新算法框架;这种新框架能够在一定程度上降低隐藏在训练数据中的潜在偏差。
例如,在学习到潜在分布的基础上,在模型构建阶段根据样本的重要性自动调整权重以实现更为精准的学习效果[39]。
3.2.3 功能无偏
该算法需在特定环境下作出决策,在机器学习模型中影响因素与噪声难以分辨可能导致过拟合现象使算法在训练数据上表现优异但新数据集无法适用该模型因此必须对算法进行验证以确保其功能性与公平性达到平衡通过标准化治理框架开发企业或监管机构可定期监控该算法的发展情况
Marr[40]主张人工智能既是引发问题的原因之一,也可能成为解决这一问题的方法之一。谷歌在其开源网页上提供了旨在帮助开发者检测算法公平性的工具。Facebook推出了名为Fairness Flow的产品,在算法基于种族、性别或年龄产生歧视判断时,该系统将自动触发警告机制。IBM研究了能够模仿人类反偏见过程以减轻自身偏见的自动偏见检测算法,在经过充分训练后即可执行类似的人类决策过程。领英推出了公平性分析工具包,在分析数据集属性(如种族和性别构成)后会将结果与算法输出进行对比以检测潜在偏差。由此可见,在学术界对算法偏见进行日益深入讨论的同时,大型科技企业也在投入大量资源致力于研究人工智能技术以期有效减少算法偏见的影响程度
4 结语
学术界对于如何界定与评估偏差或公平性的问题存在不同的看法。绝对意义上的完美公平在现实中难以实现;因此,在讨论"偏差"与"公正"时往往需结合具体的研究领域与应用场景来探讨。单纯从技术层面很难彻底消除算法中的偏差;深入研究方能阐明算法如何优化个人与公共福祉。技术漏洞可能导致对人类社会的影响更为严重;具体而言,在哪些情况下嵌入技术能确保公平?又该如何将人类的价值观有效地融入其中?
类似当今诸多新兴领域,智能算法所面临的主要矛盾是知识储备与技术进步之间的矛盾。要实现对智能算法系统的有效治理,则必须制定全球性的指导方针和原则,并由全球政府、科技界以及监管治理机构通力合作来共同完成这一任务。最大限度地规避偏差将是这项努力的关键所在。
未来将基于分析所得出的算法偏差研究概述展开深入探讨,在多学科交叉融合的原则下,从多个维度着手,对算法偏差进行跨学科研究及合作探究,进一步探讨其实质类别及其优化策略,如考虑不同领域中的潜在风险及偏差危害识别、建立透明可信的计算模型等方法,从而最大限度地减少算法定位偏差及歧视现象的发生可能性。
