Advertisement

A Survey on Fairness in Large Language Models

阅读量:

本文属于LLM系列文章,对《A Survey on Fairness in Large Language Models》的翻译工作

大型语言模型中的公平性研究综述

  • 摘要
  • 1 引言
  • 2 评估度量
  • 3 内在去偏
  • 4 外部去偏
  • 5 大型LLM的公平性
  • 6 讨论
  • 7 结论

摘要

大型语言模型(LLM)已展现出卓越的性能和广阔的前景,并已在现实世界中得到广泛应用。然而,LLM可能从未经过训练的数据中汲取社会偏见,并将其传递至下游任务。不公平的LLM制度可能带来不良的社会影响和潜在风险。在本文中,我们对LLM中的公平性相关研究进行了系统综述。首先,我们分别介绍中等规模LLM在内在偏差和外在偏差方面的评估指标与去偏方法。其次,我们对大规模LLM的公平性研究进行了综述,重点阐述了公平性评估、偏差成因及去偏差方法。最后,我们深入探讨了LLM公平发展的主要挑战与未来研究方向。

1 引言

2 评估度量

3 内在去偏

4 外部去偏

5 大型LLM的公平性

6 讨论

7 结论

我们系统性研究了LLM中的公平性问题。社会偏见的成因主要体现在训练数据中存在有害信息和数据分布失衡,这些现象可以划分为内在偏见和外在偏见两大类。基于现有研究,我们对LLM的公平性评估体系进行了系统梳理,包括中等规模LLM的内在和外在评估指标与去偏策略,以及大规模LLM的公正性评估、偏差成因分析和去偏方法研究。此外,我们还深入探讨了LLM公平性发展过程中的主要挑战,并提出了相关研究方向建议。研究结果表明,当前LLM的公平性研究在偏差评估体系和偏差来源分析方面仍存在不足,尤其是在大规模LLM的公平性研究领域,需要进一步加强去偏差策略的系统性研究。同时,建议相关研究者在这一领域中应更加注重技术融合,以推动构建更加全面、安全的语言模型系统。

全部评论 (0)

还没有任何评论哟~