公平性(机器学习)

机器学习中的公平性指的是在基于机器学习模型的自动化决策过程中纠正算法偏差的各种尝试。如果计算机在机器学习过程后做出的决定是基于被认为是敏感的变量,那么这些决定可能被认为是不公平的。这类变量的例子包括性别、种族、残疾等等。正如许多道德概念一样,公平和偏见的定义总是有争议的。

一般来说,当决策过程影响人们的生活时,公平和偏见被认为是相关的。

在机器学习中,算法偏见的问题是众所周知的,也是经过深入研究的。结果可能被一系列因所歪曲,因此可能被认为对某些群体或个人不公平。一个例子是社交媒体网站消费者提供个性化新闻的方式。

关于机器学习中的公平性的研究是一个相对较新的话题。在2018年,关于这个话题的大部分论文都是在之前的三年里发表的。

同年,IBM推出了AIFairness360,这是一个拥有多种算法的Python库,用于减少软件的偏见并提高其公平性,Facebook公开了他们使用的工具FairnessFlow,以检测其AI中的偏见。

然而,该工具的源代码是不可获取的。2019年,谷歌在GitHub发布了一套工具,以研究公平性的长期影响。

公平性(机器学习)

群体公平性标准

在分类问题中,一个算法学习一个函数来预测一个离散的特征现在让我们定义三个主要标准来评估一个给定的分类器是否公平,也就是说,如果它的预测没有受到这些敏感变量的影响。

独立性

我们说随机变量这意味着,对于属于不同群体的人来说,每个目标类别的分类率在敏感特征方面是相等的然而,独立的另一个等价表达式可以使用随机变量之间的相互信息概念来给出,定义为i(x,y)=h(x)+h(y)-h(x,y){displaystyleI(X,Y)=H(X)+H(Y)-H(X,Y)}。

独立性定义的一个可能的放宽包括引入一个正的松弛点{textstyleepsilon>0}。

0

点评

点赞

相关文章