第9章 挑战偏见
我们习惯认为机器比人类更理性,毕竟无情的芯片逻辑缜密。因此,当计算机科学将自动化决策引入经济中时,许多人希望计算机能减少偏见和歧视。然而,正如我们之前在研究抵押贷款申请时所提到的,计算机是由人类制造的,而机器学习所使用的数据来源于一个不公正的世界。简单地说,如果我们不够细心,应用程序将加剧人类的偏见。
在金融业,反歧视不仅仅是一个道德问题。例如,美国于1974年开始实施《信贷机会均等法案》(Equal Credit Opportunity Act,ECOA),该法案明确禁止债权人根据种族、性别、婚姻状况和其他一些特征来区别对待申请人,它还要求债权人告知申请人被拒的理由。
本书讨论的算法是一种判别机器。只要给定目标,这些机器就会找到最适合判别决策的特征。然而,正如我们所讨论的,这种判别并不总是合适的。
尽管某个国家或地区允许把图书广告投放给该国家或地区的人们,但是向该国家或地区的人们提供贷款却不可以。在ECOA的限制下,拒绝给某个国家或地区的人贷款甚至是合法的。在金融领域,对歧视的规定比在图书销售中要严格得多。这是因为金融领域的决策对人们生活的影响要比图书销售严重得多。
在本书的场景下,是针对特定特征区分的。例如,虽然可以根据还贷历史来区分贷款申请人,但根据其原户籍来区分却是不可行的,除非预先已有针对该地区的限制或类似的重要法律。
在本章中,我们将讨论以下内容。
- 机器学习中的偏见来自哪里。
- 从法律视角解读有偏见的机器学习模型。
- 如何减少明显的不公平。
- 如何检查模型是否存在偏见和不公平。
- 因果建模如何减少偏见。
- 不公平是一个复杂的系统错误,如何以非技术方式来解决这个系统错误。
本书所讨论的算法是特征提取算法。即使忽略了被管控的特征,算法也可能从代理特征中推断出它们,然后根据它们进行区分。例如,在美国的许多城市,邮政编码可以用来预测种族。因此,在战胜偏见方面,仅忽略受监管的特征是不够的。 ...
Get 金融中的机器学习 now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.