AI歧视有救了,研究人员开发出消除AI偏见的新工具
- +1 你赞过了
【雷竞技须安全稳定 网络频道】7月12日消息,相信很多人对于人工智能存在偏见和歧视早有耳闻,但你听说过利用人工智能检测性别和种族歧视吗?日前,来自宾夕法尼亚州立大学和哥伦比亚大学的一个研究小组发明了一种新的人工智能工具,可以识别基于性别或种族的不平等待遇。
人工智能系统,比如那些参与选择求职者或者大学入学者的系统,是基于大量数据进行训练的。但如果这些数据存在偏见,它们会影响人工智能系统的推荐结果。
宾夕法尼亚州立大学信息科学与技术学院教授Vasant Honavar举例说,如果一家公司传统上从未聘用过女性从事某一特定工作,那么基于过去数据的人工智能系统就不会推荐女性从事新工作。
他表示,机器学习算法本身没有什么问题。它做的是它应该做的,那就是根据某些理想的特征来识别优秀的求职者。但由于它是根据历史上有偏见的数据进行训练的,因此有可能给出不公平的建议。
为解决这一问题,研究人员开发了一种人工智能工具,用于识别人工智能系统或人类决策者对受保护属性(如性别或种族)的歧视,该工具基于因果关系的概念,即一件事(一个原因)导致另一件事(一个结果),同时利用反事实推理算法来达到最优猜测。
为了测试他们的方法,研究人员使用了不同类型的可用数据。在分析了美国近5万人的收入数据集,其中包括工资、人口统计和与就业有关的信息后,他们发现了工资中存在性别歧视的证据。此外,研究人员还分析了纽约市警方拦截司机的人口统计数据和其他数据,的确暴露了对非洲裔美国人和西班牙裔美国人存在潜在种族歧视的证据。
Vasant Honavar指出,“如果不知道问题的存在,就无法纠正问题。为了避免基于种族、性别或其他属性的歧视,需要一个有效的工具来检测歧视。”
文明社会长期关注的是防止基于性别,种族或民族的个人受到不公平对待。不过,无论是通过自动化人工智能系统还是人类决策,都很难发现因决策而产生的这种歧视。可以说,此次,该研究小组的最新成果为消除AI偏见提供了一个很好的思路。
最新资讯
热门视频
新品评测