在这个人工智能无处不在的时代,这可能会带来持续的系统性歧视。这也是为什么麻省理工电脑科学AI实验室的研究者们创立能减少人工智能偏见但不会降低预测结果准确率的方法的原因。“我们把这看成是一个帮助人工智能工程师诊断出系统做出不公正预测的原因的工具箱,”麻省理工教授David Sontag说。相关论文由David Sontag,博士生Irene Chen和Fredrik D. Johansson共同完成。
人工智能
Sontag表示研究者们发现人工智能模型更倾向于将女性识别为低收入,将男性识别为高收入。通过将数据源中的女性代表数量翻了十倍,不准确的结果数量下降了40%。传统方法可能会提出通过将大多数种群的数据源随机化来解决不同种群的结果不平等问题。论文中写道:“在这个项目中,我们认为预测的公正性评估应在数据背景中进行,由不恰当的样本大小或者未测量的预测变量导致的不公正应当通过数据汇集而不是约束模型来解决。”
预测准确率的不同有时可以归咎于缺失数据或者结果无法预测。研究者们建议人工智能在接受公平性标准的检验前,应先分析其模型倾向,模型变化幅度等元素。研究者在论文中指出:“这暴露和区分了不恰当的数据采集所带来的负面影响以及模型在公平性方面的自主选择。提高公平性并不总会带来预测准确率的降低,但肯定需要数据采集方面的投资和模型的发展。在高风险应用中,其产生的收益往往大于前期投入。”
人工智能
一旦评估已经开始,研究者建议预计收集附加训练样本的影响,然后汇集数据来识别得到不公正结果的亚种群进而引导附加变量集合。这种方法曾被用于从基于统计数字,课本评价和病人死亡率的输入项目中获取平等的结果。
在过去几年里人们对人工智能因偏见产生不准确结果进而带来严重后果的担忧持续增加。一些工具和方法试图解决这一问题,例如今初创公司Pymetrics开源了其偏见探测工具Audit AI,九月IBM发布了基于算法的偏见探测云服务,谷歌也借助What-If工具和TensorBoard将人工智能偏见视觉化。