人工智能(AI)正在越来越多地参与到我们的日常生活。它为我们的移动电话和虚拟“家庭智能助手”提供支持。它的算法旨在改善我们的健康诊断。它被用于警察用来打击犯罪的预测性警务工具。在保护我们的人权方面,这些例子都面临AI所引发的潜在问题。如果预测性警务工具设计不当,可能会导致基于性别或种族的歧视。
隐私和数据保护规则适用于与我们健康相关的信息。同样,系统记录和使用我们智能手机的地理位置可能会违反隐私和数据保护规则,并可能导致公共机构对数字监控的担忧。软件工程师负责所有系统背后的算法设计。软件工程师能使智能助理更准确地回答我们的问题,帮助医生改进健康风险的检测,并让警察更好地识别不断上升的犯罪风险。
软件工程师通常不接受人权法培训。然而,对于每一行代码,他们能解释清楚,但他们不知道实际应用是否违反人权法。这就是我们对软件工程师进行人权法培训的至关重要的原因。今年早些时候,新的欧盟法规迫使企业对消费者的信息更加开放,被称为GDPR。您可能会发现这是近期一些电子邮件的主题,请求您选择将个人信息保留在各种数据库中。
人工智能
GDPR增加了组织可以对您的数据做什么的限制,以及扩展了个人访问和控制数据的权利范围。这些针对隐私和数据保护的设计是将法律框架整合到技术中的绝佳机会。然而,这还不够。例如,更好地了解人权法可以帮助软件开发人员了解间接歧视是什么以及法律禁止的原因。(“欧洲人权公约”第14条禁止任何基于种族,肤色,性别,语言,宗教,政治或其他见解,国籍或社会出身,财产,与少数民族的关系,出生或其他身份的歧视。)
当出现违反一个或多个这些受保护的理由而导致的对个人的不利待遇时,直接歧视就会发生。当中立规则导致对个人(或一群个体)的不利待遇时,间接歧视就会发生。同样,理解公平审判权的复杂性及其推论,无罪推定,可能会使软件工程师在算法设计中做出更明智的方案。
这可能有助于避免算法假定多族裔社区中的警察逮捕数量与有效刑事定罪数量相关的可能性。更重要的是,该人权法培训将帮助软件工程师开发无偏见的数据集选择,这些数据集不代表基于种族或种族的歧视。例如,如果财富和收入数据倾向于集中在特定的社区,则可以将财富和收入数据与地理位置数据结合起来,用于识别来自某个种族背景的人口。
法律代码
同样,更好地理解人权法律框架的运作方式可能激发软件工程师们设计解决方案的灵感,以加强对法律规则的遵守。例如,非常需要正当法律程序的技术解决方案。通过这种解决方案,个人更易向直接影响他们利益的公共机构基于AI制定的决策发出质疑。可能对于父母,他们会被地方当局使用的不透明算法错误地识别为有虐待儿童的潜在风险。
这些解决方案也可能与私营部门有关。例如,通常关于保险费和贷款的决定通过隐藏在黑匣子后面的剖析和评分算法来确定。由于这些商业模型的性质,这些算法的完全透明和公开是不可能或不可取的。随着我们当代社会不可避免地向人工智能应用发展,我们需要牢记,开发人工智能幕后的人们有能力作出影响我们所有人的知情决策。在培养软件工程师方面,不仅要教授尖端技术,而且还要教授相关的人权法则。