偏见是人工智能(AI)中一个根深蒂固问题,基于非代表性数据集的模型往往是公正的。这是一个比想象中更难解决的挑战,尤其是在图像分类任务中,种族、社会偏见常常会抬头。在众包尝试解决这一问题时,9月,谷歌与NeurIPS competition track合作,推出了包含图像的竞赛, 这要求团队使用开放图像公开数据集900标记图像样品,从北美和欧洲训练一个人工智能系统,计算从世界各地收集照片。它托管在Kaggle、谷歌数据科学和机器学习社区门户网站上。
周一上午,谷歌AI的产品经理图西・多西在一场有关算法公平性的演讲中更新了进展情况。Doshi说,(图像分类)性能在过去几年里有显着提高,几乎超过了人类性能。为此,谷歌AI科学家在开放图像数据集上建立一个经过训练的Inception v3模型。在一张照片中,一位白人新娘穿着西式长裙,服装、女人、婚礼和新娘等品牌会出现,然而,另一张同样是新娘照片,但却是亚洲后裔,穿着民族服装,制作了服装、活动和表演艺术等品牌。糟糕是,照片中的人不是模特。Doshi说:“随着西方对新娘外貌描述逐渐改变,模特不太可能为新娘制作形象标签。”
谷歌
原因并不神秘。开放图像数据集中来自中国、印度和中东照片相对较少。研究表明,计算机视觉系统容易受到种族偏见影响。2011年一项研究发现,在中国、日本和韩国开发人工智能在区分白人面孔方面比东亚人更有困难。2012年进行的另一项研究中,Cognitec公司的人脸识别算法在非洲裔美国人身上表现比白人身上差5%至10%。最近,众议院监督委员会一场有关面部识别技术听证会显示,美国联邦调查局(FBI)用来识别犯罪嫌疑人算法有15%是错误的。
因此,包容性图像竞赛目标是激励竞争对手为数据收集困难(如果不是不可能的话)的场景开发图像分类器。为编译评估,提交模型不同数据集,谷歌AI使用一款应用程序,该程序可以指导用户拍摄周围物体的照片,并使用设备上机器学习生成标题。将字幕转换为标签,并通过图像分类器进行验证。第二个验证步骤确保人们在图像中被正确标记。在两个比赛阶段的第一阶段,共有400个团队参加,谷歌AI发布3.2万张不同地理位置采样的不同数据图像,以及开放图像数据标签分布。在第二阶段,谷歌从第一阶段和训练数据集发布10万张不同标签和地理分布图像。最后,我们得出什么结论,排名前三团队使用的是网络集成和数据增强技术,他们技术在第一阶段和第二阶段都保持了较高准确性。
虽然顶尖团队模型在应用于最初的两张新娘照片时并没有预测到新娘的标签,但他们在照片中认出了一个人。Doshi说,即使有一小部分不同数据,我们也可以在不可见目标分布上提高性能。谷歌AI将于12月7日发布50万张不同图像数据集。