四海资讯
首页 > 科技资讯 > 手机数码

谷歌禁止Ai使用性别代词防止歧视指控

时间:2018-11-28

谷歌在5月推出了一项非常智能的Gmail功能,可以在用户输入时自动完成句子,例如输入“我爱”,Gmail可能会建议在后面跟上“你”或“它”。但是如果用户的情感对象是“他”或者“她”,就不那么走运了。谷歌的技术不会提供基于性别的代词,因为风险太高。批评者正在以前所未有的方式仔细审查人工智能中潜藏的偏见。尽管不是所有的过错都是同等严重的,但性别歧视是大问题。

获得智能撰写权利对谷歌的业务非常有利,因为这能够证明谷歌比竞争对手更了解人工智能的细微差别,这也是该公司为其品牌打造亲和力并吸引客户使用其人工智能的云计算工具、广告服务和硬件的战略的一部分。Gmail拥有15亿用户,在Gmail.com发出的消息中,有11%使用了“智能撰写(Smart Compose)”功能。

GoogleGoogle

“智能撰写(Smart Compose)”是自然语言生成(NLG)的实际应用,计算机通过研究文学、电子邮件和网页中的单词之间的模式和关系来学习写句子。“智能撰写”学习数十亿个人类句子的系统而变得善于提供常用短语,但也受到普遍性的限制。例如,男性长期主导金融和科学等领域,因此该系统将从数据中得出结论,投资者或工程师是“他”。这个问题几乎波及了所有主要的科技公司。由大约15位工程师和设计师组成的“智能撰写(Smart Compose)”团队尝试了几种解决方法,但没有一种能够被证明是无偏见的或值得的。谷歌认为最好的解决方案就是限制范围。

谷歌小心翼翼的态度是有原因的。2015年,谷歌的图像识别功能将黑人夫妇标记为大猩猩。在2016年,当用户在谷歌上搜索有关犹太人的信息时,却出现了“是犹太人的恶魔”的搜索结果。目前谷歌已经禁止其人工智能预测技术涉及咒骂和种族辱骂,以及提及其商业竞争对手或负面事件,并利用其人工智能道德团队开发的测试来发现潜在的新偏见。而解决这一问题并不容易,特别是Smart Compose很快将推出其他四种语言:西班牙语,葡萄牙语,意大利语和法语。每种语言都有不同的不恰当的内容需要回避。

谷歌并不是唯一一家受困于性别代词问题的科技公司。苹果公司开发的预测键盘工具对“警察”和“销售”等词给出了性别化的词汇推荐。在谷歌翻译中输入中性土耳其语短语“one is a soldier”,翻译出的英文是“他是士兵”。阿里巴巴和微软的翻译工具也是如此。亚马逊在云计算客户的翻译服务则上选择了“她”这个词。微软的领英表示,它避免在预测消息工具--Smart Replies中使用性别代词,以避免错误的风险。阿里巴巴和亚马逊目前没有回应类似请求。

  • 上一篇:5G路演 日本5G技术究竟发展到什么程度
  • 下一篇:LG专为妈妈们设计关于婴儿护理AI系统