根据美国人口普查局的数据,在这个国家生活着超过5千6百万残障人士,他们和健全人士之间的数字化鸿沟正不断扩大。残障美国人有大约三倍于健全人的概率不上网,以及20%更少的可能性去购买电子设备。除此之外,他们中只有40%的人有信心借助自己的力量使用互联网。
为了让互联网更易使用,谷歌和纽约大学的“能力”项目共同发布了“创造力(Creativity)”,一个包含了众多探索人工智能如何帮助残障人士实验的项目。这些实验可以在“创造力”的网页上被找到,谷歌同时也开源了该项目的代码。目前它正在向开发者们征集新的实验,后者可以上传自己的作品并可能获得被谷歌推荐的机会。这些实验包括了从通过移动面部来创作曲调的作曲工具,到可以将景象和声音转化为素描的数字画布,以及模仿通感效果的音乐可视化工具。
谷歌借助人工智能让创新性工具更易用
其中的关键的要数由谷歌TensorFlow机器学习架构驱动的机器学习模型Posenet,它可以检测图片和视频中的人体姿态。通过普通的网络摄像头你就可以用脸画画,用鼻子编曲。它由JavaScript编写而成,图像可以由设备自身或者浏览器在线处理。谷歌声称其曾与包括失聪作曲家Jay Alan Zimmerman,视障科学家及设计师Josh Miele,科技教育家Chancey Fleet,帮助年轻残障音乐家组建管弦乐队的Open Up Music公司创始人Barry Farrimond 和Doug Bott在内的残障创作者合作开发“创造力”项目。
谷歌借助人工智能让创新性工具更易用
“我们希望这些实验能激励残障人士释放心中的艺术才能。”纽约大学“能力”项目的构思者和研究者Claire Kearny-Volpe在博客中写道: “艺术给了我们超越语言的能力去实现团结,创造快乐以及获得满足。做得很对,技术可以推进这一过程-拓展我们的能力和潜能。”这并不是人工智能第一次被用于提升产品易用性。谷歌的DeepMind部门正使用人工智能为失聪者提供闭合字幕。在2016年牛津大学一项共同研究中,科学家们创造了一个表现显著优于唇读专家的模型,它正确地翻译了200个随机抽取片段中46.8%的话语,相比之下人类同行的成绩只有12.4%。
与此同时,Facebook也发展了可以向视障人士描述图片的说明工具。谷歌的Cloud Vision API能够理解图片中物体的背景。微软的Seeing API 具备识别手写文本,描绘颜色和场景等能力。