东方网记者傅文婧8月30日报道:语音识别、无人驾驶、智慧城市……人工智能技术快速迭代,AI应用全面普及,人类智慧与智能机器实现深度融合,充满无限可能的人工智能时代正全面来临。但人类对人工智能安全担忧从未停止,随着人工智能技术走向成熟,安全警报正全面拉响。8月30日下午,2019世界人工智能安全高端对话在上海世博中心举行,各界专家学者与行业精英共聚一堂,探讨人工智能的最大变量――安全问题。
会上颁发了2019世界人工智能产业安全十大创新实践和十大优秀论文,同时发布了《人工智能安全与法治导则(2019)》,今年的年度重点是算法安全、数据安全、知识产权、社会就业和法律责任。
2019世界人工智能产业安全十大创新实践颁奖
让人工智能安全可信
AI的目标是什么?中国科学院院士何积丰在演讲中表示,AI是一种赋能技术,应该与行业、社会治理结合在一起。所谓可信人工智能,这一安全问题不单是在伦理、道德、法律层面上,还与产品的高品质密切相关。“人工智能从已有技术向通用人工智能发展,AI的经济价值必须要实现。专用AI的通用性太弱,就像衣服一样,一件只能一个人穿,所以现在通用AI的发展不可阻挡,这是整个社会经济发展的需求。”何积丰表示,AI赋能不能仅停留在下棋、打麻将等“游戏AI”上,而是要对人类的生活提高有所帮助。
中国科学院院士何积丰发表演讲
人工智能的发展也伴随着信任危机。例如因AI未能识别道路清扫车造成的特斯拉“无人驾驶”致死事故;因血溅导致摄像头“失明”的达芬奇手术机器人事故;因人脸识别公司数据库泄露导致256万人信息泄露等。何积丰指出,人工智能的安全问题既有内忧,也有外患。内忧包括样本均衡、数据偏倚、用户隐私等问题。外患则包含对抗攻击、信息安全、场景受限等。
何积丰指出,人工智能算法的关键安全问题包括分布转变的稳定性、探索的安全性、避免奖励条件的错误解读、可扩展的监管和避免人工智能副作用。他总结可信人工智能的特征应该具备与人类智能类似的特质。包含对未知或对抗条件的鲁棒性;对自身性能或错误有感知的自我反省;对新的环境或目标的自适应;对分析过程的透明性、可解释性;对决策过程的公平性。
“穿马甲”与卡脖子
中国工程院院士倪光南针对AI安全可控问题发表演讲,他总结出人工智能伦理的8条原则:可控性、公平性、安全性、隐私保障、包容性、透明度、增加社会福祉和问责制。倪光南表示,人工智能是人类创造的,应保证人类控制人工智能而不是相反。要避免人工智能系统可能会在不可预见的情况下造成伤害,或者被人恶意操纵。此外,还要解决深度学习算法的“黑盒”问题,以免导致出现不可预测的情况,还要确保人工智能技术造福、赋能每一个人,而不只是惠及个别人。
中国工程院院士倪光南发表演讲
倪光南表示,我们要吸取中兴、华为事件教训,努力实现AI关键核心技术的自主可控。自主可控是网络强国战略不可或缺的部分,要“做好我们自己的事情”就必须抓自主可控。为什么网信技术有短板会被人“卡脖子”?倪光南认为,一方面我国还是发展中国家,国力和科技水平等与发达国家仍有差距,外国对我国实行禁运封锁,另一方面“造不如买,买不如租”思想造成影响,“穿马甲”问题危害严重。
什么是“穿马甲”问题?倪光南介绍,就是将不能自主可控的外国技术,假冒国产自主可控技术,混入政府采购和重要领域,成为“特洛伊”木马。例如有人将微软的“Win10”“穿马甲”,泡制“Win10政府版”,对我国网络安全造成威胁。倪光南指出:“过去对自主可控没有形成制度支撑,因而不能及时发现‘短板’,容易被人卡脖子。因此我们亟需制订自主可控测评标准,并由专门机构实施,形成制度保障。”