【手机中国新闻】“AI威胁论”自从AI诞生之时,便成为一个主要争论的话题,更是许多好莱坞电影喜欢使用的题材。然而,麻省理工学院实验室的科学家们专门制造了一个名为“Norman”的“精神病AI”,以用来进行“机械学习算法中使用偏差数据是人工智能出错的案例研究”。
据了解,科学研究人员专门使用大量来自Reddit网站的一批暴力、可怕的图像来对Norman进行机器学习的培养,得到的结果令人不寒而栗。
报道称,在一项测试中,一个标准的AI表示看到了一个花瓶,而Norman却别是看到了一名男子被枪杀。另一张图片的测试,标准AI看到了一对夫妇站在一起的感人景象,Norman却看到了一名孕妇从建筑物上掉下来。研究人员表示,Norman的异常结果是由于在其机器学习过程中不断接触负面阴暗的图像,从而导致了这样的差别。
显然,这项研究无疑证明了机器学习会直接受到其输入方法(用于学习的数据)的影响。研究人员表示,在AI机器学习的过程中,数据要比算法更重要,Norman的测试就很好的验证了这个观点。
版权所有,未经许可不得转载