四海资讯
首页 > 科技资讯 > 手机数码

埃隆马斯克再度表达对AI危险性的担忧!

时间:2018-11-05

埃隆・马斯克一般不会同科技界的悲观主义产生关联。从电动汽车到火星移民,他因为坚持未来会更快到来而闻名于世。但是,当谈到人工智能时,他的观点听起来不同了。2014年在麻省理工大学演讲时他声称人工智能的人性化是“已知的最大威胁”并将其同“召唤魔鬼”相提并论。在周五发布的访谈中,他重申了自己的恐惧。“随者人工智能正变得比人类更聪明,相关的智力值比例大概相当于人类同猫的差距,甚至更大,”马斯克说。“我们需要对人工智能的发展格外小心。”

对于许多人甚至机器学习研究者而言,以上用人和猫的差距来形容人工智能优于人类的程度实属天方夜谭,人们依然在努力解决机器学习的一些看上去很简单地问题。自动驾驶汽车在非正常条件下的表现进展缓慢,因为训练电脑去做诸如预测自行车的运动和识别路上的塑料袋等人类可以瞬间完成的事情非常困难。人工智能要想拥有超越人类的能力还有很长的一段路要走。马斯克并不是唯一的发出警告之声的人,剑桥和加州大学的研究者和像霍金等名人同意人工智能可能是危险的。他们担忧我们太急于研发强大的人工智能,但并不具备承受危险错误的条件。

马斯克表达AI危险性的担忧马斯克表达AI危险性的担忧

如果我们严肃地看待这些疑虑,我们应该做什么?那些有忧虑的人虽然在细节方面各有各的看法,但他们在一件事上保持一致:我们应该做更多的研究。马斯克希望美国政府能花一两年在开始解决问题前先理解问题所在,他在访谈中丰富了这一观点:在他看来,研究者们--特别是发展出AlphaGo和AlphaZero的谷歌Deep Mind部门--太急于研究复杂强大的人工智能系统。因为一些人并不觉得人工智能很危险,所有他们并没有为相关研究组织设置足够高的警惕和责任标准。

事实上,如果人工智能足够强大,我们需要提前做好规划。牛津大学的Nick Bostrom认为,一旦我们应用了一个破坏性的人工智能系统,这就会是我们日后很难纠正的错误。从这个角度讲,人工智能的应用就像是发射火箭:在发射前一起都要准备就绪,之后我们就不能再做出哪怕极小的修正。在同马斯克的对话中,Y Combinator 的Sam Altman曾说:“在接下来的几十年里我们将向要么是人类自我毁灭要么是人类后裔征服全宇宙的未来前进。”“是的。”马斯克赞同道。

  • 上一篇:找工作?用人工智能来解决人才缺失问题
  • 下一篇:想让机器人给你送快递?用这款App吧