【CNMO新闻】FacebookAI研究主管Yann LeCun从上世纪八十年代就开始研究神经网络,他在周一表示,深度学习需要比Python更灵活、更易用的新编程语言,但目前尚不清楚开发这样一种语言是否真的有必要。
LeCun对媒体表示:“谷歌、Facebook等组织都在设计一种对于深度学习来说更高效的编程语言,但很难说开发者社区是否会跟进使用这种新语言,因为人们更习惯Python,当前的问题是,这是不是一条正确的道路。”
GitHub的报告称Python目前在机器学习领域普遍受到开发者的欢迎,Facebook的PyTorch和谷歌TensorFlow的框架基础均是由Python写成。
Python
LeCun在周一举行的ISSCC大会上发表了一篇论文,是探讨有关下一代计算机芯片最新趋势的。在论文中,LeCun介绍了他从BellLabs得到的收获,例如他观察到AI研究者和计算机科学家对未来的展望往往会被硬件和软件工具限制。更好的硬件带来更好的算法,更好的算法带来更好的性能,更好的性能驱使人们开发更好的硬件,这一良性循环存在不过几年之久。
LeCun在论文中表示,“下一个十年,AI的发展方向将极大地受到硬件发展的影响。”他强调了一些硬件厂商应当提前几年考虑到的AI趋势并就未来所需的AI架构种类给出了自己的建议,他还建议开发者不要忽视了深度学习系统不断增长的体量。
除此之外,LeCun在论文中也提及了对专门为深度学习而设计的硬件的需求,并强调了自我监督学习将会在艺术AI的高阶阶段发挥主要作用。LeCun相信,未来深度学习系统的训练将通过自我学习和高性能硬件来完成。