【手机中国新闻】根据外媒报道,IBM研究人员希望专门设计为神经网络运行定制的新芯片,并可以提供更快,更高效的解决方案。
图片来自IBM Research
GPU 运行神经网络的方法近年来已经为人工智能领域带来了惊人的进步,但是直到十年前,研究人员才意识到为视频游戏设计的GPU(图形处理单元)可以用作硬件加速器来运行比以前更大的神经网络。这要归功于GPU芯片能够执行大量的并行计算,而不必像传统的CPU一样顺序地完成这些计算。这对于同时计算组成当今深度学习网络的数百个神经元的权重特别有用。而现在深度学习网络则正是由大量神经元构成的。
虽然GPU的加入使得该领域取得了巨大的进展,但这些芯片仍将处理和内存分开,这意味着在这两者之间传输数据需要花费大量时间和精力。这促使人们对新的存储技术进行研究,这些技术既可以在相同的位置存储和处理这些重量数据,也可以提高速度和能源效率。
图片来自IBM Research
IBM Research的博士后研究员Stefano Ambrogio 在接受采访时表示:“我们可以对比GPU更快的系统进行培训,但是如果培训操作中的准确性不够用,那就没用。到目前为止还没有证据表明使用这些新型设备和使用 GPU 一样精确。”
那么这种专用芯片能做什么?Ambrogio表示有两个主要应用:在个人设备中实施AI可以防止用户通过云共享数据,提高隐私性,将AI引入个人设备并使数据中心效率更高。后者是大型科技公司的主要关注点,这些公司的服务器运营成本一直居高不下。但Ambrogio表示更令人兴奋的前景是AI的个性化。
版权所有,未经许可不得转载