首页 网路商报正文
原标题:IBM采用相变存储器技术使存内计算再上新台阶

【据美国科技探索网站2020年5月19日报道】IBM欧洲研发中心研发出一种基于相变存储器(PCM)的非·冯诺依曼架构芯片技术能像人脑一样在存储中执行计算任务,以超低功耗实现复杂且准确的深度神经网络推理。

当前,智能系统的内存和处理单元相互分离,不仅传输数据需要花费时间,巨大的数据传输还会使系统消耗大量的能量。IBM公司在《自然-通讯》上发表了一项研究,研究人员设计了一种基于相变存储器的更快、更经济地执行代码的方法。相变存储器是一种随机存取存储器(RAM),其含有可以在非晶态和晶态之间快速转换的材料,性能比闪存模块更佳,并被成为是“完美的随机存取存储器”。相变技术的关键优势存储状态不需要连续供电就能保持稳定,添加数据时不需要擦除周期。此外,由于程序可以直接从内存中执行,相变存储器的运行速度更快。

深度神经网络(DNN)促进了图像和语音识别、游戏和机器人等领域智能化技术的发展,同时对代码的执行效率提出了更高的要求。目前,深度神经网络大多在冯·诺伊曼架构上运行,谷歌的张量处理器(tensor processing unit)、NVIDIA的GPU Tesla T4均属于冯·诺伊曼架构。IBM研究人员表示:“随着深度学习的不断发展,系统的信息处理能力需求越来越高,任务能耗不断攀升,然而通过建造更多的发电厂来满足需求是不经济的。显然,通过优化微芯片和硬件提高效率、减少功率是具有可持续性的解决方案”IBM公司将相变存储器与人脑作类比,认为该技术就像大脑一样,可实现存算一体,功耗会更低。

但是,传统的相变存储器存在一些缺点,其中之一是引入了读写电导噪声而导致计算不准确。IBM通过在深度神经网络训练期间引入随机噪声,提高了非理想条件下的模型准确率,在CIFAR-10数据集上的准确率达93.7%,是迄今为止任何模拟电阻式存储硬件在CIFAR-10数据集上所产生的最高分类准确率。IBM表示正在对利用小规模卷积神经网络和生成对抗网络进行研究,以进一步提高模型的准确性。未来,快速、低功率且可靠准确的深度神经网络推理引擎将大大加速物联网、自动驾驶汽车等领域人工智能技术应用的发展。(国家工业信息安全发展研究中心 刘彧宽)

评论