在信息科学领域,有一个颇具挑战性的前沿科学问题便是:计算机处理速度是否有上限?
不可否认,人工智能时代,处理和存储单元分离的冯诺依曼计算架构瓶颈逐渐显现,这导致传统计算机在有着大规模计算需求的物联网、自动驾驶等应用场景中面临巨大挑战。
突破这一挑战的关键是发展并行计算技术,通过提高并行度来提升处理速度的上限。
但是,常规的多核、多芯片、多板卡并行计算系统均采用“空间换时间”的妥协方式来提升算力。
能否有进一步的突破呢?
南京大学物理学院缪峰教授表示:“神经形态计算的出发点,便是为了解决目前冯诺依曼计算架构面临的包括存储墙、功耗墙等在内的诸多重大挑战,最终形成颠覆冯诺依曼架构的全新计算范式,使其类似人类大脑,同时具备极低功耗、极高并行度、自主学习决策等特征。”
缪峰教授团队引入忆阻器交叉阵列,这是因为其在神经形态计算方面具有优良的性能,可实时连续地处理动态信息,可以说是绝佳的信息载体。
基于忆阻器交叉阵列,该团队首次提出了迄今最高并行度的神经形态类脑计算方案,成功实现了对 16 张字母图片的并行读取、并行识别、与识别结果无线传输的功能演示。
该计算方案既为未来人工智能时代填补海量数据计算需求所面临的算力缺口提供了可行的技术途径,也为利用大规模并行计算技术在神经形态计算领域的应用提供了科学依据。
相关研究成果于7月8日发表在《自然-纳米技术》上。
前瞻经济学人APP资讯组
品牌、内容合作请点这里:寻求合作 ››
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载APP
关注微信号
扫一扫下载APP
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
违法和不良信息举报电话:400-068-7188 举报邮箱:service@qianzhan.com 在线反馈/投诉 中国互联网联合辟谣平台
Copyright © 1998-2025 深圳前瞻资讯股份有限公司 All rights reserved. 粤ICP备11021828号-2 增值电信业务经营许可证:粤B2-20130734