近日,北京大学人工智能研究院孙仲研究员团队与集成电路学院团队联合攻关,在全球顶级学术期刊《自然·电子学》发表了突破性研究成果——成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算
芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统。
该芯片在在解决大规模MIMO信号检测等关键科学问题时,展现出惊人的性能优势:
其计算吞吐量和能效比现有最先进的数字处理器(GPU)提升了100-1000倍,为人工智能、无线通信等领域的计算带来革命性突破。相关论文于10月13日刊发于《自然·电子学》期刊。
如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的世纪难题。
孙仲团队选择了一条融合创新的道路,通过新型信息器件、原创电路和经典算法的协同设计,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器,首次将模拟计算的精度提升至24位定点精度。
在计算精度方面,团队在实验上成功实现16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级。在计算性能方面,在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量更达到顶级数字处理器的1000倍以上,传统GPU干一天的活,这款芯片一分钟就能搞定。同时,该方案在相同精度下能效比传统数字处理器提升超100倍,为高能效计算中心提供了关键技术支撑。
这项研究开创性地解决了模拟计算长期存在的精度不足问题,为突破传统数字计算的"内存墙"和"功耗墙"提供了全新的技术路径。该成果的研发得到国家自然科学基金委重大研究计划等项目的资助。