当全球科技界仍在追逐GPU算力堆叠与制程微缩时,一场颠覆性的算力革命已在东大悄然爆发。北京大学人工智能研究院孙仲团队联合集成电路学院成功攻克高精度模拟计算的世纪难题,研制出全球首款可扩展的24位定点精度模拟矩阵芯片。实测数据显示,该芯片在求解128×128规模矩阵问题时,计算吞吐量达到顶级GPU的千倍以上,能效比提升超百倍。这一突破不仅为AI大模型训练、6G通信、科学计算等领域开辟全新算力赛道,更标志着东大在后摩尔时代的技术突围中抢占了战略制高点。

一、破局“内存墙”:模拟计算的涅槃重生传统数字计算虽精度高,却受限于冯·诺依曼架构的“内存墙”瓶颈——数据在处理器与内存间的频繁搬运导致能效骤降、算力停滞。而模拟计算虽能以超低功耗实现并行运算,却因精度低、噪声大、难以扩展,长期被束之高阁。东大团队独辟蹊径,通过阻变存储器阵列与迭代算法的协同设计,首次将模拟计算精度推至24位定点水平。其核心创新在于“近似解+位切片细化”策略:先以模拟计算快速求解矩阵方程近似解,再通过数字迭代逼近高精度结果,兼顾速度与准确性。这种“模拟-数字混合架构”彻底打破了精度与能效的互斥定律。(本文由AI辅助生成)
2025-11-09 21:53:50
2025-11-09 23:18:44
2025-11-09 23:07:55
2025-11-09 22:27:18
2025-11-09 22:03:16
2025-11-08 22:09:29
2025-11-08 22:17:49
2025-11-08 22:45:03
2025-11-08 23:00:30
2025-11-08 22:37:17
2025-11-07 22:18:45
2025-11-07 23:32:14
2025-11-07 23:22:37
2025-11-07 21:48:27
2025-11-07 22:22:39
2025-11-07 22:02:58
2025-11-07 21:55:53
2025-11-07 13:22:32
2025-11-07 11:47:36
2025-11-07 12:37:48
2025-11-07 13:12:45
2025-11-07 12:28:29
2025-11-07 12:54:21
2025-11-07 12:33:16
2025-11-07 12:43:50