【導讀】在當今計算技術快速發展的浪潮中,模擬計算作為一種獨特的計算范式,正日益彰顯其特有的吸引力與潛力。與依賴離散數字信號的傳統數字計算不同,模擬計算直接運用物理定律,借助連續變化的物理量(如電壓、電流等)來完成計算任務。這種計算方式在能效和速度上具有明顯優勢,因為它繞過了數字計算中繁瑣的數模轉換步驟,能夠更直接、高效地處理信息。近年來,隨著人工智能硬件領域的迅速興起,模擬計算憑借其高效能特性,受到了廣泛的關注和深入研究。
在模擬計算的廣泛范疇內,模擬存內計算作為一項新興技術,已成為當前研究的熱點。其核心理念是將計算與數據存儲深度融合,直接在存儲單元內部完成計算操作,從而大幅減少數據在存儲與計算單元之間的搬運次數,顯著提升了計算效率并降低了能耗。這種計算模式尤其適合需要處理海量數據的應用場景,如神經網絡推理和圖像處理等,為人工智能硬件的發展開辟了新的路徑。然而,盡管模擬計算與模擬存內計算具備諸多優點,目前仍普遍面臨計算精度不高、穩定性不足的挑戰。這主要是因為現有模擬硬件方案高度依賴于器件本身的物理參數(如電阻值),而這些參數在編程過程中往往存在較大的隨機偏差,且容易受溫度等環境因素干擾。上述特性限制了模擬計算精度的提升,成為制約其實際應用的關鍵瓶頸。
最近,南京大學物理學院繆峰教授與梁世軍教授課題組針對這一難題,提出了一種高精度模擬計算方案,為模擬存內計算領域帶來了重要突破。該方案將模擬計算權重的實現方式,從易受干擾、不穩定的物理參數(如器件電阻)轉向高度穩定的器件幾何尺寸比例,從而突破了制約模擬計算精度的主要障礙。
基于這一創新思路,研究團隊設計并驗證了一款采用標準CMOS工藝的模擬存內計算芯片。結合權重重映射技術,該芯片在并行向量-矩陣乘法運算中實現了僅0.101%的均方根誤差,創造了模擬向量-矩陣乘法運算精度的最高紀錄。值得一提的是,該芯片在-78.5°C和180°C的極端溫度條件下仍能穩定工作,矩陣計算的均方根誤差分別保持在0.155%和0.130%,顯示出在極端環境下維持高計算精度的卓越能力。此外,該方案還可適配多種二值存儲介質,具備廣泛的應用前景。
本研究的核心思路是將模擬計算權重的實現基礎從器件參數轉向器件的幾何比例(圖1A),利用器件幾何比例在制備完成后高度穩定的特性,實現高精度計算(圖1B)。基于該思路,團隊通過電路拓撲設計,結合存儲單元和開關器件,構建了可編程的計算單元(圖1C)。該單元通過兩級依賴尺寸比例的電流拷貝電路,實現輸入電流與8比特權重的乘法運算:第一級的幾何比例由8位存儲器控制;第二級為固定比例,為不同列上的第一級輸出電流賦予對應的二進制權重。兩級共同作用,決定了計算單元的整體等效比例,從而實現權重可編程的模擬乘法運算。通過將這些計算單元以陣列形式排布,團隊成功設計出一款高精度電流域向量-矩陣乘法芯片(圖1D)。
圖1:高精度模擬計算方案與電路結構。(A) 概念示意圖。本方案利用器件的物理尺寸決定模擬信號的運算關系。(B) 實現效果示意圖。利用器件物理尺寸的穩定性,本方案可實現超越傳統方案的計算精度。(C) 計算單元原理圖。通過兩級依賴尺寸比例的電流拷貝電路設計,結合存儲單元和開關器件,構建了等效尺寸比例可編程的計算單元,實現輸入電流與8比特權重的模擬乘法運算。(D) 計算陣列原理圖。通過陣列化排布計算單元,設計高精度電流域向量-矩陣乘法芯片。
隨后,研究團隊基于180nm CMOS工藝對該方案進行了流片驗證。芯片照片與測試電路如圖2A所示。團隊通過執行多輪隨機向量-矩陣乘法,全面測試了芯片的計算精度。測試所用矩陣規模為64×32(圖2B),由4塊芯片共同組成。同時,團隊提出了一種權重重映射方法(圖2C),能夠充分利用器件尺寸比例的穩定性,進一步提高芯片的計算精度。在1500次隨機向量-矩陣乘法實驗中,芯片的實際輸出結果與理論值幾乎完全吻合(圖2D),顯示出極高的計算精度。進一步的統計分析表明,芯片計算相對誤差的均方根僅為0.101%(圖2E),刷新了模擬計算領域的最高精度紀錄。與其他先進模擬計算方案相比,本芯片的計算精度顯著提升(圖2F)。
圖2:高精度模擬向量-矩陣乘法測試。(A) 芯片和測試電路照片。(B) 模擬向量-矩陣乘法精度測試電路原理圖。(C) 權值重映射方法示意圖。該方法能進一步提高芯片計算精度。(D) 1500組隨機向量-矩陣乘法結果。理想輸出與實際輸出幾乎重合。(E) 歸一化計算誤差的分布圖,統計得其均方根僅為0.101%。(F) 本芯片與其他先進模擬計算方案的精度對比。
該芯片所具備的超高模擬向量-矩陣乘法精度,使其在實際任務中表現卓越。研究團隊首先測試了芯片在神經網絡推理任務中的效果:利用該高精度模擬存算芯片執行圖3A所示神經網絡中的所有卷積層和全連接層運算,在MNIST測試集上的識別準確率達到97.97%(圖3C),與64位浮點精度下的軟件識別結果相近(僅相差-0.49%),并顯著優于傳統模擬計算硬件(提升+3.82%)。進一步,團隊評估了芯片在科學計算中的表現,利用該芯片求解納維–斯托克斯方程以模擬流體流動行為。實驗結果顯示,芯片計算得到的流體運動狀態(圖3D)與64位浮點精度下的軟件結果高度一致(圖3E),而傳統低精度模擬計算硬件在相同任務中則無法得出正確結果(圖3F)。
圖3:高精度模擬計算芯片的應用表現。(A) 神經網絡結構與數據集。(B) 在MNIST測試集上識別結果的混淆矩陣,識別率達到97.97%。(C) 準確率對比。高精度模擬計算芯片測試結果與64位浮點精度下的軟件識別率相近(-0.49%),顯著優于傳統模擬計算硬件(+3.82%)。(D) 高精度模擬計算芯片求解納維–斯托克斯方程得到的流體行為預測結果。(E) 64位浮點精度下的軟件計算結果,本芯片結果與其高度一致。(F) 低精度模擬計算硬件的結果無法準確反映流體行為。
研究團隊不僅驗證了該模擬存算芯片的超高計算精度,還測試了其在極端環境下保持計算精度的魯棒性。即便在外部環境變化的情況下,器件的幾何比例仍能保持恒定,使芯片在極端條件下依然維持較高的計算精度。團隊在-78.5℃和180℃的環境下執行模擬向量-矩陣乘法測試,測得相對誤差的均方根分別僅為0.155%和0.130%(圖4A、B)。在更寬溫度范圍(-173.15℃至286.85℃)的測試中,芯片核心單元的輸出電流相對于常溫條件的最大偏差僅為1.47%(圖4C-F)。此外,團隊還在強磁場環境(最高10T)中對芯片輸出電流進行了測量,結果顯示,芯片核心單元的輸出電流相較于無磁場條件的變化不超過0.21%(圖4G-J)。以上結果充分證明了該高精度模擬計算方案在極端環境下的可靠性。
圖4:高精度模擬計算芯片的魯棒性測試。(A) 低溫下(-78.5℃)芯片的向量-矩陣乘法精度測試結果。測得芯片輸出的相對誤差均方根為0.155%。(B) 高溫下(180℃)芯片的向量-矩陣乘法精度測試結果。測得芯片輸出的相對誤差均方根為0.130%。(C) 將芯片核心單元置于更寬溫區(-173.15℃至286.85℃)進行測試的示意圖。(D)-(F) 寬溫區下的輸出電流測量結果。相對于常溫條件,輸出電流偏差不超過1.47%。(G) 將芯片核心單元置于強磁場(最高10T)下進行精度測試的示意圖。(H)-(J) 強磁場下的輸出電流測量結果。相對于零磁場條件,輸出電流偏差不超過0.21%。
相關研究成果以“Ultrahigh-precision analog computing using memory-switching geometric ratio of transistors”(基于器件尺寸比例穩定性的超高精度模擬計算方案)為題,于2025年9月12日發表在學術期刊《Science Advances》上。