?

人工智能芯片的DNA

2019-01-17 03:11
單片機與嵌入式系統應用 2018年12期
關鍵詞:存儲器內存架構

過去十年間,幾項技術的進步使人工智能 (AI)成為最令人振奮的技術之一。2012年,Geoffrey Everest Hinton在Imagenet挑戰賽中展示了他的廣義反向傳播神經網絡算法,該算法使計算機視覺領域發生了革命性變化。然而,機器學習理論早在2012年之前就有人提出,并且Nvidia GTX 580圖形處理器單元等微處理器使這一理論得以實現。這些處理器具有相對較高的內存帶寬能力且擅長矩陣乘法,可將該神經網絡模型的AI訓練時間縮短至大約一周。理論與算法的結合開啟了新一代技術進步,帶來了與AI相關的全新可能性。本文概述了人工智能設計新時代及其多樣化處理、內存和連接需求。

人工智能剖析

我們將神經網絡定義為深度學習,它是機器學習及人工智能的一個子集,如圖1所示。這是一個重要的分類,深度學習改變了芯片系統架構設計。

圖1 人工智能采用深度學習算法模仿人類行為

深度學習不僅改變了芯片架構,而且催生了半導體市場的新一輪投資。深度學習算法模型是研發和商業投資的熱點,例如卷積神經網絡 (CNN)。CNN一直是機器視覺的主要焦點。遞歸神經網絡等模型因其識別時間的能力而在自然語言理解中得以應用。

人工智能的應用

深度學習神經網絡應用于許多不同的場景,為使用它們的人提供了強大的新工具。例如,它們可以支持高級安全威脅分析、預測和防止安全漏洞,并通過預測潛在買家的購物流程來幫助廣告商識別和精簡銷售流程。

但AI設計并未局限于數據中心,諸如用于物件和人臉識別的視覺系統、用于改進人機接口的自然語言理解以及周圍環境感知等許多新功能可基于傳感器輸入的組合而使機器理解正在發生的活動。這些深度學習能力已融入到不同場景所需的芯片設計中,包括智能汽車、數字家庭、數據中心和物聯網 (IoT)。

手機利用神經網絡實現上述多種AI功能。手機可運行人臉識別應用、物件識別應用、自然語言理解應用。此外,它在內部使用神經網絡進行5G自組織,因為無線信號在其他介質、不同的光譜上會變得更密集,并且所傳輸的數據有不同的優先級。

人類大腦

最近,深度學習通過數學和半導體硬件的進步變得可行。業界已開展多項舉措,在下一代數學模型和半導體架構中更好地復制人腦,這通常被稱為神經形態計算。人類的大腦可以達到難以置信的高效率,但技術在復制人類大腦等方面才剛開始觸及皮毛。人類大腦包含超過1 PB (Petabyte=1024 TB)的存儲空間,相當于大約540萬億個晶體管,且功率小于12瓦。從這點來說,復制大腦是一個長遠的目標。然而,ImageNet挑戰賽已從2012年的第一個反向傳播CNN算法發展到2015年更高級的AI模型ResNet 152,市場正在快速發展,新的算法層出不窮。

AI設計挑戰

融合深度學習能力的芯片架構促使了多項關鍵技術的進步,從而達到高度集成的解決方案和更通用的AI 芯片,包含專用處理需求、創新內存架構和實時數據連接。

(1)專用處理需求

融合神經網絡能力的芯片必須同時適應異構和大規模并行矩陣乘法運算。異構組件需要標量、矢量DSP和神經網絡算法能力。例如,機器視覺需要獨立的步驟,每一步都需要執行不同類型的處理,如圖2所示。

圖2 神經網絡能力需要獨特的處理

預處理需要更簡單的數據級并行性。對所選區域的精確處理需要更復雜的數據級并行性,可以通過具有良好矩陣乘法運算能力的專用CNN加速器有效地處理。決策階段通??梢酝ㄟ^標量處理的方式來處理。每個應用都是獨一無二的,但很明顯的是,包括神經網絡算法加速的異構處理解決方案需要有效地處理AI模型。

(2)創新內存架構

AI模型使用大量內存,這增加了芯片的成本。訓練神經網絡要求達到幾GB甚至10 GB的數據,這就需要使用DDR最新技術,以滿足容量要求,例如,作為圖像神經網絡的VGG-16在訓練時需要大約9 GB的內存;更精確的模型VGG-512需要89 GB的數據才能進行訓練。為了提高AI模型的準確性,數據科學家使用了更大的數據集。同樣,這會增加訓練模型所需的時間或增加解決方案的內存需求。由于需要大規模并行矩陣乘法運算以及模型的大小和所需系數的數量,這就要求配備具有高帶寬存取能力的外部存儲器及新的半導體接口IP,如高帶寬存儲器 (HBM2)和衍生產品 (HBM2e)。先進的FinFET技術支持更大的芯片SRAM陣列和獨特的配置,具有定制的存儲器到處理器和存儲器到存儲器接口,這些技術正在開發中,為了更好地復制人腦并消除存儲器的約束。

AI模型可以壓縮,確保模型在位于手機、汽車和物聯網應用邊緣的芯片中受限的存儲器架構上運行所必需的。壓縮采用剪枝和量化技術進行且不能降低結果的準確性,這就要求傳統芯片架構(具有LPDDR或在某些情況下沒有外部存儲器)支持神經網絡。隨著這些模型的壓縮,不規則的存儲器存取和計算強度增加,延長了系統的執行時間。因此,系統設計人員正在開發創新的異構存儲器架構。

(3)實時數據連接

一旦AI模型經過訓練并可能被壓縮,就可以通過許多不同的接口IP解決方案執行實時數據。例如,視覺應用由CMOS圖像傳感器支持,并通過MIPI攝像頭串行接口 (CSI-2)和MIPI D-PHY IP連接。LiDAR和雷達可通過多種技術支持,包括PCI Express和MIPI。麥克風通過USB、脈沖密度調制 (PDM) 和I2S等連接傳輸語音數據。數字電視支持HDMI和DisplayPort連接,以傳輸視頻內容,而這些內容可通過神經網絡傳輸后得到改善,實現超高圖像分辨率,從而以更少的數據生成更高質量的圖像。目前,大多數電視制造商正在考慮部署這項技術。

混合AI系統是另一個預計會大量采用的概念。例如,心率算法通過健身帶上的AI系統可以識別異常,通過將信息發送到云端,對異常進行更準確的深入AI神經網絡分析,并加以提示。這類技術已經成功地應用于電網負載的平衡,特別是在電線中斷或出現意外重負荷的情況下。為了支持快速、可靠的網絡與云端連接,上述示例中的聚合器需要以太網連接。

消除瓶頸

盡管復制人類大腦還有很長的路要走,但人類大腦已被用作構建人工智能系統的有效模型,并繼續由全球領先的研究機構來建模。最新的神經網絡試圖復制效率和計算能力,芯片架構也開始通過緊密耦合處理器和內存來復制人類大腦。ARC子系統包括AI及其APEX擴展和普遍存在的RISC架構所需的處理能力。子系統將外設和存儲器緊密耦合到處理器,以消除關鍵的存儲器瓶頸問題。

用于AI的DesignWare IP

AI是最令人振奮的技術之一,特別是深度學習神經網絡,通過結合神經網絡算法的創新以及高帶寬、高性能半導體設計的創新而飛速發展。

新思科技正在與世界各地細分市場中領先的AI 芯片供應商合作,提供采用經過驗證的可靠IP解決方案,幫助他們降低芯片設計風險,加快產品上市速度,并為AI設計人員帶來關鍵的差異化優勢。

專用處理需求、創新內存架構和實時數據連接構成了人工智能芯片的DNA,面對AI設計挑戰,新思科技提供了許多專業處理解決方案來消除存儲器瓶頸,包括存儲器接口IP、帶有TCAM和多端口存儲器的芯片SRAM編譯器等,同時提供了全面的實時數據連接選項。這些IP解決方案是下一代AI設計的關鍵組件。

關于新思

新思科技(Synopsys, Inc.)致力于創新改變世界,在芯片到軟件的眾多領域,新思科技始終引領技術趨勢,與全球科技公司緊密合作,共同開發人們所依賴的電子產品和軟件應用。新思科技是全球排名第一的芯片自動化設計解決方案提供商,全球排名第一的芯片接口IP供應商,同時也是信息安全和軟件質量的全球領導者。作為半導體、人工智能、汽車電子及軟件安全等產業的核心技術驅動者,新思科技的技術一直深刻影響著當前全球五大新興科技創新應用:智能汽車、物聯網、人工智能、云計算和信息安全。

猜你喜歡
存儲器內存架構
基于FPGA的RNN硬件加速架構
靜態隨機存儲器在軌自檢算法
外部高速緩存與非易失內存結合的混合內存體系結構特性評測
功能架構在電子電氣架構開發中的應用和實踐
“春夏秋冬”的內存
LSN DCI EVPN VxLAN組網架構研究及實現
一種基于FPGA+ARM架構的μPMU實現
存儲器——安格爾(墨西哥)▲
基于Nand Flash的高速存儲器結構設計
基于內存的地理信息訪問技術
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合