愛伊米

2022人工智慧晶片解讀-技術層面篇

一、基於技術架構、部署位置及實踐目標的AI晶片分類

AI晶片一般泛指所有用來加速AI應用,尤其是用在基於神經網路的深度學習中的硬體。

AI晶片根據其技術架構,可分為GPU、FPGA、ASIC及類腦晶片,同時CPU可執行通用AI計算,其中類腦晶片還處於探索階段。

AI晶片根據其在網路中的位置可以分為雲端AI晶片、邊緣及終端AI晶片;根據其在實踐中的目標,可分為訓練(training)晶片和推理(inference)晶片。

雲端主要部署訓練晶片和推理晶片,承擔訓練和推理任務,具體指智慧資料分析、模型訓練任務和部分對傳輸頻寬要求比高的推理任務;邊緣

和終端主要部署推理晶片,承擔推理任務,需要獨立完成資料收集、環境感知、人機互動及部分推理決策控制任務。

2022人工智慧晶片解讀-技術層面篇

二、GPU:從圖形處理器到通用資料並行處理器

GPU(Graphics Processing Unit)圖形處理器最初是一種專門用於影象處理的微處理器,隨著影象處理需求的不斷提升,其影象處理能力也得到迅速提升。目前,GPU主要採用資料平行計算模式完成頂點渲染、畫素渲染、幾何渲染、物理計算和通用計算等任務。因其超過CPU數十倍的計算能力,已成為通用計算機和超級計算機的主要處理器。其中通用圖形處理器GPGPU(GeneralPropose Computing on GPU)常用於資料密集的科學與工程計算中。

英偉達與AMD仍佔據GPU霸主地位,2018年至今,國產GPU也積極發展中,已有部分產品落地。

2022人工智慧晶片解讀-技術層面篇

三、ASIC與FPGA: AI晶片領域“兵家必爭之地”

FPGA全稱是Field Programmable Gate Array:可程式設計邏輯閘陣列,是一種“可重構”晶片,具有模組化和規則化的架構,主要包含可程式設計邏輯模組、片上儲存器及用於連線邏輯模組的克重購互連層次結構。在較低的功耗下達到GFLOPS數量級的算力使之成為並行實現人工神經網路的替代方案。

ASIC(Application-Specific Integrated Circuit)是指應特定使用者要求和特定電子系統的需要而設計、製造的積體電路。ASIC從效能、能效、成本均極大的超越了標準晶片,非常適合AI計算場景,是當前大部分AI初創公司開發的目標產品。

2022人工智慧晶片解讀-技術層面篇

四、ASIC與FPGA:功能與市場定位不同,競爭關係不明顯

FPGA具有開發週期短,上市速度快,可配置性等特點,目前被大量的應用在大型企業的線上資料處理中心和軍工單位。ASIC一次性成本遠遠高於FPGA,但由於其量產成本低,應用上就偏向於消費電子,如移動終端等領域。

目前,處理器中開始整合FPGA,也出現了可程式設計的ASIC,同時,隨著SoC的發展,兩者也在互相融合。

2022人工智慧晶片解讀-技術層面篇

五、基於不同硬體實現方式的AI晶片:系統級晶片

在手機、可穿戴裝置等端裝置中,很少有獨立的晶片,AI加速將由SoC上的一個IP實現。

SoC(System-on-chip,片上系統)作為ASIC設計方法學中的新技術,始於20世紀90年代中期,是以嵌入式系統為核心,以IP複用技術為基礎,集軟、硬體於一體的整合晶片。在一個晶片上實現訊號的傳輸、儲存、處理和I/O等功能,包含嵌入軟體及整個系統的全部內容。

由於高整合效能,SoC已經成為微電子晶片發展的必然趨勢。

2022人工智慧晶片解讀-技術層面篇

六、基於不同計算正規化的AI晶片:類腦晶片

CPU/GPU/GFPGA/ASIC及SoC是目前用的較多的AI晶片,此類AI晶片大多是基於深度學習,也就是深度神經網路(DNN),以並行方式進

行計算的晶片,此類AI晶片又被稱為深度學習加速器。

如今,模仿大腦結構的晶片具有更高的效率和更低的功耗,這類基於神經形態計算,也就是脈衝神經網路(SNN)的晶片為類腦晶片。

目前,部分企業產品已進入小批次試用階段 ,類腦晶片最快將於2023年成熟,能效比有望較當前晶片提高2-3個數量級。

2022人工智慧晶片解讀-技術層面篇

七、AI晶片發展:向著更低功耗、更接近人腦、更靠近邊緣的方向

現在用於深度學習的AI晶片(包括CPU、GPU、FPGA、ASIC)為了實現深度學習的龐大乘積累加運算和平行計算的高效能,芯片面積越做越大,帶來了成本和散熱等問題。AI晶片軟體程式設計的成熟度、晶片的安全,神經網路的穩定性等問題也未能得到很好的解決,因此,在現有基礎上進行改進和完善此類AI晶片仍是當前主要的研究方向。

最終,AI晶片將近一步提高智慧,向著更接近人腦的高度智慧方向不斷髮展,並向著邊緣逐步移動以獲得更低的能耗。

2022人工智慧晶片解讀-技術層面篇

八、AI晶片發展:計算正規化創新方向及其硬體實現

AI硬體加速技術已經逐漸走向成熟。未來可能更多的創新會來自電路和器件級技術的結合,比如存內計算,類腦計算;或者是針對特殊的計算模式或者新模型,比如稀疏化計算和近似計算,對圖網路的加速;或者是針對資料而不是模型的特徵來最佳化架構。

同時,如果演算法不發生大的變化,按照現在AI加速的主要方法和半導體技術發展的趨勢,或將在不遠的將來達到數位電路的極限(約1到10TFlops/W),往後則要靠近似計算,模擬計算,甚至是材料或基礎研究上的創新。

2022人工智慧晶片解讀-技術層面篇