a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

新聞中心

EEPW首頁 > 智能計算 > 市場分析 > 億歐智庫:2022年中國AI芯片行業深度研究

億歐智庫:2022年中國AI芯片行業深度研究

作者: 時間:2022-03-21 來源:億歐智庫 收藏

四大類人工智能芯片(、FGPA、類腦芯片)及系統級智能芯片在國內的發展進度層次不齊。用于云端的訓練、推斷等大算力通用 芯片發展較為落后;適用于更多垂直行業的終端應用芯片如自動駕駛、智能安防、機器人等專用芯片發展較快。超過80%中國人工智能產業鏈企 業也集中在應用層。 

本文引用地址:http://www.j9360.com/article/202203/432210.htm


總體來看,人工智能芯片的發展仍需基礎科學積累和沉淀,因此,產學研融合不失為一種有效的途徑。

研究主體界定:面向人工智能領域的芯片及其技術、算法與應用

無芯片不AI , 以為載體實現的算力是人工智能發展水平的重要衡量標準。 

廣義的:專門用于處理人工智能應用中大量計算任務的模塊,即面向人工智能領域的芯片均被稱為。 狹義的AI芯片:針對人工智能算法做了特殊加速設計的芯片。



2022中國AI芯片報告》報告將對針對狹義的AI芯片即人工智能算法做特殊加速設計的四種主流芯片、、類腦芯片以及系統級AI芯片技術、實現 AI的主流算法及在場景中的應用情況進行解析。


AI芯片的發展歷程:模仿人腦建立的模型和算法與半導體芯片發展交替進行

人工智能算法需要在計算機設備上實現,而芯片又是計算機設備運作的核心零件,因此AI芯片的發展主要依賴兩個領域:第一個是模仿人腦建 立的數學模型與算法,第二個是半導體集成電路即芯片。優質的算法需要足夠的運算能力也就是高性能芯片的支持。


億歐智庫2019年發布AI芯片報告認為,人工智能于芯片的發展分為三個階段:第一階段由于芯片算力不足,神經網絡算法未能落 地;第二階段芯片算力提升,但仍無法滿足神經網絡算法需求;第三階段,和新架構的AI芯片促進了人工智能的落地。 


目前,隨著第三代神經網絡的出現,彌合了神經科學與機器學習之間的壁壘,AI芯片正在向更接近人腦的方向發展。


中國AI芯片產業圖譜


基于技術架構、部署位置及實踐目標的AI芯片分類 

AI芯片一般泛指所有用來加速AI應用,尤其是用在基于神經網絡的深度學習中的硬件。 


AI芯片根據其技術架構,可分為GPU、及類腦芯片,同時CPU可執行通用AI計算,其中類腦芯片還處于探索階段。 


AI芯片根據其在網絡中的位置可以分為云端AI芯片、邊緣及終端AI芯片根據其在實踐中的目標,可分為訓練(training)芯片推理 (inference)芯片。


云端主要部署訓練芯片和推理芯片,承擔訓練和推理任務,具體指智能數據分析、模型訓練任務和部分對傳輸帶寬要求比高的推理任務;邊緣 和終端主要部署推理芯片,承擔推理任務,需要獨立完成數據收集、環境感知、人機交互及部分推理決策控制任務。



GPU:從圖形處理器到通用數據并行處理器 

GPU(Graphics Processing Unit)圖形處理器最初是一種專門用于圖像處理的微處理器,隨著圖像處理需求的不斷提升,其圖像處理能力也得 到迅速提升。目前,GPU主要采用數據并行計算模式完成頂點渲染、像素渲染、幾何渲染、物理計算和通用計算等任務。因其超過CPU數十倍 的計算能力,已成為通用計算機和超級計算機的主要處理器。其中通用圖形處理器GPGPU(GeneralPropose Computing on GPU)常用于數據 密集的科學與工程計算中。 


英偉達與AMD仍占據GPU霸主地位,2018年至今,國產GPU也積極發展中,已有部分產品落地。



ASIC與: AI芯片領域“兵家必爭之地” 

FPGA全稱是Field Programmable Gate Array:可編程邏輯門陣列,是一種“可重構”芯片,具有模塊化和規則化的架構,主要包含可編程 邏輯模塊、片上儲存器及用于連接邏輯模塊的克重購互連層次結構。在較低的功耗下達到GFLOPS數量級的算力使之成為并行實現人工神經 網絡的替代方案。 


ASIC(Application-Specific Integrated Circuit)是指應特定用戶要求和特定電子系統的需要而設計、制造的集成電路。ASIC從性能能效、 成本均極大的超越了標準芯片,非常適合AI計算場景,是當前大部分AI初創公司開發的目標產品。



ASIC與FPGA:功能與市場定位不同,競爭關系不明顯 

FPGA具有開發周期短,上市速度快,可配置性等特點,目前被大量的應用在大型企業的線上數據處理中心軍工單位。ASIC一次性成本遠遠 高于FPGA,但由于其量產成本低,應用上就偏向于消費電子,如移動終端等領域。


目前,處理器中開始集成FPGA,也出現了可編程的ASIC,同時,隨著SoC的發展,兩者也在互相融合。



基于不同硬件實現方式的AI芯片:系統級芯片 

在手機、可穿戴設備等端設備中,很少有獨立的芯片,AI加速將由SoC上的一個IP實現。 


SoC(System-on-chip,片上系統)作為ASIC設計方法學中的新技術,始于20世紀90年代中期,是以嵌入式系統為核心,以IP復用技術為基 礎,集軟、硬件于一體的集成芯片。在一個芯片上實現信號的傳輸、存儲、處理和I/O等功能,包含嵌入軟件及整個系統的全部內容。 


由于高集成效能,SoC已經成為微電子芯片發展的必然趨勢。



基于不同計算范式的AI芯片:類腦芯片 

CPU/GPU/GFPGA/ASIC及SoC是目前用的較多的AI芯片,此類AI芯片大多是基于深度學習,也就是深度神經網絡(DNN),以并行方式進 行計算的芯片,此類AI芯片又被稱為深度學習加速器


如今,模仿大腦結構的芯片具有更高的效率和更低的功耗,這類基于神經形態計算,也就是脈沖神經網絡(SNN)的芯片為類腦芯片。

 

目前,部分企業產品已進入小批量試用階段 ,類腦芯片最快將于2023年成熟,能效比有望較當前芯片提高2-3個數量級。


AI芯片發展:向著更低功耗、更接近人腦、更靠近邊緣的方向

現在用于深度學習的AI芯片(包括CPU、GPU、FPGA、ASIC)為了實現深度學習的龐大乘積累加運算和并行計算的高性能,芯片面積越做越 大,帶來了成本和散熱等問題。AI芯片軟件編程的成熟度、芯片的安全,神經網絡的穩定性等問題也未能得到很好的解決,因此,在現有基礎 上進行改進和完善此類AI芯片仍是當前主要的研究方向。

 

最終,AI芯片將近一步提高智能,向著更接近人腦的高度智能方向不斷發展,并向著邊緣逐步移動以獲得更低的能耗。



AI芯片發展:計算范式創新方向及其硬件實現

AI硬件加速技術已經逐漸走向成熟。未來可能更多的創新會來自電路和器件級技術的結合,比如存內計算,類腦計算;或者是針對特殊的計 算模式或者新模型,比如稀疏化計算和近似計算,對圖網絡的加速;或者是針對數據而不是模型的特征來優化架構。 



同時,如果算法不發生大的變化,按照現在AI加速的主要方法和半導體技術發展的趨勢,或將在不遠的將來達到數字電路的極限(約1到 10TFlops/W),往后則要靠近似計算模擬計算,甚至是材料或基礎研究上的創新。




評論


相關推薦

技術專區

關閉