[導讀]在AI熱鬧非凡的大背景下我們也需要認真思考:人工智能是否需要專門的芯片?現有的技術架構具有怎樣的優勢?

  2017年,“人工智能”儼然已經成為所有媒體的頭條熱點,在媒體和資本的推動下,AI以迅雷不及掩耳之勢向我們洶湧奔來。從政策層面,2017年關於AI發生了三件大事,一是發布了人工智能發展規劃;二是人工智能首次寫入十九大報告;三是很多城市,如上海、重慶等都在進行人工智能規劃。

  從數據來看,2013年只有100多家組織機構研究深度學習和人工智能,而到了2015年,這個数字已經飆升到3409家,兩年時間增長30多倍。就連以電動汽車起家的特斯拉也宣布開始設計AI芯片,馬斯克請來了AMD公司Zen架構的開發者Jim Keller,擔任自動駕駛硬件副總裁。

  在AI熱鬧非凡的大背景下我們也需要認真思考:人工智能是否需要專門的芯片?現有的技術架構具有怎樣的優勢?近期,賽迪智庫半導體研究所副所長林雨從AI芯片定義、分類、生態環境、投資等方面做了分析。

  人工智能如果按照架構進行劃分,有三個重要元素:數據、算法和算例,其中算例就是芯片,算例是基礎,算法是核心,數據是保障。先看人工智能的定義,從廣義上講只要能夠運行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有針對人工智能算法做了特殊加速設計的芯片才可以稱作為人工智能芯片,市場上真正做到了對芯片裏面的架構做了特殊加速設計的公司少之又少。”

  三個維度對人工智能進行分類

  林雨分別從功能、應用場景和技術架構對人工智能進行了分類:

  從功能上來看,人工智能包括推理和訓練兩個環節。在訓練層面,通過大數據訓練出一個複雜的神經網絡模型。目前訓練環節主要使用英偉達的GPU集群完成,谷歌的TPU2.0也支持訓練環節和深度網絡加速。推理環節是指利用訓練好的模型,使用新數據推理出各種結論。總得來看,訓練環節對芯片的性能要求比較高,推理環節對簡單指定的重複計算和低延遲的要求很高。

  從應用場景來看,人工智能芯片應用於雲端和設備端,在深度學習的訓練階段需要極大的數據量和大運算量,單一處理器無法獨立完成,因此訓練環節只能在雲端實現。在設備端,智能終端的數量龐大,而且需求差異較大,比如VR設備對於實時性要求很高,推理環節無法在雲端完成,要求設備有獨立的推理計算能力,因此專用芯片的需求還是很大。

  從技術架構來看有四類:一是通用性芯片,如GPU;二是以FPGA為代表的半定製化芯片,如深鑒科技的DPU;第三,ASIC全定製化芯片,如谷歌的TPU;第四,類腦芯片。

  GPU/FPGA/ASIC/類腦芯片,各有怎樣的優勢?

  為了進行大數據處理,當前的方案一般採用高性能的處理器輔助MCU進行計算,但是隨着摩爾定律時間周期拉長,處理器上可集成的器件數量會達到極限,而數據量還在不斷增加,因此我們需要通過架構的變化來滿足數據量的增長,這就是人工智能芯片推出的背景。

  目前來看,人工智能芯片有四類架構:GPU、FPGA、ASIC和類腦芯片。

  GPU:是單指令、多數據處理,採用數量眾多的計算單元和超長的流水線,如名字一樣,圖形處理器,GPU善於處理圖像領域的運算加速。但GPU無法單獨工作,必須由CPU進行控制調用才能工作。CPU可單獨作用,處理複雜的邏輯運算和不同的數據類型,但當需要大量的處理類型統一的數據時,則可調用GPU進行并行計算。

  FPGA:和GPU相反,FPGA適用於多指令,單數據流的分析,因此常用於預測階段,如雲端。FPGA是用硬件實現軟件算法,因此在實現複雜算法方面有一定的難度,缺點是價格比較高。將FPGA和GPU對比發現,一是缺少內存和控制所帶來的存儲和讀取部分,速度更快。二是因為缺少讀取的作用,所以功耗低,劣勢是運算量並不是很大。結合CPU和GPU各自的優勢,有一種解決方案就是異構。

  ASIC芯片:是專用定製芯片,為實現特定要求而定製的芯片。除了不能擴展以外,在功耗、可靠性、體積方面都有優勢,尤其在高性能、低功耗的移動端。谷歌的TPU、寒武紀的GPU,地平線的BPU都屬於ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,與CPU和GPU相比,TPU把控制縮小了,因此減少了芯片的面積,降低了功耗。

  很多人認為ASIC是人工智能芯片的一個主要發展方向,其實在ASIC芯片里還有一個特殊的群體—類腦計算,林雨認為,“這才是真正的人工智能芯片未來發展的方向。類腦計算是真正模擬人腦進行設計,人腦的特點就是神經元進行傳輸數據。當我們用硬件去模擬人腦時,在硬件環節里還有許多多餘的元素,而類腦芯片就擬合人腦的作用。要做類腦芯片非常難,IBM、高通、英特爾等公司的芯片策略都是用硬件來模仿人腦的神經突觸。”

  四種架構將走向哪裡?

  將以上四種架構對比,GPU未來的主攻方向是高級複雜算法和通用性人工智能平台,其發展路線分兩條走:一是主攻高端算法的實現,對於指令的邏輯性控制要更複雜一些,在面向需求通用的AI計算方面具有優勢;二是主攻通用性人工智能平台,GPU的通用性強,所以應用於大型人工智能平台可高效完成不同的需求。FPGA更適用於各種細分的行業,人工智能會應用到各個細分領域。

  ASIC芯片是全定製芯片,長遠看適用於人工智能。現在很多做AI算法的企業也是從這個點切入。因為算法複雜度越強,越需要一套專用的芯片架構與其進行對應,ASIC基於人工智能算法進行定製,其發展前景看好。類腦芯片是人工智能最終的發展模式,但是離產業化還很遙遠。

  投資投哪裡?大佬擦亮眼睛看這幾點

  第一,關注具有縱向產業鏈整合能力的企業。因為未來在人工智能領域側重生態整合。單獨做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企業更值得關注。

  第二,專攻終端應用市場,人工智能芯片的應用場景里有兩個:一個是在雲端,一個是在終端。雲端格局應該變化不大,但是在終端方面變數未定,這是對國內企業來說是一個不錯的切入點,邊緣計算值得關注。

  第三,關注專用芯片,ASIC從功耗、技術都具有優勢,是未來AI芯片發展的主要方向,尤其要關注是否有加速環節。

  有了資本和媒體的熱捧,AI已經在全球範圍內遍地開花,順勢而為的創業者也不在少數。目前,國內已經有20多家初創企業在做人工智能芯片,但是評估一家企業的技術能力是第二位的,第一位的考察點要看他們是否能真正能將技術變現,是否能將技術轉化為商業產品。因此,看一家AI芯片設計企業,商業能力要大於技術能力,這才是融資點。