深度學習主流芯片的介紹及其優缺點的分析
CPU 不適合深度學習
深度學習與傳統計算模式最大的區別就是不需要編程,它是從輸入的大量數據中自發地總結出規律,而傳統計算模式更多都需要人為提取所需解決問題的特征或者總結規律來進行編程。也正因為如此,深度學習對計算能力要求非常高,以至于有人將深度學習稱之為“暴力計算”。
因此,傳統的 CPU 并不適用于深度學習。
從內部結構上來看,CPU 中 70%晶體管都是用來構建 Cache(高速緩沖存儲器)和一部分控制單元,負責邏輯運算的部分(ALU 模塊)并不多。控制單元等模塊的存在都是為了保證指令能夠一條接一條的有序執行。
這種通用性結構對于傳統的編程計算模式非常適合,但對于并不需要太多的程序指令,卻需要海量數據運算的深度學習的計算需求,這種結構就顯得有心無力了。
GPU 深度學習主流芯片
與 CPU 少量的邏輯運算單元相比,GPU 整個就是一個龐大的計算矩陣,GPU 具有數以千計的計算核心、可實現 10-100 倍應用吞吐量,而且它還支持對深度學習至關重要的并行計算能力,可以比傳統處理器更加快速,大大加快了訓練過程。GPU 是目前最普遍采用的深度學習運算單元之一。
目前,谷歌、Facebook、微軟、Twitter 和百度等互聯網巨頭,都在使用 GPU 作為其深度學習載體,讓服務器學習海量的照片、視頻、聲音文檔,以及社交媒體上的信息,來改善搜索和自動化照片標記等各種各樣的軟件功能。而某些汽車制造商也在利用這項技術開發無人駕駛汽車。
不過,由于 GPU 的設計初衷是為了應對圖像處理中需要大規模并行計算。因此,根據樂晴智庫介紹,其在應用于深度學習算法時有數個方面的局限性:
第一, 應用過程中無法充分發揮并行計算優勢。深度學習包含訓練和應用兩個計算環節,GPU 在深度學習算法訓練上非常高效,但在應用時一次性只能對于一張輸入圖像進行處理, 并行度的優勢不能完全發揮。
第二, 硬件結構固定不具備可編程性。深度學習算法還未完全穩定,若深度學習算法發生大的變化,GPU 無法靈活的配置硬件結構。
另外,在能耗上面,雖然 GPU 要好于 CPU,但其能耗仍舊很大。
備受看好的 FPGA
FPGA,即現場可編輯門陣列,是一種新型的可編程邏輯器件,由于其具有靜態可重復編程和動態在系統重構的特性,使得硬件的功能可以像軟件一樣通過編程來修改。
FPGA 作為人工智能深度學習方面的計算工具,主要原因就在于其本身特性:可編程專用性,高性能,低功耗。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%