吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從FPGA說起的深度學習

OpenFPGA ? 來源:OpenFPGA ? 2023-03-03 09:52 ? 次閱讀

這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題

在本教程中,旨在加深對深度學習和 FPGA 的理解。

用 C/C++ 編寫深度學習推理代碼

高級綜合 (HLS) 將 C/C++ 代碼轉換為硬件描述語言

FPGA 運行驗證

在上一篇文章中,我們用C語言實現了一個卷積層,并查看了結果。在本文中,我們將實現其余未實現的層:全連接層、池化層和激活函數 ReLU。

每一層的實現

全連接層

全連接層是將輸入向量X乘以權重矩陣W,然后加上偏置B的過程。下面轉載第二篇的圖,能按照這個圖計算就可以了。

d1d45f6a-b8ec-11ed-bfe3-dac502259ad0.png

全連接層的實現如下。

voidlinear(constfloat*x,constfloat*weight,constfloat*bias,
int64_tin_features,int64_tout_features,float*y){
for(int64_ti=0;i

該函數的接口和各個數據的內存布局如下。

考慮稍后設置 PyTorch 參數,內存布局與 PyTorch 對齊。

輸入

x: 輸入圖像。shape=(in_features)

weight: 權重因子。shape=(out_features, in_features)

bias: 偏置值。shape=(out_features)

輸出

y: 輸出圖像。shape=(out_features)

參數

in_features: 輸入順序

out_features: 輸出順序

在全連接層中,內部操作數最多為out_channels * in_channels一個,對于典型參數,操作數遠低于卷積層。

另一方面,關注權重因子,卷積層為shape=(out_channels, in_channels, ksize, ksize),而全連接層為shape=(out_features, in_features)。例如,如果層從卷積層變為全連接層,in_features = channels * width * height則以下關系成立。width, height >> ksize考慮到這一點,在很多情況下,全連接層參數的內存需求大大超過了卷積層。

由于FPGA內部有豐富的SRAM緩沖區,因此擅長處理內存訪問量大和內存數據相對于計算總量的大量復用。單個全連接層不會復用權重數據,但是在視頻處理等連續處理中,這是一個優勢,因為要進行多次全連接。

另一方面,本文標題中也提到的邊緣環境使用小型FPGA,因此可能會出現SRAM容量不足而需要訪問外部DRAM的情況。如果你有足夠的內存帶寬,你可以按原樣訪問它,但如果你沒有足夠的內存帶寬,你可以在參數調整和訓練后對模型應用稱為剪枝和量化的操作。

池化層

池化層是對輸入圖像進行縮小的過程,這次使用的方法叫做2×2 MaxPooling。在這個過程中,取輸入圖像2x2區域的最大值作為輸出圖像一個像素的值。這個看第二張圖也很容易理解,所以我再貼一遍。

d1e5c2dc-b8ec-11ed-bfe3-dac502259ad0.png

即使在池化層,輸入圖像有多個通道,但池化過程本身是針對每個通道獨立執行的。因此,輸入圖像中的通道數和輸出圖像中的通道數在池化層中始終相等。

池化層的實現如下所示:

voidmaxpool2d(constfloat*x,int32_twidth,int32_theight,int32_tchannels,int32_tstride,float*y){
for(intch=0;ch

這個函數的接口是:

此實現省略了邊緣處理,因此圖像的寬度和高度都必須能被stride整除。

輸入

x: 輸入圖像。shape=(channels, height, width)

輸出

y: 輸出圖像。shape=(channels, height/stride, width/stride)

參數

width: 圖像寬度

height: 圖像高度

stride:減速比

ReLU

ReLU 非常簡單,因為它只是將負值設置為 0。

voidrelu(constfloat*x,int64_tsize,float*y){
for(int64_ti=0;i

由于每個元素的處理是完全獨立的,x, y因此未指定內存布局。

硬件生成

到這里為止的內容,各層的功能都已經完成了。按照上一篇文章中的步驟,可以確認這次創建的函數也產生了與 libtorch 相同的輸出。此外,Vivado HLS 生成了一個通過 RTL 仿真的電路。從這里開始,我將簡要說明實際生成了什么樣的電路。

如果將上述linear函數原樣輸入到 Vivado HLS,則會發生錯誤。這里,將輸入輸出設為指針->數組是為了決定在電路制作時用于訪問數組的地址的位寬。另外,in_features的值為778=392,out_將features的值固定為32。這是為了避免Vivado HLS 在循環次數可變時輸出性能不佳。

staticconststd::size_tkMaxSize=65536;

voidlinear_hls(constfloatx[kMaxSize],constfloatweight[kMaxSize],
constfloatbias[kMaxSize],floaty[kMaxSize]){
dnnk::linear(x,weight,bias,7*7*8,32,y);
}

linear_hls函數的綜合報告中的“性能估計”如下所示:

d1fd7c74-b8ec-11ed-bfe3-dac502259ad0.png

在Timing -> Summary中寫入了綜合時指定的工作頻率,此時的工作頻率為5.00 ns = 200MHz。重要的是 Latency -> Summary 部分,它描述了執行此函數時的周期延遲(Latency(cycles))和實時延遲(Latency(absolute))。看看這個,我們可以看到這個全連接層在 0.566 ms內完成。

在 Latency -> Detail -> Loop 列中,描述了每個循環的一次迭代所需的循環次數(Iteration Latency)和該循環的迭代次數(Trip Count)。延遲(周期)包含Iteration Latency * Trip Count +循環初始化成本的值。Loop 1 是out_features循環到loop 1.1 in_features。在Loop1.1中進行sum += x[j] * weight[i * in_features + j]; 簡單計算會發現需要 9 個周期才能完成 Loop 1.1 所做的工作。

使用HLS中的“Schedule Viewer”功能,可以更詳細地了解哪些操作需要花費更多長時間。下圖橫軸的2~10表示Loop1.1的處理內容,大致分為x,weights等的加載2個循環,乘法(fmul)3個循環,加法(fadd)4個循環共計9個循環。

d21899a0-b8ec-11ed-bfe3-dac502259ad0.png

在使用 HLS 進行開發期間通過添加#pragma HLS pipeline指令,向此代碼添加優化指令以指示它創建高效的硬件。與普通的 FPGA 開發類似,運算單元的流水線化和并行化經常用于優化。通過這些優化,HLS 報告證實了加速:

流水線:減少迭代延遲(min=1)

并行化:減少行程次數,刪除循環

正如之前也說過幾次的那樣,這次的課程首先是以FPGA推理為目的,所以不會進行上述的優化。有興趣進行什么樣的優化的人,可以參考以下教程和文檔。

教程

https://github.com/Xilinx/HLS-Tiny-Tutorials

文檔

https://www.xilinx.com/support/documentation/sw_manuals/xilinx2019_2/ug902-vivado-high-level-synthesis.pdf

最后,該函數的接口如下所示。

d245d35c-b8ec-11ed-bfe3-dac502259ad0.png

由于本次沒有指定接口,所以數組接口如x_ 等ap_memory對應FPGA上可以1個周期讀寫的存儲器(BRAM/Distributed RAM)。在下一篇文章中,我們將連接每一層的輸入和輸出,但在這種情況下,我們計劃連接 FPGA 內部的存儲器作為每一層之間的接口,如本例所示。

總結

在本文中,我們實現了全連接層、池化層和 ReLU。現在我們已經實現了所有層,我們將在下一篇文章中組合它們。之后我們會實際給MNIST數據,確認我們可以做出正確的推論。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1630

    文章

    21796

    瀏覽量

    606010
  • C語言
    +關注

    關注

    180

    文章

    7614

    瀏覽量

    137714
  • 人工智能
    +關注

    關注

    1796

    文章

    47666

    瀏覽量

    240287
  • C++
    C++
    +關注

    關注

    22

    文章

    2114

    瀏覽量

    73857
  • 深度學習
    +關注

    關注

    73

    文章

    5513

    瀏覽量

    121551

原文標題:從FPGA說起的深度學習(四)

文章出處:【微信號:Open_FPGA,微信公眾號:OpenFPGA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    相比GPU和GPP,FPGA深度學習的未來?

    設計工具日漸成熟,如今將FPGA集成到常用的深度學習框架已成為可能。未來,FPGA將有效地適應深度學習
    發表于 07-28 12:16 ?7498次閱讀

    FPGA深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發表于 03-21 15:19

    FPGA深度學習能走多遠?

    ,共同進步。 歡迎加入FPGA技術微信交流群14群! 交流問題(一) Q:FPGA深度學習能走多遠?現在用FPGA
    發表于 09-27 20:53

    【詳解】FPGA深度學習的未來?

    的固定架構之外進行模型優化探究。同時,FPGA在單位能耗下性能更強,這對大規模服務器部署或資源有限的嵌入式應用的研究而言至關重要。本文硬件加速的視角考察深度學習
    發表于 08-13 09:33

    為什么說FPGA是機器深度學習的未來?

    都出現了重大突破。深度學習是這些領域中所最常使用的技術,也被業界大為關注。然而,深度學習模型需要極為大量的數據和計算能力,只有更好的硬件加速條件,才能滿足現有數據和模型規模繼續擴大的需
    發表于 10-10 06:45

    什么是深度學習?使用FPGA進行深度學習的好處?

    上述分類之外,還被用于多項任務(下面顯示了四個示例)。在 FPGA 上進行深度學習的好處我們已經提到,許多服務和技術都使用深度學習,而 GP
    發表于 02-17 16:56

    銅管巴倫說起

    銅管巴倫說起
    發表于 09-12 16:50 ?86次下載

    FPGA深度學習的未來

    FPGA深度學習的未來,學習資料,感興趣的可以看看。
    發表于 10-26 15:29 ?0次下載

    深度學習方案ASIC、FPGA、GPU比較 哪種更有潛力

    幾乎所有深度學習的研究者都在使用GPU,但是對比深度學習硬鑒方案,ASIC、FPGA、GPU三種究竟哪款更被看好?主要是認清對
    發表于 02-02 15:21 ?1.1w次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>方案ASIC、<b class='flag-5'>FPGA</b>、GPU比較 哪種更有潛力

    FPGA深度學習領域的應用

    本文硬件加速的視角考察深度學習FPGA,指出有哪些趨勢和創新使得這些技術相互匹配,并激發對FPGA如何幫助
    的頭像 發表于 06-28 17:31 ?6965次閱讀

    FPGA深度學習加速的技能總結

    深度學習加速器已經兩年了,RTL設計到仿真驗證,以及相應的去了解了Linux驅動,深度學習壓縮方法等等。
    的頭像 發表于 03-08 16:29 ?8885次閱讀
    <b class='flag-5'>FPGA</b>做<b class='flag-5'>深度</b><b class='flag-5'>學習</b>加速的技能總結

    FPGA深度學習領域有哪些優勢?

    FPGA(Field-Programmable Gate Array)是一種靈活的可編程硬件設備,它在深度學習應用領域中具有許多優勢。
    的頭像 發表于 03-09 09:41 ?1863次閱讀

    FPGA說起深度學習:任務并行性

    這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題。
    的頭像 發表于 04-12 10:19 ?1044次閱讀

    FPGA說起深度學習:數據并行性

    這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題。
    的頭像 發表于 05-04 11:22 ?1369次閱讀
    <b class='flag-5'>從</b><b class='flag-5'>FPGA</b><b class='flag-5'>說起</b>的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>:數據并行性

    FPGA加速深度學習模型的案例

    FPGA(現場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速深度
    的頭像 發表于 10-25 09:22 ?356次閱讀
    百家乐官网注册平台排名| 七胜百家乐官网娱乐网| 真博百家乐官网的玩法技巧和规则| 百家乐注册彩金| 六合彩查询| 百家乐官网赌博凯时娱乐| 百家乐新注册送彩金| 金冠娱乐城网站| 网上百家乐官网真钱游戏| 大发888 df登录| 豪华百家乐官网桌子| 百家乐小揽| 新濠百家乐官网现金网| 玩百家乐五湖四海娱乐城| 双色球大赢家| 百家乐官网唯一能长期赢钱的方法| 威尼斯人娱乐城怎样赢| 金榜百家乐官网现金网| 百家乐娱乐网送68元| 真龙娱乐城| 百家乐的破解方法| 奇博| 做生意怎么看风水| bet365备用网| 至尊百家乐官网20| 棋牌评测网站| 风水24向吉项| 网络博彩qq群| 百家乐去哪里玩最好| 璧山县| 百家乐庄闲筹码| 网上玩百家乐官网技巧| 皇家百家乐出租平台| 百家乐官网注册下注平台| 高楼24层风水好吗| 德州扑克在线玩| 段风水24宿| 抚顺市| 玩百家乐凤凰娱乐城| 网上赌百家乐官网正规吗| sz新全讯网网址112|