吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorFlow Lite (TFLite) 在內(nèi)存使用方面的改進(jìn)

Tensorflowers ? 來源:TensorFlow ? 作者: Juhyun Lee 和 Yury ? 2020-10-21 10:50 ? 次閱讀

文 /Juhyun Lee 和 Yury Pisarchyk,軟件工程師

由于資源限制嚴(yán)重,必須在苛刻的功耗要求下使用資源有限的硬件,因此在移動(dòng)和嵌入式設(shè)備上進(jìn)行推理頗有難度。在本文中,我們將展示 TensorFlow Lite (TFLite) 在內(nèi)存使用方面的改進(jìn),更適合在邊緣設(shè)備上運(yùn)行推理。

中間張量

一般而言,神經(jīng)網(wǎng)絡(luò)可以視為一個(gè)由算子(例如 CONV_2D 或 FULLY_CONNECTED)和保存中間計(jì)算結(jié)果的張量(稱為中間張量)組成的計(jì)算圖。這些中間張量通常是預(yù)分配的,目的是減少推理延遲,但這樣做會(huì)增加內(nèi)存用量。不過,如果只是以簡單的方式實(shí)現(xiàn),那么在資源受限的環(huán)境下代價(jià)有可能很高,它會(huì)占用大量空間,有時(shí)甚至比模型本身高幾倍。例如,MobileNet v2 中的中間張量占用了 26MB 的內(nèi)存(圖 1),大約是模型本身的兩倍。

圖 1. MobileNet v2 的中間張量(上圖)及其到二維內(nèi)存空間大小的映射(下圖)。如果每個(gè)中間張量分別使用一個(gè)專用的內(nèi)存緩沖區(qū)(用 65 種不同的顏色表示),它們將占用約 26MB 的運(yùn)行時(shí)內(nèi)存

好消息是,通過數(shù)據(jù)相關(guān)性分析,這些中間張量不必共存于內(nèi)存中。如此一來,我們便可以重用中間張量的內(nèi)存緩沖區(qū),從而減少推理引擎占用的總內(nèi)存。如果網(wǎng)絡(luò)呈簡單的鏈條形狀,則兩個(gè)大內(nèi)存緩沖區(qū)即夠用,因?yàn)樗鼈兛梢栽谡麄€(gè)網(wǎng)絡(luò)中來回互換。然而,對(duì)于形成復(fù)雜計(jì)算圖的任意網(wǎng)絡(luò),這個(gè)NP 完備(NP-complete)資源分配問題需要一個(gè)良好的近似算法

我們針對(duì)此問題設(shè)計(jì)了許多不同的近似算法,這些算法的表現(xiàn)取決于神經(jīng)網(wǎng)絡(luò)和內(nèi)存緩沖區(qū)的屬性,但都通過張量使用記錄。中間張量的張量使用記錄是一種輔助數(shù)據(jù)結(jié)構(gòu),其中包含有關(guān)張量的大小以及在給定的網(wǎng)絡(luò)執(zhí)行計(jì)劃中首次最后一次使用時(shí)間的信息。借助這些記錄,內(nèi)存管理器能夠在網(wǎng)絡(luò)執(zhí)行的任何時(shí)刻計(jì)算中間張量的使用情況,并優(yōu)化其運(yùn)行時(shí)內(nèi)存以最大限度減少占用空間。

共享內(nèi)存緩沖區(qū)對(duì)象

在 TFLite GPU OpenGL 后端中,我們?yōu)檫@些中間張量采用 GL 紋理。這種方式有幾個(gè)有趣的限制:(a) 紋理一經(jīng)創(chuàng)建便無法修改大小,以及 (b) 在給定時(shí)間只有一個(gè)著色器程序可以獨(dú)占訪問紋理對(duì)象。在這種共享內(nèi)存緩沖區(qū)對(duì)象模式的目標(biāo)是最小化對(duì)象池中創(chuàng)建的所有共享內(nèi)存緩沖區(qū)對(duì)象的大小總和。這種優(yōu)化與眾所周知的寄存器分配問題類似,但每個(gè)對(duì)象的大小可變,因此優(yōu)化起來要復(fù)雜得多。

根據(jù)前面提到的張量使用記錄,我們設(shè)計(jì)了 5 種不同的算法,如表 1 所示。除了“最小成本流”以外,它們都是貪心算法,每個(gè)算法使用不同的啟發(fā)式算法,但仍會(huì)達(dá)到或非常接近理論下限。根據(jù)網(wǎng)絡(luò)拓?fù)洌承┧惴ǖ男阅芤獌?yōu)于其他算法,但總體來說,GREEDY_BY_SIZE_IMPROVED 和 GREEDY_BY_BREADTH 產(chǎn)生的對(duì)象分配占用內(nèi)存最小。

理論下限
https://arxiv.org/abs/2001.03288

表 1. “共享對(duì)象”策略的內(nèi)存占用量(以 MB 為單位;最佳結(jié)果以綠色突出顯示)。前 5 行是我們的策略,后 2 行用作基準(zhǔn)(“下限”表示最佳數(shù)的近似值,該值可能無法實(shí)現(xiàn),而“樸素”表示為每個(gè)中間張量分配專屬內(nèi)存緩沖區(qū)的情況下可能的最差數(shù))

回到我們的第一個(gè)示例,GREEDY_BY_BREADTH 在 MobileNet v2 上表現(xiàn)最佳,它利用了每個(gè)算子的寬度,即算子配置文件中所有張量的總和。圖 2,尤其是與圖 1 相比,突出了使用智能內(nèi)存管理器的優(yōu)勢。

圖 2. MobileNet v2 的中間張量(上圖)及其大小到二維內(nèi)存空間的映射(下圖)。如果中間張量共享內(nèi)存緩沖區(qū)(用 4 種不同的顏色表示),它們僅占用大約 7MB 的運(yùn)行時(shí)內(nèi)存

內(nèi)存偏移量計(jì)算

對(duì)于在 CPU 上運(yùn)行的 TFLite,適用于 GL 紋理的內(nèi)存緩沖區(qū)屬性不適用。因此,更常見的做法是提前分配一個(gè)大內(nèi)存空間,并通過給定偏移量訪問內(nèi)存在所有不干擾其他讀取和寫入操作的讀取器和寫入器之間共享。這種內(nèi)存偏移量計(jì)算法的目的是最大程度地減小內(nèi)存空間的大小。

我們針對(duì)此優(yōu)化問題設(shè)計(jì)了 3 種不同的算法,同時(shí)還分析了先前的研究工作(Sekiyama 等人于 2018 年提出的 Strip Packing)。與“共享對(duì)象”法類似,根據(jù)網(wǎng)絡(luò)的不同,一些算法的性能優(yōu)于其他算法,如表 2 所示。這項(xiàng)研究的一個(gè)收獲是:“偏移量計(jì)算”法通常比“共享對(duì)象”法占用的空間更小。因此,如果適用,應(yīng)該選擇前者而不是后者。

Strip Packing
https://arxiv.org/abs/1804.10001

表 2. “偏移量計(jì)算”策略的內(nèi)存占用量(以 MB 為單位;最佳結(jié)果以綠色突出顯示)。前 3 行是我們的策略,接下來 1 行是先前的研究,后 2 行用作基準(zhǔn)(“下限”表示最佳數(shù)的近似值,該值可能無法實(shí)現(xiàn),而“樸素”表示為每個(gè)中間張量分配專屬內(nèi)存緩沖區(qū)的情況下可能的最差數(shù))

這些針對(duì) CPU 和 GPU 的內(nèi)存優(yōu)化默認(rèn)已隨過去幾個(gè)穩(wěn)定的 TFLite 版本一起提供,并已證明在支持更苛刻的最新模型(如 MobileBERT)方面很有優(yōu)勢。直接查看 GPU 實(shí)現(xiàn)和 CPU 實(shí)現(xiàn),可以找到更多關(guān)于實(shí)現(xiàn)的細(xì)節(jié)。

MobileBERT
https://tfhub.dev/tensorflow/lite-model/mobilebert/1/default/1

GPU 實(shí)現(xiàn)
https://github.com/tensorflow/tensorflow/tree/master/tensorflow/lite/delegates/gpu/common/memory_management

CPU 實(shí)現(xiàn)
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/simple_memory_arena.h

致謝

感謝 Matthias Grundmann、Jared Duke 和 Sarah Sirajuddin,特別感謝 Andrei Kulik 參加了最開始的頭腦風(fēng)暴,同時(shí)感謝 Terry Heo 完成 TFLite 的最終實(shí)現(xiàn)。

責(zé)任編輯:xj

原文標(biāo)題:優(yōu)化 TensorFlow Lite 推理運(yùn)行環(huán)境內(nèi)存占用

文章出處:【微信公眾號(hào):TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101169
  • 張量
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    2595
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    329

    瀏覽量

    60631
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    647

原文標(biāo)題:優(yōu)化 TensorFlow Lite 推理運(yùn)行環(huán)境內(nèi)存占用

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    南亞科技與補(bǔ)丁科技攜手開發(fā)定制超高帶寬內(nèi)存

    Memory)的開發(fā)。 此次合作將充分融合南亞科技在10nm級(jí)DRAM技術(shù)領(lǐng)域的深厚積累,以及補(bǔ)丁科技在定制內(nèi)存產(chǎn)品設(shè)計(jì)方面的卓越能力。雙方將強(qiáng)強(qiáng)聯(lián)手,共同打造出針對(duì)AI與邊緣應(yīng)用需求的高附加值、高性能、低功耗的定制超高帶寬內(nèi)存
    的頭像 發(fā)表于 12-20 14:28 ?235次閱讀

    如何解決高校宿舍用電浪費(fèi)及管理方面的問題?

    為解決高校宿舍用電浪費(fèi)及管理方面的問題,對(duì)高校宿舍用電現(xiàn)狀進(jìn)行分析,并闡述節(jié)能背景下加強(qiáng)高校宿舍用電管理的重要意義,在此基礎(chǔ)上,提出用電改進(jìn)措施和智慧監(jiān)管平臺(tái)構(gòu)建要點(diǎn),以期為相關(guān)人員提供參考。
    的頭像 發(fā)表于 11-27 15:59 ?327次閱讀
    如何解決高校宿舍用電浪費(fèi)及管理<b class='flag-5'>方面的</b>問題?

    Google AI Edge Torch的特性詳解

    我們很高興地發(fā)布 Google AI Edge Torch,可將 PyTorch 編寫的模型直接轉(zhuǎn)換成 TFLite 格式 (.tflite),且有著優(yōu)異的模型覆蓋率和 CPU 性能。TFLite
    的頭像 發(fā)表于 11-06 10:48 ?467次閱讀
    Google AI Edge Torch的特性詳解

    快速部署TensorflowTFLITE模型在Jacinto7 Soc

    電子發(fā)燒友網(wǎng)站提供《快速部署TensorflowTFLITE模型在Jacinto7 Soc.pdf》資料免費(fèi)下載
    發(fā)表于 09-27 11:41 ?0次下載
    快速部署<b class='flag-5'>Tensorflow</b>和<b class='flag-5'>TFLITE</b>模型在Jacinto7 Soc

    第四章:在 PC 交叉編譯 aarch64 的 tensorflow 開發(fā)環(huán)境并測試

    本文介紹了在 PC 端交叉編譯 aarch64 平臺(tái)的 tensorflow 庫而非 tensorflow lite 的心酸過程。
    的頭像 發(fā)表于 08-25 11:38 ?1364次閱讀
    第四章:在 PC 交叉編譯 aarch64 的 <b class='flag-5'>tensorflow</b> 開發(fā)環(huán)境并測試

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開發(fā)的一個(gè)開源深度學(xué)習(xí)框架,它允許開發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計(jì)算性能、靈活的架構(gòu)以及豐富的工具和庫,在學(xué)
    的頭像 發(fā)表于 07-12 16:38 ?810次閱讀

    tensorflow和pytorch哪個(gè)更簡單?

    PyTorch更簡單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一個(gè)易于使用、靈活且具有強(qiáng)大社區(qū)支持的框架,PyTorch可能是一個(gè)更好的選擇。如果您需要一個(gè)在
    的頭像 發(fā)表于 07-05 09:45 ?976次閱讀

    tensorflow和pytorch哪個(gè)好

    tensorflow和pytorch都是非常不錯(cuò)的強(qiáng)大的框架,TensorFlow還是PyTorch哪個(gè)更好取決于您的具體需求,以下是關(guān)于這兩個(gè)框架的一些關(guān)鍵點(diǎn): TensorFlow : 發(fā)布時(shí)間
    的頭像 發(fā)表于 07-05 09:42 ?772次閱讀

    tensorflow簡單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡單的模型訓(xùn)練。TensorFlow是一個(gè)開源的機(jī)器學(xué)習(xí)庫,廣泛用于各種機(jī)器學(xué)習(xí)任務(wù),包括圖像識(shí)別、自然語言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?787次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡介 Keras是一個(gè)高級(jí)神經(jīng)網(wǎng)絡(luò)API,它提供了一種簡單、快速的方式來構(gòu)建
    的頭像 發(fā)表于 07-05 09:36 ?594次閱讀

    大數(shù)據(jù)在軍事方面的應(yīng)用有哪些

    智慧華盛恒輝大數(shù)據(jù)在軍事方面的應(yīng)用涵蓋了多個(gè)方面,這些應(yīng)用不僅提高了軍事管理的效率和水平,也極大地提升了軍隊(duì)的作戰(zhàn)能力和情報(bào)獲取能力。以下是大數(shù)據(jù)在軍事方面的主要應(yīng)用: 智慧華盛恒輝戰(zhàn)爭決策輔助
    的頭像 發(fā)表于 06-23 10:34 ?1193次閱讀

    請(qǐng)問STM32H730 OSPI在內(nèi)存映射模式下單次讀寫長度是多少?

    方面的配置。 OSPIM_CfgTypeDef sOspiManagerCfg = {0};/* USER CODE BEGIN OCTOSPI1_Init 1 *//* USER CODE END
    發(fā)表于 05-31 06:55

    fpga在通信方面的應(yīng)用

    FPGA在通信方面的應(yīng)用非常廣泛,以下是一些主要的應(yīng)用場景。
    的頭像 發(fā)表于 03-27 14:10 ?1244次閱讀

    使用電腦上tensorflow創(chuàng)建的模型,轉(zhuǎn)換為tflite格式了,導(dǎo)入后進(jìn)度條反復(fù)出現(xiàn)0-100%變化,為什么?

    使用電腦上tensorflow創(chuàng)建的模型,轉(zhuǎn)換為tflite格式了,導(dǎo)入后,進(jìn)度條反復(fù)出現(xiàn)0-100%變化,卡了一個(gè)晚上了還沒分析好?
    發(fā)表于 03-19 06:20

    數(shù)組和鏈表在內(nèi)存中的區(qū)別 數(shù)組和鏈表的優(yōu)缺點(diǎn)

    數(shù)組和鏈表在內(nèi)存中的區(qū)別 數(shù)組和鏈表的優(yōu)缺點(diǎn)? 數(shù)組和鏈表是常見的數(shù)據(jù)結(jié)構(gòu),用于組織和存儲(chǔ)數(shù)據(jù)。它們在內(nèi)存中的存儲(chǔ)方式以及優(yōu)缺點(diǎn)方面存在一些顯著的差異。本文將詳細(xì)探討這些差異以及它們的優(yōu)缺點(diǎn)。 1.
    的頭像 發(fā)表于 02-21 11:30 ?1136次閱讀
    百家乐智能软件| 永利博国际网| 百家乐官网游戏网上投注| 汉百家乐春| 百家乐官网赌场合作| 百家乐必胜打| 神人百家乐官网赌博| 大发888娱乐场图标| 神州百家乐官网的玩法技巧和规则| 大发888娱乐场下载 zhldu| 最新百家乐官网的玩法技巧和规则| 大发888官方 46| 澳客网比分直播| 百家乐官网网址| 真人百家乐官网来博| 大发888游戏平台 娱乐场下载| 百家乐官网开户优惠多的平台是哪家 | 海阳市| 澳门百家乐规律星期娱乐城博彩| 鲁甸县| 肯博百家乐官网的玩法技巧和规则| 百家乐官网技巧在那里| 百家乐赢钱皇冠| 百家乐官网太阳城线上| 太阳城会员| 百家乐断缆赢钱| 网上玩百家乐官网犯法| 微信百家乐群资源| 新时代百家乐官网娱乐城| 万豪国际开户| 三公百家乐玩法| 澳门百家乐官网单注下注| 678百家乐官网博彩娱乐场开户注册 | 百家乐扑克片礼服| 新锦江百家乐官网娱乐| 百家乐官网试玩平台| 大发888 方管下载| 百家乐全自动分析软件| 劳力士百家乐官网的玩法技巧和规则 | 百家乐官网技巧心得| 澳门金莎娱乐城|