吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用NVIDIA Triton推理服務器簡化邊緣AI模型部署

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-18 15:40 ? 次閱讀

人工智能機器學習( ML )和深度學習( DL )正在成為解決機器人、零售、醫療保健、工業等領域各種計算問題的有效工具。對低延遲、實時響應和隱私的需求使運行 AI 應用程序處于邊緣。

然而,在邊緣的應用程序和服務中部署 AI 模型對基礎設施和運營團隊來說可能是一項挑戰。不同的框架、端到端延遲要求以及缺乏標準化實施等因素可能會使 AI 部署具有挑戰性。在這篇文章中,我們將探討如何應對這些挑戰,并在邊緣生產中部署 AI 模型。

以下是部署推理模型的最常見挑戰:

多模型框架:數據科學家和研究人員使用不同的人工智能和深度學習框架,如 TensorFlow 、 PyTorch 、 TensorRT 、 ONNX 運行時或純 Python 來構建模型。這些框架中的每一個都需要一個執行后端來在生產環境中運行模型。同時管理多個框架后端可能成本高昂,并導致可伸縮性和維護問題。

不同的推理查詢類型:邊緣推理服務需要處理多個同時查詢、不同類型的查詢,如實時在線預測、流式數據和多個模型的復雜管道。每一項都需要特殊的推理處理。

不斷發展的模型:在這個不斷變化的世界中,人工智能模型不斷地根據新數據和新算法進行重新訓練和更新。生產中的型號必須在不重新啟動設備的情況下持續更新。典型的 AI 應用程序使用許多不同的模型。它使問題的規模進一步擴大,以更新現場的模型。

NVIDIA Triton 推理服務器是一款開源推理服務軟件,通過解決這些復雜性簡化了推理服務。 NVIDIA Triton 提供了一個單一的標準化推理平臺,可支持在多框架模型和不同部署環境(如數據中心、云、嵌入式設備、,以及虛擬化環境。它通過高級批處理和調度算法支持不同類型的推理查詢,并支持實時模型更新。 NVIDIA Triton 還旨在通過并發模型執行和動態批處理最大限度地提高硬件利用率,從而提高推理性能。

我們用 2021 年 8 月發布的 Jetson JetPack 4.6 將 Triton 推理服務器引入 Jetson 。有了 NVIDIA Triton , AI 部署現在可以跨云、數據中心和邊緣標準化。

主要特征

以下是 NVIDIA Triton 的一些關鍵功能,它們可以幫助您簡化 Jetson 中的模型部署。

poYBAGJdFdOADh1nAAF6tgk9r08814.png

圖 1 Jetson Jetson 上的 Triton 推理服務器架構

嵌入式應用集成

客戶機應用程序和 Triton 推理服務器之間的通信支持直接 C-API 集成,但也支持 gRPC 和 HTTP / REST 。在 Jetson 上,當客戶端應用程序和推理服務都在同一設備上運行時,客戶端應用程序可以直接調用 Triton 推理服務器 API ,而通信開銷為零。 NVIDIA Triton 是一個帶有 C API 的共享庫,可使完整功能直接包含在應用程序中。這最適合基于 Jetson 的嵌入式應用程序。

多框架支持

NVIDIA Triton 在本機集成了流行的框架后端,如 TensorFlow 1 。 x / 2 。 x 、 ONNX 運行時 TensorRT ,甚至自定義后端。這允許開發人員直接在 Jetson 上運行他們的模型,而無需經過轉換過程。 NVIDIA Triton 還支持添加自定義后端的靈活性。開發人員有自己的選擇,基礎設施團隊使用單個推理引擎優化部署。

DLA 支持

Jetson 上的 Triton 推理服務器可以在 GPU 和 DLA 上運行模型。 DLA 是 Jetson Xavier NX 和 Jetson AGX Xavier 上提供的深度學習加速器。

并發模型執行

Triton 推理服務器通過在 Jetson 上同時運行多個模型,最大限度地提高性能并減少端到端延遲。這些模型可以是所有相同的模型,也可以是來自不同框架的不同模型。 GPU 內存大小是對可同時運行的型號數量的唯一限制。

動態配料

批處理是一種提高推理吞吐量的技術。批處理推理請求有兩種方法:客戶端批處理和服務器批處理。 NVIDIA Triton 通過將單個推理請求組合在一起來實現服務器批處理,以提高推理吞吐量。它是動態的,因為它構建一個批處理,直到達到一個可配置的延遲閾值。當達到閾值時, NVIDIA Triton 安排當前批執行。調度和批處理決策對請求推斷的客戶機是透明的,并且根據模型進行配置。通過動態批處理, NVIDIA Triton 在滿足嚴格延遲要求的同時最大限度地提高吞吐量。

動態批處理的一個例子是,應用程序同時運行檢測和分類模型,其中分類模型的輸入是從檢測模型檢測到的對象。在這種情況下,由于可以對任意數量的檢測進行分類,因此動態批處理可以確??梢詣討B創建檢測對象的批,并且可以將分類作為批處理請求運行,從而減少總體延遲并提高應用程序的性能。

模型組合

模型集成功能用于創建不同模型和預處理或后處理操作的管道,以處理各種工作負載。 NVIDIA Triton 集成允許用戶將多個模型和預處理或后處理操作縫合到一個具有連接輸入和輸出的管道中。 NVIDIA Triton 只需從客戶端應用程序向集成發出一個推斷請求,即可輕松管理整個管道的執行。例如,嘗試對車輛進行分類的應用程序可以使用 NVIDIA Triton 模型集成來運行車輛檢測模型,然后在檢測到的車輛上運行車輛分類模型。

定制后端

除了流行的 AI 后端, NVIDIA Triton 還支持執行定制的 C ++后端。這些工具對于創建特殊的邏輯非常有用,比如預處理和后處理,甚至是常規模型。

動態模型加載

NVIDIA Triton 有一個模型控制 API ,可用于動態加載和卸載模型。這使設備能夠在應用程序需要時使用這些型號。此外,當模型使用新數據重新訓練時,它可以無縫地重新部署在 NVIDIA Triton 上,而不會重新啟動任何應用程序或中斷服務,從而允許實時模型更新。

結論

Triton 推理服務器作為 Jetson 的共享庫發布。 NVIDIA Triton 每月發布一次,增加了新功能并支持最新的框架后端。有關更多信息,請參閱 Triton 推理服務器對 Jetson 和 JetPack 的支持。

NVIDIA Triton 有助于在每個數據中心、云和嵌入式設備中實現標準化的可擴展生產 AI 。它支持多個框架,在 GPU 和 DLA 等多個計算引擎上運行模型,處理不同類型的推理查詢。通過與 NVIDIA JetPack 的集成, NVIDIA Triton 可用于嵌入式應用。

關于作者

Shankar Chandrasekaran 是 NVIDIA 數據中心 GPU 團隊的高級產品營銷經理。他負責 GPU 軟件基礎架構營銷,以幫助 IT 和 DevOps 輕松采用 GPU 并將其無縫集成到其基礎架構中。在 NVIDIA 之前,他曾在小型和大型科技公司擔任工程、運營和營銷職位。他擁有商業和工程學位。

Suhas Sheshadri 是 NVIDIA 的產品經理,專注于 Jetson 軟件。此前,他曾在 NVIDIA 與自主駕駛團隊合作,為 NVIDIA 驅動平臺優化系統軟件。Mahan Salehi 是 NVIDIA 的深度學習軟件產品經理,專注于 Triton 推理服務器。在 NVIDIA 之前,他是一家人工智能初創公司的聯合創始人兼首席執行官,此前也曾在醫療器械行業工作。他擁有多倫多大學的工程學學位。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5076

    瀏覽量

    103725
  • 數據中心
    +關注

    關注

    16

    文章

    4859

    瀏覽量

    72382
  • 深度學習
    +關注

    關注

    73

    文章

    5515

    瀏覽量

    121553
收藏 人收藏

    評論

    相關推薦

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務

    近日,摩爾線程智能科技(北京)有限責任公司在其官方渠道發布了一則重要消息,宣布公司已經成功實現了對DeepSeek蒸餾模型推理服務部署。這一技術突破,標志著摩爾線程在人工智能領域邁出
    的頭像 發表于 02-06 13:49 ?50次閱讀

    Triton編譯在機器學習中的應用

    1. Triton編譯概述 Triton編譯NVIDIA Triton
    的頭像 發表于 12-24 18:13 ?518次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數據源的邊緣設備上運行。這不僅減少了數據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,在邊緣
    發表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    處理,而不必傳輸到外部服務器,這有助于更好地保護用戶隱私和數據安全。 然而,邊緣計算也帶來了獨特的挑戰,特別是在資源受限的嵌入式系統中部署復雜的AI
    發表于 12-06 17:20

    研華科技打造整體邊緣AI服務器解決方案

    近年來,在AIoT數據量快速成長、硬件效能提升、綠色低碳意識抬頭等趨勢影響下,邊緣AI應用的系統架構也出現改變。隨著越來越多企業將AI模型訓練由云端轉移至
    的頭像 發表于 11-18 15:35 ?300次閱讀

    AI模型托管原理分析

    AI模型托管是指將訓練好的AI模型部署在云端或邊緣服務器
    的頭像 發表于 11-07 09:33 ?248次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和
    的頭像 發表于 09-09 09:19 ?537次閱讀

    NVIDIA攜手Meta推出AI服務,為企業提供生成式AI服務

    NVIDIA近日宣布了一項重大舉措,正式推出NVIDIA AI Foundry服務NVIDIA NIM(
    的頭像 發表于 07-25 16:57 ?601次閱讀

    英偉達推出全新NVIDIA AI Foundry服務NVIDIA NIM推理服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務NVIDIA NIM 推理
    的頭像 發表于 07-25 09:48 ?791次閱讀

    AI服務器的特點和關鍵技術

    AI服務器,即人工智能服務器,是一種專門設計用于運行和加速人工智能(AI)算法與模型的硬件設備。隨著人工智能技術的快速發展和普及,
    的頭像 發表于 07-17 16:34 ?1986次閱讀

    耐能推出最新的邊緣AI服務器及內置耐能AI芯片的PC設備

    - 耐能的邊緣 AI 服務器 KNEO 330 為中小企業帶來 30-40% 的成本節省,同兼顧隱私和安全性。- 耐能的邊緣 GPT AI
    的頭像 發表于 06-05 10:21 ?716次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地
    的頭像 發表于 06-04 09:15 ?731次閱讀

    紅帽發布RHEL AI開發者預覽版,集成IBM Granite模型簡化AI開發流程

    RHEL AI依托InstructLab開源項目,結合IBM Research的開源授權Granite大型語言模型與InstructLab模型對齊工具,采用LAB(Large-scale Alignment for chatBo
    的頭像 發表于 05-08 15:01 ?536次閱讀

    臺積電:AI服務器處理預計翻番,拉動收入增長?

    臺積電將 AI 服務器處理嚴格限定為用于 AI 訓練與推理的 GPU、CPU 及 AI 加速
    的頭像 發表于 04-19 15:04 ?409次閱讀

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務器來加速 AI
    的頭像 發表于 02-29 14:04 ?634次閱讀
    必博备用网站| 百家乐视频下载| 大发888网页ban| 江山百家乐官网的玩法技巧和规则| 大发888dafa8668| 逍遥坊百家乐官网的玩法技巧和规则 | 24山风水发几房| 金沙| 百家乐官网平注常赢玩法更 | 阴宅24层手机罗盘| 贵德县| 百家乐免费下| 百家乐官网扫描技术| 大发888娱乐城888 bg| 杨公风水24山分金水法| 现金棋牌| 功夫百家乐的玩法技巧和规则| 百家乐官网只打闲打法| 百家乐官网必胜方法如果你还想继续不看可能后悔一生 | 威尼斯人娱乐城客服| 百家乐官网高手打| 波音百家乐| 百家乐破解仪恒达| 明升百家乐官网QQ群| 天鸿德州扑克游戏币| 百家乐有没有攻略| 百家乐官网视频游戏注册| 大发888大发娱乐城| 百家乐怎么看单| 百家乐官网视频游戏视频| 大发888娱乐场下载 17| 百家乐规则博彩正网| 谈谈百家乐官网赢钱技巧| 大发888登录下载| 百家乐什么叫缆| 筹码币百家乐官网麻将| 大发888娱乐场ylc8| 如何看百家乐路| 百家乐官网真钱斗地主| 班戈县| 大发888官方下载168|