吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA T4 GPU和TensorRT加速微信搜索速度

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-04-21 10:53 ? 次閱讀

案例簡(jiǎn)介

騰訊公司利用NVIDIA TensorRT推理引擎的INT8推理能力和基于知識(shí)蒸餾的QAT訓(xùn)練,大大加速了微信中的搜索動(dòng)能,節(jié)省了約70%的計(jì)算資源。本案例主要應(yīng)用到NVIDIA T4 GPU和TensorRT。

客戶簡(jiǎn)介及應(yīng)用背景

隨著騰訊微信的發(fā)展,微信搜索也成為其越來(lái)越重要的功能,這個(gè)功能可以用來(lái)搜索微信內(nèi)部的賬號(hào)、信息,以及搜索互聯(lián)網(wǎng)上的內(nèi)容。微信搜索月活躍用戶數(shù)量達(dá)到五億以上。搜索業(yè)務(wù)當(dāng)中使用了大量的神經(jīng)網(wǎng)絡(luò)模型,包括自然語(yǔ)言理解、匹配排序等等,這些模型的訓(xùn)練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應(yīng)的解決方案都滿足了業(yè)務(wù)所需的延遲和吞吐要求。

客戶挑戰(zhàn)

微信搜索業(yè)務(wù)由多個(gè)子模塊構(gòu)成,包括查詢理解、匹配、搜索排序等等。由于搜索的業(yè)務(wù)特點(diǎn),這些任務(wù)對(duì)線上服務(wù)的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型開始應(yīng)用在這些任務(wù)上,比如BERT/Transformer等模型。

這些大模型需要的計(jì)算資源和業(yè)務(wù)上的高要求對(duì)推理端的軟硬件都是很大的挑戰(zhàn),必須針對(duì)具體的硬件做極致的優(yōu)化。而且對(duì)于大模型的推理,很多技術(shù)被探索、應(yīng)用在這些場(chǎng)景上以便實(shí)現(xiàn)性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計(jì)算等。這些技術(shù)可能會(huì)帶來(lái)精度下降等負(fù)面影響,限制了這些技術(shù)的廣泛應(yīng)用。因此,如何在保證精度效果以及服務(wù)吞吐延遲需求的情況下,高效地對(duì)這些模型進(jìn)行推理成為了業(yè)務(wù)上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIA TensorRT給這一場(chǎng)景提供了解決方案。

應(yīng)用方案

為了滿足線上服務(wù)的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)進(jìn)行線上大模型的推理。

線上服務(wù)對(duì)于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)做線上推理服務(wù),利用NVIDIA基于TensorRT開源的BERT實(shí)現(xiàn),可以很方便地在FP16精度下實(shí)現(xiàn)滿足需求的線上推理功能。這個(gè)方案在線上取得了很好的效果。

在此基礎(chǔ)上,微信搜索希望進(jìn)一步加快推理速度,節(jié)約計(jì)算資源,以便更好地服務(wù)用戶,節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構(gòu)開始就有了INT8 Tensor Core,其計(jì)算吞吐量最高可達(dá)FP16精度的2倍。同時(shí)低精度推理跟其他的優(yōu)化方法也是正交的,可以同時(shí)使用其他技術(shù)比如剪枝、蒸餾等做進(jìn)一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對(duì)INT8推理也有良好的支持。利用TensorRT的“校準(zhǔn)”(Calibration)功能,能夠方便地將Float精度模型轉(zhuǎn)換為INT8低精度模型,實(shí)現(xiàn)低精度推理。通過(guò)低精度推理,模型的單次推理時(shí)間大大縮短。

通過(guò)“校準(zhǔn)”來(lái)做模型轉(zhuǎn)換已經(jīng)在很多計(jì)算機(jī)視覺模型上被驗(yàn)證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對(duì)于像BERT一類的模型, “校準(zhǔn)” 無(wú)法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發(fā)的基于PyTorch/TensorFlow的量化工具進(jìn)行基于知識(shí)蒸餾的量化感知訓(xùn)練(Quantization Aware Training)克服精度下降的問(wèn)題。TensorRT對(duì)于導(dǎo)入量化感知訓(xùn)練好的模型進(jìn)行INT8低精度推理有著很好的支持。導(dǎo)入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務(wù)只需更換TensorRT構(gòu)建好的引擎即可,極大地簡(jiǎn)化了部署的流程。

通過(guò)這樣的方案,微信搜索中的一些關(guān)鍵任務(wù),比如查詢理解等自然語(yǔ)言理解任務(wù),可以在精度沒有損失的情況下,達(dá)到2-10倍的加速效果,平均單句推理時(shí)間達(dá)到了0.1ms。任務(wù)相應(yīng)的計(jì)算資源節(jié)省了約70%。這個(gè)方案大大優(yōu)化了微信搜索業(yè)務(wù)的性能,降低了部署成本。

使用效果及影響

使用NVIDIA T4 GPU以及TensorRT推理引擎進(jìn)行INT8低精度推理,極大提升了微信搜索的速度,進(jìn)一步提升了用戶體驗(yàn),節(jié)約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:”我們已經(jīng)實(shí)現(xiàn)了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務(wù),包括Query理解和查詢結(jié)果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復(fù)雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計(jì)算資源。”

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5076

    瀏覽量

    103734
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4777

    瀏覽量

    129362
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7540

    瀏覽量

    88650
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實(shí)時(shí)交互解決方案

    本案例中,Pantheon Lab(萬(wàn)想科技)專注于數(shù)字人技術(shù)解決方案,通過(guò) NVIDIA 技術(shù)實(shí)現(xiàn)數(shù)字人實(shí)時(shí)對(duì)話與客戶互動(dòng)交流。借助 NVIDIA GPUNVIDIA
    的頭像 發(fā)表于 01-14 11:19 ?259次閱讀

    借助NVIDIA GPU提升魯班系統(tǒng)CAE軟件計(jì)算效率

    本案例中魯班系統(tǒng)高性能 CAE 軟件利用 NVIDIA 高性能 GPU,實(shí)現(xiàn)復(fù)雜產(chǎn)品的快速仿真,加速產(chǎn)品開發(fā)和設(shè)計(jì)迭代,縮短開發(fā)周期,提升產(chǎn)品競(jìng)爭(zhēng)力。
    的頭像 發(fā)表于 12-27 16:24 ?236次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡(jiǎn)稱 ReDrafter) 是蘋果公司為大語(yǔ)言模型 (LLM) 推理開發(fā)并開源的一種新型推測(cè)解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?262次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    Batching、Paged KV Caching、量化技術(shù) (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,確保您的 NVIDIA GPU 能發(fā)揮出卓越的推理性能。
    的頭像 發(fā)表于 12-17 17:47 ?279次閱讀

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權(quán)。 4. GPU計(jì)算的啟用 - 交互式模擬:通過(guò)加速對(duì)話框啟用,打開求解器對(duì)話框,點(diǎn)擊“
    發(fā)表于 12-16 14:25

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來(lái)對(duì)NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?339次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    《算力芯片 高性能 CPUGPUNPU 架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對(duì)卷積核優(yōu)化的思考。 GPU的存儲(chǔ)體系采用了獨(dú)特的倒金字塔結(jié)構(gòu),在我看來(lái)這是其計(jì)算性能的關(guān)鍵。大容量寄存器設(shè)計(jì)破解了傳統(tǒng)馮諾依曼架構(gòu)的內(nèi)存瓶頸,合并訪存機(jī)制巧妙解決了內(nèi)存帶寬限制。NVIDIA GPU
    發(fā)表于 11-24 17:12

    NVIDIA加速計(jì)算引入Polars

    Polars 近日發(fā)布了一款由 RAPIDS cuDF 驅(qū)動(dòng)的全新 GPU 引擎,該引擎可將 NVIDIA GPU 上的 Polars 工作流速度最高提速 13 倍,使數(shù)據(jù)科學(xué)家僅在一
    的頭像 發(fā)表于 11-20 10:03 ?300次閱讀
    將<b class='flag-5'>NVIDIA</b><b class='flag-5'>加速</b>計(jì)算引入Polars

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對(duì)比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA
    的頭像 發(fā)表于 11-19 14:29 ?448次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優(yōu)化

    AMD與NVIDIA GPU優(yōu)缺點(diǎn)

    NVIDIA的RTX系列顯卡以其強(qiáng)大的光線追蹤和DLSS技術(shù)領(lǐng)先于市場(chǎng)。例如,NVIDIA的RTX 3080在4K分辨率下提供了卓越的游戲體驗(yàn),而AMD的Radeon RX 6800 XT雖然在某些游戲中表現(xiàn)接近,但在光線追蹤
    的頭像 發(fā)表于 10-27 11:15 ?1025次閱讀

    GPU加速計(jì)算平臺(tái)是什么

    GPU加速計(jì)算平臺(tái),簡(jiǎn)而言之,是利用圖形處理器(GPU)的強(qiáng)大并行計(jì)算能力來(lái)加速科學(xué)計(jì)算、數(shù)據(jù)分析、機(jī)器學(xué)習(xí)等復(fù)雜計(jì)算任務(wù)的軟硬件結(jié)合系統(tǒng)。
    的頭像 發(fā)表于 10-25 09:23 ?294次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式 AI
    的頭像 發(fā)表于 09-06 14:59 ?383次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-<b class='flag-5'>4</b> 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    Blackwell GPU,標(biāo)志著 AI 超級(jí)計(jì)算的一次重大進(jìn)步。這種獨(dú)特的配置顯著減少傳統(tǒng)網(wǎng)絡(luò)擴(kuò)展時(shí) 的通信開銷,使得對(duì) 1.8T 參數(shù)的模型進(jìn)行實(shí)時(shí)推理成為可能,同時(shí)將模型訓(xùn)練速度提升4
    發(fā)表于 05-13 17:16

    NVIDIA加速微軟最新的Phi-3 Mini開源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語(yǔ)言模型。TensorRT-LLM
    的頭像 發(fā)表于 04-28 10:36 ?637次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實(shí)踐中,唯品會(huì) AI 平臺(tái)與 NVIDIA 團(tuán)隊(duì)合作,結(jié)合 NVIDIA TensorRTNVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱
    的頭像 發(fā)表于 04-20 09:39 ?823次閱讀
    百苑百家乐的玩法技巧和规则| 真人百家乐蓝盾| 棋牌评测网| 迪威百家乐赌场娱乐网规则| 百家乐官网真人游戏| 菲律宾百家乐官网太阳城| 白金国际娱乐城| 威尼斯人娱乐百利宫| 百家乐输钱的原因| 百家乐官网特殊计| 赌博百家乐官网探讨| 观塘区| 大发888平台下载| 南宁百家乐赌| 百家乐算牌e世博| 单机百家乐官网的玩法技巧和规则 | 百家乐官网高命中投注| 永修县| 百利宫娱乐城信誉| 百家乐用品| 粤港澳百家乐娱乐平台| 百家乐制胜方法| 百家乐官网路子分| 百家乐官网发牌器8副| 云鼎百家乐官网注册| 利好线上娱乐| 顶级赌场官方安卓版手机下载| 百家乐真人游戏| 飞天百家乐官网的玩法技巧和规则 | V博百家乐官网的玩法技巧和规则 中骏百家乐官网的玩法技巧和规则 | 百家乐怎么开户| G3百家乐官网的玩法技巧和规则 | 来博百家乐现金网| 博彩百家乐官网字谜总汇二丹东 | 科技| 岐山县| 宝博娱乐城开户| 大发888登陆器下载| 水果机万能遥控器| 大西洋百家乐的玩法技巧和规则| 百家乐评级网站|