吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智源聯(lián)合清華發(fā)布首個(gè)支持PyTorch框架的高性能MoE系統(tǒng)

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智源研究院 ? 作者:智源研究院 ? 2021-03-10 14:02 ? 次閱讀

北京智源人工智能研究院(以下簡(jiǎn)稱“智源研究院”)和清華大學(xué)聯(lián)合發(fā)布首個(gè)支持 PyTorch 框架的高性能 MoE 系統(tǒng):FastMoE 。

FastMoE 系統(tǒng)具有易用性強(qiáng)、靈活性好、訓(xùn)練速度快的優(yōu)勢(shì),打破行業(yè)限制,可在不同規(guī)模的計(jì)算機(jī)或集群上支持研究者探索不同的 MoE 模型在不同領(lǐng)域的應(yīng)用。相比直接使用 PyTorch 實(shí)現(xiàn)的版本,提速 47 倍。FastMoE 是智源研究院于 2020 年發(fā)起的新型超大規(guī)模預(yù)訓(xùn)練模型研發(fā)項(xiàng)目“悟道”的最新成果,由“悟道文匯”(面向認(rèn)知的超大規(guī)模新型預(yù)訓(xùn)練模型)和“悟道文溯”(超大規(guī)模蛋白質(zhì)序列預(yù)訓(xùn)練模型)兩個(gè)研究小組聯(lián)合完成。

MoE 是什么?萬億模型的核心技術(shù),推動(dòng)預(yù)訓(xùn)練模型跨越式發(fā)展,卻令 GPU 與 PyTorch 用戶望而卻步。

MoE(Mixture of Experts)是一個(gè)在神經(jīng)網(wǎng)絡(luò)中引入若干專家網(wǎng)絡(luò)(Expert Network)的技術(shù),也是 Google 最近發(fā)布的 1.5 萬億參數(shù)預(yù)訓(xùn)練模型 Switch Transformer 的核心技術(shù)。它對(duì)于預(yù)訓(xùn)練模型經(jīng)從億級(jí)參數(shù)到萬億級(jí)參數(shù)的跨越,起了重要推動(dòng)作用。然而由于其對(duì) Google 分布式訓(xùn)練框架 mesh-tensorflow 和 Google 定制硬件 TPU 的依賴,給學(xué)術(shù)界和開源社區(qū)的使用與研究帶來了不便。

MoE 設(shè)計(jì):顯著增加模型參數(shù)量

ICLR 2017 上,Google 研究者提出了 MoE(Mixture of Experts)層。該層包含一個(gè)門網(wǎng)絡(luò)(Gating Network)和 n 個(gè)專家網(wǎng)絡(luò)(Expert Network)。對(duì)于每一個(gè)輸入,動(dòng)態(tài)地由門網(wǎng)絡(luò)選擇 k 個(gè)專家網(wǎng)絡(luò)進(jìn)行激活。在圖 1 的例子中,門網(wǎng)絡(luò)決定激活第 2 個(gè)專家網(wǎng)絡(luò)和第 n-1 個(gè)專家網(wǎng)絡(luò)。

圖 1:MoE 層的設(shè)計(jì)(圖片來源 https://arxiv.org/pdf/1701.06538.pdfFigure 1)

在具體設(shè)計(jì)中,每個(gè)輸入 x 激活的專家網(wǎng)絡(luò)數(shù)量 k 往往是一個(gè)非常小的數(shù)字。比如在 MoE 論文的一些實(shí)驗(yàn)中,作者采用了 n=512,k=2 的設(shè)定,也就是每次只會(huì)從 512 個(gè)專家網(wǎng)絡(luò)中挑選兩個(gè)來激活。在模型運(yùn)算量(FLOPs)基本不變的情況下,可以顯著增加模型的參數(shù)量。

GShard 和 Switch Transformer,達(dá)到驚人的 1.5 萬億參數(shù)量級(jí)

ICLR 2021 上,Google 的進(jìn)一步將 MoE 應(yīng)用到了基于 Transformer 的神經(jīng)機(jī)器翻譯的任務(wù)上。GShard 將 Transformer 中的 Feedforward Network(FFN)層替換成了 MoE 層,并且將 MoE 層和數(shù)據(jù)并行巧妙地結(jié)合起來。在數(shù)據(jù)并行訓(xùn)練時(shí),模型在訓(xùn)練集群中已經(jīng)被復(fù)制了若干份。GShard 通過將每路數(shù)據(jù)并行的 FFN 看成 MoE 中的一個(gè)專家來實(shí)現(xiàn) MoE 層,這樣的設(shè)計(jì)通過在多路數(shù)據(jù)并行中引入 All-to-All 通信來實(shí)現(xiàn) MoE 的功能。在論文中,Google 使用 2048 個(gè) TPU v3 cores 花 4 天時(shí)間訓(xùn)練了一個(gè) 6 千億參數(shù)的模型。

9d2de560-80d1-11eb-8b86-12bb97331649.png

圖 2:GShard 的設(shè)計(jì)(圖片來源 https://arxiv.org/pdf/2006.16668.pdfFigure 3)

在 2021 年 1 月,Google 進(jìn)一步發(fā)布了萬億規(guī)模的基于 MoE 的大規(guī)模預(yù)訓(xùn)練模型 Switch Transformer。Switch Transformer 用 MoE 改進(jìn)了 Google 已有的 T5 預(yù)訓(xùn)練模型,其中最大的模型 Switch-C 已經(jīng)達(dá)到了 1.5 萬億參數(shù)。

MMoE:MoE 的推薦系統(tǒng)應(yīng)用

除了在自然語言處理中大放異彩之外,MoE 還在推薦系統(tǒng)中找到了一席之地。在 KDD 2018 中,Google 的研究人員提出了 MMoE(Multi-gate Mixture-of-Experts),并將其應(yīng)用到了 Google 的推薦系統(tǒng)的多任務(wù)分類問題中,取得了十分好的效果。隨后,Google 在 RecSys 2019 介紹了 MMoE 在 YouTube 視頻推薦中的應(yīng)用。類似的 MMoE 模型也被快手的研究員應(yīng)用到了快手推薦系統(tǒng)的 1.9 萬億參數(shù)的大規(guī)模精排模型中。

FastMoE 是首個(gè)支持 PyTorch 框架的 MoE 系統(tǒng),簡(jiǎn)單,靈活,高性能,支持大規(guī)模并行訓(xùn)練

MoE 潛力巨大,但因?yàn)榻壎?Google 軟硬件,無法直接應(yīng)用于 PyTorch 框架。FastMoE 是首個(gè)基于當(dāng)前最流行的 PyTorch 框架的 MoE 開源系統(tǒng),使得普通的用戶可以使用常見的 GPU 資源來嘗試和研究自己的 MoE 模型。與樸素版本相比,實(shí)現(xiàn)了 47 倍的提速優(yōu)化,更加簡(jiǎn)單、靈活、高效。

特色一:簡(jiǎn)單易用,一行代碼即可 MoE

FastMoE 系統(tǒng)既可以作為 PyTorch 網(wǎng)絡(luò)中的一個(gè)模塊使用,也可用于“改造”現(xiàn)有網(wǎng)絡(luò)中某個(gè)層:將其復(fù)制多份,并引入 Gate,變?yōu)?MoE 層。

例如,對(duì)于當(dāng)前流行的 Megatron-LM 訓(xùn)練系統(tǒng),僅需要對(duì)代碼進(jìn)行如下改動(dòng),就可以將 Transformer 模型中的前饋網(wǎng)絡(luò)(Feed Forward Network)全部替換為 MoE 網(wǎng)絡(luò)。

特色二:靈活性,支持多種擴(kuò)展方式

除了傳統(tǒng)的兩層 MLP 網(wǎng)絡(luò),F(xiàn)astMoE 也支持將任意神經(jīng)網(wǎng)絡(luò)模塊作為專家網(wǎng)絡(luò),而進(jìn)行這樣的操作僅需通過修改 MoE 層構(gòu)造函數(shù)中的一個(gè)參數(shù)即可實(shí)現(xiàn)。

此外,專家選擇模塊 Gate 也有較高的研究?jī)r(jià)值。FastMoE 系統(tǒng)目前僅提供了基于單層全連接網(wǎng)絡(luò)的基礎(chǔ)版本,但是通過給定接口,研究者可以方便地使用自己編寫的深度神經(jīng)網(wǎng)絡(luò)模塊作為 Gate,從而探索出更好的專家選擇方案。

特色三:運(yùn)行高效,專有性能優(yōu)化

FastMoE 中包含了一些專門優(yōu)化的 CUDA 代碼。在單塊 GPU 上,相對(duì)于一個(gè)樸素的 PyTorch 實(shí)現(xiàn),F(xiàn)astMoE 的算子更加充分地利用了 GPU 大規(guī)模并行計(jì)算的能力,從而實(shí)現(xiàn)多達(dá) 47 倍的加速,從而使得模型研究者可以在更短的時(shí)間內(nèi)驗(yàn)證他們的想法。

FastMoE 支持在同一個(gè) worker 上運(yùn)行多個(gè) experts,從而減少模型研究者在探索更多 experts 數(shù)量時(shí)所需的硬件資源。當(dāng) experts 數(shù)量較多時(shí),F(xiàn)astMoE 針對(duì)傳統(tǒng)的兩層 MLP 全連接網(wǎng)絡(luò)(即 Transformer 中的 FFN 網(wǎng)絡(luò))使用了更精細(xì)的并行策略,從而使得 Transformer 模型中 MLP 部分的運(yùn)算速度相比樸素的實(shí)現(xiàn)較大的加速。

圖 3:?jiǎn)?GPU 多 experts 情況下,F(xiàn)astMoE 相比普通 PyTorch 實(shí)現(xiàn)的加速比。性能的提升主要來自 FastMoE 針對(duì)傳統(tǒng)的兩層 MLP 全連接網(wǎng)絡(luò)(即 Transformer 中的 FFN 網(wǎng)絡(luò))使用了更精細(xì)的并行策略。

單 GPU 的 FastMoE 優(yōu)化配合 PyTorch 的數(shù)據(jù)并行,已經(jīng)可以支持少量專家的 MoE 分布式訓(xùn)練,這種訓(xùn)練模式被稱為 FastMoE 的數(shù)據(jù)并行模式。圖 4 展示了一個(gè)在 2 個(gè) workers(GPU)上對(duì)一個(gè)由 3 個(gè) experts 構(gòu)成的 MoE 網(wǎng)絡(luò)進(jìn)行前向計(jì)算的例子。

圖 4:FastMoE 數(shù)據(jù)并行模式,每個(gè) worker 放置多個(gè) experts,worker 之間數(shù)據(jù)并行。top-2 gate 指的是門網(wǎng)絡(luò)會(huì)選擇激活分?jǐn)?shù)最高的 2 個(gè)專家網(wǎng)絡(luò)。

FastMoE 的數(shù)據(jù)并行模式已經(jīng)可以支持許多應(yīng)用,開發(fā)者在著名的 Transformer-XL 模型上進(jìn)行了實(shí)驗(yàn)。具體來說,Transformer-XL 模型中的每一個(gè) FFN 層(兩層的帶 ReLU 激活函數(shù)的 MLP,隱層大小為 512->2048->512)都被一個(gè) 64 選 2 的專家網(wǎng)絡(luò)替代(每個(gè)專家網(wǎng)絡(luò)是兩層的帶 ReLU 激活函數(shù)的 MLP,隱層大小為 512->1024->512)。這樣一來,改造后的 FastMoE-Transformer-XL 在模型計(jì)算量基本不變的情況下,可以獲得原始 Transformer-XL 模型約 20 倍的參數(shù)。如圖 5 所示,改造后的 FastMoE-Transformer-XL 收斂得比 Transformer-XL 更快。

圖 5:FastMoE-Transformer-XL (64 個(gè) experts)在 enwik8 數(shù)據(jù)集上前 100K 步的 Training Loss,其收斂速度顯著快于 Transformer-XL。

特色四:支持大規(guī)模并行訓(xùn)練

圖 6:FastMoE 模型并行模式,每個(gè) worker 放置多個(gè) experts,worker 之間進(jìn)行 experts 的模型并行。top-2 gate 指的是門網(wǎng)絡(luò)會(huì)選擇激活分?jǐn)?shù)最高的 2 個(gè)專家網(wǎng)絡(luò)。

FastMoE 還支持在多個(gè) worker 間以模型并行的方式進(jìn)行擴(kuò)展(如圖 6 所示),即不同的 worker 上放置不同的 experts,輸入數(shù)據(jù)在計(jì)算前將被傳輸?shù)剿璧?worker 上,計(jì)算后會(huì)被傳回原來的 worker 以進(jìn)行后續(xù)計(jì)算。通過這種并行方式,模型規(guī)模可以以線性擴(kuò)展,從而支持研究者探索更大規(guī)模的模型。這種模式被稱為 FastMoE 的模型并行模式。

值得一提的是,F(xiàn)astMoE 已經(jīng)和英偉達(dá)開發(fā)的超大規(guī)模預(yù)訓(xùn)練工具 Megatron-LM 進(jìn)行了深度整合,從而使研究者對(duì)現(xiàn)有代碼做盡量小的修改即可并行運(yùn)行基于 MoE 的超大規(guī)模預(yù)訓(xùn)練模型。開發(fā)者在 Megatron-LM 的 GPT 模型上進(jìn)行了測(cè)試。如圖 7 所示,類似在 Transformer-XL 上觀察到的現(xiàn)象,一個(gè) 96 個(gè) experts 的 GPT 模型可以收斂得比 GPT 模型更快。

圖 7:FastMoE-GPT (96 個(gè) experts)在 GPT 上前 60K 步的 Training Loss,其收斂速度顯著快于 GPT。

智源研究院

新型人工智能研究機(jī)構(gòu)、支持科學(xué)家勇闖 AI「無人區(qū)」

智源研究院是在科技部和北京市委市政府的指導(dǎo)和支持下成立的新型研發(fā)機(jī)構(gòu),旨在聚焦原始創(chuàng)新和核心技術(shù),建立自由探索與目標(biāo)導(dǎo)向相結(jié)合的科研體制,支持科學(xué)家勇闖人工智能科技前沿“無人區(qū)”。

FastMoE 團(tuán)隊(duì)成員來自于智源研究院和清華大學(xué)計(jì)算機(jī)系 KEG 和 PACMAN 實(shí)驗(yàn)室,打通了算法、系統(tǒng)等不同背景的學(xué)術(shù)人才,由智源研究院學(xué)術(shù)副院長 - 清華大學(xué)計(jì)算機(jī)系唐杰教授、智源青年科學(xué)家 - 清華大學(xué)計(jì)算機(jī)系翟季冬副教授、智源青年科學(xué)家 - 循環(huán)智能創(chuàng)始人楊植麟博士領(lǐng)導(dǎo),團(tuán)隊(duì)成員有清華大學(xué)計(jì)算機(jī)系博士研究生何家傲、裘捷中以及本科生曾奧涵。

原文標(biāo)題:首個(gè)支持 PyTorch 框架的 MoE 系統(tǒng)來了!智源聯(lián)合清華開源FastMoE,萬億AI模型基石

文章出處:【微信公眾號(hào):通信信號(hào)處理研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47683

    瀏覽量

    240301
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    808

    瀏覽量

    13361

原文標(biāo)題:首個(gè)支持 PyTorch 框架的 MoE 系統(tǒng)來了!智源聯(lián)合清華開源FastMoE,萬億AI模型基石

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    迅為瑞芯微RK3576開發(fā)板/核心板高性能低功耗

    PyTorch、Caffe等一系列框架的網(wǎng)絡(luò)模型。滿足多種應(yīng)用場(chǎng)景。 iTOP-3576擁有強(qiáng)大的視頻編解碼能力,支持4K@120fps的H.265、VP9、AVS2和AV1解碼器,支持
    發(fā)表于 01-09 11:26

    鴻蒙原生頁面高性能解決方案上線OpenHarmony社區(qū) 助力打造高性能原生應(yīng)用

    NEXT的原生頁面高性能解決方案,從頁面滑動(dòng)、跳轉(zhuǎn)及應(yīng)用冷啟動(dòng)等關(guān)鍵環(huán)節(jié),為開發(fā)者提供全面的支持。目前,這些解決方案均已上線OpenHarmony開源社區(qū),可在OpenHarmony三方庫中心倉進(jìn)行搜索,歡迎開發(fā)者多多使用和共建,打造更極致
    發(fā)表于 01-02 18:00

    Arm KleidiAI助力提升PyTorch上LLM推理性能

    熱門的深度學(xué)習(xí)框架尤為突出,許多企業(yè)均會(huì)選擇其作為開發(fā) AI 應(yīng)用的庫。通過部署 Arm Kleidi 技術(shù),Arm 正在努力優(yōu)化 PyTorch,以加速在基于 Arm 架構(gòu)的處理器上運(yùn)行 LLM 的性能。Arm 通過將 Kle
    的頭像 發(fā)表于 12-03 17:05 ?927次閱讀
    Arm KleidiAI助力提升<b class='flag-5'>PyTorch</b>上LLM推理<b class='flag-5'>性能</b>

    PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

    ? 一,前言 在深度學(xué)習(xí)框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式發(fā)布,這個(gè)版本主要針對(duì) 2.5.0 中發(fā)現(xiàn)的
    的頭像 發(fā)表于 12-03 16:11 ?725次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復(fù)版<b class='flag-5'>發(fā)布</b>

    獵戶星空發(fā)布Orion-MoE 8×7B大模型及AI數(shù)據(jù)寶AirDS

    近日,獵戶星空攜手聚云科技在北京共同舉辦了一場(chǎng)發(fā)布會(huì)。會(huì)上,獵戶星空正式揭曉了其自主研發(fā)的Orion-MoE 8×7B大模型,并與聚云科技聯(lián)合推出了基于該大模型的數(shù)據(jù)服務(wù)——AI數(shù)據(jù)寶AirDS
    的頭像 發(fā)表于 11-29 13:57 ?305次閱讀

    字節(jié)跳動(dòng)與清華AIR成立聯(lián)合研究中心

    近日,清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)與字節(jié)跳動(dòng)共同宣布成立“可擴(kuò)展大模型智能技術(shù)聯(lián)合研究中心”(SIA Lab),并在清華大學(xué)舉行了隆重的成立儀式。
    的頭像 發(fā)表于 10-12 15:24 ?450次閱讀

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,在2023年11月25日發(fā)布了針對(duì)大語言
    的頭像 發(fā)表于 09-29 10:14 ?590次閱讀
    澎峰科技<b class='flag-5'>高性能</b>大模型推理引擎PerfXLM解析

    華發(fā)數(shù)智攜手字節(jié)跳動(dòng)共同發(fā)布AI數(shù)字人及大模型綜合解決方案

    近日,珠海華發(fā)數(shù)智技術(shù)有限公司(簡(jiǎn)稱:華發(fā)數(shù)智)攜手字節(jié)跳動(dòng)旗下領(lǐng)先的云服務(wù)平臺(tái)火山引擎,共同發(fā)布了AI數(shù)字人及大模型綜合解決方案,標(biāo)志著華發(fā)集團(tuán)在AI大模型技術(shù)探索與應(yīng)用上邁出了重要
    的頭像 發(fā)表于 08-07 16:53 ?744次閱讀

    pytorch環(huán)境搭建詳細(xì)步驟

    PyTorch作為一個(gè)廣泛使用的深度學(xué)習(xí)框架,其環(huán)境搭建對(duì)于從事機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究及開發(fā)的人員來說至關(guān)重要。以下將介紹PyTorch環(huán)境搭建的詳細(xì)步驟,包括安裝Anaconda、配置清華
    的頭像 發(fā)表于 08-01 15:38 ?962次閱讀

    tensorflow和pytorch哪個(gè)更簡(jiǎn)單?

    工業(yè)界廣泛使用、具有豐富生態(tài)系統(tǒng)和跨平臺(tái)支持框架,TensorFlow可能更適合您。以下是tensorflow和pytorch的介紹: TensorFlow和
    的頭像 發(fā)表于 07-05 09:45 ?977次閱讀

    tensorflow和pytorch哪個(gè)好

    tensorflow和pytorch都是非常不錯(cuò)的強(qiáng)大的框架,TensorFlow還是PyTorch哪個(gè)更好取決于您的具體需求,以下是關(guān)于這兩個(gè)框架的一些關(guān)鍵點(diǎn): TensorFlow
    的頭像 發(fā)表于 07-05 09:42 ?773次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    學(xué)習(xí)框架,它們各自擁有獨(dú)特的特點(diǎn)和優(yōu)勢(shì)。本文將從背景介紹、核心特性、操作步驟、性能對(duì)比以及選擇指南等方面對(duì)TensorFlow和PyTorch進(jìn)行詳細(xì)比較,以幫助讀者了解這兩個(gè)框架的優(yōu)
    的頭像 發(fā)表于 07-02 14:04 ?1075次閱讀

    清華大學(xué)聯(lián)合中交興路發(fā)布《中國公路貨運(yùn)大數(shù)據(jù)碳排放報(bào)告》

    為踐行并推動(dòng)實(shí)現(xiàn)“雙碳”目標(biāo),清華大學(xué)聯(lián)合中交興路發(fā)布《中國公路貨運(yùn)大數(shù)據(jù)碳排放報(bào)告》(以下簡(jiǎn)稱:《報(bào)告》)。
    的頭像 發(fā)表于 05-09 14:47 ?410次閱讀
    <b class='flag-5'>清華大學(xué)聯(lián)合</b>中交興路<b class='flag-5'>發(fā)布</b>《中國公路貨運(yùn)大數(shù)據(jù)碳排放報(bào)告》

    Fedora 40發(fā)布,全方位升級(jí)并新增PyTorch支持

    在人工智能領(lǐng)域,F(xiàn)edora 40首次引入了PyTorch軟件包。盡管PyTorch是一款廣受歡迎的深度學(xué)習(xí)框架,但其驅(qū)動(dòng)程序及庫的正確安裝往往較為困難。
    的頭像 發(fā)表于 04-24 10:45 ?1060次閱讀

    清華權(quán)威報(bào)告公布,文心一言多項(xiàng)指標(biāo)“遙遙領(lǐng)先”

    最近,由清華大學(xué)基礎(chǔ)模型研究中心聯(lián)合中關(guān)村實(shí)驗(yàn)室研制的SuperBench大模型綜合能力評(píng)測(cè)框架,正式對(duì)外發(fā)布2024年3月版《SuperBench大模型綜合能力評(píng)測(cè)報(bào)告》。
    的頭像 發(fā)表于 04-23 09:22 ?618次閱讀
    <b class='flag-5'>清華</b>權(quán)威報(bào)告公布,文心一言多項(xiàng)指標(biāo)“遙遙領(lǐng)先”
    百家乐官网高手论坮| 大发888信誉| 百家乐官网马宝| 大发888在线娱乐城代理| 筹码百家乐官网的玩法技巧和规则 | 金宝博百家乐现金| 北票市| 千亿娱百家乐的玩法技巧和规则| 盐城百家乐官网的玩法技巧和规则| 大丰收娱乐城官网| 网络百家乐程序| 乐天堂百家乐官网赌场娱乐网规则 | 鑫鑫百家乐的玩法技巧和规则| 中国百家乐官网的玩法技巧和规则| 久胜娱乐| 机器百家乐作弊| 怎么赢百家乐官网的玩法技巧和规则| 金豪娱乐| 红树林百家乐的玩法技巧和规则 | 最新娱乐城注册送体验金| 百家乐赌术大揭秘| 缅甸百家乐官网赌场娱乐网规则 | 荷规则百家乐的玩法技巧和规则 | 百家乐揽子打法| 百家乐官网代理在线游戏可信吗网上哪家平台信誉好安全 | 欢乐谷娱乐城信誉| 新锦江百家乐娱乐场| 电脑百家乐官网的玩法技巧和规则| 太阳城娱乐网站| 综合百家乐博彩论坛| 2024九运旺那边水| 百家乐官网代理在线游戏可信吗网上哪家平台信誉好安全 | 百家乐的桌布| 鼎龙百家乐官网的玩法技巧和规则| 娄烦县| bet365会员注册| 百家乐销售视频| 蛟河市| 百家乐庄和闲的赌法| 皇冠百家乐官网在线游戏| 壹贰博备用网址|