吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型訓練和部署的關鍵技術

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2023-05-30 13:56 ? 次閱讀

電子發燒友網報道(文/李彎彎)ChatGPT的出現讓大模型迅速出圈,事實上,在過去這些年中,模型規模在快速提升。數據顯示,自2016年至今,模型大小每18個月增長40倍,自2019年到現在,更是每18個月增長340倍。

然而相比之下,硬件增長速度較慢,自2016年至今,GPU的性能增長每18個月1.7倍,模型大小和硬件增長的差距逐漸擴大。顯存占用大、算力消費大、成本高昂等瓶頸嚴重阻礙AIGC行業的快速發展。在此背景下,潞晨科技創始人尤洋認為,分布式訓練勢在必行。

圖:潞晨科技創始人尤洋演講


基礎大模型結構為模型訓練提供了基礎架構

其一、Google首創的Transformer大模型,是現在所有大模型最基礎的架構。現在Transformer已經成為除了MLP、CNN、RNN以外第四種最重要的深度學習算法架構。

其二、Google發布的首個預大模型BERT,從而引爆了預練大橫型的潮流和的勢,BERT強調了不再像以往一樣采用傳統的單向語言模型或者把兩個單向語言橫型進行淺層拼接的方法進行預認訓練,而是采用新的masked language model(MLM),以致能生成深度的雙向語言表征。

其三、ViT Google提出的首個使用Transformert的視覺大模型,ViT作為視覺轉換器的使用,而不是CNN威混合方法來執行圖像任務,作者假設進一步的預認訓練可以提高性能,因為與其他現有技術模型相比,ViT具有相對可擴展性。

其四、Google將Transformer中的Feedforward Network(FFN)層替換成了MoE層,并且將MoE層和數據并行巧妙地結合起來,在數據并行訓練時,模型在訓練集群中已經被復制了若干份,通過在多路數據并行中引入Al-to-Al通信來實現MoE的功能。

在這些基礎大模型結構之上,過去這些年,在大模型的發展歷程中,出現了幾個具有里程碑意義性的大模型包括GPT-3、T5、Swin Transformer、Switch Transformer。

GPT-3:OpenAI發布的首個百億規模的大模型,應該非常具有開創性意義,現在的大模型都是對標GPT-3,GPT-3依舊延續自己的單向語言模型認訓練方式,只不過這次把模型尺寸增大到了1750億,并且使用45TB數據進行訓練。

T5(Text-To-Text Transfer Transformer):Google T5將所有NLP任務都轉化成Text-to-Text(文本到文本)任務。它最重要作用給整個NLP預訓型領城提供了一個通用框架,把所有任務都轉化成一種形式。

Swin Transformer:微軟亞研提出的Swin Transformer的新型視覺Transformer,它可以用作計算機視的通用backbone。在個領域之同的差異,例如視覺實體尺度的巨大差異以及與文字中的單詞相比,圖像中像素的高分率,帶來了使Transformer從語言適應視覺方面的挑戰。

超過萬億規模的稀疏大模型Switch Transformer:能夠訓練包含超過一萬億個參數的語言模型的技術,直接將參數量從GPT-3的1750億拉高到1.6萬億,其速度是Google以前開發的語言模型T5-XXL的4倍。

另外,更具里程碑意義的大模型,在Pathways上實現的大預言模型PaLM。

分布式框架Pathways:Pathways的很多重要思想來源于現有系統,包括用于表達和執行TPU計算的XLA、用于表征和執行分布式CPU計算的TensorFlow圖和執行器、基于Python編程框架的JAX以及TensorFlowAPL,通過有效地使用這些模塊,Pathways不需要對現有橫型進行很多改動就能運行。

PaLM模型:PaLM吸引人眼球的是該模型具有5400億參數以及果用新一代AI框架Pathways訓練。模型結構也給出了很多方面優化,這些技術優化工作汲取了現有突出的研究成果,具體包括SwiGLU激活函數代替ReLU、層并行技術(Parallel Layers)、多查詢注意力(Multi-Query Attention),旋轉位置編碼(RoPE)、共享輸入和輸出詞嵌入、去掉偏置參數(No Biases)等。


PaLM模型也是通過堆疊Transformer中的Decoder部分而成,該模型具有5400億參數以及采用新一代AI框架Pathways訓練。

大規模分布式訓練當前主要技術路線

大規模分布式訓練當前主要技術路線——并行訓練技術。分布式訓練并行技術即通過在訓練過程中使用GPU集群(多機多卡)來提高神經網絡的訓練速度。

數據并行:相同的設置和模型被復制多份,每份每次都被饋送不同的一份數據,處理是并行完成的,所有份在每個訓練步結束時同步。

張量并行:每個張量都被分成多個塊,因此張量的每個分片都位于其指定的GPU上,在處理過程中,每個分片在不同的GPU上分別并行處理,結果在步驟結束時同步。

流水線并行:模型在多個GPU上垂直(即按量)拆分,因此只有一個或多個模型層放置在單個GPU上,每個GPU并行處理流水線的不同階段,并處理batch的一部分數據。


潞晨科技成立于2021年,是一家致力于“解放AI生產力”的全球性公司。主要業務是通過打造分布式AI開發和部署平臺,幫助企業降低大模型的落地成本,提升訓練、推理效率。

潞晨開源的智能系統架構Colossal-AI技術,有兩大特性:一是最小化部署成本,Colossal-AI 可以顯著提高大規模AI模型訓練和部署的效率。僅需在筆記本電腦上寫一個簡單的源代碼,Colossal-AI 便可自動部署到云端和超級計算機上。

通常訓練大模型 (如GPT-3) 需要 100 多個GPU,而使用Colossal-AI僅需一半的計算資源。即使在低端硬件條件下,Colossal-AI也可以訓練2-3倍的大模型。

二是最大化計算效率,在并行計算技術支持下,Colossal-AI在硬件上訓練AI模型,性能顯著提高。潞晨開源的目標是提升訓練AI大模型速度10倍以上。

小結

如今,全球眾多科技企業都在研究大模型,然而大模型的訓練和部署對硬件也有極高的要求,高昂的硬件需求和訓練成本是當前亟待解決的問題。可見,除了OpenAI、谷歌、百度、阿里等致力于大模型研究企業,以及英偉達等提供硬件的企業之外,潞晨科技這類提供微調,致力于提升大模型訓練和部署效率、降低成本的企業,也值得關注。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 大模型
    +關注

    關注

    2

    文章

    2551

    瀏覽量

    3174
收藏 人收藏

    評論

    相關推薦

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型
    發表于 01-14 16:51

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    網絡(DenseNet)等創新設計都是為了克服深層網絡訓練中的挑戰而提出的。 3 邊緣端設備部署 在邊緣端設備部署目標檢測模型,特別是像PP-PicoDet這樣輕量級且高效的
    發表于 12-19 14:33

    云計算HPC軟件關鍵技術

    云計算HPC軟件關鍵技術涉及系統架構、處理器技術、操作系統、計算加速、網絡技術以及軟件優化等多個方面。下面,AI部落小編帶您探討云計算HPC軟件的關鍵技術
    的頭像 發表于 12-18 11:23 ?177次閱讀

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    較大的準確率損失。 2.4.2 量化(Quantization) 模型量化是深度學習模型優化的一種關鍵技術,旨在通過減少模型參數和激活值的數值精度來降低
    發表于 12-06 17:20

    如何訓練自己的LLM模型

    訓練自己的大型語言模型(LLM)是一個復雜且資源密集的過程,涉及到大量的數據、計算資源和專業知識。以下是訓練LLM模型的一般步驟,以及一些關鍵
    的頭像 發表于 11-08 09:30 ?798次閱讀

    如何訓練自己的AI大模型

    訓練自己的AI大模型是一個復雜且耗時的過程,涉及多個關鍵步驟。以下是一個詳細的訓練流程: 一、明確需求和目標 首先,需要明確自己的需求和目標。不同的任務和應用領域需要不同類型的AI
    的頭像 發表于 10-23 15:07 ?2956次閱讀

    基于Pytorch訓練部署ONNX模型在TDA4應用筆記

    電子發燒友網站提供《基于Pytorch訓練部署ONNX模型在TDA4應用筆記.pdf》資料免費下載
    發表于 09-11 09:24 ?0次下載
    基于Pytorch<b class='flag-5'>訓練</b>并<b class='flag-5'>部署</b>ONNX<b class='flag-5'>模型</b>在TDA4應用筆記

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型推理加速關鍵
    的頭像 發表于 07-24 11:38 ?1018次閱讀

    大語言模型的預訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型的預訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使
    的頭像 發表于 07-11 10:11 ?541次閱讀

    人臉識別模型訓練流程

    人臉識別模型訓練流程是計算機視覺領域中的一項重要技術。本文將詳細介紹人臉識別模型訓練流程,包括數據準備、
    的頭像 發表于 07-04 09:19 ?1130次閱讀

    人臉識別模型訓練是什么意思

    人臉識別模型訓練是指通過大量的人臉數據,使用機器學習或深度學習算法,訓練出一個能夠識別和分類人臉的模型。這個模型可以應用于各種場景,如安防監
    的頭像 發表于 07-04 09:16 ?741次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,它涉及大量的數據、計算資源和精心設計的算法。訓練一個深度學習模型,本質上是通過優化算法調整
    的頭像 發表于 07-01 16:13 ?1507次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    函數,位置編碼以及其他關鍵模塊。這些模塊和設計選型都是大語言模型在處理各種自然語言處理任務時的基礎,影響模型的學習能力,泛化性和運行效率。 大語言模型通過最常用的
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    全面剖析大語言模型的核心技術與基礎知識。首先,概述自然語言的基本表示,這是理解大語言模型技術的前提。接著,詳細介紹自然語言處理預訓練的經典
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術綜述

    其預訓練和微調,直到模型部署和性能評估。以下是對這些技術的綜述: 模型架構: LLMs通常采用深層的神經網絡架構,最常見的是Transf
    發表于 05-05 10:56
    大发888任务| 德州扑克怎么比大小| 顶级赌场 足彩分析| 百家乐官网客户端皇冠| 怎样玩百家乐官网的玩法技巧和规则| 太阳城百家乐娱乐开户| 大发888客户端 运行| 百家乐官网百家乐官网群| 百家乐官网辅助器| 百家乐赌博游戏平台| 御金娱乐| 找查百家乐官网玩法技巧| 百家乐出庄的概率| 福海县| 百家乐官网龙虎台布作弊技巧| 怎样看百家乐路单| bet365网址yalanad| 至尊百家乐官网娱乐平台| 大杀器百家乐学院| 景德镇市| 百家乐靠什么赢| 百家乐网上真钱娱乐场| 皇冠在线赌场| JJ百家乐官网的玩法技巧和规则 | 乐中百家乐官网的玩法技巧和规则 | 百家乐官网赌博工具| 茅台百家乐的玩法技巧和规则| 六合彩开奖历史记录| 利都百家乐官网国际娱乐场开户注册 | 现金百家乐网上娱乐| 威尼斯人娱乐| 扑克百家乐官网麻将筹码防伪| 大发888手机游戏| 百家乐官网永利娱乐场| 二八杠算法| CEO百家乐官网现金网| 百家乐赌博在线娱乐| 百家乐官网哪家信誉好| 百家乐游戏开发软件| 百家乐官网有什么打法| 百家乐赌场讨论群|