吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

中文預訓練模型ERNIE使用指南

WpOh_rgznai100 ? 來源:lq ? 2019-08-02 09:15 ? 次閱讀

最近在工作上處理的都是中文語料,也嘗試了一些最近放出來的預訓練模型(ERNIE,BERT-CHINESE,WWM-BERT-CHINESE),比對之后還是覺得百度的ERNIE效果會比較好,而且使用十分方便,所以今天就詳細地記錄一下。希望大家也都能在自己的項目上取得進展~

1、A Glance at ERNIE

關于ERNIE模型本身的話這篇不會做過多介紹,網上的介紹文檔也很多了,相信從事NLP的同學們肯定都非常熟悉啦。

2、ERNIE源碼淺嘗

Okay,當我們了解了ERNIE模型的大體框架及原理之后,接下來就可以深入理解一下具體的實現啦。ERNIE是基于百度自己的深度學習框架飛槳(PaddlePaddle)搭建的,(百度推這個飛槳的力度還是蠻大的,還開放了免費算力),大家平時煉丹用的更多的可能是TensorFlow和Pytorch,這里關于運行ERNIE的飛槳環境安裝可以參考快速安裝指南:

https://www.paddlepaddle.org.cn/#quick-start

2.1 關于輸入

模型預訓練的輸入是基于百科類、資訊類、論壇對話類數據構造具有上下文關系的句子對數據,利用百度內部詞法分析工具對句對數據進行字、詞、實體等不同粒度的切分,然后基于 tokenization.py 中的 CharTokenizer 對切分后的數據進行 token 化處理,得到明文的 token 序列及切分邊界,然后將明文數據根據詞典config/vocab.txt 映射為 id 數據,在訓練過程中,根據切分邊界對連續的 token 進行隨機 mask 操作。經過上述預處理之后的輸入樣例為:

11048 492 1333 1361 1051 326 2508 5 1803 1827 98 164 133 2777 2696 983 121 4 199 634 551 844 85 14 2476 1895 33 13 983 121 23 7 1093 24 46 660 12043 2 1263 6328 33 121 126 398 276 315 5 63 44 35 25 12043 2;0 0 0 0 0 0 0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 11;0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 2829 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 5455;-1 0 0 0 0 1 0 1 0 0 1 0 0 1 0 1 0 0 0 0 0 0 1 0 1 0 0 1 0 1 0 0 0 0 1 0 0 00 -1 0 0 0 1 0 0 1 0 1 0 0 1 0 1 0 -1;0

一共有五個部分組成,每個部分之間用分號;隔開:

token_ids:輸入句子對的表示;

sentence_type_ids:0或者1表示token屬于哪一個句子;

position_ids:絕對位置編碼

seg_labels:表示分詞邊界信息,0表示詞首、1表示非詞首、-1為占位符

next_sentence_label:表示該句子對是否存在上下句的關系(0為無1為有)

reader.pretraining.py中的parse_line函數.

2.2 關于mask策略batching.py

我們知道,相較于BERT,ERNIE最大的改進就是中文 + 短語/實體掩碼(這個短語掩碼的操作后來也被BERT采用訓練出了WWM-BERT),所以我們首先來看看ERNIE的掩碼機制是怎么樣實現的。

2.3 關于infer過程代碼改寫

ERNIE代碼很方便使用,但是有一個不足的地方就是目前官方還沒有給出infer.py文件,也就是模型訓練之后給出快速推理結果的文件。Github上簡直萬人血書求接口呀。

所以我們的目的就是需要改寫源碼,完成這樣一個接口:輸入為我們需要預測的文件predict.tsv,調用接口后輸出為相應任務的結果pred_result。下面我們以分類任務為例,改寫一個infer接口。

Step 1. finetune下的classifier.py

在文件中完成predict函數

Step 2. run_classifier.py

修改predict_only=True時的邏輯

Step 3. finetune_args.py

在該文件中添加一個參數do_predict

OK, 篇幅有限后面還要介紹具體ERNIE實戰,源碼閱讀部分就先這樣,其實剩下的很多都跟BERT代碼比較相似,感興趣的同學也可以參考之前的BERT源碼分析系:https://blog.csdn.net/Kaiyuan_sjtu/article/details/90265473

3、ERNIE實戰指南

上面扯的都是務虛的,接下來我們務實地來看看ERNIE這個預訓練模型的具體應用。和BERT相比,ERNIE的使用更加簡單,在之前介紹過的BERT模型實戰之多文本分類(https://blog.csdn.net/Kaiyuan_sjtu/article/details/88709580)中,我們需要手動改寫一個適應自己任務的Processor,而對于ERNIE來說,簡單到只需要三步:

把數據準備成要求的格式(源碼中使用tsv格式,不過在bert中我們也說過了,可以修改成各種格式的)

寫一下訓練腳本run_script.sh

跑腳本得到結果bashrun_script.sh

3.1 準備工作

對于最近大火的預訓練模型來說,絕大多數我們是不太可能自己從頭開始訓練的,最多使用的是官方開源的模型進行特定任務的Finetune。所以第一步就是下載模型代碼(https://github.com/PaddlePaddle/ERNIE/tree/develop/ERNIE

)以及相應的參數(https://baidu-nlp.bj.bcebos.com/ERNIE_stable-1.0.1.tar.gz)。

接下去就是準備我們任務的數據,使其符合ERNIE模型輸入要求。一般來說字段之間都是label和text_a用制表符分割,對于句對任務還需要額外的text_b字段。在后面我們會具體介紹每種任務的示例輸入。

ok,前面我們一直強調ERNIE是超友好上手超快的模型,下面我們結合實際任務來看一看到底有多簡單~

3.2 情感分類

情感分類是屬于非常典型的NLP基礎任務之一,因為之前BERT寫過文本分類,所以這里我們就稍微換一換口味~這里我們只考慮最簡單情況的情感分類任務,即給定一個輸入句子,要求模型給出一個情感標簽,可以是只有正負的二分類,也可以是包括中性情感的三分類。ok,我們來看看數據,網上隨便找了一個財經新聞數據集,數據來源于雪球網上萬得資訊發布的正負***題,數據集中包含17149條新聞數據,包括日期、公司、代碼、正/負面、標題、正文6個字段,其中正面新聞12514條,負面新聞4635條。大概長這樣:

處理成ERNIE分類任務所需要的輸入,大概長這樣:

將處理完成的數據和前面下載好的預訓練模型參數放置到合適的位置,就可以開始寫我們跑模型的腳本文件了:

嗯,這樣一個任務就結束了…運行腳本后等待輸出結果即可,是不是很簡單~

當然如果你還想玩點花樣的話,就可以多看看論文。比如復旦之前有一篇文章是在BERT的基礎上,將ABSA情感分類的單句分類任務轉變成了句子對的相似度匹配任務。簡單來說就是通過構建輔助句子,把輸入這家餐館的鍋包肉超好吃變成了這家餐館的鍋包肉超好吃 + 菜品口感的情感是正的,論文表明這一trick是會比單句分類的效果更好。更具體的細節可以參考論文:《UtilizingBERT for Aspect-Based Sentiment Analysis via Constructing Auxiliary Sentence》(https://www.aclweb.org/anthology/N19-1035)。

3.3 命名實體識別

命名實體識別也是NLP的一個基礎任務,之前在博客中也有過介紹:【論文筆記】命名實體識別論文(https://blog.csdn.net/Kaiyuan_sjtu/article/details/89143573)關于NER的處理思路也是跟上面情感分類的大同小異,只不過NER是屬于序列標注任務,在運行腳本的時候注意使用源碼中的run_senquence_labeling.py。

4、有趣的ISSUE

Github上比源碼更有價值的是對應的issue,一個好的開源項目會吸引很多人的關注,issue區里會有很多有趣的思考,所以大家千萬不要錯過噢~下面就列幾個我覺得比較有意思的issue供大家參考。

4.1關于batch_size

https://github.com/PaddlePaddle/LARK/issues/4

剛打開ERNIE腳本打算跑的同學可能會發現,它的batch_size竟然是8192,我的天哪(小岳岳臉),這不得炸!于是乎你非常機智地把batch_size改為了32,美滋滋地輸入bash script/pretrain.py,然后自信地敲下Enter鍵。嗯???報錯???

報的什么錯大家感興趣的自己去復現吧~

對,在pretrain的時候這里的batch_size指的是所有輸入token的總數,所以才會那么大~

4.2關于Mask機制的邏輯

https://github.com/PaddlePaddle/LARK/issues/33

正如我開篇說的,ERNIE的最大創新就是它的mask機制,這一點的代碼實現也在issue區被熱烈討論

4.3關于獲取輸入的中間向量表示

https://github.com/PaddlePaddle/LARK/issues/41

有時候我們會需要獲取句子Embedding 和 tokenEmbeddings,可參照下面的方案。

4.4 預測被masked的詞

https://github.com/PaddlePaddle/LARK/issues/135

將一個句子的某個詞語mask后,然后使用模型去預測這個詞語,得到候選詞和詞語的概率

4.5. ERNIE模型部署

飛槳(PaddlePaddle)模型的部署可以在官方說明文檔中找到

https://www.paddlepaddle.org.cn/documentation/docs/zh/1.4/advanced_usage/deploy/inference/index_cn.html

5、Some Tips

最后一部分打算說一下關于使用預訓練模型的一些小tips:

學習率是第一種重要的參數,當你開始著手調參時優先從學習率開始。

根據你的任務來選擇預訓練模型。每個模型的訓練大規模語料是不一樣的,這就說明了有些模型天生就是更加適用于某個領域。

所有的預訓練模型為了在盡可能多的下游任務上取得較好的效果,所使用的訓練語料的覆蓋范圍都是非常大的,但這也帶來了一個問題----過于general。也就是說如果你的任務所屬domain與訓練語料的相差較大,比如關于醫學材料學之類的領域,反而不容易取得好的效果。所以我們可以在特定領域下嘗試post-train預訓練模型。

目前來說,對于中文領域的NLP任務,可以優先選擇ERNIE。聽小道消息說,ERNIE 2.0快出來了,據說效果很猛。

不要過分迷信預訓練模型!!!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3313

    瀏覽量

    49232
  • 深度學習
    +關注

    關注

    73

    文章

    5516

    瀏覽量

    121556

原文標題:超詳細中文預訓練模型ERNIE使用指南

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【大語言模型:原理與工程實踐】大語言模型訓練

    大語言模型的核心特點在于其龐大的參數量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養通用的處理能力。然而,隨著學習容量的增加,對訓練數據的需求也相
    發表于 05-07 17:10

    FreeRTOS實時內核使用指南_中文

    FreeRTOS實時內核使用指南_中文.pdf
    發表于 04-08 17:38

    FreeRTOS實時內核使用指南_中文

    本帖最后由 lee_st 于 2018-2-3 14:18 編輯 FreeRTOS實時內核使用指南_中文
    發表于 02-03 14:17

    keil編譯器使用指南中文).pdf

    keil編譯器使用指南中文).pdf
    發表于 08-14 12:08

    TI StellarisWare中文顯示使用指南

    TI StellarisWare中文顯示使用指南
    發表于 10-29 10:21 ?14次下載
    TI StellarisWare<b class='flag-5'>中文</b>顯示<b class='flag-5'>使用指南</b>

    小米在訓練模型的探索與優化

    導讀:訓練模型在NLP大放異彩,并開啟了訓練-微調的NLP范式時代。由于工業領域相關業務的復雜性,以及工業應用對推理性能的要求,大規模
    的頭像 發表于 12-31 10:17 ?2668次閱讀
    小米在<b class='flag-5'>預</b><b class='flag-5'>訓練</b><b class='flag-5'>模型</b>的探索與優化

    基于BERT的中文科技NLP訓練模型

    深度學習模型應用于自然語言處理任務時依賴大型、高質量的人工標注數據集。為降低深度學習模型對大型數據集的依賴,提出一種基于BERT的中文科技自然語言處理
    發表于 05-07 10:08 ?14次下載

    如何實現更綠色、經濟的NLP訓練模型遷移

    NLP中,訓練模型Finetune是一種非常常見的解決問題的范式。利用在海量文本上訓練得到的Bert、GPT等
    的頭像 發表于 03-21 15:33 ?2264次閱讀

    一種基于亂序語言模型訓練模型-PERT

    由于亂序語言模型不使用[MASK]標記,減輕了訓練任務與微調任務之間的gap,并由于預測空間大小為輸入序列長度,使得計算效率高于掩碼語言模型。PERT
    的頭像 發表于 05-10 15:01 ?1601次閱讀

    利用視覺語言模型對檢測器進行訓練

    訓練通常被用于自然語言處理以及計算機視覺領域,以增強主干網絡的特征提取能力,達到加速訓練和提高模型泛化性能的目的。該方法亦可以用于場景文本檢測當中,如最早的使用ImageNet
    的頭像 發表于 08-08 15:33 ?1460次閱讀

    ERNIE 3.0 Tiny新模型,壓縮部署“小”“快”“靈”!歡迎在 NGC 飛槳容器中體驗 PaddleNLP 最新版本

    PaddleNLP 又帶著新功能和大家見面了。本次更新,為大家帶來 文心 ERNIE 3.0 Tiny 輕量級模型 ,刷新了中文模型的 SOTA 成績;通過
    的頭像 發表于 02-22 07:05 ?1003次閱讀

    什么是訓練 AI 模型

    訓練 AI 模型是為了完成特定任務而在大型數據集上訓練的深度學習模型。這些模型既可以直接使用,
    的頭像 發表于 04-04 01:45 ?1530次閱讀

    什么是訓練AI模型

    訓練 AI 模型是為了完成特定任務而在大型數據集上訓練的深度學習模型。這些模型既可以直接使用,
    的頭像 發表于 05-25 17:10 ?1126次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領域中得到了廣泛應用。
    的頭像 發表于 07-03 18:20 ?3161次閱讀

    大語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使模型學習到語言的通用知識
    的頭像 發表于 07-11 10:11 ?541次閱讀
    视频百家乐官网赌法| 百家乐官网平注常赢法| 在线百家乐官网技巧| 发中发百家乐官网的玩法技巧和规则 | 百家乐官网平7s88| 百家乐百家乐视频| 全讯网.com| 木兰县| 送彩金百家乐官网的玩法技巧和规则| 百家乐官网说明| 百家乐电脑游戏高手| 威尼斯人娱乐城老品牌值得您信赖lm0 | 362百家乐官网的玩法技巧和规则| 百家乐游戏免费| 大发888官网多少| 百家乐平注常赢玩法技巧| 郑州市| 大上海百家乐官网的玩法技巧和规则 | 迪士尼百家乐的玩法技巧和规则| 亚洲赌博网站| 二爷百家乐官网的玩法技巧和规则 | 西乌| 做生意看风水| 大发888线上| 百家乐官网赌场怎么玩| 南京百家乐赌博现场被| 黄金岛棋牌游戏下载| 百家乐官网在线投注网| 百家乐波音平台导航网| 澳门博彩 | 24山分别指什么| 大发888 打法888| 大发888xp缺少casino| 百家乐官网网站赌钱吗| 噢门百家乐玩的技巧| 千阳县| 中华百家乐官网娱乐城| 威尼斯人娱乐平台网上百家乐| 百家乐官网赌博千术| 威尼斯人娱乐城真钱游戏| 百家乐官网送彩金网络|