吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為大家介紹三個NLP領域的熱門詞匯

電子工程師 ? 來源:lp ? 2019-04-04 16:52 ? 次閱讀

編者按:在過去的一段時間,自然語言處理領域取得了許多重要的進展,Transformer、BERT、無監督機器翻譯,這些詞匯仿佛在一夜之間就進入了人們的視野。你知道它們具體都是什么意思嗎?今天,我們就將為大家介紹三個NLP領域的熱門詞匯。

Transformer

Transformer在2017年由Google在題為《Attention Is All You Need》的論文中提出。Transformer是一個完全基于注意力機制的編解碼器模型,它拋棄了之前其它模型引入注意力機制后仍然保留的循環與卷積結構,而采用了自注意力(Self-attention)機制,在任務表現、并行能力和易于訓練性方面都有大幅的提高。

在 Transformer 出現之前,基于神經網絡的機器翻譯模型多數都采用了 RNN的模型架構,它們依靠循環功能進行有序的序列操作。雖然 RNN 架構有較強的序列建模能力,但是存在訓練速度慢,訓練質量低等問題。

與基于 RNN 的方法不同,Transformer 模型中沒有循環結構,而是把序列中的所有單詞或者符號并行處理,同時借助自注意力機制對句子中所有單詞之間的關系直接進行建模,而無需考慮各自的位置。具體而言,如果要計算給定單詞的下一個表征,Transformer 會將該單詞與句子中的其它單詞一一對比,并得出這些單詞的注意力分數。注意力分數決定其它單詞對給定詞匯的語義影響。之后,注意力分數用作所有單詞表征的平均權重,這些表征輸入全連接網絡,生成新表征。

由于 Transformer 并行處理所有的詞,以及每個單詞都可以在多個處理步驟內與其它單詞之間產生聯系,它的訓練速度比 RNN 模型更快,在翻譯任務中的表現也比 RNN 模型更好。除了計算性能和更高的準確度,Transformer 另一個亮點是可以對網絡關注的句子部分進行可視化,尤其是在處理或翻譯一個給定詞時,因此可以深入了解信息是如何通過網絡傳播的。

之后,Google的研究人員們又對標準的 Transformer 模型進行了拓展,采用了一種新型的、注重效率的時間并行循環結構,讓它具有通用計算能力,并在更多任務中取得了更好的結果。

改進的模型(Universal Transformer)在保留Transformer 模型原有并行結構的基礎上,把 Transformer 一組幾個各異的固定的變換函數替換成了一組由單個的、時間并行的循環變換函數構成的結構。相比于 RNN一個符號接著一個符號從左至右依次處理序列,Universal Transformer 和 Transformer 能夠一次同時處理所有的符號,但 Universal Transformer 接下來會根據自注意力機制對每個符號的解釋做數次并行的循環處理修飾。Universal Transformer 中時間并行的循環機制不僅比 RNN 中使用的串行循環速度更快,也讓 Universal Transformer 比標準的前饋 Transformer 更加強大。

預訓練Pre-train

目前神經網絡在進行訓練的時候基本都是基于后向傳播(Back Propagation,BP)算法,通過對網絡模型參數進行隨機初始化,然后利用優化算法優化模型參數。但是在標注數據很少的情況下,通過神經網絡訓練出的模型往往精度有限,“預訓練”則能夠很好地解決這個問題,并且對一詞多義進行建模。

預訓練是通過大量無標注的語言文本進行語言模型的訓練,得到一套模型參數,利用這套參數對模型進行初始化,再根據具體任務在現有語言模型的基礎上進行精調。預訓練的方法在自然語言處理的分類和標記任務中,都被證明擁有更好的效果。目前,熱門的預訓練方法主要有三個:ELMo,OpenAI GPT和BERT。

在2018年初,艾倫人工智能研究所和華盛頓大學的研究人員在題為《Deep contextualized word representations》一文中提出了ELMo。相較于傳統的使用詞嵌入(Word embedding)對詞語進行表示,得到每個詞唯一固定的詞向量,ELMo 利用預訓練好的雙向語言模型,根據具體輸入從該語言模型中可以得到在文本中該詞語的表示。在進行有監督的 NLP 任務時,可以將 ELMo 直接當做特征拼接到具體任務模型的詞向量輸入或者是模型的最高層表示上。

在ELMo的基礎之上,OpenAI的研究人員在《Improving Language Understanding by Generative Pre-Training》提出了OpenAI GPT。與ELMo為每一個詞語提供一個顯式的詞向量不同,OpenAI GPT能夠學習一個通用的表示,使其能夠在大量任務上進行應用。在處理具體任務時,OpenAI GPT 不需要再重新對任務構建新的模型結構,而是直接在 Transformer 這個語言模型上的最后一層接上 softmax 作為任務輸出層,再對這整個模型進行微調。

ELMo和OpenAI GPT這兩種預訓練語言表示方法都是使用單向的語言模型來學習語言表示,而Google在提出的BERT則實現了雙向學習,并得到了更好的訓練效果。具體而言,BERT使用Transformer的編碼器作為語言模型,并在語言模型訓練時提出了兩個新的目標:MLM(Masked Language Model)和句子預測。MLM是指在輸入的詞序列中,隨機的擋上 15% 的詞,并遮擋部分的詞語進行雙向預測。為了讓模型能夠學習到句子間關系,研究人員提出了讓模型對即將出現的句子進行預測:對連續句子的正誤進行二元分類,再對其取和求似然。

圖片來源:Google AI Blog

無監督機器翻譯

Unsupervised Machine Translation

現有的機器翻譯需要大量的翻譯文本做訓練樣本,這使得機器翻譯只在一小部分樣本數量充足的語言上表現良好,但如何在沒有源翻譯的情況下訓練機器翻譯模型,即無監督訓練,成為了目前熱門的研究話題。Facebook在EMNLP 2018上的論文《Phrase-Based & Neural Unsupervised Machine Translation》利用跨字嵌入(Cross Word Embedding),提升了高達11 BLEU,那么Facebook是如何實現的呢?

第一步是讓系統學習雙語詞典。系統首先為每種語言中的每個單詞訓練詞嵌入,訓練詞嵌入通過上下文來預測給定單詞周圍的單詞。不同語言的詞嵌入具有相似的鄰域結構,因此可以通過對抗訓練等方法讓系統學習旋轉變換一種語言的詞嵌入,以匹配另一種語言的詞嵌入。基于這些信息,就可以得到一個相對準確的雙語詞典,并基本可以實現逐字翻譯。在得到語言模型和初始的逐字翻譯模型之后,就可以構建翻譯系統的早期版本。

然后將系統翻譯出的語句作為標注過的真實數據進行處理,訓練反向機器翻譯系統,得到一個更加流暢和語法正確的語言模型,并將反向翻譯中人工生成的平行句子與該語言模型提供的校正相結合,以此來訓練這個翻譯系統。

通過對系統的訓練,形成了反向翻譯的數據集,從而改進原有的機器翻譯系統。隨著一個系統得到改進,可以使用它以迭代方式在相反方向上為系統生成訓練數據,并根據需要進行多次迭代。

逐字嵌入初始化、語言建模和反向翻譯是無監督機器翻譯的三個重要原則。將基于這些原理得到的翻譯系統應用于無監督的神經模型和基于計數的統計模型,從訓練好的神經模型開始,使用基于短語模型的其它反向翻譯句子對其進行訓練,最終得到了一個既流暢,準確率又高的模型。

對于無監督機器翻譯,微軟亞洲研究院自然語言計算組也進行了探索。研究人員利用后驗正則(Posterior Regularization)的方式將SMT(統計機器翻譯)引入到無監督NMT的訓練過程中,并通過EM過程交替優化SMT和NMT模型,使得無監督NMT迭代過程中的噪音能夠被有效去除,同時NMT模型也彌補了SMT模型在句子流暢性方面的不足。相關論文《Unsupervised Neural Machine Translation with SMT as Posterior Regularization》已被AAAI 2019接收。

感謝微軟亞洲研究院自然語言計算組研究員葛濤對本文提供的幫助。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101167
  • 機器翻譯
    +關注

    關注

    0

    文章

    139

    瀏覽量

    14945
  • nlp
    nlp
    +關注

    關注

    1

    文章

    489

    瀏覽量

    22107

原文標題:請收下這份NLP熱門詞匯解讀

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    MOS管的三個二級效應

    前面給大家分享了MOS管的結構,符號,閾值電壓,四種工作狀態分別對應的漏電流公式和跨導的定義公式,相信大家對MOS管的工作原理有了一定的了解,這篇給大家介紹后續電路分析中不可缺少的MO
    發表于 04-25 14:24 ?4867次閱讀
    MOS管的<b class='flag-5'>三個</b>二級效應

    探索并行領域—并行設計行業的三個實例介紹

    獲得更高的計算能力。如果您需要有說服力的證據,這里有三個不同行業的三個實例:在去年 Linley 大會的物聯網 (IoT) 行業會議中,有一案例研究概述了一款智能手機的設計。這款手表中除了 CPU
    發表于 07-16 08:49

    電路板維修技巧_電路板維修的三個方法

    本文大家介紹電路板維修的三個方法。
    發表于 01-12 17:30 ?34.9w次閱讀

    fpga應用領域_fpga應用三個主要方向

    本文首先介紹了fpga的優勢及特點,其次介紹了fpga的應用領域,最后闡述了fpga應用的三個主要方向。
    發表于 04-18 10:15 ?5.9w次閱讀

    NLP介紹和如何利用機器學習進行NLP以及NLP技術的詳細介紹

    本文用簡潔易懂的語言,講述了自然語言處理(NLP)的前世今生。從什么是NLP到為什么要學習NLP,再到如何利用機器學習進行NLP,值得一讀。這是該系列的第一部分,
    的頭像 發表于 06-10 10:26 ?7.7w次閱讀
    <b class='flag-5'>NLP</b>的<b class='flag-5'>介紹</b>和如何利用機器學習進行<b class='flag-5'>NLP</b>以及<b class='flag-5'>三</b>種<b class='flag-5'>NLP</b>技術的詳細<b class='flag-5'>介紹</b>

    最先進的NLP模型很脆弱!最先進的NLP模型是虛假的!

    這兩問題都很棘手,顯然,為期一天的研討會肯定討論不出什么結果。但是在會議現場,一些有遠見卓識的NLP研究人員還是探討了不少方法和想法,其中有一些尤其值得關注。在下文中,我們會介紹它們中的三個
    的頭像 發表于 08-27 09:47 ?4491次閱讀

    Richard Socher:NLP領域的發展要過座大山

    面對自然語言處理發展(NLP)存在的諸多難題,該領域的大牛、Salesforce的首席科學家Richard Socher在近日指出:NLP領域的發展要過
    的頭像 發表于 09-06 11:40 ?3834次閱讀

    隨著人工智能的發展 即將出現這三個熱門職業

    隨著人工智能的發展,很多人類的工作都會被機器取代。但是,新技術也創造了新的崗位和就業機會。管理咨詢公司埃森哲調研了全球1500多家使用了人工智能技術的公司,發現了很多新崗位。在《機器與人:埃森哲論新人工智能》這本書里,就介紹了未來的三個
    發表于 02-12 11:19 ?1527次閱讀

    介紹三個NLP領域熱門詞匯

    具體而言,如果要計算給定單詞的下一表征,Transformer 會將該單詞與句子中的其它單詞一一對比,并得出這些單詞的注意力分數。注意力分數決定其它單詞對給定詞匯的語義影響。之后,注意力分數用作所有單詞表征的平均權重,這些表征輸入全連接網絡,生成新表征。
    的頭像 發表于 04-17 10:05 ?2722次閱讀
    <b class='flag-5'>介紹</b><b class='flag-5'>三個</b><b class='flag-5'>NLP</b><b class='flag-5'>領域</b>的<b class='flag-5'>熱門</b><b class='flag-5'>詞匯</b>

    華為三個全新商標對應不同領域

    目前智能手機廠商進軍其他領域的現象愈發普遍,不少手機廠商都推出了相應的品牌,在多個方面滿足消費者的使用需求。近日,有海外網友發現了三個華為的全新商標,它們分別是“Honor Home”、“Honor Go”以及“Honor Work”,似乎對應著不同的
    的頭像 發表于 11-22 15:03 ?3824次閱讀

    NLP 2019 Highlights 給NLP從業者的一參考

    自然語言處理專家elvis在medium博客上發表了關于NLP在2019年的亮點總結。對于自然語言處理(NLP領域而言,2019年是令人印象深刻的一年。在這篇博客文章中,我想重點介紹
    的頭像 發表于 09-25 16:56 ?1772次閱讀

    詞匯知識融合可能是NLP任務的永恒話題

    以指標增長目標,而是從先驗知識融合與嵌套實體問題兩方面討論,希望可以從這兩方向的工作中獲得解決其他問題的啟發 融合詞匯知識 Chinese NER Using Lattice LSTM 融合
    的頭像 發表于 05-08 11:22 ?2659次閱讀
    <b class='flag-5'>詞匯</b>知識融合可能是<b class='flag-5'>NLP</b>任務的永恒話題

    如何判斷極管的三個極性

    極管是電子電路中的基本元件之一,其性能的好壞直接影響到整個電路的性能。而判斷極管的三個極性(基極b、發射極e、集電極c)是電路分析和設計中不可或缺的一步。下面將詳細介紹判斷
    的頭像 發表于 05-21 15:26 ?7031次閱讀

    微波測量的三個基本參量是什么

    微波測量是電子工程領域中的一重要分支,它涉及到對微波信號的頻率、幅度、相位等參數的測量。在微波測量中,有三個基本參量:頻率、幅度和相位。這三個參量是微波信號的基本特征,對于微波系統的
    的頭像 發表于 05-28 14:46 ?1542次閱讀

    nlp邏輯層次模型的特點

    NLP(自然語言處理)邏輯層次模型是一種用于理解和生成自然語言文本的計算模型。它將自然語言文本分解不同的層次,以便于計算機更好地處理和理解。以下是對NLP邏輯層次模型特點的分析: 詞匯
    的頭像 發表于 07-09 10:39 ?458次閱讀
    葡京线上娱乐| 百家乐棋牌游戏币| 百家乐官网电投网址| 百家乐官网神仙道官网| 百家乐官网园36bol在线| bet365忠实奖金| 百家乐赌场网| 去澳门百家乐官网的玩法技巧和规则 | rmb百家乐的玩法技巧和规则| 百家乐官网线路图分析| 玩百家乐官网最好方法| 德州扑克的玩法| 做生意的怎样招财| 百家乐官网塑料扑克牌盒| 明升娱乐| 百家乐有没有稳赢| 百家乐官网平注赢钱法| 皇冠足球投| 大发888娱乐场下载iyou qrd| 葡京百家乐的玩法技巧和规则| 风水24山代表什么意思| 百家乐官网投注五揽式| tt真人娱乐城| 88娱乐城网址tlyd| 永利高娱乐城| 百家乐官网娱乐城7| 立即博娱乐城| 六合彩公司| 大发888体育开户| 大发888娱乐城网页版| 免费百家乐游戏下| 鑫鼎百家乐的玩法技巧和规则 | 大世界百家乐官网娱乐场| 百家乐官网赢足球博彩皇冠| 澳门百家乐牌规| 百家乐网上投注代理商| 筹码百家乐500| 百家乐现金网平台排行榜| 百家乐那个平台信誉高| 百家乐龙虎斗等| 百家乐娱乐网真人娱乐网|