吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google最強模型BERT出爐

電子工程師 ? 來源:未知 ? 作者:工程師李察 ? 2018-10-27 10:37 ? 次閱讀

經(jīng)過近幾年的發(fā)展,深度學(xué)習(xí)給自然語言處理帶來了很多新的變化,包括 Word2Vec、ELMO、OpenAI GPT、Glove、Fasttext 等主流模型也在這一端時間內(nèi)涌現(xiàn)。直到最近 Google 發(fā)布的論文“ Pre-training of Deep Bidirectional Transformers for Language Understanding ”中提到的 BERT 模型又刷新了自然語言處理的 11 項記錄。

在不少人看來,BERT 對自然語言處理的研究具有里程碑式的意義,至少在復(fù)旦大學(xué)計算機科學(xué)技術(shù)學(xué)院副教授邱錫鵬看來:“證明了一個非常深的模型可以顯著提高 NLP 任務(wù)的準確率,而這個模型可以從無標記數(shù)據(jù)集中預(yù)訓(xùn)練得到。”

也正是因為如此,深度學(xué)習(xí)的不可解釋性,在面對某個具體任務(wù)時進行遷移學(xué)習(xí)是十分困難的,相對而言,基于知識圖譜的自然語言理解則是可解釋性的,更加類似于人類思考過程的技術(shù)。BERT 的出現(xiàn)或?qū)μ岣咧R圖譜質(zhì)量,并進一步提高自然語言處理的質(zhì)量將非常有幫助。

于是,在以移動互聯(lián)網(wǎng)為基礎(chǔ)高速發(fā)展的背景之下,人們獲取信息并進行傳播的渠道越來越豐富、數(shù)據(jù)量也越來越巨大,如何更好地進行人機語言交互,讓機器既能聽懂又能學(xué)會遷移?如智能客服、對話機器人已作為主要落地方式被應(yīng)用于電商、游戲、金融等場景。

今年7月,思必馳北京研發(fā)院首先提出了啟發(fā)式對話系統(tǒng)的框架,通過話題路徑規(guī)劃和知識點推薦模型,實現(xiàn)信息傳播和目標引導(dǎo),可以幫助企業(yè)快速構(gòu)建信息服務(wù)對話機器人,并能大幅提升關(guān)鍵信息的用戶觸達能力。

此外,自然語言處理還在搜索、推薦、翻譯等文本類場景上有著更為廣泛的落地,放在目前來看,如國外的 Facebook、微軟必應(yīng)等,國內(nèi)的阿里、今日頭條等不少門戶類公司都有自己相對完備的搜索、推薦系統(tǒng)。

現(xiàn)在,CSDN 就為大家提供了這樣一個機會,讓你能夠聆聽以上公司在自然語言處理方面的最新技術(shù)實踐,并有機會與它們的資深技術(shù)人員面對面交流。

2018 年 11 月 8-9 日,由中國 IT 社區(qū) CSDN 與硅谷 AI 社區(qū) AICamp 聯(lián)合出品的 2018 AI 開發(fā)者大會(AI NEXTCon)將于北京召開。

本次大會設(shè)有“自然語言處理技術(shù)專場”,我們很榮幸邀請到在研究和工業(yè)界都極富盛名的一線技術(shù)專家們:思必馳北京研發(fā)院院長、公司副總裁 初敏、Facebook語音識別科學(xué)家 Baiyang Liu、字節(jié)跳動高級技術(shù)總監(jiān)和杰出科學(xué)家 Xiaobing Liu、阿里巴巴智能服務(wù)事業(yè)部北京團隊負責人 孫健、微軟(亞洲)互聯(lián)網(wǎng)工程院資深應(yīng)用科學(xué)研發(fā)總監(jiān)陳一寧。

下面重磅介紹自然語言處理技術(shù)專題的講師團和他們的議題概要:

初敏:思必馳北京研發(fā)院院長、公司副總裁

演講主題:啟發(fā)式對話助力企業(yè)服務(wù)智能化

初敏博士畢業(yè)于中科院聲學(xué)所,主要研究方向覆蓋語音識別與合成、自然語言處理、機器學(xué)習(xí)和數(shù)據(jù)挖掘、大數(shù)據(jù)處理和計算等,在相關(guān)領(lǐng)域發(fā)表了近百篇學(xué)術(shù)論文并取得30多項國內(nèi)外專利。

2000年,初敏博士加入微軟亞洲研究院,從事科學(xué)研究近10年,創(chuàng)建并領(lǐng)導(dǎo)語音合成研究小組,研制出了第一個中英文雙語語音合成系統(tǒng)“木蘭”;2009年入職阿里云,承擔過各種大數(shù)據(jù)應(yīng)用項目。從2014開始,組建阿里iDST智能語音交互團隊,在短短兩年時間,完成語音交互全鏈路技術(shù)的研發(fā)和應(yīng)用落地,他們的技術(shù)在淘寶客服、支付寶客服、Yun OS、手機支付寶、手機淘寶、釘釘?shù)?a target="_blank">產(chǎn)品廣泛應(yīng)用;2017年加入思必馳,擔任思必馳公司副總裁,組建思必馳北京研發(fā)院并擔任院長,負責語音合成、自然語言處理等核心技術(shù)的研發(fā),以及智能語音交互技術(shù)在企業(yè)服務(wù)智能化等新場景的產(chǎn)品研發(fā)和業(yè)務(wù)拓展。

Baiyang Liu:Facebook語音識別科學(xué)家

演講議題:自然語言理解在Facebook的應(yīng)用與實踐

Baiyang Liu是Facebook語音識別研究科學(xué)家。自2015年初以來,他一直致力于建立眾多支持Facebook AI產(chǎn)品的話語理解和對話系統(tǒng)。在此之前,Baiyang是亞馬遜語音識別系統(tǒng)的早期機器學(xué)習(xí)工程師之一。他獲得計算機科學(xué)博士學(xué)位,主攻計算機視覺領(lǐng)域。

Xiaobing Liu:字節(jié)跳動高級技術(shù)總監(jiān)和杰出科學(xué)家

演講議題:大規(guī)模深度學(xué)習(xí)和序列模型的研究及應(yīng)用

Xiaobing Liu,自2014年起擔任Google Brain Staff軟件工程師和機器學(xué)習(xí)研究員。工作中,他專注于TensorFlow以及一些可以應(yīng)用深度學(xué)習(xí)來改進Google產(chǎn)品的關(guān)鍵應(yīng)用,如Google Ads、Google Play推薦、Google翻譯、醫(yī)學(xué)大腦等。他的研究興趣從系統(tǒng)到應(yīng)用機器學(xué)習(xí)如ASR、機器翻譯、醫(yī)學(xué)HER建模、推薦建模。他的研究成果已成功應(yīng)用于雅虎、騰訊、Google的各類商業(yè)產(chǎn)品。他曾擔任2017年ACL計劃委員會和2017年AAAI會議主席,負責包括一些頂級會議的部分出版物。

孫 健:阿里巴巴智能服務(wù)事業(yè)部北京團隊負責人

演講議題:關(guān)于人機對話交互的反思、實踐和未來展望

孫健,阿里巴巴智能服務(wù)事業(yè)部北京團隊負責人。他主導(dǎo)的自然語言處理基礎(chǔ)平臺有力支撐和服務(wù)了淘寶搜索、阿里媽媽廣告等核心業(yè)務(wù),主導(dǎo)了阿里巴巴自然交互平臺(Natural User Interface, NUI)的設(shè)計開發(fā),NUI平臺廣泛應(yīng)用于天貓魔盒、互聯(lián)網(wǎng)汽車等各種設(shè)備中。目前他正帶領(lǐng)團隊打造面向全行業(yè)的企業(yè)智能服務(wù)對話機器人(云小蜜),從而讓每一家企業(yè)/組織能夠及時響應(yīng)用戶的需求,與用戶進行7*24的自然交互。

陳一寧:微軟(亞洲)互聯(lián)網(wǎng)工程院資深應(yīng)用科學(xué)研發(fā)總監(jiān)

演講議題:搜索中的自然語言先驗知識

陳一寧是清華大學(xué)博士,主要研發(fā)方向涵蓋語音識別與合成、自然語言處理、人工智能、大數(shù)據(jù)等方向,并在相關(guān)領(lǐng)域發(fā)表多篇論文并取得多項專利。2004年,陳一寧博士加入微軟亞洲研究院,從事語音合成方面的研究。2009年加入阿里巴巴,負責多項算法工作,是神馬搜索的共同創(chuàng)始人,并曾負責iDST智能語音方向的商業(yè)化。2017年加入微軟互聯(lián)網(wǎng)工程院,從事自然語言處理相關(guān)的研發(fā)工作。

除了語音技術(shù)專題之外,我們還為大家準備了“語音技術(shù)”、“機器學(xué)習(xí)工具”、“數(shù)據(jù)分析”、“機器學(xué)習(xí)”、“計算機視覺”、“知識圖譜”等技術(shù)專題,以及“智慧金融”、“智能駕駛”、“智慧醫(yī)療”等行業(yè)峰會。大會完整日程以及嘉賓議題請查看下方海報。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1772

    瀏覽量

    57807
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31536

    瀏覽量

    270343
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5516

    瀏覽量

    121553
收藏 人收藏

    評論

    相關(guān)推薦

    Google兩款先進生成式AI模型登陸Vertex AI平臺

    新的 AI 模型,包括最先進的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們在 Google Cloud 上進一步推動這一勢頭,客戶可以在Vertex AI平
    的頭像 發(fā)表于 12-30 09:56 ?143次閱讀

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    訓(xùn)練模型BERT、GPT等。這些模型在理解自然語言、生成文本、處理對話等方面具有不同的能力。因此,在選擇模型時,需要了解每個模型的特點和優(yōu)
    發(fā)表于 12-17 16:53

    Google Gemma 2模型的部署和Fine-Tune演示

    Google 近期發(fā)布了最新開放模型 Gemma 2,目前與同等規(guī)模的開放模型相比,取得了明顯的優(yōu)勢,同時在安全可控性上得到了顯著的增強。
    的頭像 發(fā)表于 08-09 17:04 ?681次閱讀
    <b class='flag-5'>Google</b> Gemma 2<b class='flag-5'>模型</b>的部署和Fine-Tune演示

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強大、用途最廣泛的模型。這些模型
    的頭像 發(fā)表于 08-02 15:42 ?441次閱讀

    ai大模型和傳統(tǒng)ai的區(qū)別在哪?

    AI大模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進行訓(xùn)練,以獲得更好的性能。相比之下,傳統(tǒng)AI模型往往使用較小的數(shù)據(jù)集進行訓(xùn)練。例如,Goog
    的頭像 發(fā)表于 07-16 10:06 ?1620次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是一種基于自注意力機制的模型,廣泛應(yīng)用于NLP領(lǐng)域。基于Transformer的LLM模型包括: a. BERT(Bidir
    的頭像 發(fā)表于 07-09 09:59 ?736次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer
    的頭像 發(fā)表于 07-02 11:41 ?1844次閱讀

    使用google-translate和wwe合并后無法使用google-tts怎么解決?

    我打算使用lyrat-mini做一個使用喚醒詞喚醒然后后續(xù)通過google-sr和google-tts進行交流的聊天機器人,但是當我合并了adf的例子中的wwe和google-translate之后
    發(fā)表于 06-28 06:05

    Google Calendar、Tasks和Keep應(yīng)用將整合Gemini模型

    在今日舉行的I/O 2024開發(fā)者大會上,谷歌公司帶來了一項令人興奮的新功能:在Google Calendar、Tasks和Keep應(yīng)用中整合了Gemini模型,為用戶帶來前所未有的AI體驗。這一創(chuàng)新舉措將極大地豐富用戶在日程管理、任務(wù)追蹤和筆記記錄方面的功能。
    的頭像 發(fā)表于 05-15 11:24 ?651次閱讀

    谷歌Google Calendar、Tasks與Keep應(yīng)用中成功整合Gemini模型

    谷歌于今日發(fā)布的I/O 2024開發(fā)者大會新聞中展現(xiàn)了其在Google Calendar, Tasks以及Keep應(yīng)用中整合Gemini模型的最新進展,為用戶呈現(xiàn)出更為智能化的使用體驗。
    的頭像 發(fā)表于 05-15 11:10 ?401次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    模型架構(gòu)奠定基礎(chǔ)。然后,引介一些經(jīng)典的預(yù)訓(xùn)練模型,如BERT、GPT等。最后,解讀ChatGPT和LLaMA系列模型,幫助讀者初步感知大語言模型
    發(fā)表于 05-05 12:17

    海信發(fā)布電視行業(yè)最強中文大模型,開啟電視AI新時代

    3月15日,“海信視像 AI美好生活”全場景顯示新品發(fā)布會上,海信正式發(fā)布了自研星海大模型,這也是目前電視行業(yè)最強中文大模型
    的頭像 發(fā)表于 03-18 14:24 ?407次閱讀

    全球最強模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內(nèi)的所有大型
    的頭像 發(fā)表于 03-05 09:58 ?704次閱讀

    谷歌發(fā)布最先進的開放模型Gemma

    Google,我們致力于讓 AI 助力每個人。長期以來,我們對開放社區(qū)的創(chuàng)新貢獻了許多成果,如 Transformers、TensorFlow、BERT、T5、JAX、AlphaFold
    的頭像 發(fā)表于 02-23 10:12 ?668次閱讀
    谷歌發(fā)布最先進的開放<b class='flag-5'>模型</b>Gemma

    谷歌發(fā)布全球最強開源大模型Gemma

    谷歌近日宣布,其全新開源大模型Gemma正式亮相。Gemma被譽為全球性能最強大、同時也是最輕量級的模型系列,分為2B(20億參數(shù))和7B(70億)兩種尺寸版本。令人矚目的是,即便是2B版本,也能夠在筆記本電腦上流暢運行。
    的頭像 發(fā)表于 02-22 14:51 ?873次閱讀
    利博百家乐的玩法技巧和规则 | 威尼斯人娱乐的微博| 关岭| 24山向与周天360度关系示意图| 天空娱乐城| 单张百家乐论坛| 瑞丰国际娱乐城| 合水县| 凤凰百家乐的玩法技巧和规则| 澳门百家乐官网娱乐城送彩金| 百家乐庄闲局部失| 蓝盾百家乐官网具体玩法技巧| 真钱的棋牌游戏| 商南县| 澳门百家乐怎洋赢钱| 百家乐官网椅子| 手机棋牌游戏下载| 缅甸百家乐玩家吗| 犹太人百家乐官网的玩法技巧和规则| 网上棋牌室| 百家乐官网赌博筹| 太阳城百家乐官网的分数| 锦江国际娱乐| 丽星百家乐的玩法技巧和规则| 墓地附近做生意风水| 澳门百家乐官网打法百家乐官网破解方法 | 加多宝百家乐官网的玩法技巧和规则| 威盈| 百家乐赌场软件| 做生意放什么东西招财| 澳门赌百家乐官网能赢钱吗| 合水县| 大发888 娱乐游戏| 888百家乐的玩法技巧和规则| 澳门百家乐视频| 百家乐官网哪家赌安全| 大发888真钱游戏下载到桌面| 百家乐在线直播| 手机百家乐官网的玩法技巧和规则| 百家乐官网游戏机在哪有| 平塘县|