吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

中國研究人員提出StructGPT,提高LLM對結構化數(shù)據(jù)的零樣本推理能力

Qxwdz168 ? 來源:計算機視覺芯片設計 ? 2023-05-24 16:02 ? 次閱讀

大型語言模型 (LLM) 最近在自然語言處理 (NLP) 方面取得了重大進展。現(xiàn)有研究表明,LLM) 具有很強的零樣本和少樣本能力,可以借助專門創(chuàng)建的提示完成各種任務,而無需針對特定任務進行微調。盡管它們很有效,但根據(jù)目前的研究,LLM 可能會產生與事實知識不符的不真實信息,并且無法掌握特定領域或實時的專業(yè)知識。這些問題可以通過在LLM中添加外部知識源來修復錯誤的生成來直接解決。

4fed7bc6-fa05-11ed-90ce-dac502259ad0.jpg

結構化數(shù)據(jù),如數(shù)據(jù)庫和知識圖譜,已被常規(guī)用于在各種資源中攜帶 LLM 所需的知識。但是,由于結構化數(shù)據(jù)使用 LLM 在預訓練期間未接觸過的獨特數(shù)據(jù)格式或模式,因此他們可能需要幫助才能理解它們。與純文本相反,結構化數(shù)據(jù)以一致的方式排列并遵循特定的數(shù)據(jù)模型。數(shù)據(jù)表按行排列為列索引記錄,而知識圖 (KG) 經常組織為描述頭尾實體之間關系的事實三元組。

盡管結構化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長度為 4096)。將結構化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語句是解決此問題的簡單方法。工具操作技術激勵他們增強 LLM 解決上述困難的能力。他們策略背后的基本思想是使用專門的接口來更改結構化數(shù)據(jù)記錄(例如,通過提取表的列)。在這些接口的幫助下,他們可以更精確地定位完成特定活動所需的證據(jù),并成功地限制數(shù)據(jù)記錄的搜索范圍。

來自中國人民大學、北京市大數(shù)據(jù)管理與分析方法重點實驗室和中國電子科技大學的研究人員在這項研究中著重于為某些任務設計合適的接口,并將它們用于 LLM 的推理,這些接口是應用界面增強方法需要解決的兩個主要問題。以這種方式,LLM 可以根據(jù)從界面收集的證據(jù)做出決定。為此,他們在本研究中提供了一種稱為 StructGPT 的迭代閱讀然后推理 (IRR) 方法,用于解決基于結構化數(shù)據(jù)的任務。他們的方法考慮了完成各種活動的兩個關鍵職責:收集相關數(shù)據(jù)(閱讀)和假設正確的反應或為下一步行動制定策略(推理)。

據(jù)他們所知,這是第一項著眼于如何使用單一范式幫助 LLM 對各種形式的結構化數(shù)據(jù)(例如表、KG 和 DB)進行推理的研究。從根本上說,他們將 LLM 的閱讀和推理兩個過程分開:他們使用結構化數(shù)據(jù)接口來完成精確、有效的數(shù)據(jù)訪問和過濾,并依靠他們的推理能力來確定下一步的行動或查詢的答案。

對于外部接口,他們特別建議調用線性化生成過程,以幫助 LLM 理解結構化數(shù)據(jù)并做出決策。通過使用提供的接口重復此過程,他們可能會逐漸接近對查詢的期望響應。

他們對各種任務(例如基于知識圖譜的問答、基于表的問答和基于數(shù)據(jù)庫的文本到 SQL)進行了全面試驗,以評估其技術的有效性。八個數(shù)據(jù)集的實驗結果表明,他們建議的方法可能會顯著提高 ChatGPT 在結構化數(shù)據(jù)上的推理性能,甚至達到與全數(shù)據(jù)監(jiān)督調優(yōu)方法競爭的水平。

? KGQA。他們的方法使 KGQA 挑戰(zhàn)的 WebQSP 上的 Hits@1 增加了 11.4%。借助他們的方法,ChatGPT 在多跳 KGQA 數(shù)據(jù)集(例如 MetaQA-2hop 和 MetaQA-3hop)中的性能可能分別提高了 62.9% 和 37.0%。

? 質量保證表。在 TableQA 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法在 WTQ 和 WikiSQL 中將標注準確度提高了大約 3% 到 5%。在 TabFact 中,他們的方法將表格事實驗證的準確性提高了 4.2%。

? 文本到SQL。在 Text-to-SQL 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法將三個數(shù)據(jù)集的執(zhí)行準確性提高了約 4%。

作者已經發(fā)布了 Spider 和 TabFact 的代碼,可以幫助理解 StructGPT 的框架,整個代碼庫尚未發(fā)布。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)管理

    關注

    1

    文章

    300

    瀏覽量

    19677
  • 自然語言處理

    關注

    1

    文章

    619

    瀏覽量

    13646
  • 知識圖譜
    +關注

    關注

    2

    文章

    132

    瀏覽量

    7740
  • LLM
    LLM
    +關注

    關注

    0

    文章

    299

    瀏覽量

    400

原文標題:中國研究人員提出StructGPT,提高LLM對結構化數(shù)據(jù)的零樣本推理能力

文章出處:【微信號:計算機視覺芯片設計,微信公眾號:計算機視覺芯片設計】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    結構化布線系統(tǒng)有哪些難題

    在15年建筑物整修周期內限制系統(tǒng)的升級。經過精心設計的結構化布線系統(tǒng)可以承受超過大多數(shù)局域網傳輸速率10~15倍的數(shù)據(jù)流量。這將允許在不改變結構化布線系統(tǒng)的情況下使用新型網絡技術。  2.通用
    發(fā)表于 05-19 13:46

    泰克儀器助力研究人員首次通過太赫茲復用器實現(xiàn)超高速數(shù)據(jù)傳輸

    通過使用基于光子的THz電路來橋接光纖和無線電的世界,以實現(xiàn)超高數(shù)據(jù)速率。但是,不管要實現(xiàn)什么的系統(tǒng),信號復用和解復用系統(tǒng)(復用器/解復用器)都是基本要求。研究人員使用兩個平行的金屬板的波導系統(tǒng),把
    發(fā)表于 08-31 15:58

    TrustZone結構化消息是什么?

    大家好,我已閱讀任何與TrustZone相關的內容,但我無法弄清楚這兩個世界是如何相互溝通的。我所能找到的只是TrustZone API規(guī)范中的內容:客戶端和服務可以通過兩種機制進行通信:結構化
    發(fā)表于 03-20 08:58

    結構化設計分為哪幾部分?結構化設計的要求有哪些

    結構化設計分為哪幾部分?結構化設計的要求有哪些?結構化設計主要包括哪些部分?
    發(fā)表于 12-23 06:15

    白光LED結構化涂層制備及其應用研究

      實驗名稱:基于電場誘導的白光LED結構化涂層制備及其應用研究  研究方向:電場誘導結構制備工藝試驗研究  實驗內容:  本文主要圍繞:平
    發(fā)表于 03-29 15:44

    什么叫結構化的算法_算法和結構化數(shù)據(jù)初識

    結構化算法是由一些基本結構順序組成的,就是把一個大的功能的實現(xiàn)分隔為許多個小功能的實現(xiàn)。在基本結構之間不存在向前或向后的跳轉,流程的轉移只存在于一個基本的結構范圍內。一個非
    發(fā)表于 01-03 16:09 ?1.2w次閱讀
    什么叫<b class='flag-5'>結構化</b>的算法_算法和<b class='flag-5'>結構化</b><b class='flag-5'>數(shù)據(jù)</b>初識

    融合樣本學習和小樣本學習的弱監(jiān)督學習方法綜述

    等現(xiàn)實挑戰(zhàn),很多學者針對數(shù)據(jù)依賴小的弱監(jiān)督學習方法開展研究,出現(xiàn)了小樣本學習、樣本學習等典型研究
    發(fā)表于 02-09 11:22 ?2371次閱讀
    融合<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學習和小<b class='flag-5'>樣本</b>學習的弱監(jiān)督學習方法綜述

    形狀感知樣本語義分割

    由于大規(guī)模視覺語言預訓練取得了令人矚目的進展,最近的識別模型可以以驚人的高準確度對任意對象進行樣本和開放式分類。
    的頭像 發(fā)表于 04-28 11:26 ?863次閱讀
    形狀感知<b class='flag-5'>零</b><b class='flag-5'>樣本</b>語義分割

    一個通用的自適應prompt方法,突破了樣本學習的瓶頸

    為了解決這個問題,這篇研究提出了一種Universal Self-adaptive Prompting (USP)方法,對LLMs的樣本學習進行了優(yōu)化,同時也適用于少
    的頭像 發(fā)表于 06-01 14:48 ?841次閱讀
    一個通用的自適應prompt方法,突破了<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學習的瓶頸

    基準數(shù)據(jù)集(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

    ? 因果推理是人類智力的標志之一。因果關系NLP領域近年來引起了人們的極大興趣,但其主要依賴于從常識知識中發(fā)現(xiàn)因果關系。研究提出了一個基準數(shù)據(jù)
    的頭像 發(fā)表于 06-20 15:39 ?1907次閱讀
    基準<b class='flag-5'>數(shù)據(jù)</b>集(CORR2CAUSE)如何測試大語言模型(<b class='flag-5'>LLM</b>)的純因果<b class='flag-5'>推理</b><b class='flag-5'>能力</b>

    什么是樣本學習?為什么要搞樣本學習?

    樣本分類的技術目前正處于高速發(fā)展時期, 所涉及的具體應用已經從最初的圖像分類任務擴展到了其他計算機視覺任務乃至自然語言處理等多個相關領域。 對此, 本文將其稱為廣義樣本分類。 相應
    發(fā)表于 09-22 11:10 ?2360次閱讀
    什么是<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學習?為什么要搞<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學習?

    跨語言提示:改進跨語言樣本思維推理

    進一步地,提出了Cross-Lingual Self-consistent Prompting (CLSP),利用不同語言專家的知識和不同語言間更加多樣的思考方式,集成了多個推理路徑,顯著地提高了self-consistency
    的頭像 發(fā)表于 11-08 16:59 ?762次閱讀
    跨語言提示:改進跨語言<b class='flag-5'>零</b><b class='flag-5'>樣本</b>思維<b class='flag-5'>推理</b>

    什么是LLMLLM的工作原理和結構

    隨著人工智能技術的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理
    的頭像 發(fā)表于 07-02 11:45 ?9018次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?1013次閱讀

    使用ReMEmbR實現(xiàn)機器人推理與行動能力

    視覺語言模型(VLM)通過將文本和圖像投射到同一個嵌入空間,將基礎大語言模型(LLM)強大的語言理解能力與視覺 transformer(ViT)的視覺能力相結合。VLM 可以處理非結構化
    的頭像 發(fā)表于 11-19 15:37 ?349次閱讀
    使用ReMEmbR實現(xiàn)機器人<b class='flag-5'>推理</b>與行動<b class='flag-5'>能力</b>
    尊爵娱乐| 香港六合彩官方网站| 24山方向上| 太阳城百家乐娱乐官方网| tt线上娱乐| 狮威百家乐的玩法技巧和规则 | 棋牌游戏网| 百家乐官网网投打法| 云博国际| 百家乐官网的连庄连闲| 百家乐技巧看路| 泾阳县| 土豪百家乐官网的玩法技巧和规则 | 伯爵百家乐的玩法技巧和规则| 百家乐官网透视牌靴价格| 单机百家乐官网棋牌| 属虎和属鼠合伙做生意| 网络棋牌室| 百家乐官网德州| 威尼斯人娱乐城| 百家乐视频麻将下载| 大发888下载官方| E乐博网址| 百家乐代打是真的吗| 隆德县| 斗地主百家乐官网的玩法技巧和规则 | 玩百家乐官网保时捷娱乐城| 百家乐赢多少该止赢| 百家乐官网平注法攻略| 百家乐赌场博彩赌场网| 蒙特卡罗国际娱乐| 金银岛百家乐官网的玩法技巧和规则 | 百家乐官网正网开户| 聚众玩百家乐的玩法技巧和规则 | 顶级赌场 官方直营网络赌场| 澳门百家乐官网的赢钱不倒翁| 百家乐游戏技巧| 威尼斯人娱乐备用6222| 百家乐官网视频网络游戏| 赌场百家乐实战| 宝马会百家乐官网娱乐城|