本文作者 | 黃巍
《Unifying Large Language Models and Knowledge Graphs: A Roadmap》總結(jié)了大語言模型和知識圖譜融合的三種路線:1)KG增強的LLM,可在LLMs的預(yù)訓(xùn)練和推理階段引入KGs;2)LLM增強KG,LLM可用于KG構(gòu)建、KG embedding、KG補全、基于KG的文本生成、KBQA(基于圖譜的問答)等多種場景;3)LLM+KG協(xié)同使用,主要用于知識表示和推理兩個方面。該文綜述了以上三個路線的代表性研究,探討了未來可能的研究方向。
知識圖譜(KG)和大語言模型(LLM)都是知識的表示形式。KG是符號化的知識庫,具備一定推理能力,且結(jié)果可解釋性較好。但存在構(gòu)建成本高、泛化能力不足、更新難等不足。LLM是參數(shù)化的概率知識庫,具備較強語義理解和泛化能力,但它是黑盒模型,可能編造子虛烏有的內(nèi)容,結(jié)果的可解釋性較差。可見,將LLM和KG協(xié)同使用,同時利用它們的優(yōu)勢,是一種互補的做法。
![wKgZomU-D9WABEmCAACDJaTqIbk703.png](https://file1.elecfans.com//web2/M00/AC/E9/wKgZomU-D9WABEmCAACDJaTqIbk703.png)
LLM和KG的融合路線,可分為以下類型:
![wKgZomU-D9WAWM3wAADglL6UMl0258.png](https://file1.elecfans.com//web2/M00/AC/E9/wKgZomU-D9WAWM3wAADglL6UMl0258.png)
第一種融合路線是KG增強LLM,可在LLM預(yù)訓(xùn)練、推理階段引入KG。以KG增強LLM預(yù)訓(xùn)練為例,一個代表工作是百度的ERNIE 3.0將圖譜三元組轉(zhuǎn)換成一段token文本作為輸入,并遮蓋其實體或者關(guān)系來進行預(yù)訓(xùn)練,使模型在預(yù)訓(xùn)練階段直接學(xué)習(xí)KG蘊含的知識。
![wKgZomU-D9aAHQU4AACBLP79zBo093.png](https://file1.elecfans.com//web2/M00/AC/E9/wKgZomU-D9aAHQU4AACBLP79zBo093.png)
第二種融合路線是LLM增強KG。LLM可用于KG構(gòu)建、KG embedding、KG補全、基于KG的文本生成、KBQA(基于圖譜的問答)等多種場景。以KG構(gòu)建為例,這是一項成本很高的工作,一般包含1) entity discovery 實體挖掘 2) coreference resolution 指代消解 3) relation extraction 關(guān)系抽取任務(wù)。LLM本身蘊含知識,且具備較強的語義理解能力,因此,可利用LLM從原始數(shù)據(jù)中抽取實體、關(guān)系,進而構(gòu)建知識圖譜。
![wKgZomU-D9aAMineAACkS7JiANc980.png](https://file1.elecfans.com//web2/M00/AC/E9/wKgZomU-D9aAMineAACkS7JiANc980.png)
第三種融合路線是KG+LLM協(xié)同使用,主要用于知識表示和推理兩個方面。以知識表示為例,文本語料庫和知識圖譜都蘊含了大量的知識,文本中的知識通常是非結(jié)構(gòu)化的,圖譜里的知識則是結(jié)構(gòu)化的,針對一些下游任務(wù),需要將其對齊進行統(tǒng)一的表示。比如,KEPLER是一個統(tǒng)一的模型來進行統(tǒng)一表示,它將文本通過LLM轉(zhuǎn)成embedding表示,然后把KG embedding的優(yōu)化目標和語言模型的優(yōu)化目標結(jié)合起來,一起作為KEPLER模型的優(yōu)化目標,最后得到一個能聯(lián)合表示文本語料和圖譜的模型。示意圖如下:
![wKgZomU-D9aAK95VAABY9WjcPUQ072.png](https://file1.elecfans.com//web2/M00/AC/E9/wKgZomU-D9aAK95VAABY9WjcPUQ072.png)
小結(jié)
上述方法都在嘗試打破LLM和KG兩類不同知識表示的邊界,促使LLM這種概率模型能利用KG靜態(tài)的、符號化的知識;促使KG能利用LLM參數(shù)化的概率知識。從現(xiàn)有落地案例來看,大模型對知識的抽象程度高,泛化能力強,用戶開箱即用,體驗更好。且如果采用大模型+搜索的方案,用戶更新知識的成本也較低,往知識庫加文檔即可。在實際業(yè)務(wù)場景落地時,如果條件允許,優(yōu)先考慮使用大模型。當(dāng)前chatGPT火爆,也印證了其可用性更好。如遇到以下場景時,可以考慮將LLM和KG結(jié)合使用:
?對知識可信度和可解釋性要求高的場景,比如醫(yī)療、法律等,可以考慮再建設(shè)知識圖譜來降低大模型回答錯誤知識的概率,提高回答的可信度和可解釋性。
?已經(jīng)有一個蘊含豐富知識的圖譜,再做大模型建設(shè)時。可以參考KG增強LLM的方法,將其知識融合到LLM中。
?涉及基于圖譜的多條推理能力的場景。
?涉及基于圖譜可視化展示的場景,比如企查查、天眼查等。
參考文獻:
1.Unifying Large Language Models and Knowledge Graphs: A Roadmaphttps://arxiv.org/abs/2306.08302
原文標題:知識圖譜與大模型結(jié)合方法概述
文章出處:【微信公眾號:華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
華為
+關(guān)注
關(guān)注
216文章
34532瀏覽量
252998
原文標題:知識圖譜與大模型結(jié)合方法概述
文章出處:【微信號:華為DevCloud,微信公眾號:華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
微軟發(fā)布《GraphRAG實踐應(yīng)用白皮書》助力開發(fā)者
利智方:驅(qū)動企業(yè)知識管理與AI創(chuàng)新加速的平臺
傳音旗下人工智能項目榮獲2024年“上海產(chǎn)學(xué)研合作優(yōu)秀項目獎”一等獎
![傳音旗下人工智能項目榮獲2024年“上海產(chǎn)學(xué)研合作優(yōu)秀項目獎”一等獎](https://file1.elecfans.com/web3/M00/02/7C/wKgZPGdf7RiATKcgAADsawnA0Vk773.png)
三星自主研發(fā)知識圖譜技術(shù),強化Galaxy AI用戶體驗與數(shù)據(jù)安全
【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇
【《大語言模型應(yīng)用指南》閱讀體驗】+ 俯瞰全書
三星電子將收購英國知識圖譜技術(shù)初創(chuàng)企業(yè)
知識圖譜與大模型之間的關(guān)系
Al大模型機器人
大模型應(yīng)用之路:從提示詞到通用人工智能(AGI)
![大<b class='flag-5'>模型</b>應(yīng)用之路:從提示詞到通用人工智能(AGI)](https://file1.elecfans.com//web2/M00/ED/90/wKgZomZrqM6AVMZZAADa75cpBWs825.png)
澳鵬入選億歐大模型基礎(chǔ)層圖譜,以優(yōu)質(zhì)數(shù)據(jù)賦能AGI智能涌現(xiàn)
![澳鵬入選億歐大<b class='flag-5'>模型</b>基礎(chǔ)層<b class='flag-5'>圖譜</b>,以優(yōu)質(zhì)數(shù)據(jù)賦能AGI智能涌現(xiàn)](https://file1.elecfans.com//web2/M00/E9/96/wKgZomZUS_SATitAAADMkIevAcI938.jpg)
【大語言模型:原理與工程實踐】大語言模型的應(yīng)用
利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動的RAG系統(tǒng)(下)
![利用<b class='flag-5'>知識圖譜</b>與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動的RAG系統(tǒng)(下)](https://file1.elecfans.com/web2/M00/C1/82/wKgaomXW5lKAOabBAABJ6cOiGSI637.png)
利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動的RAG系統(tǒng)(上)
![利用<b class='flag-5'>知識圖譜</b>與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動的RAG系統(tǒng)(上)](https://file1.elecfans.com/web2/M00/C0/94/wKgZomXW5bCACL4xAABJ6cOiGSI827.png)
評論