吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習自然語言處理

文章:837 被閱讀:214w 粉絲數:43 關注數:0 點贊數:5

廣告

LLM大模型訓練Trick系列之拒絕采樣

這個方法之所以有效,是因為均勻分布幫助我們將Mq(x)提供的“封包”縮放到p(x)的概率密度函數。另....
的頭像 深度學習自然語言處理 發表于 08-21 15:07 ?2787次閱讀
LLM大模型訓練Trick系列之拒絕采樣

一種針對LLMs簡單有效的思維鏈解毒方法

考慮到強化學習[10]訓練大語言模型的困難性,我們從語言建模的角度對大語言模型進行解毒。已有工作將解....
的頭像 深度學習自然語言處理 發表于 08-21 15:02 ?571次閱讀
一種針對LLMs簡單有效的思維鏈解毒方法

檢索增強的語言模型方法的詳細剖析

? 本篇內容是對于ACL‘23會議上陳丹琦團隊帶來的Tutorial所進行的學習記錄,以此從問題設置....
的頭像 深度學習自然語言處理 發表于 08-21 09:58 ?1717次閱讀
檢索增強的語言模型方法的詳細剖析

基于Transformer多模態先導性工作

多模態(Multimodality)是指在信息處理、傳遞和表達中涉及多種不同的感知模態或信息來源。這....
的頭像 深度學習自然語言處理 發表于 08-21 09:49 ?904次閱讀
基于Transformer多模態先導性工作

大型語言模型在關鍵任務和實際應用中的挑戰

大型語言模型的出現極大地推動了自然語言處理領域的進步,但同時也存在一些局限性,比如模型可能會產生看似....
的頭像 深度學習自然語言處理 發表于 08-15 09:33 ?1589次閱讀
大型語言模型在關鍵任務和實際應用中的挑戰

GPT時代醫學AI新賽道:16萬張圖片、70萬問答對的臨床問答數據集MIMIC-Diff-VQA發布

該研究同時提出了一個全新任務,圖像對比 VQA (difference VQA):給定兩張圖片,回答....
的頭像 深度學習自然語言處理 發表于 08-09 15:36 ?538次閱讀
GPT時代醫學AI新賽道:16萬張圖片、70萬問答對的臨床問答數據集MIMIC-Diff-VQA發布

關于領域大模型-訓練Trick&落地的一點思考

現有大模型在預訓練過程中都會加入書籍、論文等數據,那么在領域預訓練時這兩種數據其實也是必不可少的,主....
的頭像 深度學習自然語言處理 發表于 08-09 11:43 ?1878次閱讀
關于領域大模型-訓練Trick&落地的一點思考

ToolLLM:促進大型語言模型掌握16000+真實世界的APIs

盡管開源大語言模型 (LLM) 及其變體(例如 LLaMA 和 Vicuna)取得了進步,但它們在執....
的頭像 深度學習自然語言處理 發表于 08-02 16:27 ?777次閱讀
ToolLLM:促進大型語言模型掌握16000+真實世界的APIs

爆火Llama 2一周請求下載超15萬,有人開源了Rust實現版本

隨著 Llama 2 的逐漸走紅,大家對它的二次開發開始流行起來。前幾天,OpenAI 科學家 Ka....
的頭像 深度學習自然語言處理 發表于 08-02 16:25 ?694次閱讀
爆火Llama 2一周請求下載超15萬,有人開源了Rust實現版本

Focus-DETR:30%Token就能實現SOTA性能,效率倍增

目前 DETR 類模型已經成為了目標檢測的一個主流范式。但 DETR 算法模型復雜度高,推理速度低,....
的頭像 深度學習自然語言處理 發表于 08-02 15:12 ?872次閱讀
Focus-DETR:30%Token就能實現SOTA性能,效率倍增

LLM的長度外推淺談

蘇神最早提出的擴展LLM的context方法,基于bayes啟發得到的公式
的頭像 深度學習自然語言處理 發表于 07-28 17:37 ?1972次閱讀
LLM的長度外推淺談

大模型訓練中RM分數越來越高,那訓出來LLM的效果一定好嗎?

如果你動手跑幾次ppo的過程就發現了,大模型的強化學習非常難以訓練,難以訓練不僅僅指的是費卡,還是指....
的頭像 深度學習自然語言處理 發表于 07-26 15:45 ?1879次閱讀
大模型訓練中RM分數越來越高,那訓出來LLM的效果一定好嗎?

HaluEval數據集的構建過程分析

最近,大語言模型(Large Language Models, LLMs)的快速發展帶來了自然語言處....
的頭像 深度學習自然語言處理 發表于 07-24 09:08 ?924次閱讀
HaluEval數據集的構建過程分析

適用于各種NLP任務的開源LLM的finetune教程~

ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩妥)即可推理和微調,....
的頭像 深度學習自然語言處理 發表于 07-24 09:04 ?1770次閱讀
適用于各種NLP任務的開源LLM的finetune教程~

張俊林:大語言模型帶來的交互方式變革

在大模型出來之前,人和數據怎么發生關系?人不能直接與數據發生關系,需要通過一個中介,這個中介就是應用....
的頭像 深度學習自然語言處理 發表于 07-18 14:47 ?987次閱讀
張俊林:大語言模型帶來的交互方式變革

單樣本微調給ChatGLM2注入知識

LoRA微調是一種高效的融入學習算法。類似人類把新知識融入現有知識體系的學習過程。學習時無需新知識特....
的頭像 深度學習自然語言處理 發表于 07-18 14:44 ?3111次閱讀
單樣本微調給ChatGLM2注入知識

RoPE可能是LLM時代的Resnet

通過線性插值RoPE擴張LLAMA context長度最早其實是在llamacpp項目中被人發現,有....
的頭像 深度學習自然語言處理 發表于 07-14 16:58 ?609次閱讀

最新綜述!當大型語言模型(LLM)遇上知識圖譜:兩大技術優勢互補

LLM 是黑箱模型,缺乏可解釋性,因此備受批評。LLM 通過參數隱含地表示知識。因此,我們難以解釋和....
的頭像 深度學習自然語言處理 發表于 07-10 11:35 ?2101次閱讀
最新綜述!當大型語言模型(LLM)遇上知識圖譜:兩大技術優勢互補

大模型微調樣本構造的trick

現在chatglm2的代碼針對這兩個問題已經進行了改善,可以認為他就是典型的decoder-only....
的頭像 深度學習自然語言處理 發表于 07-10 11:32 ?898次閱讀
大模型微調樣本構造的trick

X-RiSAWOZ: 高質量端到端多語言任務型對話數據集

對齊:我們提出了一種混合對齊策略,以確保實體在話語和信念狀態中都能被替換為所需的翻譯。具體而言,我們....
的頭像 深度學習自然語言處理 發表于 07-06 16:44 ?841次閱讀
X-RiSAWOZ: 高質量端到端多語言任務型對話數據集

武大+上交提出BatGPT:創新性采用雙向自回歸架構,可預測前后token

此外,BATGPT還采用了強化學習方法,從AI和人類反饋中學習,以進一步提高模型的對齊性能。這些方法....
的頭像 深度學習自然語言處理 發表于 07-06 16:40 ?1483次閱讀
武大+上交提出BatGPT:創新性采用雙向自回歸架構,可預測前后token

人大發表迄今為止最大最全的大模型綜述

大語言模型目前已經成為學界研究的熱點。我們統計了arXiv論文庫中自2018年6月以來包含關鍵詞"語....
的頭像 深度學習自然語言處理 發表于 07-06 16:36 ?2618次閱讀
人大發表迄今為止最大最全的大模型綜述

Multi-CLS BERT:傳統集成的有效替代方案

在 GLUE 和 SuperGLUE 數據集上進行了實驗,證明了 Multi-CLS BERT 在提....
的頭像 深度學習自然語言處理 發表于 07-04 15:47 ?814次閱讀
Multi-CLS BERT:傳統集成的有效替代方案

我們能否擴展現有的預訓練 LLM 的上下文窗口

? ? 在大家不斷升級迭代自家大模型的時候,LLM(大語言模型)對上下文窗口的處理能力,也成為一個重....
的頭像 深度學習自然語言處理 發表于 06-30 11:09 ?695次閱讀
我們能否擴展現有的預訓練 LLM 的上下文窗口

單張消費級顯卡微調多模態大模型

把大模型的訓練門檻打下來!我們在單張消費級顯卡上實現了多模態大模型(LaVIN-7B, LaVIN-....
的頭像 深度學習自然語言處理 發表于 06-30 10:43 ?2538次閱讀
單張消費級顯卡微調多模態大模型

基于一個完整的 LLM 訓練流程

? ? 在這篇文章中,我們將盡可能詳細地梳理一個完整的 LLM 訓練流程。包括模型預訓練(Pretr....
的頭像 深度學習自然語言處理 發表于 06-29 10:08 ?2091次閱讀
基于一個完整的 LLM 訓練流程

一種完全由LLM + 啟發式搜索算法結合的TOT算法

今天分享一篇普林斯頓大學的一篇文章,Tree of Thoughts: Deliberate Pro....
的頭像 深度學習自然語言處理 發表于 06-29 10:06 ?1687次閱讀
一種完全由LLM + 啟發式搜索算法結合的TOT算法

利用生成式AI進行法律研究

為了解決這一問題,本文提出了三個LLM模型——理解、經驗和事實,將它們合成為一個組合模型。還引入了多....
的頭像 深度學習自然語言處理 發表于 06-27 16:58 ?538次閱讀
利用生成式AI進行法律研究

大模型如何快速構建指令遵循數據集

一、概述 1 Motivation 構造instruction data非常耗時耗力,常受限于質量,....
的頭像 深度學習自然語言處理 發表于 06-27 16:56 ?3017次閱讀
大模型如何快速構建指令遵循數據集

GLoRA:一種廣義參數高效的微調方法

近年來,大規模深度神經網絡的顯著成就徹底改變了人工智能領域,在各種任務和領域展示了前所未有的性能。這....
的頭像 深度學習自然語言處理 發表于 06-27 16:53 ?839次閱讀
GLoRA:一種廣義參數高效的微調方法
博必发百家乐官网的玩法技巧和规则 | 百家乐官网存在千术吗| 澳门百家乐官网网络游戏信誉怎么样 | 百家乐官网赌场游戏平台| 大发888投注明升网址| 新澳门百家乐官网娱乐城| 百家乐龙虎玩| 海伦市| 百家乐网上漏洞| 百家乐官网视频麻将游戏| 威尼斯人娱乐平台反| 百家乐官网论坛官网| 在线百家乐官网代理| 百家乐机器图片| 属狗与属龙做生意好吗| 呈贡县| 百家乐官网庄闲的分布| 百家乐博彩网太阳城娱乐城| 澳门百家乐什么规则| 百家乐官网游戏技巧| 线上娱乐城| 威尼斯人娱乐城网址| E世博百家乐娱乐城| 葡京百家乐官网注码 | 玩百家乐是否有技巧| 百家乐官网赢一注| 百家乐官网5式直缆打法| 大发888国际娱乐net| 华硕百家乐的玩法技巧和规则| 送彩金百家乐官网的玩法技巧和规则 | 百家乐官网网上赌场| 百家乐官网网站排名| 信誉好百家乐官网平台| 大发888缺少casino组件common| 属虎属鼠合伙做生意吗| 博彩百家乐官网字谜总汇| 伯爵百家乐官网娱乐平台| 百家乐官网园百利宫娱乐城怎么样百家乐官网园百利宫娱乐城如何 | 澳门百家乐博彩网| 百家乐官网大钱赢小钱| 百家乐官网群sun811|