吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

清華系千億基座對話模型ChatGLM開啟內測

OSC開源社區 ? 來源:OSC開源社區 ? 2023-03-17 13:47 ? 次閱讀

由清華技術成果轉化的公司智譜 AI 宣布開源了 GLM 系列模型的新成員 ——中英雙語對話模型 ChatGLM-6B,支持在單張消費級顯卡上進行推理使用。這是繼此前開源 GLM-130B 千億基座模型之后,智譜 AI 再次推出大模型方向的研究成果。

此外,基于千億基座的 ChatGLM 線上模型目前也在 chatglm.cn 進行邀請制內測,用戶需要使用邀請碼進行注冊,也可以填寫基本信息申請內測。

根據介紹,ChatGLM-6B 是一個開源的、支持中英雙語問答的對話語言模型,并針對中文進行了優化。該模型基于 General Language Model (GLM)架構,具有 62 億參數。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技術,針對中文問答和對話進行了優化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 雖然規模不及千億模型,但大大降低了推理成本,提升了效率,并且已經能生成相當符合人類偏好的回答。

ChatGLM-6B 具備以下特點:

充分的中英雙語預訓練:ChatGLM-6B 在 1:1 比例的中英語料上訓練了 1T 的 token 量,兼具雙語能力。

優化的模型架構和大?。何?GLM-130B 訓練經驗,修正了二維 RoPE 位置編碼實現,使用傳統 FFN 結構。6B(62 億)的參數大小,也使得研究者和個人開發者自己微調和部署 ChatGLM-6B 成為可能。

較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進行推理,結合模型量化技術,這一需求可以進一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費級顯卡上。

更長的序列長度:相比 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達 2048,支持更長對話和應用。

人類意圖對齊訓練:使用了監督微調(Supervised Fine-Tuning)、反饋自助(Feedback Bootstrap)、人類反饋強化學習(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。

基于以上特點,ChatGLM-6B 在一定條件下具備較好的對話與問答能力。ChatGLM-6B 的對話效果展示如下:

ff303b12-c479-11ed-bfe3-dac502259ad0.png

不過由于 ChatGLM-6B 模型的容量較小,不可避免地存在一些局限和不足,包括:

相對較弱的模型記憶和語言能力。在面對許多事實性知識任務時,ChatGLM-6B 可能會生成不正確的信息,也不太擅長邏輯類問題(如數學、編程)的解答。

可能會產生有害說明或有偏見的內容:ChatGLM-6B 只是一個初步與人類意圖對齊的語言模型,可能會生成有害、有偏見的內容。

較弱的多輪對話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對長答案生成和多輪對話的場景時,可能會出現上下文丟失和理解錯誤的情況。

相比起 ChatGLM-6B,ChatGLM 參考了 ChatGPT 的設計思路,在千億基座模型 GLM-130B 中注入了代碼預訓練,通過有監督微調(Supervised Fine-Tuning)等技術實現人類意圖對齊。ChatGLM 線上模型的能力提升主要來源于獨特的千億基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架構,是一個包含多目標函數的自回歸預訓練模型。

GLM 團隊表示,2022 年 11 月,斯坦福大學大模型中心對全球 30 個主流大模型進行了全方位的評測,GLM-130B 是亞洲唯一入選的大模型。在與 OpenAI、Google Brain、微軟、英偉達、Meta AI 的各大模型對比中,評測報告顯示 GLM-130B 在準確性和公平性指標上與 GPT-3 175B (davinci) 接近或持平,魯棒性、校準誤差和無偏性則優于 GPT-3 175B。

ff656a6c-c479-11ed-bfe3-dac502259ad0.png

由 ChatGLM 生成的對話效果展示:

00b6fc32-c47a-11ed-bfe3-dac502259ad0.png

00d17aee-c47a-11ed-bfe3-dac502259ad0.png

014cb632-c47a-11ed-bfe3-dac502259ad0.png

不過 GLM 團隊也坦言,整體來說 ChatGLM 距離國際頂尖大模型研究和產品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)還存在一定的差距。該團隊表示,將持續研發并開源更新版本的 ChatGLM 和相關模型?!皻g迎大家下載 ChatGLM-6B,基于它進行研究和(非商用)應用開發。GLM 團隊希望能和開源社區研究者和開發者一起,推動大模型研究和應用在中國的發展?!?/p>

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31536

    瀏覽量

    270348
  • 模型
    +關注

    關注

    1

    文章

    3313

    瀏覽量

    49232

原文標題:清華系千億基座對話模型ChatGLM開啟內測,單卡版模型已全面開源

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RC水泥型防震基座與鋼結構防震基座有哪些區別?

    C水泥型防震基座與鋼結構防震基座有以下區別:
    的頭像 發表于 01-08 15:10 ?110次閱讀
    RC水泥型防震<b class='flag-5'>基座</b>與鋼結構防震<b class='flag-5'>基座</b>有哪些區別?

    防震基座安裝施工過程中如何保證基座的水平度?

    在防震基座安裝施工過程中,保證基座水平度至關重要,可從施工前準備、安裝過程控制到施工后檢查等多方面采取措施,具體如下:
    的頭像 發表于 01-03 16:32 ?140次閱讀
    防震<b class='flag-5'>基座</b>安裝施工過程中如何保證<b class='flag-5'>基座</b>的水平度?

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    對話,提供各種信息和幫助。我也聽聞大模型在智能寫作、智能客服等領域有著出色的表現,能夠大大提高工作效率和服務質量。但是,我對于大模型背后的技術原理、發展歷程以及它對社會和未來的深遠影響,卻知之甚少。我
    發表于 12-24 13:10

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?171次閱讀
    如何<b class='flag-5'>開啟</b>Stable Diffusion WebUI<b class='flag-5'>模型</b>推理部署

    比亞迪亮相清華美院工業設計60周年慶典

    近日,清華大學美術學院工業設計在學院美術館隆重舉辦了六十周年慶典暨校友設計成果展。這不僅是一次對中國工業設計教育發展的莊嚴回望,更是一場關于未來設計創新的熱烈探討。
    的頭像 發表于 11-28 10:35 ?275次閱讀

    愛芯元智受邀參加2024清華自動化論壇

    近日,“2024清華自動化論壇”在廣州舉行。本次論壇由清華校友總會自動化分會主辦,匯聚了海內外約200位清華大學自動化
    的頭像 發表于 11-05 14:41 ?432次閱讀

    chatglm2-6b在P40上做LORA微調

    2-6B chatglm2-6b相比于chatglm有幾方面的提升: 1. 性能提升: 相比初代模型,升級了 ChatGLM2-6B 的基座
    的頭像 發表于 08-13 17:12 ?560次閱讀
    <b class='flag-5'>chatglm</b>2-6b在P40上做LORA微調

    熱烈歡迎清華大學電子工程學子來武漢六博光電交流實踐!

    近日,武漢六博光電技術有限責任公司接到清華大學函件,正式成為清華大學電子工程武漢實踐基地之一。2024年8月1日上午,清華大學電子工程
    的頭像 發表于 08-02 08:37 ?571次閱讀
    熱烈歡迎<b class='flag-5'>清華</b>大學電子工程<b class='flag-5'>系</b>學子來武漢六博光電交流實踐!

    Al大模型機器人

    金航標kinghelm薩科微slkor總經理宋仕強介紹說,薩科微Al大模型機器人有哪些的優勢?薩科微AI大模型機器人由清華大學畢業的天才少年N博士和王博士團隊開發,與同行相比具有許多優勢:語言
    發表于 07-05 08:52

    昆侖萬維開源2千億稀疏大模型Skywork-MoE

    近日,昆侖萬維公司宣布開源一款名為Skywork-MoE的稀疏大模型,該模型擁有高達2千億參數,不僅性能強勁,而且推理成本更低,為人工智能領域帶來了新的突破。
    的頭像 發表于 06-04 14:44 ?622次閱讀

    中國移動發布“九天”人工智能基座

    在第七屆數字中國建設峰會上,中國移動正式推出了其全新的“九天”人工智能基座。這一基座融合了萬卡級智算集群、千億多模態大模型以及一個匯聚了百大要素的生態平臺。
    的頭像 發表于 05-29 11:12 ?935次閱讀

    通義千問開源千億級參數模型

    通義千問近日開源了其首個千億級參數模型Qwen1.5-110B,這是其全系列中首個達到千億級別的開源模型。Qwen1.5-110B模型繼承了
    的頭像 發表于 05-08 11:01 ?799次閱讀

    【大語言模型:原理與工程實踐】大語言模型的評測

    大語言模型的評測是確保模型性能和應用適應性的關鍵環節。從基座模型到微調模型,再到行業模型和整體能
    發表于 05-07 17:12

    模型微調開源項目全流程

    對于所有“基座”(Base)模型,–template 參數可以是 default, alpaca, vicuna 等任意值。但“對話”(Chat)模型請務必使用對應的模板。
    的頭像 發表于 03-13 14:56 ?983次閱讀
    大<b class='flag-5'>模型</b>微調開源項目全流程

    源2.0適配FastChat框架,企業快速本地化部署大模型對話平臺

    北京2024年2月28日?/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業快速本地化部署大模型對話平臺"方案。該方案主要面向金融、法律、教育等領域
    的頭像 發表于 02-29 09:57 ?878次閱讀
    源2.0適配FastChat框架,企業快速本地化部署大<b class='flag-5'>模型</b><b class='flag-5'>對話</b>平臺
    澳门百家乐大家乐眼| 伯爵百家乐官网娱乐场| 百家乐平一直压庄| 榆次百家乐官网的玩法技巧和规则| 亲朋棋牌刷金币| 24山的丑方位| 大埔县| 澳门百家乐网上赌城| 百家乐官网计划| 真博娱乐| 澳门百家乐会出千吗| 澳门百家乐官网技术| 大发888游戏平台103| 网上百家乐作弊不| 博E百百家乐官网现金网| 富田太阳城二手房| 百家乐官网统计工具| 阳高县| 大三巴百家乐的玩法技巧和规则 | 视频百家乐官网赌法| bet365 日博| 现场百家乐牌路分析| 利来网上娱乐| 新锦江百家乐赌场娱乐网规则| 先锋百家乐官网的玩法技巧和规则| 皇冠百家乐| 百家乐真人游戏| 百家乐有看牌器吗| 澳门百家乐官网战法| 立博博彩| 玩百家乐去哪个娱乐城最安全 | 名山县| 大发888bet亚洲| 百家乐官网注码调整| 抚顺棋牌网| 重庆百家乐的玩法技巧和规则| 百家乐不能视频| 百家乐官网平台凯发| 百家乐官网3宜3忌| 大发888破解方法| 百家乐庄9点|