吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IBM在watsonx上提供開(kāi)源的Mistral AI模型

IBM中國(guó) ? 來(lái)源:IBM中國(guó) ? 2024-03-12 19:10 ? 次閱讀

IBM 提供 Mixtral-8x7B 的優(yōu)化版本,該版本可將延遲時(shí)間最多縮短 75%

IBM、第三方和開(kāi)源模型的目錄不斷增加,為客戶提供更多選擇和靈活性

是 watsonx 人工智能與數(shù)據(jù)平臺(tái)上最新的開(kāi)源模型,watsonx 提供企業(yè)就緒的人工智能開(kāi)發(fā)平臺(tái)、數(shù)據(jù)存儲(chǔ)和治理功能

IBM(紐約證券交易所代碼:IBM)近日宣布,由 Mistral AI 公司開(kāi)發(fā)的廣受歡迎的開(kāi)源 Mixtral-8x7B 大型語(yǔ)言模型(LLM)已經(jīng)可在其watsonx 人工智能與數(shù)據(jù)平臺(tái)上使用。

IBM 提供了 Mixtral-8x7B 的優(yōu)化版本,在內(nèi)部測(cè)試中,與常規(guī)模型相比,該版本能夠?qū)⑼掏铝浚丛诮o定時(shí)間段內(nèi)可處理的數(shù)據(jù)量)提高 50% 。這可能可以將時(shí)間延遲減少 35-75%,從而加快獲得洞察的時(shí)間,具體取決于批處理量的大小。這是通過(guò)一個(gè)稱為量化的過(guò)程來(lái)實(shí)現(xiàn)的,該過(guò)程減少了 LLM 的模型大小和內(nèi)存需求,進(jìn)而可以加快處理速度,有助于降低成本和能耗。

Mixtral-8x7B 的加入擴(kuò)展了 IBM 的開(kāi)放、多模型戰(zhàn)略,隨時(shí)隨地滿足客戶的需求,并為他們提供選擇和靈活性,使其可以跨業(yè)務(wù)來(lái)擴(kuò)展其企業(yè)級(jí)人工智能解決方案。通過(guò)數(shù)十年的人工智能研發(fā)、與 Meta 和 Hugging Face 開(kāi)放式協(xié)作,以及與模型領(lǐng)導(dǎo)者的合作伙伴關(guān)系,IBM 正在擴(kuò)展其 watsonx.ai 模型目錄,并引入新的功能、語(yǔ)言和模式。

IBM 的企業(yè)就緒基礎(chǔ)模型選擇及其 watsonx 人工智能和數(shù)據(jù)平臺(tái)可幫助客戶利用生成式人工智能獲得新的洞察力和效率,并基于信任原則創(chuàng)建新的業(yè)務(wù)模式。IBM 可幫助客戶根據(jù)所針對(duì)的業(yè)務(wù)領(lǐng)域(如金融)的合適用例及性價(jià)比目標(biāo)來(lái)選擇合適的模型。

Mixtral-8x7B 結(jié)合了稀疏建模與專家混合技術(shù)來(lái)構(gòu)建,“稀疏建模”是只查找和使用數(shù)據(jù)中最重要部分以創(chuàng)建更高效的模型的創(chuàng)新技術(shù);而“專家混合技術(shù)”是把擅長(zhǎng)并解決不同部分問(wèn)題的不同模型(“專家”)結(jié)合在一起的技術(shù)。Mixtral-8x7B 模型因其能夠快速處理和分析海量數(shù)據(jù)以提供與上下文相關(guān)的見(jiàn)解而廣為人知。

IBM 軟件公司產(chǎn)品管理與增長(zhǎng)高級(jí)副總裁 Kareem Yusuf 博士表示:"客戶要求在部署最適合其獨(dú)特用例和業(yè)務(wù)要求的模型時(shí)擁有選擇權(quán)和靈活性。通過(guò)在 watsonx 上提供 Mixtral-8x7B 和其它模型,我們不僅為客戶提供了部署人工智能的可選性,還為人工智能構(gòu)建者和業(yè)務(wù)領(lǐng)導(dǎo)者提供了一個(gè)強(qiáng)大的生態(tài)系統(tǒng),使他們能夠利用工具和技術(shù)推動(dòng)不同行業(yè)和領(lǐng)域的創(chuàng)新。"

在同一周,IBM 還宣布在 watsonx 上提供由 ELYZA 公司開(kāi)源的日本 LLM 模型 ELYZA-japanese-Llama-2-7b。IBM 還在 watsonx 上提供 Meta 的開(kāi)源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,未來(lái)幾個(gè)月還將推出更多模型。

有關(guān) IBM 未來(lái)方向和意圖的聲明如有更改或撤回,恕不另行通知,僅代表目標(biāo)和目的。

關(guān)于 IBM

IBM 是全球領(lǐng)先的混合云、人工智能及企業(yè)服務(wù)提供商,幫助超過(guò) 175 個(gè)國(guó)家和地區(qū)的客戶,從其擁有的數(shù)據(jù)中獲取商業(yè)洞察,簡(jiǎn)化業(yè)務(wù)流程,降低成本,并獲得行業(yè)競(jìng)爭(zhēng)優(yōu)勢(shì)。金融服務(wù)、電信和醫(yī)療健康等關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域的超過(guò) 4000 家政府和企業(yè)實(shí)體依靠 IBM 混合云平臺(tái)和紅帽 OpenShift 快速、高效、安全地實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型。IBM 在人工智能、量子計(jì)算、行業(yè)云解決方案和企業(yè)服務(wù)方面的突破性創(chuàng)新為我們的客戶提供了開(kāi)放和靈活的選擇。對(duì)企業(yè)誠(chéng)信、透明治理、社會(huì)責(zé)任、包容文化和服務(wù)精神的長(zhǎng)期承諾是 IBM 業(yè)務(wù)發(fā)展的基石。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • IBM
    IBM
    +關(guān)注

    關(guān)注

    3

    文章

    1765

    瀏覽量

    74860
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    320

    瀏覽量

    349

原文標(biāo)題:IBM 宣布在 watsonx 上提供開(kāi)源的 Mistral AI 模型

文章出處:【微信號(hào):IBMGCG,微信公眾號(hào):IBM中國(guó)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開(kāi)源AI模型庫(kù)是干嘛的

    開(kāi)源AI模型庫(kù)是指那些公開(kāi)源代碼、允許自由訪問(wèn)和使用的AI模型集合。這些
    的頭像 發(fā)表于 12-14 10:33 ?294次閱讀

    IBM加力推動(dòng)watsonx平臺(tái)的AI、產(chǎn)品及生態(tài)系統(tǒng)創(chuàng)新

    將一系列 IBM Granite 模型開(kāi)源,包括其最為強(qiáng)大而高效的代碼大模型,這些模型多項(xiàng)行業(yè)
    的頭像 發(fā)表于 11-07 09:02 ?614次閱讀

    IBM推出高性能AI模型Granite 3.0

    近日舉行的IBM年度TechXchange大會(huì)上,IBM正式推出了其最先進(jìn)的AI模型家族——Granite 3.0。這款旗艦級(jí)語(yǔ)言
    的頭像 發(fā)表于 10-28 17:39 ?508次閱讀

    IBM watsonx平臺(tái)為球迷帶來(lái)全新觀賽體驗(yàn)

    IBM(紐約證券交易所代碼:IBM)和全英草地網(wǎng)球俱樂(lè)部日前宣布今年的溫布爾登網(wǎng)球公開(kāi)賽(后面簡(jiǎn)稱“溫網(wǎng)”)推出一項(xiàng)全新的數(shù)字體驗(yàn)功能,該功能將利用比賽數(shù)據(jù)和 IBM
    的頭像 發(fā)表于 08-29 14:56 ?585次閱讀

    IBM助力圖靈新智算構(gòu)建全能AI平臺(tái)

    watsonx.governance,以及 IBM 企業(yè)級(jí) AI 數(shù)字助理軟件 watsonx Assistant 和 AI 文檔理解與
    的頭像 發(fā)表于 08-02 14:53 ?647次閱讀

    Mistral AI與NVIDIA推出全新語(yǔ)言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領(lǐng)先語(yǔ)言模型Mistral NeMo 12B。開(kāi)發(fā)者可以輕松定制和部署該模型
    的頭像 發(fā)表于 07-27 11:04 ?719次閱讀

    Mistral Large 2現(xiàn)已在Amazon Bedrock中正式可用

    北京2024年7月25日 /美通社/ -- 亞馬遜云科技宣布,Mistral AIMistral Large 2(24.07)基礎(chǔ)模型(FM)現(xiàn)已在Amazon Bedrock中正式
    的頭像 發(fā)表于 07-26 08:07 ?372次閱讀

    IBM開(kāi)源AI模型,推動(dòng)AI企業(yè)化應(yīng)用

    IBM近日宣布,將把一系列先進(jìn)的人工智能模型開(kāi)源軟件的形式發(fā)布,此舉標(biāo)志著人工智能技術(shù)企業(yè)應(yīng)用上的新篇章。公司表示,隨著watsonx
    的頭像 發(fā)表于 05-22 09:25 ?525次閱讀

    微軟與人工智能公司Mistral AI的合作案免于英國(guó)反壟斷調(diào)查

    今年2月底,Microsoft宣布聯(lián)手被譽(yù)為“歐洲OpenAI”的法國(guó)初創(chuàng)企業(yè)Mistral AI。雙方達(dá)成協(xié)議,Microsoft將投資20億歐元(約合157億元人民幣)助力Mistral
    的頭像 發(fā)表于 05-18 11:49 ?381次閱讀

    紅帽發(fā)布RHEL AI開(kāi)發(fā)者預(yù)覽版,集成IBM Granite模型,簡(jiǎn)化AI開(kāi)發(fā)流程

    RHEL AI依托InstructLab開(kāi)源項(xiàng)目,結(jié)合IBM Research的開(kāi)源授權(quán)Granite大型語(yǔ)言模型與InstructLab
    的頭像 發(fā)表于 05-08 15:01 ?533次閱讀

    Mistral Large模型現(xiàn)已在Amazon Bedrock正式可用

    Mistral AIMistral Large模型現(xiàn)已在Amazon Bedrock正式可用。今年三月,亞馬遜云科技
    的頭像 發(fā)表于 04-08 16:26 ?588次閱讀

    Mistral AI發(fā)布旗艦大模型Mistral Large及聊天機(jī)器人Le Chat

    近日,歐洲人工智能領(lǐng)域的領(lǐng)軍企業(yè)Mistral AI發(fā)布了其旗艦大模型Mistral Large,并同步推出了首個(gè)聊天機(jī)器人產(chǎn)品Le Chat。這一重要進(jìn)展標(biāo)志著
    的頭像 發(fā)表于 03-04 14:04 ?932次閱讀

    微軟攜手法國(guó)AI初創(chuàng)企業(yè)Mistral推動(dòng)AI模型商業(yè)化

    微軟近日與法國(guó)人工智能初創(chuàng)企業(yè)Mistral達(dá)成合作協(xié)議,旨在推動(dòng)AI模型的商業(yè)化應(yīng)用。據(jù)悉,微軟將提供全方位支持,幫助這家成立僅10個(gè)月的公司將其先進(jìn)的
    的頭像 發(fā)表于 02-28 10:23 ?615次閱讀

    微軟21億美元投資法國(guó)AI公司Mistral AI

    微軟近日宣布向法國(guó)人工智能公司Mistral AI注資20億歐元(約合21億美元),以推動(dòng)生成式人工智能領(lǐng)域的發(fā)展。此舉不僅加強(qiáng)了微軟全球AI領(lǐng)域的布局,也為
    的頭像 發(fā)表于 02-28 10:08 ?485次閱讀

    Mistral發(fā)布Mistral Large旗艦模型,但沒(méi)有開(kāi)源

    昨夜,被稱為“法國(guó)版 OpenAI”的 Mistral AI 再放大招,正式發(fā)布 Mistral Large 旗艦模型,并且推出對(duì)標(biāo) ChatGPT 的對(duì)話產(chǎn)品:Le Chat,直接殺
    的頭像 發(fā)表于 02-27 13:34 ?842次閱讀
    <b class='flag-5'>Mistral</b>發(fā)布<b class='flag-5'>Mistral</b> Large旗艦<b class='flag-5'>模型</b>,但沒(méi)有<b class='flag-5'>開(kāi)源</b>
    百家乐官网开户送18元| 万人迷百家乐官网的玩法技巧和规则 | 滦南县| 太阳百家乐3d博彩通| 澳门美高梅| 申城棋牌2.0| 缅甸百家乐官网赌场娱乐网规则| 太阳百家乐娱乐| 南京百家乐官网赌博现场被抓| 模拟百家乐下载| 百家乐官网保单破解方法| 电玩百家乐游戏机路单| 百家乐官网视频金币| 百家乐赌场信息| 川宜百家乐官网分析软件| 娱乐百家乐的玩法技巧和规则| 网站百家乐官网博彩| 威尼斯人娱乐城老品牌值得信赖| 百家乐官网赌坊| 电玩百家乐官网游戏机路单| 大发888方管下载| 百家乐官网英皇赌场娱乐网规则 | 真人百家乐大转轮| 百家乐官网赌法博彩正网| 百家乐必胜打| 百家乐官网电子发牌盒| bet365提款要多久| 网上百家乐好玩吗| 百家乐官网公式计算| 大集汇百家乐的玩法技巧和规则 | 波音百家乐官网游戏| 战神百家乐的玩法技巧和规则| 百家乐官网衬衣| 宝都棋牌下载| 网上百家乐平台下载| 百家乐官网全自动分析软件| 大发888 894| 金锁玉关24山砂水断| 香港六合彩图| 澳门百家乐奥秘| 百家乐官网赌博现金网|