【導(dǎo)讀】:現(xiàn)如今人工智能技術(shù)已經(jīng)成為科技領(lǐng)域最前沿的技術(shù),各家科技公司都在這方面花了很多心思,學(xué)者和企業(yè)研究人員的發(fā)現(xiàn)將會(huì)為未來一年及以后的AI做好準(zhǔn)備,2018年人工智能技術(shù)發(fā)展趨勢有哪些呢?來看看普華永道的數(shù)據(jù)分析,給你答案。
1.深度學(xué)習(xí)理論:揭開神經(jīng)網(wǎng)絡(luò)的工作原理
它是什么:深度神經(jīng)網(wǎng)絡(luò),模仿人類的大腦,展示了他們從圖像、音頻和文本數(shù)據(jù)“學(xué)習(xí)”的能力。然而,即使在使用了十幾年之后,我們?nèi)杂泻芏嗖涣私馍疃葘W(xué)習(xí)的東西,包括神經(jīng)網(wǎng)絡(luò)是如何學(xué)習(xí)的,或者為什么它們表現(xiàn)得如此好。這可能會(huì)改變,這要?dú)w功于一個(gè)將信息瓶頸原理應(yīng)用于深度學(xué)習(xí)的新理論。從本質(zhì)上說,它表明在初始擬合階段之后,深度神經(jīng)網(wǎng)絡(luò)將“忘記”并壓縮噪聲數(shù)據(jù),即包含大量額外無意義信息的數(shù)據(jù)集,同時(shí)仍然保留有關(guān)數(shù)據(jù)表示的信息。
為什么它很重要:準(zhǔn)確地理解深度學(xué)習(xí)是如何使其更大的發(fā)展和使用的。例如,它可以提供對最佳網(wǎng)絡(luò)設(shè)計(jì)和架構(gòu)選擇的洞察,同時(shí)提高安全性-關(guān)鍵或管理應(yīng)用程序的透明性。期望從這個(gè)理論的探索中看到更多的結(jié)果應(yīng)用于其他類型的深層神經(jīng)網(wǎng)絡(luò)和深層神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)。
2.膠囊網(wǎng)絡(luò):模擬大腦的視覺處理能力
它是什么:膠囊網(wǎng)絡(luò),一種新型的深層神經(jīng)網(wǎng)絡(luò),處理視覺信息的方式和大腦一樣,這意味著他們可以維持等級關(guān)系。這與卷積神經(jīng)網(wǎng)絡(luò)形成了鮮明的對比,卷積神經(jīng)網(wǎng)絡(luò)是最廣泛使用的神經(jīng)網(wǎng)絡(luò)之一,它沒有考慮到簡單和復(fù)雜對象之間重要的空間層次結(jié)構(gòu),導(dǎo)致錯(cuò)誤分類和高錯(cuò)誤率。
為什么它很重要:對于典型的身份識(shí)別任務(wù),膠囊網(wǎng)絡(luò)承諾通過減少錯(cuò)誤(多達(dá)50%)來提高準(zhǔn)確性。他們也不需要太多的數(shù)據(jù)來訓(xùn)練模型。期望看到膠囊網(wǎng)絡(luò)在許多問題領(lǐng)域和深度神經(jīng)網(wǎng)絡(luò)架構(gòu)中的廣泛使用。
3.深度強(qiáng)化學(xué)習(xí):與環(huán)境交互以解決業(yè)務(wù)問題
它是什么:一種神經(jīng)網(wǎng)絡(luò),通過觀察、行動(dòng)和獎(jiǎng)勵(lì)與環(huán)境互動(dòng)來學(xué)習(xí)。深度強(qiáng)化學(xué)習(xí)(DRL)已經(jīng)被用來學(xué)習(xí)游戲策略,例如Atari和go -包括著名的AlphaGo程序,擊敗了人類冠軍。
為什么它很重要:DRL是所有學(xué)習(xí)技術(shù)中最通用的目的,所以它可以用于大多數(shù)業(yè)務(wù)應(yīng)用程序中。與其他技術(shù)相比,它需要更少的數(shù)據(jù)來訓(xùn)練模型。更值得注意的是,它可以通過模擬進(jìn)行訓(xùn)練,從而無需完全標(biāo)注數(shù)據(jù)。鑒于這些優(yōu)勢,預(yù)計(jì)未來一年將會(huì)有更多將DRL和基于代理的仿真相結(jié)合的業(yè)務(wù)應(yīng)用。
4.生成對抗網(wǎng)絡(luò): 配對神經(jīng)網(wǎng)絡(luò)刺激學(xué)習(xí),減輕處理負(fù)擔(dān)
它是什么:生成對抗網(wǎng)絡(luò)(GAN)是一種無監(jiān)督的深度學(xué)習(xí)系統(tǒng),作為兩個(gè)相互競爭的神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)。一個(gè)網(wǎng)絡(luò),即發(fā)電機(jī),產(chǎn)生與真實(shí)數(shù)據(jù)集完全相同的假數(shù)據(jù)。第二個(gè)網(wǎng)絡(luò),鑒別器,攝取真實(shí)和合成的數(shù)據(jù)。隨著時(shí)間的推移,每個(gè)網(wǎng)絡(luò)都會(huì)得到改進(jìn),從而使得這個(gè)對能夠?qū)W習(xí)給定數(shù)據(jù)集的整個(gè)分布。
為什么它很重要:GANs向更大范圍的非監(jiān)督任務(wù)開放,在這些任務(wù)中,標(biāo)記數(shù)據(jù)不存在,或者代價(jià)太大。他們還減少了深度神經(jīng)網(wǎng)絡(luò)所需要的負(fù)荷,因?yàn)檫@兩個(gè)網(wǎng)絡(luò)分擔(dān)了負(fù)擔(dān)。期望看到更多的業(yè)務(wù)應(yīng)用程序,例如網(wǎng)絡(luò)檢測,使用GANs。
5.精益和增強(qiáng)數(shù)據(jù)學(xué)習(xí):解決標(biāo)簽數(shù)據(jù)挑戰(zhàn)
它是什么:機(jī)器學(xué)習(xí)(特別是深度學(xué)習(xí))最大的挑戰(zhàn)是可以使用大量的標(biāo)記數(shù)據(jù)來訓(xùn)練系統(tǒng)。兩種廣泛的技術(shù)可以幫助解決這個(gè)問題:(1)合成新的數(shù)據(jù);(2)將一個(gè)任務(wù)或領(lǐng)域的訓(xùn)練模型轉(zhuǎn)移到另一個(gè)。諸如轉(zhuǎn)移學(xué)習(xí)(將從一個(gè)任務(wù)/領(lǐng)域?qū)W到的見解轉(zhuǎn)移到另一個(gè)任務(wù)/領(lǐng)域)或一次學(xué)習(xí)(轉(zhuǎn)移學(xué)習(xí)被極端化,學(xué)習(xí)僅僅通過一個(gè)或沒有相關(guān)的例子而發(fā)生) - 使他們成為“精益數(shù)據(jù)”學(xué)習(xí)技術(shù)。同樣,通過模擬或插值合成新數(shù)據(jù)有助于獲得更多數(shù)據(jù),從而增加現(xiàn)有數(shù)據(jù)以提高學(xué)習(xí)效率。
為什么重要:使用這些技術(shù),我們可以解決更多的問題,特別是那些歷史數(shù)據(jù)較少的問題。期望看到更多的精益和增強(qiáng)數(shù)據(jù)的更多變化,以及適用于廣泛業(yè)務(wù)問題的不同類型的學(xué)習(xí)。
6.概率編程:簡化模型開發(fā)的語言
它是什么:一種高級編程語言,更容易使開發(fā)人員設(shè)計(jì)概率模型,然后自動(dòng)“解決”這些模型。概率編程語言使復(fù)用模型庫成為可能,支持交互建模和正式驗(yàn)證,并提供必要的抽象層來支持通用模型類中的通用的、有效的推理。
為什么它很重要:概率編程語言能夠適應(yīng)業(yè)務(wù)領(lǐng)域中常見的不確定和不完整的信息。我們將看到這些語言的廣泛應(yīng)用,并期望它們也適用于深度學(xué)習(xí)。
7.混合學(xué)習(xí)模式:結(jié)合模型不確定性的方法
它是什么:不同類型的深層神經(jīng)網(wǎng)絡(luò),如GANs或DRL,在性能和廣泛應(yīng)用的不同類型的數(shù)據(jù)方面表現(xiàn)出很大的潛力。然而,深度學(xué)習(xí)模型并沒有模型的不確定性,貝葉斯方法或概率方法。混合學(xué)習(xí)模式結(jié)合了兩種方法來發(fā)揮各自的優(yōu)勢。混合模型的一些例子是貝葉斯深度學(xué)習(xí),貝葉斯甘斯和貝葉斯條件的甘斯。
為什么它很重要:混合學(xué)習(xí)模式使擴(kuò)展業(yè)務(wù)問題的多樣性成為可能,包括不確定性的深度學(xué)習(xí)。這可以幫助我們獲得更好的性能和模型的可解釋性,這反過來可以鼓勵(lì)更廣泛的采用。期望看到更多的深度學(xué)習(xí)方法獲得貝葉斯等價(jià)物,而概率編程語言的組合開始結(jié)合深度學(xué)習(xí)。
8.自動(dòng)化機(jī)器學(xué)習(xí)(AutoML):沒有編程的模型創(chuàng)建
它是什么:開發(fā)機(jī)器學(xué)習(xí)模型需要一個(gè)耗時(shí)和專家驅(qū)動(dòng)的工作流程,其中包括數(shù)據(jù)準(zhǔn)備、特征選擇、模型或技術(shù)選擇、培訓(xùn)和調(diào)優(yōu)。AutoML旨在使用一些不同的統(tǒng)計(jì)和深度學(xué)習(xí)技術(shù)來自動(dòng)化這個(gè)工作流。
為什么它如此重要:自動(dòng)化是人工智能工具民主化的一部分,使業(yè)務(wù)用戶能夠開發(fā)沒有深度編程背景的機(jī)器學(xué)習(xí)模型。它還將加速數(shù)據(jù)科學(xué)家創(chuàng)建模型所需的時(shí)間。期望在更大的機(jī)器學(xué)習(xí)平臺(tái)上看到更多的商業(yè)自動(dòng)化包和自動(dòng)化的集成。
9.?dāng)?shù)字雙胞胎: 超越工業(yè)應(yīng)用的虛擬復(fù)制品
它是什么:數(shù)字雙胞胎是一個(gè)虛擬模型,用于促進(jìn)身體或心理系統(tǒng)的詳細(xì)分析和監(jiān)測。數(shù)字雙胞胎的概念起源于工業(yè)界,廣泛用于分析和監(jiān)測風(fēng)車農(nóng)場或工業(yè)系統(tǒng)等。現(xiàn)在,數(shù)字雙胞胎正在被應(yīng)用于非物理對象和過程,包括預(yù)測客戶的行為,使用基于代理的建模(用于模擬自治代理的行為和交互的計(jì)算模型)和系統(tǒng)動(dòng)力學(xué)(計(jì)算機(jī)輔助的政策分析和設(shè)計(jì)方法)行為。
為什么重要:數(shù)字雙胞胎可以幫助促進(jìn)發(fā)展和更廣泛地采用物聯(lián)網(wǎng)(物聯(lián)網(wǎng)),提供一種方法來預(yù)測診斷和維護(hù)物聯(lián)網(wǎng)系統(tǒng)。展望未來,預(yù)計(jì)在物理系統(tǒng)和消費(fèi)者選擇建模中都將使用更多的數(shù)字雙胞胎。
10.可解釋的AI:了解黑盒子
它是什么:今天,有許多機(jī)器學(xué)習(xí)算法正在使用,可以在各種不同的應(yīng)用中感知,思考和行動(dòng)。 然而,其中很多算法被認(rèn)為是“黑盒子”,對于如何達(dá)成結(jié)果幾乎沒有任何洞察。 可解釋的AI是開發(fā)機(jī)器學(xué)習(xí)技術(shù)的一種運(yùn)動(dòng),在保持預(yù)測準(zhǔn)確性的同時(shí)產(chǎn)生更多可解釋的模型。
重要的是:AI是可以解釋,可證明和透明的,對于建立對技術(shù)的信任至關(guān)重要,并會(huì)鼓勵(lì)更廣泛地采用機(jī)器學(xué)習(xí)技術(shù)。 在開始大規(guī)模部署人工智能之前,企業(yè)將采用可解釋的人工智能作為需求或最佳實(shí)踐,而政府可能將解釋性人工智能作為未來的監(jiān)管要求。
看了這么多,AI人是不是對未來有了一個(gè)大致的方向了,未來人工智能給人們的生活將會(huì)帶來哪些改變,這是不可想象的,也許在實(shí)驗(yàn)室中的技術(shù)人員才知道答案。
評論
查看更多