預測用戶喜歡的音樂類型、檢測出轉移性腫瘤、生成腦癌的綜合掃描、利用真實世界中拍攝的視頻創造出虛擬環境、識別出被拐賣的人口、擊敗國際象棋大師以及專業的 Dota2 電競團隊、幫助 Alphabet 旗下的 Waymo 首次推出商業無人駕駛出租車服務、代替出租車司機掌控方向盤,上面提到的這些只是人工智能系統在 2018 年取得的諸多成就的冰山一角,這也證明了該領域的發展速度如火箭一般迅速。按照目前的變化速度,麥肯錫全球研究院的分析師預測,僅在美國,未來 12 年人工智能就將幫助人們實現 20% 到 25 % 的凈經濟收益(相當于全球范圍內收益達到 13 億美元)。
在目前的人工智能系統中,一些最令人印象深刻的工作都是起源于對深度神經網絡(DNN)的研究,DNN 是一種基于數據表征的機器學習架構。它們是大致基于人腦建模的:DNN 包括與突觸相連的人工神經元(即數學函數),它們能夠通過突觸結構將信號傳遞給其他神經元。神經元分層排列,這些信號(數據或輸入的積)被送入 DNN,從一層傳遞到另一層,并通過調整每個神經連接的突觸強度(權重)緩慢地對 DNN 進行「調優」。 隨著時間的推移,經過數百甚至數百萬個周期的迭代訓練,網絡可以從數據集中提取特征,并識別樣本中的趨勢,最終學會做出新的預測。
就在 30 年前,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 合著的巨著「Learning representation by Back-propagating Errors」(https://www.nature.com/articles/323533a0)詳細闡述了一種基本的權重計算技術——反向傳播。 在越來越便宜、越來越魯棒的計算機硬件的輔助下,反向傳播技術使計算機視覺、自然語言處理、機器翻譯、藥物設計和材料檢測等領域的研究取得了巨大飛躍。
通用人工智能面臨的挑戰
那么,DNN 是超級智能機器人出現的先兆嗎?Demis Hassabis 不這么認為(他的話具有一定權威性)。Demis Hassabis 是 DeepMind 的聯合創始人,DeepMind 是一家總部位于倫敦的機器學習初創公司,創立宗旨是將神經科學和計算機科學知識用于創造通用人工智能。換句話說,這種系統可以成功地完成人類所能完成的任何智能化的任務。
「還有很長的路要走,」Demis Hassabis 在 12 月初于蒙特利爾舉行的 2018 年神經網絡會議( NeurIPS )上說。「從某種意義上來說,游戲或棋類游戲所處的環境十分簡單,因為狀態之間的過渡模型可以被定義得非常詳細,而且易于學習。真實世界的 3D 環境和真實世界本身要復雜得多……但如果你有開發通用人工智能的計劃,這也很重要」。
Hassabis 是一名國際象棋奇才,畢業于劍橋大學,早年曾擔任視頻游戲「主題公園」和「黑與白」的首席程序員。他曾在倫敦大學學院、麻省理工學院和哈佛大學學習神經科學,并在哈佛大學合作撰寫了關于自傳性記憶和情節記憶系統的研究論文。2010 年,他參與創立 DeepMind,僅僅三年后,DeepMind 就發布了一個只使用 Atari 游戲中的原始像素作為輸入的開創性人工智能系統。
自從谷歌斥資 4 億英鎊收購 DeepMind 以來,該公司及其醫學研究部門 DeepMind Health 一直以它們的產品 AlphaGo 占據各大媒體頭條。 AlphaGo 是一種人工智能系統,在中國圍棋比賽中擊敗了世界冠軍李世石。谷歌還與倫敦大學學院醫院持續合作,他們用于該醫院的 CT 掃描圖像的分割模型展示出了「接近人類專家的性能表現」。最近,DeepMind 的研究人員發明了一種蛋白質折疊算法 AlphaFold,該算法成功識別了 43 種蛋白質中 25 種蛋白質的最精確結構,獲得了第 13 屆蛋白質結構預測技術競賽(Critical Assessment of Techniques for Protein Structure Prediction ,CASP)一等獎。 2018 年 12 月,DeepMind 在 Science 雜志上發表論文——AlphaZero 系統,這一系統是 AlphaGo 的繼承者,可以在 3 種不同的游戲(國際象棋、日本將棋和圍棋)中取得足以擊敗人類著名棋手的性能。
盡管 DeepMind 取得了令人印象深刻的成就,但Hassabis 提醒人們,他們絕不是在暗示通用人工智能即將成為現實(現在還為時過早)。他說,與今天的人工智能系統不同,人類是利用自身掌握的關于世界知識來進行預測和規劃。而與圍棋、國際象棋和將棋的初學者相比,AlphaGo 和 AlphaZero在信息方面處于劣勢。
Hassabis 說:「首先,這些人工智能系統需要先學會看別人玩游戲,然后它們會學習自己玩游戲」。「人類玩家可以比算法更快地學會玩 Atari 游戲之類的游戲。因為他們可以相當迅速地判斷圖案中的像素的意義,以確定他們是否需要逃離這個圖案代表的物體或朝這個方向前進」。
要想讓 AlphaZero 這樣的機器模型能夠打敗人類,大約需要在一個安裝了數千個谷歌設計的為機器學習優化過的應用程序專用芯片上訓練 70 萬步(每一步代表4096個棋盤位置)。換算成時間的話,相當于對于國際象棋需要經過 9 個小時的訓練;對于將棋來說,需要經過 12 個小時的訓練;而對于圍棋來說,則需要經過 13 天的訓練。
Deepmind 并不是唯一一個需要解決人工智能系統設計局限性的公司。
2018 年早些時候,總部位于舊金山的非營利人工智能研究公司 OpenAI (由 Elon Musk、Reid Hoffman、Peter Thiel 以及其他科技界名人支持)在一篇博客文章中揭開了 OpenAI Five 的神秘面紗。2018 年夏天,OpenAI Five 擊敗了一個包含四名 Dota 2 職業玩家的五人團隊。該組織稱,這一系統每天在帶有 256 個 Nvidia Tesla P100 顯卡和 128,000 個處理器核心的谷歌云平臺上,訓練時長相當于一個人玩 180 年游戲(80% 時間是和自己進行對抗,20% 時間是和自己過去的決策進行對抗)。在經過了所有這些訓練后,它也努力將所學到的技能應用到特定游戲之外的任務中。
「我們沒有能夠高效地將它們的知識從一個領域遷移到另一個領域的系統,我認為需要一些概念或特征提取等。」Hassabi說,「針對游戲構建模型相對容易,因為從一個步驟過渡到另一個步驟很容易,但我們希望能夠使系統具有生成模型的能力,這將使我們能夠更容易地在更復雜的環境中執行規劃任務」。
如今大多數的人工智能系統都不具備很好的擴展能力。AlphaZero、AlphaGo、OpenAI Five 利用了一種被稱為強化學習的編程模式,在這種模式下,一個被人工智能算法控制的軟件智能體(agent)可以在一個環境(environment,例如一個棋盤游戲,或者一個 MOBA類游戲)中學著采取相應的行動(action)以獲得最大化的獎勵(reward)。
在接受 VentureBeat 采訪時,Hinton 說:我們不妨想象一下斯金納箱(雷鋒網注:斯金納通過實驗發現,動物的學習行為是隨著一個起強化作用的刺激而發生的。斯金納把動物的學習行為推而廣之到人類的學習行為上,他認為雖然人類學習行為的性質比動物復雜得多,但也要通過操作性條件反射。),這有助于我們對強化學習進行理解。斯金納箱名字來源于哈佛大學的先驅心理學家 B.f. 斯金納利用操作性條件反射來訓練受試動物執行一些動作的實驗,比如按下一個杠桿,讓動物來響應刺激(如光或聲音)。當受試者正確地完成一項行為時,他們會得到某種形式的獎勵(通常是以食物或水的形式)。
人工智能研究中的強化學習方法的問題在于獎勵信號往往是「非常微弱的」,Hinton 說。在某些環境下,智能體會陷入在隨機數據中尋找模式的困境,即所謂的「噪聲電視問題」(一個智能體被置于一個迷宮中,并要找到一個非常有價值的物體的實驗,詳情請參閱 AI 科技評論文章:「你需要新的好奇心方法克服強化學習中的「拓展癥」」)
Hinton 說:「有時候,你會得到一個標量信號,告訴你目前模型運行良好,但這種信號并不常見,信息量也不多。而你卻希望僅僅基于這個非常微弱的信號,就訓練帶有數百萬個參數或數萬億個參數的系統。這時,你只能求助于大量的計算(許多效果驚人的演示樣例都需要依賴大量的計算)。這是解決問題的一個方向,但我卻并不認為這種方式非常具有新引力。我認為研究人員需要有更深刻的思考」。
Hinton 和Hassabis 一樣,他對自己的說法很有把握。Hinton 被一些人稱為「深度學習教父」。在過去 30 年中,Hinton 一直致力于解決人工智能面臨的一些最大的挑戰。現在,他既要率領谷歌大腦深度學習研究團隊,也有在多倫多大學擔任教職。除了在 DNN領域的開創性工作,Hinton 還在機器學習、知覺、記憶和符號處理方面撰寫或合著了 200 多篇經過同行評審的出版物,而且他最近把注意力轉向了膠囊神經網絡,這是一種包含有助于建立更穩定的表征結構的機器學習系統。
他說,幾十年體系化的研究經歷使他確信,解決強化學習的可擴展性問題的方法是用層次結構來增強信號。
Hinton 解釋說:「假設你擁有一個龐大的組織,你會從組織的頂層發出強化信號。例如,首席執行官被告知公司今年獲得了大量利潤,這就是他的強化信號。假設每季度會發出一次這樣的強化信號,這并不意味著要訓練一大群等級森嚴的人去完成一些任務,但是如果首席執行官下面有幾個副總裁,并且給每個副總裁分配一個目標,以使他的收益最大化,這會帶來更多的利潤,他也會得到獎勵」。
Hinton 說,在這種安排下,即使沒有回報,也許是因為學著這樣做的首席執行官給副總裁設定了錯誤的目標(但這個每季度一次的循環周期仍將繼續),副總裁總能學到一些東西,這些東西在未來很可能會變得有用。
他補充道:「通過制定次級目標,并提供報酬來實現這些次級目標,可以通過制造更多微弱的信號來放大這些微弱的信號」。
這是一個看似復雜的思維實驗。可以看出來,這些副總裁需要建立一個溝通渠道,即中層和低層管理人員交流的渠道,與其他人溝通最終目標、次級目標和相關的獎勵條件。系統中的每個「雇員」都需要能夠決定他們是否做了正確的事情,這樣他們才能知道他們在什么情況下會得到獎勵。所以他們需要一個語言系統。
Hinton 說:「這是一個讓系統中的模塊為其他模塊創建子目標的問題。你可以想象一個牧羊人和一只牧羊犬。他們創造了一種語言(不是英語),訓練有素的牧羊犬和牧羊人可以非常好地交流。但是想象一下,如果牧羊犬有自己的牧羊犬。 然后它必須理解、總結出這個牧羊人手勢中的信息,并編造一些方法來和子牧羊犬(牧羊犬的牧羊犬)交談,從而傳達這些信息」。
幸運的是,最近被稱為 Transformers 的人工智能的突破性進展可能是人們朝著正確方向邁出的一步。
谷歌的研究人員在去年發表的一篇博文和附錄的一篇論文(「Attention Is All You Need」,https://arxiv.org/abs/1706.03762)中,介紹了一種新型的神經結構(上面提到的 Transformers),它能夠在語言翻譯任務中取得比目前最先進的模型更好的性能,同時所需的訓練計算量也更少。
基于「Transformers」中的工作,谷歌于 2018 年 11 月開源了 Transformers 中的雙向編碼器表征模型 BERT。BERT 通過對任意語料庫生成的任務進行預訓練來學習對句子之間的關系進行建模,使開發人員能夠在 30 分鐘內在單個 CloudTPU (張量處理單元,谷歌的云托管加速器硬件)上訓練最先進的自然語言處理模型,同樣的任務在單個圖形處理器(GPU)上需要訓練幾個小時。
Hinton 解釋說:「Transformers 是一種可以選擇路由的神經網絡。在目前的神經網絡中,你的輸入活動變化快,而網絡權重變化緩慢,這就是問題所在。生物學告訴你,你想要做的是在活動變化很快的情況下,可以在許多不同的時間尺度上修改突觸,這樣你就可以對最近發生的事情有一個記憶,并且很容易恢復它。 在 Transformers 中,一組神經元得到了一些計算結果后,它并不會直接把它發送給所有與它相連的神經元。經過分析后,它會把計算結果發送給那些知道如何處理該計算結果的神經元,而不是那些不知道如何處理它的神經元」。
這不是什么新的想法。Hinton 指出,在 20 世紀 70 年代,大多數關于神經網絡的研究都著眼于記憶方面,其目標是通過修改權重來存儲信息,這樣就可以利用加權計算重新創建信息,而不是簡單地從某種形式的存儲結果中直接提取信息。
Hinton 表示:「實際上,你不會像在文件柜中那樣真正地存儲信息,你只需要對一些參數進行修改,如果我給你一小部分信息,你就可以填出剩下的部分,就像用一些碎片制造出如恐龍一樣的龐然大物。我想說的是,我們應該把這個想法用于短期記憶,而不僅僅是長期記憶,這樣它將解決各種問題」。
人工智能和算法偏見
展望未來,Hinton 相信,借鑒于生物學的經驗,未來的人工智能系統的發展方向將主要是無監督學習的各種變體。無監督學習是機器學習的一個分支,它從未標記、未分類和未歸類的測試數據中收集知識。他說,在學習數據間的共性并且對這種共性的存在或缺失做出反應的能力上,無監督學習幾乎與人類達到了相同的水平。
Hinton 說:「通常而言,人們很難獲得帶標簽的數據。這不像你看到一個場景,有人把微電極放入你的下顳葉皮層,然后說在這個場景下應該產生一個電脈沖。我認為這是一種更具生物學意義的學習方式。大腦基本上就是這么工作的」。
Hassabis 對此表示贊同。
Hassabis 說:「我們(DeepMind)正在努力制定一種具有認知能力的神經科學研究路線圖,我們認為這是擁有一個功能齊全的人類級人工智能系統所必需的。它需要能夠具備遷移學習的能力、掌握一定的概念性知識,而且具備某種意義上的創造力,能夠想象未來發生的情景、反設事實并規劃未來,具備使用語言和符號推理的能力。這些都是人類可以毫不費力地做到的事情」。
然而,隨著人工智能系統變得越來越復雜,一些技術專家和倫理學家擔心人工智能會吸收和反映現有訓練數據中存在的偏見。事實上,有證據表明這種情況已經發生了。
谷歌的人工智能研究科學家最近在一個免費的、開源的數據集上建立了一個預訓練好的人工智能模型(https://venturebeat.com/2018/12/02/googles-inclusive-images-competition-spurs-development-of-less-biased-image-classification-ai/)。在其中一張照片中,一位穿著西式長裙和寬松婚紗的白人新娘被貼上了「連衣裙」、「女人」、「婚禮」和「新娘」等標簽。然而,另一個形象,也是一個新娘,但是她有著亞裔血統,穿著民族服裝,卻被貼上了「服裝」、「活動」、「表演藝術」等標簽。更糟糕的是,這個模型完全忽略了圖片中的人物。
與此同時,「華盛頓郵報」2018 年 7 月進行的兩項研究顯示,亞馬遜和谷歌生產的智能音箱聽懂非美國口音的可能性,比聽土生土長的美國人的口音低 30% 。像 Switchboard 這樣由 IBM 和微軟等公司用來測量語音模型錯誤率的數據集,已經被證明偏向于識別出來自美國特定地區的用戶。
計算機視覺算法在克服偏見的問題上也沒有表現得更好。
2012 年發表的一項研究表明,供應商 Cognitec 公司開發的人臉識別算法在非裔美國人身上的表現比白種人差 5% 到 10%。據透露,最近由倫敦首都警察安全局部署的一個系統每次運行會產生多達 49 個錯誤的匹配結果。今年夏天,在亞馬遜 Rekognition 服務的一次測試中,美國公民自由聯盟調查局發現,當他們從一個「公開的數據源」獲取 25000 張照片,并將其與國會議員的官方照片進行比較時,有 28 張照片被誤認為是罪犯。
Hinton 并沒有因為負面新聞而氣餒。他認為,人工智能的一個明顯優勢在于它所提供的靈活性,而數據中的偏見可以很容易地被建模。
他說:「任何從數據中學到的東西都會學到數據中的所有偏見。好消息是,如果你能對數據中的偏見進行建模,你就能非常有效地消除這些偏差。有各種各樣的方法可以做到這一點」。
他指出,這在人類身上并不總是奏效。
「如果你讓人們做這些工作,你可以嘗試對他們的偏見建模,但告訴他們不要有偏見并不能真正減少偏見。因此,我認為相較之下,在機器學習系統中,處理偏見要容易得多」。
Hinton 指出,一系列新出現的減輕偏見的工具有望被引入到更加公正的人工智能系統中。
2018 年 5 月,Facebook 發布了「Fairness Flow」,當算法根據一個人的種族、性別或年齡做出不公平的判斷時,它會自動發出警告。Accenture 也發布了一個工具包,可以自動檢測人工智能算法中的偏見,并幫助數據科學家減輕這種偏見。微軟也在 2018 年 5 月推出了自己的解決方案;而在 9 月,谷歌推出了「What-If」工具,它也是谷歌用于 TensorFlow 機器學習框架的TensorBoard 的偏見檢測功能。
IBM也不甘示弱,于 2018 年秋季發布了 AI fair 360,這是一款基于云計算的全自動化套件,可以「持續輸出思考結果」,幫助人們了解人工智能系統如何做出決策,并推薦一些可能會減輕偏見影響的調整方法(比如算法調整或數據平衡)。Watson 和云平臺研究小組最近的研究著眼于在減少人工智能模型中的偏見,特別是與面部識別有關的偏見。
「擁有運算速度非常快的計算機的一個好處是,你現在可以編寫一些效率相對較低的軟件,但這很容易理解,因為你的計算機有飛一般的速度。人們往往不喜歡這么做,但通常而言,你確實會想要擁有運行速度非常快的計算機。在犧牲代碼效率的條件下,你可以在取得令人難以置信的準確率的情況下,讓編寫代碼的工作不那么復雜。有了難以置信的準確性,你就有余地讓它們稍微不那么準確,從而達到你想要的其他目的。在我看來,這是一個公平性和性能的折中」。
人工智能與就業
Hinton 對人工智能對就業市場的影響也持樂觀態度。
「有的人認為通用人工智能這個詞帶有這樣的含義:這種機器人個體突然會比你更聰明。我覺得不會是那樣的,我認為,我們做的越來越多的日常事務將被人工智能系統(如谷歌助手)所取代」。
Forrester 公司的分析師最近預測,機器人過程自動化(RPA)和人工智能將在明年為 40% 以上的公司創造數字化工作者,這種軟件能夠自動完成傳統上由人類完成的任務。到 2019 年,美國將有大約 10% 的工作崗位因自動化而消失。此外,世界經濟論壇、普華永道和 Gartner 預測,到 2025 年,人工智能將讓 7500 萬人失業。
但 Hinton 認為通用人工智能不會讓人類被解雇。相反,他表示,人工智能對世界的認識在很大程度上仍將是短視的,至少在不久的將來是這樣。他相信,人工智能將繼續以平凡但有意義的方式改善我們的生活。
他說,「未來的人工智能系統將會非常了解你可能想要做什么,以及如何去做,這將會非常有幫助。但它不會取代你。如果你選用了一個非常擅長自動駕駛的系統,然后在第一天就乘坐它出行,我認為這將是一場災難」。
對于目前由人類執行的危險任務,Hinton 認為這是朝著正確方向邁出的一步。
「人們真的應該害怕坐在一輛由巨大的神經網絡控制的汽車里,因為它無法告訴你它在做什么,」他說,「我們知道,這樣的工作叫出租車司機」。
-
人工智能
+關注
關注
1796文章
47683瀏覽量
240307 -
神經元
+關注
關注
1文章
363瀏覽量
18511 -
機器學習
+關注
關注
66文章
8441瀏覽量
133087
原文標題:對話 Geoffrey Hinton & Demis Hassabis :人工智能離我們有多遠?
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論