深度神經(jīng)網(wǎng)絡是一種使用數(shù)學模型處理圖像以及其他數(shù)據(jù)的多層系統(tǒng),而且目前已經(jīng)發(fā)展為人工智能的重要基石。
深度神經(jīng)網(wǎng)絡得出的結(jié)果看似復雜,但同樣有可能受到誤導。而這樣的誤導輕則致使其將一種動物錯誤識別為另一種動物,重則在自動駕駛汽車上將停車標志誤解為正常前進。
休斯敦大學的一位哲學家在發(fā)表于《自然機器智能》上的一篇論文中提到,關(guān)于這些假想問題背后的普遍假設(shè),在于誤導性信息可能給這類網(wǎng)絡的可靠性造成嚴重影響。
隨著機器學習以及其他形式的人工智能越來越深入滲透至社會,其用途也開始涵蓋從ATM機到網(wǎng)絡安全系統(tǒng)的廣泛領(lǐng)域。哲學系副教授Cameron Buckner表示,正是這種普及,讓了解明顯錯誤的來源變得無比重要。研究人員們將這類信息稱為“對抗性示例”,指當深度神經(jīng)網(wǎng)絡在學習過程中遇到訓練輸入之外的其他信息時,則很有可能總結(jié)出錯誤的結(jié)論、最終引發(fā)圖像或數(shù)據(jù)誤判。之所以被表述為“對抗性”,是因為這樣的問題往往只能由另一機器學習網(wǎng)絡所產(chǎn)生或發(fā)現(xiàn)。作為機器學習領(lǐng)域中的一種前沿技術(shù),對抗雙方將不斷升級自身能力,以更復雜的方法嘗試實現(xiàn)干擾與反干擾。
Buckner提到,“但這種對抗有時候可能源自人為誤導,因此要想更好地了解神經(jīng)網(wǎng)絡的可靠性,我們必須對誤導問題做出深入研究?!?/p>
換言之,這種誤導結(jié)果很可能源自網(wǎng)絡需要處理的內(nèi)容、與所涉及的實際模式之間的某種相互作用所引發(fā)。這與傳統(tǒng)意義上的誤導,似乎還不完全是同一種概念。
Buckner寫道,“理解對抗性整合的含義,可能需要探索第三種可能性:其中至少有一部分模式屬于人為創(chuàng)造。因此,目前的難題在于,直接丟棄這些模式可能有損模型學習,但直接使用則具有潛在風險。”
引發(fā)機器學習系統(tǒng)錯誤的對抗性事件除了無心而發(fā),更可能是有意為之。Buckner認為這才是更嚴重的風險,“意味著惡意攻擊者可能會欺騙某些本應可靠的系統(tǒng),例如安全類應用程序。”
例如,基于人臉識別技術(shù)的安全系統(tǒng)很可能遭遇黑客入侵,導致違規(guī)行為的出現(xiàn);或者在交通標志上張貼某些圖形,導致自動駕駛汽車產(chǎn)生意外誤解。
先前的研究發(fā)現(xiàn),與人們的預期相反,使用場景中天然存在著一些對抗性示例,即機器學習系統(tǒng)有可能因為意外交互(而非因數(shù)據(jù)錯誤)而產(chǎn)生誤解。這類情況相當罕見,必須通過其他人工智能技術(shù)才可能發(fā)現(xiàn)。
但這些問題又真實存在,要求研究人員重新考慮該如何辨別自然異常與人為誤導。
事實上,我們對這類人為誤導的理解并不清晰。但這有點像是相機鏡頭上時不時出現(xiàn)的光暈,類似于依靠光暈來判斷畫面中太陽的位置,研究人員似乎也可以借助這樣的蛛絲馬跡推斷機器學習中的惡意誤導方法。
更重要的是,這種新的思考方式也將影響人們在深度神經(jīng)網(wǎng)絡中使用工件的方式,包括不應簡單將誤解結(jié)論視為深度學習無效。
他總結(jié)道,“某些對抗性事件很可能是人為設(shè)計而來。我們必須知曉其中的手法與工件是什么,這樣才能真正理解深度神經(jīng)網(wǎng)絡的可靠性?!?br /> 責任編輯:YYX
-
神經(jīng)網(wǎng)絡
+關(guān)注
關(guān)注
42文章
4781瀏覽量
101175 -
人工智能
+關(guān)注
關(guān)注
1796文章
47683瀏覽量
240302
發(fā)布評論請先 登錄
相關(guān)推薦
評論