1 表示學(xué)習(xí)中的坍塌問題
在表示學(xué)習(xí)中,一種很常見的做法是利用孿生網(wǎng)絡(luò)的結(jié)構(gòu),讓同一個樣本的不同數(shù)據(jù)增強后的表示相似。比如對于一張圖像,使用翻轉(zhuǎn)、裁剪等方法生成另一個增強圖像,兩個圖像分別經(jīng)過兩個共享參數(shù)的編碼器,得到表示,模型的優(yōu)化目標(biāo)是讓這兩個表示的距離近。
這種方法一個比較大的挑戰(zhàn)在于,模型在訓(xùn)練過程中容易出現(xiàn)坍塌問題。模型可以把所有樣本的表示都學(xué)成完全相同的常數(shù)向量(比如每個樣本模型的輸出都是全0向量),這樣就能滿足上述兩個表示距離近的要求了。
2 解決坍塌問題的方法
業(yè)內(nèi)有很多解決坍塌問題的方法,主要可以分為4種類型:
對比學(xué)習(xí)方法:在訓(xùn)練一對正樣本對時,同時采樣大量的負(fù)樣本,讓正樣本之間離得近,負(fù)樣本之間離得遠(yuǎn),避免模型偷懶把所有樣本的表示都學(xué)成一樣的。
聚類方法:在訓(xùn)練過程中增加一個聚類過程,將樣本分配給不同的類簇,然后在類簇級別進(jìn)行對比學(xué)習(xí)。
基于蒸餾的方法:通過模型結(jié)構(gòu)的角度避免坍塌問題,學(xué)習(xí)一個student network來預(yù)測teacher network的表示,teacher network是student network參數(shù)的滑動平均,teacher network不通過反向傳播更新參數(shù)。
信息最大化方法:讓生成的embedding中每一維的向量相互正交,使其信息量最大化,這樣可以避免各個維度的值信息過于冗余,防止坍塌問題。
目前常用的負(fù)樣本采樣方法,一個比較大的問題是計算開銷大,取得好的效果往往需要大量負(fù)樣本,因此有了MoCo等對比學(xué)習(xí)框架。本文提出的方法基于信息最大化的思路,能夠只使用正樣本對實現(xiàn)表示學(xué)習(xí)的同時,防止坍現(xiàn)象的發(fā)生。關(guān)于對比學(xué)習(xí)的常用經(jīng)典方法,可以參考這篇文章:對比學(xué)習(xí)中的4種經(jīng)典訓(xùn)練模式。
3 信息最大化方法歷史工作
基于信息最大化的方法典型的工作有兩篇ICLM 2021的文章,分別是Whitening for Self-Supervised Representation Learning(ICML 2021,W-MSE)和Barlow twins: Self-supervised learning via redundancy reduction(ICML 2021)。下面介紹一下這兩篇文章的整體思路,F(xiàn)acebook的這篇論文也是基于這個思路設(shè)計的。
W-MSE的整體網(wǎng)絡(luò)結(jié)構(gòu)如上圖,模型中輸入一對互為正樣本的樣本對(例如一個圖像的不同增強形式),使用共享參數(shù)Encoder分別編碼后,增加一個whitening模塊,對每個batch內(nèi)的所有embedding進(jìn)行白化,讓embedding的各個維度變量線性無關(guān),后面再接norm處理。下圖形式化表明了W-MSE的用途,通過白化+norm讓樣本形成一個球形分布,正樣本之間距離近,每個樣本需要調(diào)整自己在圓周上的位置拉進(jìn)正樣本之間的距離,形成最終的簇。
Barlow twins方法也是同樣的思路,只是做法不同。在得到一對正樣本的兩個embedding后,計算兩個向量各個變量之間的相關(guān)性矩陣,優(yōu)化這個矩陣接近對角矩陣,以此實現(xiàn)embedding中各個變量之間線性無關(guān)。
4 VICREG
Facebook團隊提出的VICREG是上述基于信息最大化表示學(xué)習(xí)方法的一個擴展,損失函數(shù)主要包括variance、invariance、covariance三個部分。模型的主體結(jié)構(gòu)如下,仍然是一個孿生網(wǎng)絡(luò)結(jié)構(gòu),輸入一個樣本的不同view互為正樣本。
variance部分主要是讓batch內(nèi)每個樣本embedding向量的每一維變量之間的方差不小于一個值,這樣可以有效防止每個樣本的向量都對應(yīng)同一個點的情況,防止坍塌的發(fā)生。
invariance部分即讓正樣本對的表示embedding距離盡可能小,是正常的表示學(xué)習(xí)loss。
covariance借鑒了Barlow twins中的思路,讓batch內(nèi)的embedding非對角線元素盡可能為0,即讓表示向量各個維度變量線性無關(guān)。
最終的表示學(xué)習(xí)loss是由上述3個loss的加和:
5 實驗結(jié)果
作者進(jìn)行了一些實驗驗證VICREG表示學(xué)習(xí)方法的效果。在ImageNet數(shù)據(jù)集上,使用不同方法預(yù)訓(xùn)練的表示接一個線性層進(jìn)行分類,或者基于預(yù)訓(xùn)練的表示使用部分?jǐn)?shù)據(jù)進(jìn)行finetune,對比圖像分類效果,實驗結(jié)果如下:
作者也對比了在不同方法上是否采用variance或covariance等loss的效果變化:
6 總結(jié)
本文介紹了Facebook AI團隊在2022年ICLR的一篇解決表示學(xué)習(xí)坍塌問題的工作,順帶介紹了基于信息最大化的防坍塌工作,有助于幫助我們更深層次理解表示學(xué)習(xí)的原理,以及如何解決實際應(yīng)用表示學(xué)習(xí)、對比學(xué)習(xí)時遇到的坍塌問題。
審核編輯:劉清
-
矩陣
+關(guān)注
關(guān)注
0文章
425瀏覽量
34643 -
Network
+關(guān)注
關(guān)注
0文章
64瀏覽量
29671
原文標(biāo)題:ICLR2022 | Facebook AI提出解決表示學(xué)習(xí)坍塌問題新方法
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
2025年,多地籌謀集成電路產(chǎn)業(yè)
廣電計量新年首篇深度研究報告出爐
中國發(fā)展報告:我國是無人機第一大技術(shù)來源國
廣電計量助力第二屆低空科技發(fā)展大會區(qū)順利舉辦
杰和科技攜新品受邀參加深圳計算機行業(yè)協(xié)會會員大會
![杰和科技攜新品受邀參加深圳計算機行業(yè)協(xié)會會員大會](https://file.elecfans.com/web2/M00/02/C4/pYYBAGDSzfeAP86XAAAO5PbqJbI698.png)
羅德與施瓦茨發(fā)布城市空中交通eVTOL測試解決方案
AI入門之深度學(xué)習(xí):基本概念篇
![AI入門之深度<b class='flag-5'>學(xué)習(xí)</b>:基本概念<b class='flag-5'>篇</b>](https://file1.elecfans.com//web2/M00/01/38/wKgZoma0OmmAEiKuAAD-wQWEZKU414.png)
深視智能參編《2024智能檢測裝備產(chǎn)業(yè)發(fā)展研究報告:機器視覺篇》
![深視智能參編《2024智能檢測裝備產(chǎn)業(yè)發(fā)展研究<b class='flag-5'>報告</b>:機器視覺<b class='flag-5'>篇</b>》](https://file1.elecfans.com/web2/M00/FB/11/wKgZomaPO2WAWZ2HAAA6w9BJNJU371.png)
【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇
基于Python和深度學(xué)習(xí)的CNN原理詳解
![基于Python和深度<b class='flag-5'>學(xué)習(xí)</b>的CNN原理詳解](https://file1.elecfans.com/web2/M00/C6/E1/wKgZomYNC7mAJdRPAAANcvK5DGw006.jpg)
兩會過后,來CMIMS 2024看新能源汽車產(chǎn)業(yè)穩(wěn)中提質(zhì)
![兩會過后,來CMIMS 2024看新能源汽車產(chǎn)業(yè)穩(wěn)中提質(zhì)](https://file1.elecfans.com/web2/M00/C6/02/wKgaomX6XUSAGXJkAALRo5M2Eyc012.png)
中科曙光推出一種半實物實時仿真系統(tǒng)計算平臺及國產(chǎn)化方案
從政府工作報告看磁元件2024年機遇
快看!各地政府工作報告,重點提及這些MEMS傳感器及芯片項目!
![快看!各地政府<b class='flag-5'>工作報告</b>,重點提及這些MEMS傳感器及芯片項目!](https://file1.elecfans.com/web2/M00/C8/84/wKgaomYVGGOAE5GMAABKFNfmRDk838.png)
評論