吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SiamFC:用于目標跟蹤的全卷積孿生網絡 fully-convolutional siamese networks for object tracking

jf_96884364 ? 來源:代碼的路 ? 作者:代碼的路 ? 2023-01-11 17:35 ? 次閱讀

原文鏈接

SiamFC網絡

<

圖中z代表的是模板圖像,算法中使用的是第一幀的ground truth;x代表的是search region,代表在后面的待跟蹤幀中的候選框搜索區域;?代表的是一種特征映射操作,將原始圖像映射到特定的特征空間,文中采用的是CNN中的卷積層和pooling層;6×6×128代表z經過?后得到的特征,是一個128通道6×6大小feature,同理,22×22×128是x經過?后的特征;后面的×代表卷積操作,讓22×22×128的feature被6×6×128的卷積核卷積,得到一個17×17的score map,代表著搜索區域中各個位置與模板相似度值。

算法本身是比較搜索區域與目標模板的相似度,最后得到搜索區域的score map。其實從原理上來說,這種方法和相關性濾波的方法很相似。其在搜索區域中逐點的目標模板進行匹配,將這種逐點平移匹配計算相似度的方法看成是一種卷積,然后在卷積結果中找到相似度值最大的點,作為新的目標的中心

上圖所畫的?其實是CNN中的一部分,并且兩個?的網絡結構是一樣的,這是一種典型的孿生神經網絡,并且在整個模型中只有conv層和pooling層,因此這也是一種典型的全卷積(fully-convolutional)神經網絡。

在訓練模型的時肯定需要損失函數,并通過最小化損失函數來獲取最優模型。本文算法為了構造有效的損失函數,對搜索區域的位置點進行了正負樣本的區分,即目標一定范圍內的點作為正樣本,這個范圍外的點作為負樣本,例如圖1中最右側生成的score map中,紅色點即正樣本,藍色點為負樣本,他們都對應于search region中的紅色矩形區域和藍色矩形區域。文章采用的是logistic loss,具體的損失函數形式如下:

對于score map中了每個點的損失:

l(y,x)=log(1+exp(-xy))

其中v是score map中每個點真實值,y∈{+1,?1}是這個點所對應的標簽。

上面的是score map中每個點的loss值,而對于score map整體的loss,則采用的是全部點的loss的均值。即:

L(y,v)=\\frac{1}{|D|}\\displaystyle \\sum_{u\\in D}l(y[u],v[u])

這里的u∈D代表score map中的位置。

整個網絡結構類似與AlexNet,但是沒有最后的全連接層,只有前面的卷積層和pooling層。

整個網絡結構如上表,其中pooling層采用的是max-pooling,每個卷積層后面都有一個ReLU非線性激活層,但是第五層沒有。另外,在訓練的時候,每個ReLU層前都使用了batch normalization(批規范化是深度學習中經常見到的一種訓練方法,指在采用梯度下降法訓練DNN時,對網絡層中每個mini-batch的數據進行歸一化,使其均值變為0,方差變為1,其主要作用是緩解DNN訓練中的梯度消失/爆炸現象,加快模型的訓練速度),用于降低過擬合的風險。

AlexNet

AlexNet為8層結構,其中前5層為卷積層,后面3層為全連接層;學習參數有6千萬個,神經元有650,000個。AlexNet在兩個GPU上運行;AlexNet在第2,4,5層均是前一層自己GPU內連接,第3層是與前面兩層全連接,全連接是2個GPU全連接;

RPN層第1,2個卷積層后;Max pooling層在RPN層以及第5個卷積層后。ReLU在每個卷積層以及全連接層后。

卷積核大小數量:

  • conv1:96 11×11×3(個數/長/寬/深度)
  • conv2:256 5×5×48
  • conv3:384 3×3×256
  • conv4: 384 3×3×192
  • conv5: 256 3×3×192

ReLU、雙GPU運算:提高訓練速度。(應用于所有卷積層和全連接層)

重疊pool池化層:提高精度,不容易產生過度擬合。(應用在第一層,第二層,第五層后面)

局部響應歸一化層(LRN):提高精度。(應用在第一層和第二層后面)

Dropout:減少過度擬合。(應用在前兩個全連接層)

微調(fine-tune)

看到別人一個很好的模型,雖然針對的具體問題不一樣,但是也想試試看,看能不能得到很好的效果,而且自己的數據也不多,怎么辦?沒關系,把別人現成的訓練好了的模型拿過來,換成自己的數據,調整一下參數,再訓練一遍,這就是微調(fine-tune)。

凍結預訓練模型的部分卷積層(通常是靠近輸入的多數卷積層),訓練剩下的卷積層(通常是靠近輸出的部分卷積層)和全連接層。從某意義上來說,微調應該是遷移學習中的一部分。

感知機:PLA

多層感知機是由感知機推廣而來,感知機學習算法(PLA: Perceptron Learning Algorithm)用神經元的結構進行描述的話就是一個單獨的。

感知機的神經網絡表示如下:

多層感知機:MLP

多層感知機的一個重要特點就是多層,我們將第一層稱之為輸入層,最后一層稱之為輸出層,中間的層稱之為隱層。MLP并沒有規定隱層的數量,因此可以根據各自的需求選擇合適的隱層層數。且對于輸出層神經元的個數也沒有限制。

MLP神經網絡結構模型如下,本文中只涉及了一個隱層,輸入只有三個變量[x1,x2,x3]和一個偏置量b,輸出層有三個神經元。相比于感知機算法中的神經元模型對其進行了集成。

ReLU函數

ReLU函數公式如下:

RELU(x)= \\begin{cases} x, & \\text {if x>0} \\ 0, & \\text{if x<0} \\end{cases}

圖像如下:

sigmod函數

sigmod 函數在趨于正無窮或負無窮時,函數趨近平滑狀態。因為輸出范圍(0,1),所以二分類的概率常常用這個函數。

sigmoid函數表達式如下 :

f(x)=\\frac{1}{(1-e^{-z})}

圖像如下:

學習更多編程知識,請關注我的公眾號:

[代碼的路]

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像處理
    +關注

    關注

    27

    文章

    1300

    瀏覽量

    56890
  • 函數
    +關注

    關注

    3

    文章

    4346

    瀏覽量

    62970
  • PLA
    PLA
    +關注

    關注

    0

    文章

    38

    瀏覽量

    17087
  • 全卷積網絡
    +關注

    關注

    0

    文章

    7

    瀏覽量

    2037
  • MLP
    MLP
    +關注

    關注

    0

    文章

    57

    瀏覽量

    4288
收藏 人收藏

    評論

    相關推薦

    計算機視覺必讀:區分目標跟蹤網絡壓縮、圖像分類、人臉識別

    的訓練數據集通常和要用于檢索的數據集比較相似。此外,可以用候選區域網絡提取圖像中可能包含目標的前景區域。孿生網絡(
    發表于 06-08 08:00

    Large-Scale_FPGA-based_Convolutional_Networks

    Large-Scale FPGA-based Convolutional Networks
    發表于 03-24 17:00 ?0次下載

    卷積網絡FCN進行圖像分割

    Networks for Semantic Segmentation》在圖像語義分割挖了一個坑,于是無窮無盡的人往坑里面跳。 卷積網絡 Full
    發表于 09-26 17:22 ?655次閱讀

    基于信息熵的級聯Siamese網絡目標跟蹤方法

    目標跟蹤是計算機視覺領域的一個重要研究方向,針對目前算法對于目標外觀變化的魯棒性較差等問題,提出了一種基于信息熵的級聯 Siamese網絡
    發表于 05-07 14:11 ?1次下載

    SiamRPN:High Performance Visual Tracking with Siamese Region Proposal Network 孿生網絡

    /Li_High_Performance_Visual_CVPR_2018_paper.pdf 摘要 大多數性能優越的視覺目標跟蹤器很難有實時速度。在這篇文章中,我們提出了孿生候選區域生成網絡
    的頭像 發表于 01-11 17:41 ?1164次閱讀
    SiamRPN:High Performance Visual <b class='flag-5'>Tracking</b> with <b class='flag-5'>Siamese</b> Region Proposal Network <b class='flag-5'>孿生</b><b class='flag-5'>網絡</b>

    SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks 深層網絡連體視覺跟蹤的演變

    /SiamRPN_plus_plus_PyTorch 摘要 基于孿生網絡跟蹤器將跟蹤表述為目標模板和搜索區域之間的
    的頭像 發表于 01-11 17:52 ?1173次閱讀
    SiamRPN++: Evolution of <b class='flag-5'>Siamese</b> Visual <b class='flag-5'>Tracking</b> with Very Deep <b class='flag-5'>Networks</b>  深層<b class='flag-5'>網絡</b>連體視覺<b class='flag-5'>跟蹤</b>的演變

    SA-Siam:用于實時目標跟蹤孿生網絡A Twofold Siamese Network for Real-Time Object Tracking

    目標跟蹤任務,因此本文方法可以簡單概括為:SA-Siam=語義分支+外觀分支; 2.Motivation:目標跟蹤的特點是,我們想從眾多背景中區分出變化的
    的頭像 發表于 01-11 17:54 ?1098次閱讀
    SA-Siam:<b class='flag-5'>用于</b>實時<b class='flag-5'>目標</b><b class='flag-5'>跟蹤</b>的<b class='flag-5'>孿生</b><b class='flag-5'>網絡</b>A Twofold <b class='flag-5'>Siamese</b> Network for Real-Time <b class='flag-5'>Object</b> <b class='flag-5'>Tracking</b>

    DW-Siam:Deeper and Wider Siamese Networks for Real-Time Visual Tracking 更寬更深的孿生網絡

    原文鏈接 論文地址:https://arxiv.org/pdf/1901.01660.pdf 摘要 目前在孿生網絡追蹤器中使用的主干網絡相對較淺,例AlexNet。本文研究如何利用更深和更廣的
    的頭像 發表于 01-12 09:24 ?906次閱讀
    DW-Siam:Deeper and Wider <b class='flag-5'>Siamese</b> <b class='flag-5'>Networks</b> for Real-Time Visual <b class='flag-5'>Tracking</b> 更寬更深的<b class='flag-5'>孿生</b><b class='flag-5'>網絡</b>

    卷積神經網絡詳解 卷積神經網絡包括哪幾層及各層功能

    卷積神經網絡詳解 卷積神經網絡包括哪幾層及各層功能 卷積神經網絡(
    的頭像 發表于 08-21 16:41 ?6139次閱讀

    卷積神經網絡的基本原理 卷積神經網絡發展 卷積神經網絡三大特點

    卷積神經網絡的基本原理 卷積神經網絡發展歷程 卷積神經網絡三大特點?
    的頭像 發表于 08-21 16:49 ?2603次閱讀

    卷積神經網絡算法代碼matlab

    )、池化層(Pooling Layer)和連接層(Fully Connected Layer)。卷積神經網絡源自對腦神經細胞的研究,能夠有效地處理大規模的視覺和語音數據。本文將詳細介
    的頭像 發表于 08-21 16:50 ?1250次閱讀

    卷積神經網絡可以通過輸出反推到輸入嗎

    卷積神經網絡Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然
    的頭像 發表于 07-03 09:17 ?773次閱讀

    卷積神經網絡的組成部分有哪些

    卷積神經網絡Convolutional Neural Networks, CNNs)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然
    的頭像 發表于 07-03 09:31 ?1217次閱讀

    卷積神經網絡分類方法有哪些

    卷積神經網絡Convolutional Neural Networks,CNN)是一種深度學習模型,廣泛應用于圖像分類、
    的頭像 發表于 07-03 09:40 ?554次閱讀

    卷積神經網絡的基本原理與算法

    卷積神經網絡Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結構的前饋神經
    的頭像 發表于 11-15 14:47 ?998次閱讀
    百家乐官网赌博机怎么玩| 百家乐游戏程序出售| 威尼斯人娱乐场有什么玩 | 租nongcun房看风水做生意的| 發中發百家乐官网的玩法技巧和规则 | 百家乐官网技巧-百家乐官网开户指定代理网址 | 百家乐中的小路怎样| 百家乐官网纯数字玩法| ea百家乐系统| 大赢家娱乐城| 百家乐赢钱心得| 百家乐官网对子赔率| 百家乐记牌器| 网上百家乐官网投注技巧| 微信百家乐官网群二维码 | 百家乐官网的玩法技巧和规则 | 百家乐官网技巧经| 曼哈顿娱乐城信誉| 百家乐网站出售| 海南省| 百家乐博娱乐场| 百家乐官网赌缆十三式| 网上百家乐解密| 斗地主百家乐官网的玩法技巧和规则| 千亿娱乐城注册| 百家乐斗地主在哪玩| 百家乐官网投注方法新版| 百家乐14克粘土筹码| 索罗门百家乐官网的玩法技巧和规则 | 东乌| 澳门百家乐网上娱乐场开户注册 | 百家乐高人破解| 长治市| 百家乐必赢| 长春百家乐官网的玩法技巧和规则| 棋牌类游戏| 澳门百家乐先赢后输| 百家乐官网最新庄闲投注法 | 百家乐制胜法宝| 沙龙百家乐官网娱乐城| 博九娱乐场|