基于卷積神經(jīng)網(wǎng)絡的視覺識別研究.pdf_第1頁
已閱讀1頁,還剩68頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、近年來,卷積神經(jīng)網(wǎng)絡(CNN)憑借其強大的特征學習能力在視覺識別領域取得重要進展,并受到學術界和工業(yè)界的廣泛關注。首先,本文對 CNN的結構進行如下兩方面的創(chuàng)新研究:
  1)針對CNN全連接層對圖像平移、旋轉、縮放等變換比較敏感的問題,提出了一種混合模型——卷積詞袋網(wǎng)絡(BoCW-Net)。它將BoW模型嵌入CNN結構中并代替全連接層,通過端到端的方式學習特征、字典和分類器。為實現(xiàn)BoCW-Net整個網(wǎng)絡的有監(jiān)督學習,提出基于方

2、向相似度的BoCW編碼。同時,為充分利用中層特征和高層特征的鑒別性,將中層輔助分類器與高層分類器集成,形成主-輔集成分類器。實驗結果表明:相比全連接層,BoCW表示對各種變換具有更強的不變性;主-輔集成分類器能有效融合中層、高層特征,提高 BoCW-Net的識別性能;BoCW-Net在CIFAR-10、CIFAR-100和MNIST數(shù)據(jù)庫上均取得了改進的識別性能,最終分別獲得4.88%、22.48%和0.21%的測試錯誤率。
  

3、2)鏈式結構的CNN雖然能利用表征全局的高層特征解決一般的粗糙分類問題,但沒有利用表征局部細節(jié)的中層特征解決精細分類問題。因此本文提出另外一種改進模型——卷積詞袋-融合網(wǎng)絡(BoCW-FusionNet)。它將中層、高層特征的BoCW表示進行級聯(lián)后再連接分類器,同樣是通過端到端的有監(jiān)督方式學習特征、字典和分類器。實驗結果表明:BoCW-FusionNet相比鏈式CNN獲得微小的改進性能,在CIFAR-10和CIFAR-100數(shù)據(jù)庫上分別

4、獲得5.36%和24.82%的測試錯誤率。
  然后,利用改進的CNN模型(BoCW-Net和BoCW-FusionNet)來解決實際應用問題,包括車型行人識別以及男女性別識別。車型行人數(shù)據(jù)包含6類車型(客車、轎車、面包車、貨車、三輪車以及摩托車)和1類行人的圖像,分類準確率分別為98.06%(BoCW-Net)和97.94%(BoCW-FusionNet)。男女性別數(shù)據(jù)包含男女兩類的人臉或頭像照片,分類準確率分別為96.20%(

5、BoCW-Net)和94.90%(BoCW-FusionNet)。實際應用表明,改進的CNN模型均獲得較好的識別性能。
  BoCW-Net和BoCW-FusionNet的分類性能比較表明:無論公共數(shù)據(jù)庫還是實際應用數(shù)據(jù),中層、高層 BoCW表示的主-輔分類器集成方式相比級聯(lián)方式能有效地融合中層和高層特征。最后,使用BoCW-Net參與Kaggle大數(shù)據(jù)分析平臺上的CIFAR-10物體識別競賽和FER2013人臉表情識別競賽,分別

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論