

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、圖像作為人類(lèi)感知事物的視覺(jué)基礎(chǔ),是人們從外界獲得信息的重要依據(jù),所以讓機(jī)器自動(dòng)完成圖像識(shí)別、分類(lèi)具有重要意義。圖像分類(lèi)最重要的部分是特征提取,研究高效的特征提取算法在圖像領(lǐng)域至關(guān)重要。深度學(xué)習(xí)(Deep Learning, DL)是多層的網(wǎng)絡(luò)結(jié)構(gòu),它通過(guò)建立、模擬人腦的分層結(jié)構(gòu),對(duì)外部輸入的聲音、圖像、文本等數(shù)據(jù)進(jìn)行從低級(jí)到高級(jí)的特征提取,所以深度學(xué)習(xí)在圖像分類(lèi)領(lǐng)域具有廣闊的應(yīng)用空間。而深度學(xué)習(xí)本身存在訓(xùn)練時(shí)間過(guò)長(zhǎng)、過(guò)擬合等問(wèn)題,本文以
2、提高深度模型分類(lèi)精確度、縮短訓(xùn)練時(shí)間和防止模型過(guò)擬合三個(gè)問(wèn)題為出發(fā)點(diǎn),主要研究工作如下:
首先,本文研究了極速學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)作為卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)分類(lèi)器的可行性與意義,進(jìn)而提出了混合深度模型CNN-ELM(Convolutional Neural Network-Extreme Learning Machine)。
3、先用原始的CNN訓(xùn)練網(wǎng)絡(luò),然后用ELM替換CNN的輸出層完成最后的分類(lèi),混合模型結(jié)合了 CNN有效提取圖像特征和ELM快速高效的特點(diǎn),使得兩種方法能夠協(xié)同工作,實(shí)驗(yàn)表明CNN-ELM提高了CNN的分類(lèi)精確度。
其次,針對(duì)深度學(xué)習(xí)方法訓(xùn)練時(shí)間過(guò)長(zhǎng)的問(wèn)題,研究了隨機(jī)參數(shù)網(wǎng)絡(luò)結(jié)構(gòu)的可行性與意義。核極速學(xué)習(xí)機(jī)是在ELM的基礎(chǔ)上引入了核函數(shù),具有更好的分類(lèi)效果,從而提出了基于核極速學(xué)習(xí)機(jī)的隨機(jī)參數(shù)深度模型:卷積極速學(xué)習(xí)機(jī)(Convolu
4、tional Extreme Learning Machine with Kernel,CKELM)。在模型CKELM中,把隨機(jī)權(quán)值的卷積層和降采樣層作為隱含層,來(lái)提取輸入圖像的顯著特征。實(shí)驗(yàn)表明該算法既保證了分類(lèi)精確度又大大縮短了深度算法的訓(xùn)練時(shí)間。
最后,本文研究了基于DropConnect的深度自動(dòng)編碼器算法的應(yīng)用意義和可行性。DropConnect作為一種新型的正則化方法,在處理過(guò)擬合等問(wèn)題上表現(xiàn)突出,所以文章提出了一
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分類(lèi)方法研究.pdf
- 基于深度學(xué)習(xí)的自然圖像分類(lèi)方法的研究.pdf
- 基于深度學(xué)習(xí)的圖像分類(lèi)的研究.pdf
- 基于深度學(xué)習(xí)模型的圖像分類(lèi)研究.pdf
- 基于深度學(xué)習(xí)的圖像情感分類(lèi)研究.pdf
- 基于傳統(tǒng)方法和深度學(xué)習(xí)的圖像精細(xì)分類(lèi)研究.pdf
- 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像模式分類(lèi)研究.pdf
- 基于深度學(xué)習(xí)的文檔分類(lèi)方法研究.pdf
- 基于深度學(xué)習(xí)的圖像分類(lèi)技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的干涉SAR圖像分類(lèi).pdf
- 基于主動(dòng)深度學(xué)習(xí)的遙感圖像分類(lèi).pdf
- 基于注意力機(jī)制的圖像分類(lèi)深度學(xué)習(xí)方法研究.pdf
- 基于深度學(xué)習(xí)的稻飛虱圖像分類(lèi)識(shí)別的研究.pdf
- 基于深度學(xué)習(xí)的高光譜遙感圖像分類(lèi).pdf
- 基于分層深度學(xué)習(xí)的行人分類(lèi)方法研究.pdf
- 基于深度學(xué)習(xí)的服裝圖像分類(lèi)與檢索.pdf
- 基于深度學(xué)習(xí)的高光譜圖像分類(lèi)算法的研究.pdf
- 基于圖像特征空間學(xué)習(xí)的圖像分類(lèi)方法研究.pdf
- 基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類(lèi)研究.pdf
- 基于深度層次特征學(xué)習(xí)的大規(guī)模圖像分類(lèi)研究.pdf
評(píng)論
0/150
提交評(píng)論