最優(yōu)化問題的記憶預測方法研究.pdf_第1頁
已閱讀1頁,還剩47頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、本文主要研究最優(yōu)化問題的記憶預測方法.全文共分四章. 第一章,主要介紹了最優(yōu)化問題的記憶預測方法研究現狀以及本文的主要研究成果. 第二章,考慮無約束最優(yōu)化問題,Shi(2003)提出了一種新的記憶梯度法,并證明了其在精確線性搜索下的全局收斂性.精確一維搜索方法往往需要花費很大的工作量,特別是當迭代點遠離問題的解時,精確地求解—個一維子問題通常不是十分有效的.本文修改了原算法中的參數,即在方向dκ中取βκ=ρ‖gκ‖2/‖

2、gκ‖2-σgTκ-1dκ-1,并證明了新算法在強Wolfe準則下同樣具有全局收斂性和線性收斂速率. 第三章,主要研究一種新的求解無約束最優(yōu)化問題的記憶梯度法.該方法的主要特點是:(1)在每步迭代中,僅用到目標函數及其梯度的信息以及函數值信息,無須計算二階導數以及矩陣,計算公式簡單,比之其他優(yōu)化算法具有盡可能少的存貯量和計算工作量,適合求解較大規(guī)模的優(yōu)化問題.(2)搜索方向dκ中的參數βκ的形式雖然與共軛梯度法中Doxin公式相

3、似,但新算法在強wolfe線性搜索下具有全局收斂性,而[16]中作者已證明在共軛梯度法中,βκ若采用Doxin公式,則強Wolfe線性搜索不能保證其具有全局收斂性.數值試驗表明新算法是很有效的. 第四章,考慮無約束最優(yōu)化問題,我們提出一種新的記憶預測方法.新算法在迭代過程中無需對步長進行線性搜索,僅需對算法中的一些參數進行預測估計,使算法具有全局收斂性,減少了目標函數以及梯度的迭代次數,從而降低了算法的計算量和存儲量.此外,算法

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論