Büyük Ölçekli Kısıtsız Optimizasyon Problemlerinin Çözümü İçin Yeni Bir Eşlenik Gradyan Algoritması ve Uygulamaları
Loading...

Date
2025
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Open Access Color
OpenAIRE Downloads
OpenAIRE Views
Abstract
Büyük ölçekli lineer olmayan optimizasyon problemlerini çözmek için kullanılan başlıca algoritmalardan biri de eşlenik gradyan algoritmalardır. Bunun nedeni algoritmaların adımları hesaplanırken ikinci dereceden türevlerin hesaplanmasına gerek olmaması, düşük depolama, hızlı sonuç verme ve global yakınsama gibi uygun özelliklerinin var olmasıdır. Eşlenik gradyan algoritmasının kullanıldığı alanlar; endüstri, mühendislik optimizasyon problemleri, sinir ağı eğitimi ve görüntü restorasyonu gibi alanlardır. Bu tezde yeni bir eşlenik gradyan algoritması tanımlanmış, bu algoritmanın Armijo ve Wolfe çizgi arama teknikleri ile birlikte minimizasyon probleminin çözümüne kuvvetli yakınsak olduğu ve yeterli iniş özelliğini sağladığı gösterilmiştir. Son olarak algoritmanın performans profil karşılaştırılması yapılmış ve görüntü iyileştirme problemine uygulaması verilmiştir.
Conjugate gradient algorithms are among the primary algorithms used to solve large-scale nonlinear optimization problems. This is due to their advantageous properties, such as no need to compute second-order derivatives when calculating algorithmic steps, low storage requirements, rapid results, and global convergence. Conjugate gradient algorithms are utilized in areas such as industry, engineering optimization problems, neural network training, and image restoration. In this thesis, a new conjugate gradient algorithm is introduced, and it is shown that this algorithm strongly converges to the solution of the minimization problem and satisfies the sufficient descent property when used with Armijo and Wolfe line search techniques. Finally, a performance profile comparison of the algorithm is presented, along with its application to the image restoration problem.
Conjugate gradient algorithms are among the primary algorithms used to solve large-scale nonlinear optimization problems. This is due to their advantageous properties, such as no need to compute second-order derivatives when calculating algorithmic steps, low storage requirements, rapid results, and global convergence. Conjugate gradient algorithms are utilized in areas such as industry, engineering optimization problems, neural network training, and image restoration. In this thesis, a new conjugate gradient algorithm is introduced, and it is shown that this algorithm strongly converges to the solution of the minimization problem and satisfies the sufficient descent property when used with Armijo and Wolfe line search techniques. Finally, a performance profile comparison of the algorithm is presented, along with its application to the image restoration problem.
Description
Keywords
Matematik, Mathematics
Turkish CoHE Thesis Center URL
Fields of Science
Citation
WoS Q
Scopus Q
Source
Volume
Issue
Start Page
End Page
63
