یک الگوریتم زیرگرادیان بهینه برای بهینه سازی محدب مقیاس-بزرگ در دامنههای ساده
تهران
۵۸ص.
محمدرضا پیغامی
کارشناسی ارشد
صنعتی خواجه نصیرالدین طوسی
۱۳۹۵
در این پایان نامه نشان میدهیم که الگوریتم زیرگرادیان بهینه AGSO که توسط نیومیر مطرح شده است، میتواند برای مسایل بهینه سازی ساخت یافته مقید محدب مقیاس-بزرگ بهکار رود. در این الگوریتم تنها اطلاعات مرتبه-اول مورد نیاز است، و کرانهای بهینه پیچیدگی برای مسایل هموار و ناهموار بهدست میآید. در اینجا، به دو رده از مسایل توجه میشود: یک تابع هدف محدب با دامنه ساده بسته محدب، که در آن تصویر متعامد روی دامنه شدنی بهطور کارا در دسترس است. تابع هدف محدب با یک قید تابعی ساده محدب. اگر AGSO به یک تابع -نزدیکی مناسب مجهز شود آنگاه زیر مساله AGSO میتواند در هر دو فرم بسته یا با یک طرح تکرار ساده حل شود، که برای مسایل مقیاس-بزرگ حائز اهمیت است. در پایان نتایج عددی روی تعدادی از کاربردها برای نشان دادن کارایی روش AGSOدر مقایسه با برخی از الگوریتمهای اخیر گزارش میشود.
In this thesis, we show that the optimal subgradient algorithm )OSGA(, proposed by Neumaier, can be used for solving large-scale structured convex constrained optimization. In this algorithm only first order information is required and the optimal complexity for smooth and nonsmooth problems is provided. Specifically, we consider two classes of problems as below: A convex objective with a simple closed convex domain, where the orthogonal projection on this feasible domain is efficiently available ; A convex objective with a simple convex functional constraint. If we equip OSGA with an appropriate prox-function, the OSGA subproblem can be solved either in a closed form or by a simple iterative scheme, which is especially important for large-scale problems. Finally, numerical results on some applications are reported to show the efficiency of OSGA method in comparison with some other algorithms in the literature.