Fundamental of genetic Algorithms Part 11

Slides:



Advertisements
Similar presentations
GA Approaches to Multi-Objective Optimization
Advertisements

ZEIT4700 – S1, 2014 Mathematical Modeling and Optimization School of Engineering and Information Technology.
Topic Outline ? Black-Box Optimization Optimization Algorithm: only allowed to evaluate f (direct search) decision vector x objective vector f(x) objective.
Non-dominated Sorting Genetic Algorithm (NSGA-II)
MOEAs University of Missouri - Rolla Dr. T’s Course in Evolutionary Computation Matt D. Johnson November 6, 2006.
Angers, 10 June 2010 Multi-Objective Optimisation (II) Matthieu Basseur.
The Materials Computation Center, University of Illinois Duane Johnson and Richard Martin (PIs), NSF DMR OBJECTIVE: Accelerate.
Constructing Complex NPC Behavior via Multi- Objective Neuroevolution Jacob Schrum – Risto Miikkulainen –
Multi-objective optimization multi-criteria decision-making.
Elitist Non-dominated Sorting Genetic Algorithm: NSGA-II
Multiobjective Optimization Chapter 7 Luke, Essentials of Metaheuristics, 2011 Byung-Hyun Ha R1.
Multi-Objective Optimization Using Evolutionary Algorithms
Spring, 2013C.-S. Shieh, EC, KUAS, Taiwan1 Heuristic Optimization Methods Pareto Multiobjective Optimization Patrick N. Ngatchou, Anahita Zarei, Warren.
EMBIO – Cambridge Particle Swarm Optimization applied to Automated Docking Automated docking of a ligand to a macromolecule Particle Swarm Optimization.
A New Evolutionary Algorithm for Multi-objective Optimization Problems Multi-objective Optimization Problems (MOP) –Definition –NP hard By Zhi Wei.
Diversity Maintenance Behavior on Evolutionary Multi-Objective Optimization Presenter : Tsung Yu Ho at TEILAB.
Multimodal Problems and Spatial Distribution Chapter 9.
Genetic Algorithms in Materials Processing N. Chakraborti Department of Metallurgical & Materials Engineering Indian Institute of Technology Kharagpur.
Design of Curves and Surfaces by Multi Objective Optimization Rony Goldenthal Michel Bercovier School of Computer Science and Engineering The Hebrew University.
The Pareto fitness genetic algorithm: Test function study Wei-Ming Chen
Computer Science Genetic Algorithms10/13/10 1 An Investigation of Niching and Species Formation in Genetic Function Optimization Kalyanmoy Deb David E.
Resource Allocation Problem Reporter: Wang Ching Yu Date: 2005/04/07.
A New Algorithm for Solving Many-objective Optimization Problem Md. Shihabul Islam ( ) and Bashiul Alam Sabab ( ) Department of Computer Science.
Multiobjective Optimization Athens 2005 Department of Architecture and Technology Universidad Politécnica de Madrid Santiago González Tortosa Department.
Tier I: Mathematical Methods of Optimization
Optimal Arrangement of Ceiling Cameras for Home Service Robots Using Genetic Algorithms Stefanos Nikolaidis*, ** and Tamio Arai** *R&D Division, Square.
Evolutionary Multi-objective Optimization – A Big Picture Karthik Sindhya, PhD Postdoctoral Researcher Industrial Optimization Group Department of Mathematical.
Evolving Multi-modal Behavior in NPCs Jacob Schrum – Risto Miikkulainen –
On comparison of different approaches to the stability radius calculation Olga Karelkina Department of Mathematics University of Turku MCDM 2011.
Selected Topics in Evolutionary Algorithms II Pavel Petrovič Department of Applied Informatics, Faculty of Mathematics, Physics and Informatics
Example II: Linear truss structure
Masoud Asadzadeh, Bryan A. Tolson, A. J. MacLean. Dept. of Civil & Environmental Engineering, University of Waterloo Hydrologic model calibration aims.
MOGADES: Multi-Objective Genetic Algorithm with Distributed Environment Scheme Intelligent Systems Design Laboratory , Doshisha University , Kyoto Japan.
Intro. ANN & Fuzzy Systems Lecture 36 GENETIC ALGORITHM (1)
Doshisha Univ., Japan Parallel Evolutionary Multi-Criterion Optimization for Block Layout Problems ○ Shinya Watanabe Tomoyuki Hiroyasu Mitsunori Miki Intelligent.
Omni-Optimizer A Procedure for Single and Multi-objective Optimization Prof. Kalyanmoy Deb and Santosh Tiwari.
DIVERSITY PRESERVING EVOLUTIONARY MULTI-OBJECTIVE SEARCH Brian Piper1, Hana Chmielewski2, Ranji Ranjithan1,2 1Operations Research 2Civil Engineering.
Genetic Algorithms What is a GA Terms and definitions Basic algorithm.
Diane Yeoman Definite Integral The Fundamental Theorem.
Evolutionary Design (2) Boris Burdiliak. Topics Representation Representation Multiple objectives Multiple objectives.
Soft Computing Multiobjective Optimization Richard P. Simpson.
ZEIT4700 – S1, 2015 Mathematical Modeling and Optimization School of Engineering and Information Technology.
Multi-objective Evolutionary Algorithms (for NACST/Seq) summarized by Shin, Soo-Yong.
Tamaki Okuda ● Tomoyuki Hiroyasu   Mitsunori Miki   Shinya Watanabe  
Neural and Evolutionary Computing - Lecture 9 1 Evolutionary Multiobjective Optimization  Particularities of multiobjective optimization  Multiobjective.
Evolutionary multi-objective algorithm design issues Karthik Sindhya, PhD Postdoctoral Researcher Industrial Optimization Group Department of Mathematical.
Evolutionary Computing Chapter 12. / 26 Chapter 12: Multiobjective Evolutionary Algorithms Multiobjective optimisation problems (MOP) -Pareto optimality.
Zhengli Huang and Wenliang (Kevin) Du
- Divided Range Multi-Objective Genetic Algorithms -
ZEIT4700 – S1, 2016 Mathematical Modeling and Optimization School of Engineering and Information Technology.
Power Magnetic Devices: A Multi-Objective Design Approach
L-Dominance: An Approximate-Domination Mechanism
Multiobjective Optimization Richard P. Simpson
Automatic Synthesizer Preset Generation with PresetGen
Presented by: Dr Beatriz de la Iglesia
Kalyanmoy Deb David E. Goldberg
Multy- Objective Differential Evolution (MODE)
EASTERN MEDITERRANEAN UNIVERSITY
Assignment I TSP with Simulated Annealing
Dave Powell, Elon University,
Multimodal Problems and Spatial Distribution
Heuristic Optimization Methods Pareto Multiobjective Optimization
A New multi-objective algorithm: Pareto archived dds
Doshisha Univ., Kyoto Japan
Chen-Yu Lee, Jia-Fong Yeh, and Tsung-Che Chiang
Multimodal Problems and Spatial Distribution
Multi-Objective Optimization for Finite Element Analysis
RM-MEDA: A Regularity Model-Based Multiobjective Estimation of Distribution Algorithm BISCuit EDA Seminar
MOEA Testing and Analysis
Multiobjective Optimization
Presentation transcript:

Fundamental of genetic Algorithms Part 11 9/18/2018 Fundamental of genetic Algorithms Part 11 مسئله ی بهینه سازی با چند تابع هدف مدرس: سید مهدی وحیدی پور با تشکر از: مجتبی انعامی و حسین شیرازی

مسئله ی بهینه سازی با چند تابع هدف 9/18/2018 معرفی کلیات روش های تکاملی بررسي روش SPEA بررسی روش NSGA

9/18/2018 معرفی

معرفی بهینه سازی توابع مختلف و گاه متضاد به طور همزمان 9/18/2018 بهینه سازی توابع مختلف و گاه متضاد به طور همزمان ترکیب مقادیر توابع هدف مختلف و به دست آوردن یک مقدار برازندگی (Fitness) مسئله به یک تابع تک هدفی تبدیل می شود. بدست آوردن جواب هایی که حداکثر تعداد توابع هدف را بهینه کند مجموعه جواب بهینه ی پارتو (Pareto Optimal Set).

معرفی مجموعه جواب بهینه ی پارتو (Pareto Optimal Set) 9/18/2018 مجموعه جواب بهینه ی پارتو (Pareto Optimal Set) مجموعه جواب های مسلط نشدنی در تمام فضای جستجو. نمی توان در این دو مجموعه بین دو جواب مختلف یکی را به دیگری برتری داد. الگوریتم سعی در رسیدن به جواب مختلف بهینه ی پارتو دارد.

معرفی دو اصل مهم برای بهینه سازی با چند تابع هدف: 9/18/2018 دو اصل مهم برای بهینه سازی با چند تابع هدف: هدایت مسیر جستجو در جهت رسیدن به منحنی جواب های بهینه پارتو حفظ و تولید جواب های بهینه در طول جمعیت جواب ها

معرفی روش های قدیمی دارای اشکالات زیر هستند: 9/18/2018 روش های قدیمی دارای اشکالات زیر هستند: عدم پیدا کردن چندین جواب بهینه در طی یک بار اجرای الگوریتم عدم تضمین برای یافتن جواب های بهینه مختلف و متفاوت نمی توان برای مسائلی با متغیرهای گسسته و دارای چندین جواب بهینه به کار برد

بهینه سازی با چند تابع هدف 9/18/2018 بهینه سازی با چند تابع هدف

بهینه سازی با چند تابع هدف 9/18/2018 Maximaze y = f(x) = (f1(x), f2(x),…, fk(x)) Subject to e(x) = (e1(x), e2(x),…, em(x)) Where x = (x1, x2,…,xn) X y = (y1, y2,…,yk) Y X: بردار تصمیم گیری با پارامترهای مورد جستجو در مســـئله (Dicision Vector) X: فضای تصمیم گیری (Dicision Space) Y: فضای هدف (Objective Space)

بهینه سازی با چند تابع هدف 9/18/2018 مجموعه ممکن(Feasible Set) : مجموعه متغیرهای قابل قبول برای مسئله Xf = {x X | e(x) ≤ 0} محدوده ممکن (Feasible Region): Yf = f(Xf) = Ux Xf {f(x)}

بهینه سازی با چند تابع هدف 9/18/2018 u و v دو بردار هدف مربوط به دو بردار تصمیم گیری: u = v iff i {1, 2,…, k} ui = v u ≥ v iff I {1, 2,…, k} ui ≥ vi u > v iff u ≥ v ^ u ≠ v

بهینه سازی با چند تابع هدف 9/18/2018 غلبه پارتو: سه حالت وجود دارد: f(a) ≥ f(b) f(b) ≥ f(a) f(a) ≥ f(b) ^ f(b) ≥ f(a) a > b a dominates b iff f(a) > f(b) a ≥ b a weakly dominates b iff f(a) ≥ f(b) a ~ b a is indifferent b iff f(a) ≥ f(b) ^ f(b) ≥ f(a)

مجموعه و منحنی جوابهای مسلط نشدنی 9/18/2018 a Xf is Non-Dominated iff S Xf| x S :x>a a is Pareto Optimal iff x is Non-Dominated regarding S = Xf

مجموعه و منحنی جواب های مسلط نشدنی 9/18/2018 x1 را بر x2 غالب می دانیم اگر: f1(x1) ≥ f1(x2) for all objective f1(x1) > f1(x2) for at least one تابع P(S): P(S) = {a S, S Xf| a is NonDominated regarding S} P(S) تمام جواب های مسلط نشدنی را نسبت به مجموعه S باز می گرداند. f(P(S)) منحنی مسلط نشدنی نسبت به زیر مجموعه S می باشد. Xp = P(Xf) مجموعی بهینه پارتو است. Yp = f(Xf) منحنی بهینه پارتو است.

تفاوت میان مجموعه مسلط نشدنی و بهینه پارتو 9/18/2018 مجموعه جواب مسلط نشدنی در قسمتی از فضای جستجو نسبت به جوابهای دیگر بهینه است، اگر قسمت انتخاب شده برابر کل فضای جستجو باشد مجموعه مسلط نشدنی تبدیل به مجموعه بهینه پارتو می شود.

انتساب مقدار برازندگی و مرحله انتخاب 9/18/2018 بر خلاف بهینه سازی با یک تابع هدف، در MOP بین مقادیر هر تابع هدف و مقدار برازندگی تفاوت وجود دارد: روش هایی که توابع هدف را از یکدیگر مستقل فرض می نمایند روش هایی که جهت حفظ پراکندگی در جمعیت جواب ها به کار برده می شوند

مسائل اساسی در جستجو با چند تابع هدف 9/18/2018 دو نکته اساسی در الگوریتمهای تکاملی را باید درنظر گرفت تا بتوان روشهای بهینه سازی چندتابعی تکاملی داشت: در الگوریتم تکاملی چگونه مراحل انتخاب و انتساب مقدار fitness انجام گردد تا مجموعه جوابهای بهینه پارتو بدست آید. جهت بدست آوردن جوابهای متنوع و مختلف و جلوگیری از همگرایی زودرس چه تدبیری اندیشیده شود.

مراحل انتخاب و انتساب مقدار fitness 9/18/2018 روشها را از دو جنبه بررسی می شود روشهایی که توابع هدف را مستقل از هم فرض کند. روشهایی در جهت حفظ پراکندگی Paper: E. Zitzler, EA for MOP in engineering design,…,1999.

روشهایی با فرض توابع هدف مستقل از هم فرض 9/18/2018 انتخاب بر اساس تمرکز کردن روی توابع هدف: به جای ترکیب مقادیر توابع هدف در داخل یک fitness، روی یکی از توابع هدف تمرکز می کنیم و مقدار آن را به عنوان fitness در نظر می گیریم. مثلا اگر قرار باشد N عمل انتخاب انجام شود و K تعداد توابع هدف باشد، N/K عمل انتخاب بر اساس مقدار هر کدام از توابع هدف جداگانه انجام می شود. عمل انتخاب به صورت یک ترتیب مشخص یا تصادفی در نظر گرفتن یک احتمال برای هر کدام از هدف ها Paper: Schaffer, MOP with vector evaluated GA,.., 1985. Paper: Fourman, Compaction of symbolic layout using GA,…, 1985.

روشهایی با فرض توابع هدف مستقل از هم فرض 9/18/2018 انتخابگرهای ترکیبی: ترکیب مقادیر توابع هدف طبق یک رابطه خاص، مثلا می توان از مجموع وزن دار مقادیر توابع هدف استفاده کرد. مقدار این مجموع به عنوان fitness در نظر گرفته می شود. انتخاب بر اساس مفهوم پارتو: یک رویه مرتب سازی(رتبه دهی Ranking) تکراری جهت رتبه بندی اعضای جمعیت انجام می پذیرد. رتبه بندی بر اساس کل جمعیت انجام می شود. Book: Goldberg, GA for search, optimization and mechanic learning, 1989.

حفظ پراکندگی در جمعیت جواب ها 9/18/2018 پراکندگی جواب ها در داخل فضای هدف بر کارایی الگوریتم بهینه سازی با چند تابع هدف تاثیر می گذارد. بررسی چند روش: Fitness Sharing Crowding ماندگاری

Fitness Sharing سعی در نگه داشتن زیر جمعیت هایی در جمعیت جواب دارد 9/18/2018 سعی در نگه داشتن زیر جمعیت هایی در جمعیت جواب دارد به این زیر جمعیت های ثابت نیچ Nich گفته می شود اعضایی در نیچ یک عضو قرار دارند که در همسایگی آن قرار داشته باشند همسایگی با معیار فاصله d(i,j) مشخص می شود 0 otherwise

Crowding انتخاب چند جواب از جمعیت جواب ها و اعمال ترکیب و جهش روی آنها 9/18/2018 انتخاب چند جواب از جمعیت جواب ها و اعمال ترکیب و جهش روی آنها بدست آوردن fitness جواب های جدید جایگزین کردن جواب های جدید با جواب هایی در جمعیت اولیه که نزدیکترین مقدار fitness را نسبت به آنها دارند

ماندگاری 9/18/2018 بهترین جواب های یافت شده در جمعیت Pt را مستقیما به Pt+1 منتقل میکنیم ممکن است باعث همگرایی زودرس شود در عمل جمعیت جواب های ماندگار در کنار جمعیت جواب های مسئله نگهداری می شود دو روش برای ماندگار کردن جواب های بهینه: مستقیما تعدادی از جواب های بهینه جمعیت Pt به جمعیت Pt+1 کپی شوند یک مجموعه جانبی از جواب ها به نام مجموعه ماندگار Elite or external Setدر کنار جمعیت جواب های مسئله در نظر گرفته شود روشهایی برای کنترل تعداد اعضای این مجموعه باید وجود داشته باشد paper: Parks, et. al. Selective breeding in Multi-objective GA,…, 1998.

روش های قدیمی 9/18/2018 در روش های کلاسیک جهت بدست آوردن جواب های بهینه پارتو مقادیر توابع هدف با هم ترکیب شده و یک مقدار جهت ارزیابی جواب ها با یکدیگر ارائه می کنند روش وزن دهی: wi وزن مربوط به هر یک از توابع هدف fi است

9/18/2018 روش spea

بررسي روش SPEA روش توسط آقاي Zitzler ارائه گرديد 9/18/2018 Paper: Zitzler, An EA for MOP: the strength pareto approch, 1998. روش توسط آقاي Zitzler ارائه گرديد تركيب چندين روش و ارائه ي تكنيك هاي جديد هدف : بدست آوردن مجموعه جواب نزديك مجموعه جواب بهينه ي پارتو

بررسي روش SPEA شباهت روش با روش هاي قبل : 9/18/2018 شباهت روش با روش هاي قبل : استفاده از مفهوم غلبه پارتو براي انتساب مقدار اسكالر به عنوان ارزياب به عناصر جمعيت استفاده از جمعيت جانبي در كنار جمعيت جواب هاي مسئله ( ماندگاري ) جلوگيري از بزرگ شدن مجموعه ي جواب هاي ماندگار بوسيله ي خوشه بندي ( Clustering )

بررسي روش SPEA تفاوت با روش هاي قبل : 9/18/2018 تفاوت با روش هاي قبل : محاسبه مقدار اسكالر ارزياب برای هر عضو جمعیت بر اساس اعضاي جمعيت جانبي موجود در نظر گرفتن جواب هاي بهينه جمعيت جانبي هنگام عمل انتخاب ارائه تعريف جديدي از مفهوم نيچ به منظور حفظ پراكندگي

روند کلی الگوریتم SPEA 9/18/2018

بررسي روش SPEA ظاهرشدن مجموعه جواب خارجي در هر بار اجراي حلقه ي اصلي خوشه بندي درصورتي كه تعداد عناصر مجموعه جانبی از يك تعداد مشخص شده بيشتر شده باشد ارزيابي جداگانه مجموعه هاي P و عمل كردن عملگر انتخاب بر روي مجموعه قرار گرفتن تعداد مناسبي عضو در حافظه كمكي به نام Mating pool ساختن جمعيت جديد بوسيله جهش و تركيب 9/18/2018

انتساب مقدار ارزياب دوقسمت اصلي تابع ارزياب : ارزيابي مجموعه در 9/18/2018 دوقسمت اصلي تابع ارزياب : ارزيابي مجموعه در ارزيابي اعضاي موجود در مجموعه P

انتساب مقدار ارزياب 9/18/2018

انتساب مقدار ارزياب هدف از بهينه سازي : 9/18/2018 هدف از بهينه سازي : غلبه بيشتر هر عضو از مجموعه جانبي بر تعداد بيشتري از اعضاي جمعيت يكدستي تعداد جواب در نواحي مختلف فضاي جواب

مفهوم نیچ و ارزیاب به هرکدام از مستطیلها نیچ گفته میشود 9/18/2018 به هرکدام از مستطیلها نیچ گفته میشود وقتی تعداد عناصر داخل نیچ افزایش می یابد (در مثال از یکی به سه) مقدار برازندگی آن عناصر بدترشده و نیچ های دیگر بهتر می شوند. تفاوت اصلي با روش Fitness Sharing : عدم دخالت معيار فاصله در اين روش معيار اصلي غلبه پارتو همكاري و تعامل جمعيت ها در الگوريتم هاي تكاملي باعث افزايش سرعت رسيدن به جواب مي شود

خوشه بندي كوچكتر كردن مجموعه به كمك خوشه بنديClustering : 9/18/2018 كوچكتر كردن مجموعه به كمك خوشه بنديClustering : تعداد مجموعه بهينه پارتو مي تواند از حد معيني بگذرد نشان دادن تمام جواب هاي بهينه بيهوده است حجم بالاي موجب كم شدن سرعت جستجو مي شود.(باعث کمتر شدن اهمیت عملگر انتخاب) اگر اعضای داخل مجموعه جانبی به طور نا همگون پخش شده باشد روند جستجو به قسمتی از فضا علاقه بیشتری نشان می دهد.

9/18/2018 الگوریتم خوشه بندی

9/18/2018 الگوریتم SPEA

9/18/2018 الگوریتم SPEA

9/18/2018 بهينه سازي به روش NSGA روش بهينه سازي تكاملي

بهينه سازي به روش NSGA ايده اصلي بوسيله ي Deb و Srinivas ارائه كردند 9/18/2018 paper: Deb, EA for MOP in engineering design,…, 1999. ايده اصلي بوسيله ي Deb و Srinivas ارائه كردند مدل انتخابي رتبه بندي جهت انتخاب جواب هاي بهينه از جمعيت جاري استفاده مي شود تفاوت NSGA و ژنتيك ساده در عملگر انتخاب است جمعيت جواب ها بر اساس سطح مفهوم غلبه مرتب مي شود. چون عناصر موجود در یک لبه مرتبه یکسان دارند برای انتساب ارزیاب از روش اشتراک استفاده می کند

روند کلی انتساب ارزیاب در NSGA 9/18/2018

روند الگوریتم اشتراک ارزیاب برای اعضای یک Front 9/18/2018 روند الگوریتم اشتراک ارزیاب برای اعضای یک Front