Evolving Artificial Neural Networks

Slides:



Advertisements
Similar presentations
Chapter 8 Geocomputation Part B:
Advertisements

Yuri R. Tsoy, Vladimir G. Spitsyn, Department of Computer Engineering
-Artificial Neural Network- Chapter 2 Basic Model
An Overview of the Application of Neural Networks to the Monitoring of Civil Engineering Structures By Brian Walsh & Arturo González With thanks thanks.
EA, neural networks & fuzzy systems Michael J. Watts
Face Recognition & Biometric Systems Support Vector Machines (part 2)
Institute of Intelligent Power Electronics – IPE Page1 Introduction to Basics of Genetic Algorithms Docent Xiao-Zhi Gao Department of Electrical Engineering.
Tetris AI 팀원 김유섭 ( ) 류동균 ( ) 임성훈 ( )
1 Part I Artificial Neural Networks Sofia Nikitaki.
Hybridization of Search Meta-Heuristics Bob Buehler.
Neural Networks Dr. Peter Phillips. Neural Networks What are Neural Networks Where can neural networks be used Examples Recognition systems (Voice, Signature,
An EA for Box Pushing with a LEGO Mindstorms Robot By Sara L. Skroh December 5, 2003.
Evolutionary Algorithms Simon M. Lucas. The basic idea Initialise a random population of individuals repeat { evaluate select vary (e.g. mutate or crossover)
Power Systems Application of Artificial Neural Networks. (ANN)  Introduction  Brief history.  Structure  How they work  Sample Simulations. (EasyNN)
Handwritten Character Recognition Using Block wise Segmentation Technique (BST) in Neural Network 47th Annual Convention of the Computer Society of India.
Neural Optimization of Evolutionary Algorithm Strategy Parameters Hiral Patel.
Evolutionary Reinforcement Learning Systems Presented by Alp Sardağ.
Information Fusion Yu Cai. Research Article “Comparative Analysis of Some Neural Network Architectures for Data Fusion”, Authors: Juan Cires, PA Romo,
The Performance of Evolutionary Artificial Neural Networks in Ambiguous and Unambiguous Learning Situations Melissa K. Carroll October, 2004.
Hazırlayan NEURAL NETWORKS Radial Basis Function Networks II PROF. DR. YUSUF OYSAL.
Revision Michael J. Watts
Evolutionary Algorithms and Artificial Intelligence Paul Grouchy PhD Candidate University of Toronto Institute for Aerospace Studies
Introduction to AI Michael J. Watts
1 st Neural Network: AND function Threshold(Y) = 2 X1 Y X Y.
C. Benatti, 3/15/2012, Slide 1 GA/ICA Workshop Carla Benatti 3/15/2012.
Soft Computing Lecture 18 Foundations of genetic algorithms (GA). Using of GA.
An Introduction to Artificial Intelligence and Knowledge Engineering N. Kasabov, Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering,
1 Integration of Neural Network and Fuzzy system for Stock Price Prediction Student : Dah-Sheng Lee Professor: Hahn-Ming Lee Date:5 December 2003.
Artificial Neural Networks An Introduction. What is a Neural Network? A human Brain A porpoise brain The brain in a living creature A computer program.
Neural and Evolutionary Computing - Lecture 9 1 Evolutionary Neural Networks Design  Motivation  Evolutionary training  Evolutionary design of the architecture.
Overview of Machine Learning RPI Robotics Lab Spring 2011 Kane Hadley.
ANNIE EA Papers Sampling the Nature of a Population: Punctuated Anytime Learning for Co- Evolving a Team – Gary Parker, H. Joseph Blumenthal Ants and Evolution:
 Based on observed functioning of human brain.  (Artificial Neural Networks (ANN)  Our view of neural networks is very simplistic.  We view a neural.
Pac-Man AI using GA. Why Machine Learning in Video Games? Better player experience Agents can adapt to player Increased variety of agent behaviors Ever-changing.
Mutation Operator Evolution for EA-Based Neural Networks By Ryan Meuth.
CITS7212: Computational Intelligence An Overview of Core CI Technologies Lyndon While.
Modelleerimine ja Juhtimine Tehisnärvivõrgudega Identification and Control with artificial neural networks.
A field of study that encompasses computational techniques for performing tasks that require intelligence when performed by humans. Simulation of human.
Michael Holden Faculty Sponsor: Professor Gordon H. Dash.
An Evolutionary Algorithm for Neural Network Learning using Direct Encoding Paul Batchis Department of Computer Science Rutgers University.
Evolving robot brains using vision Lisa Meeden Computer Science Department Swarthmore College.
Artificial Neural Networks By: Steve Kidos. Outline Artificial Neural Networks: An Introduction Frank Rosenblatt’s Perceptron Multi-layer Perceptron Dot.
George Yauneridge.  Machine learning basics  Types of learning algorithms  Genetic algorithm basics  Applications and the future of genetic algorithms.
Artificial neural networks
Evolving the goal priorities of autonomous agents
Modelleerimine ja Juhtimine Tehisnärvivõrgudega
Restricted Boltzmann Machines for Classification
Date of download: 12/22/2017 Copyright © ASME. All rights reserved.
(B.P :51) ( B:P52 ).
EA, neural networks & fuzzy systems
نتعارف لنتألف في التعارف تألف (( الأرواح جنود مجندة , ماتعارف منها أئتلف , وماتنافر منها اختلف )) نماذج من العبارات الايجابية.
Learning Feature Mappings Using Evolutionary Computation
بحث في موضوع : Neural Network
FUNDAMENTAL CONCEPT OF ARTIFICIAL NETWORKS
Unsupervised Learning and Autoencoders
Development of mean value engine model using ANN
Artificial Neural Networks
FUNDAMENTALS OF MACHINE LEARNING AND DEEP LEARNING
Prof. Carolina Ruiz Department of Computer Science
Model Development Weka User Manual.
ريكاوري (بازگشت به حالت اوليه)
XOR problem Input 2 Input 1
Anne Howard Training and Consulting
روش‌های ردیابی نقطه حداکثر توان (MPPT) در آرایه‌های خورشیدی تحت شرایط سایه جزئی استاد: دکتر محمدنژاد احسان کریمی
Statistical interpretation of ECMWF EPS
Introduction to Neural Network
Areas under the receiver operating characteristic (ROC) curves for both the training and testing data sets based on a number of hidden-layer perceptrons.
Artificial Neural Network learning
Prof. Carolina Ruiz Department of Computer Science
Presentation transcript:

Evolving Artificial Neural Networks Dr. Sheykh esmaili G5: Shadi Mahmoudi Donya Eliassy Golale Azizi G5 Evolving Artifitial Neural Networks

فهرست مطالب مقدمه‏ای بر شبکه‏های عصبی مقدمه‏ای بر الگوریتم‏های تکاملی تکامل شبکه‏های عصبی مصنوعی آموزش وزن‏ها طراحی معماری آموزش و طراحی معماری شبکه‏های عصبی آموزش قوانین یادگیری G5 Evolving Artifitial Neural Networks

شمای کلی از شبکه های عصبی تکاملی G5 Evolving Artifitial Neural Networks

ANNها: معماری یادگیری در ANNها یک ANN شامل مجموعه ای از Elementهای در حال پردازش (نرون) است که به عنوان یک گراف متصل تفسیر می شود که هر نود (نرون) i یک تابع انتقال fi را دربر دارد. ANNها به کلاس های انتشار روبه جلو و بازگشتی مطابق اتصالشان تقسیم می شوند. یادگیری در ANNها یادگیری در ANNها به طور معمولی با استفاده از مثالهای آموزشی (training) صورت می گیرد، چون با سازگار کردن وزن های ارتباطی در شبکه های تکراری حاصل می شود. یادگیری در ANNها به سه دسته تقسیم می شود: یادگیری با ناظر (supervised learning) یادگیری بدون ناظر (unsupervised learning) یادگیری تقویتی (reinforcement learning) G5 Evolving Artifitial Neural Networks

EAها: کلاسی از الگوریتم های جستجوی اتفاقی بر پایه جمعیت است که از ایده ها و قوانین تکامل طبیعی الهام گرفته است که شامل استراتژی های برنامه نویسی تکاملی(EP) و الگوریتم ژنتیک(GA) اند. Framework عمومی EAها: مقداردهی جمعیت اولیه به صورت رندم هر فرد در داخل جمعیت ارزیابی می شود و بر اساس Fitness از جمعیت اولیه چند والد برگزیده می شود اپراتورهای جستجو را به والدین اعمال می کنیم و تعدادی فرزند برای نسل بعد تولید می کنیم. G5 Evolving Artifitial Neural Networks

EANNها: تکامل در EANNها در سه مرحله مجزا صورت می گیرد: تکامل وزن های ارتباطی – پیدا کردن نزدیکترین ترتیب بهینه برای مجموعه وزنهای ارتباطی تکامل معماری – رویکردی جهت طراحی ANNهای اتوماتیک با توپولوژی های پویا تکامل قوانین یادگیری – طراحی فرآیند آموزش برای یادگیری از طریق تکامل یک برتری قابل توجه از EANNها سازگاری آنها در محیط های پویاست. G5 Evolving Artifitial Neural Networks

تکامل وزن های ارتباطی نقطه ضعف های استفاده از تقریب گرادیان Weight training در ANNها معمولا با مینیمم سازی تابع خطا فرموله می شود. بیشتر الگوریتم های یادگیری بر پایه تقریب گرادیان کار می کنند. نقطه ضعف های استفاده از تقریب گرادیان عدم پیداکردن مینیمم های سراسری در تابع خطاهای چندمدله (گیر کردن در بهینه های محلی) عدم قابلیت الگوریتم‏های مبتنی بر گرادیان در سطوح مشتق ناپذیر هزینه بر بودن محاسبه اطلاعات گرادیان در بعضی مسائل راه حل: استفاده از الگوریتم‏ها‏ی تکاملی الگوریتم‏ها‏ی تکاملی به صورت عمومی جستجو می‏کند و بدون نیاز به اطلاعات گرادیان، مجموعه‏ی جواب‏های نزدیک بهینه را پیدا می‏کند. G5 Evolving Artifitial Neural Networks

تکامل وزن های ارتباطی رویکرد تکامل وزن ها در ANNها شامل دو حوزه اصلی است: تصمیم گیری در مورد شیوه نمایش وزن های اتصالی تصمیم گیری در مورد اپراتورهای جستجو مثل mutation و crossover در EAها نمایش ژنوتایپ دودویی مثال: اختصاص 4بیت برای هر وزن یک ANN با اتصال تمام وزن های ارتباطی شبکه در داخل کرومزوم رمزنگاری می شود. بررسی trade-off بین دقت نمایش و طول کرومزوم G5 Evolving Artifitial Neural Networks

تکامل وزن های ارتباطی نمایش ژنوتایپ عدد حقیقی مثال: اختصاص یک عدد حقیقی به هر وزن یکی از مشکلات تکامل فرآیند یادگیری در ANNها مساله جایگشت است، هر جایگشت از نرون های داخلی می تواند عملکرد معادل با شبکه ای باشد که شیوه نمایش کرومزوم آن متفاوت است. اعمال اپراتور crossover در استنتاج وزن های اتصالی نامناسب است چون نمونه های خوب شناخته شده در طول تکامل را از بین می برد. G5 Evolving Artifitial Neural Networks

مقایسه بین یادگیری تکاملی و یادگیری بر پایه گرادیان جذابیت آموزش تکاملی این است که الگوریتم‏های تکاملی می‏تواند در سطوح پیچیده، چند بعدی و مشتق‏ناپذیر جستجو کند. اما یادگیری تکاملی برای برخی از مسائل در مقایسه با BP می تواند کند باشد. نتیجه‏گیری کلی این است که کارایی و سرعت این الگوریتم‏ها به کاربرد موردنظر بستگی دارد. Hybrid training الگوریتم تکاملی ناحیه جواب‏های خوب را پیدا می‏کند. سپس این ناحیه با دقت بیشتری توسط یک الگوریتم جستجوی محلی برای پیدا کردن نقطه بهینه مورد جستجو قرار می‏گیرد. (ترکیب الگوریتم‏های تکاملی با الگوریتم‏های یادگیری) برای مثال اصلاح فنوتایپ (یادگیری شبکه عصبی) می‏تواند باعث اصلاح ژنوتایپ (ماتریس وزن‏ها با BP) و همچنین تغییر برازندگی فرد در جامعه شود. G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی تاثیر معماری شبکه عصبی بر توانایی یادگیری و تعمیم شبکه روش‏های مرسوم طراحی معماری توسط فرد خبره وابسته به تجربه و دانش فرد خبره فرایند تصحیح و خطا خسته کننده طراحی معماری با الگوریتم های سازنده-مخرب مستعد افتادن در دام نقاط بهینه محلی عدم پوشش همه معماری ها و تمرکز بر دسته خاصی از آنها G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی الگوریتم‏های تکاملی سطح جستجو بی نهایت بزرگ سطح غیر قابل مشتق گیری است سطح گول‏زننده است سطح چند بعدی است تکامل معماری تکامل توپولوژی تکامل انتقال توابع G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی نمایش مستقیم کد گذاری تمام جزییات معماری در شبکه ماتریس مجاورت معماری پیش خور G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی ماتریس مجاورت معماری پس خور G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی مزایای روش مستقیم معایب روش مستقیم پیاده سازی ساده قابلیت بدست آوردن شبکه عصبی فشرده قابلیت محاسبه برازندگی معایب روش مستقیم طول کروموزوم استفاده از دانش مسئله G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی مسئله جایگشت G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی نمایش غیر مستقیم نمایش پارامتری معایب مشخصات خاصی از معماری کد می شود نمایش فشرده نمایش پارامتری تعداد نرون‏های هر لایه تعداد یال‏های بین لایه‏ها الگوی ارتباط تعداد لایه ها معایب زیر مجموعه ای از معماری را جست و جو می کند معماری خاص G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی نمایش قواعد گرامری تفاوت آن با روش پارامتری G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی معایب روش قواعد توسعه مشخص بودن تعداد گامها عدم استفاده از قواعد بازگشتی روش قواعد توسعه تکامل معماری را از تکامل وزنها کاملا جدا می کند G5 Evolving Artifitial Neural Networks

تفاوت اصلی روش مستقیم با روش غیر مستقیم تکامل معماری شبکه عصبی تفاوت اصلی روش مستقیم با روش غیر مستقیم معماری اولیه دیگر بازنماییها هر لایه مخفی = یک فرد در جامعه محدودیت ها فقط در شبکه های پیشرو کاربرد دارد وجود نودهایی مخفی با قابلیت یکسان G5 Evolving Artifitial Neural Networks

تکامل معماری شبکه عصبی تکامل توابع انتقال تکامل نسبت تابع سیگموید و گوسین استفاده از برنامه نویسی تکاملی برای تکامل شبکه هایی با نودهای سیگمویدی و گوسین G5 Evolving Artifitial Neural Networks

تکامل همزمان معماری ووزن های اتصالی مشکل تکامل معماری بدون وزن های اتصالی: ارزیابی نویزی fitness دوشبکه عصبی بامعماری یکسان ممکن است fitness متفاوت داشته باشند. منابع اصلی نویز: مقداردهی تصادفی وزن ها الگوریتم های آموزشی راه حل : گنجاندن اوزان شبکه عصبی همراه بامعماری آن درکروموزوم G5 Evolving Artifitial Neural Networks

تکامل همزمان معماری ووزن های اتصالی انتخاب عملگرجستجودرEA برای تکامل ANN . استفاده ازcrossover متناقض با ایده اصلی ANN است. علت: عدم وجود building block (واحدسازنده) به دلیل نمایش توزیعی دانش درANN. اگرANNازنمایش محلی مانندشبکه های RBFاستفاده کند: crossover یک عملگربسیارمفیداست. G5 Evolving Artifitial Neural Networks

تکامل همزمان معماری ووزن های اتصالی (EPNet) G5 Evolving Artifitial Neural Networks

طراحی قوانین یادگیری به نوع معماری بستگی دارد. تکامل قوانین یادگیری طراحی قوانین یادگیری به نوع معماری بستگی دارد. آنچه ازیک ANN انتظار می رود: توانایی اش برای تنظیم قوانین یادگیری برطبق معماری و وظیفه ای است که باید انجام دهد. یک ANN باید قوانین یادگیری اش را به صورت پویا یادبگیرد. زیرا قوانین تازه استخراج شده می تواند بامحیط های پیچیده وپویا تعامل داشته باشد. G5 Evolving Artifitial Neural Networks

شبه کد تکامل قوانین یادگیری هرفرددرنسل فعلی رابه یک قانون یادگیری دیکد می کنیم. یک مجموعه ازشبکه های عصبی بامعماری هایی که به صورت تصادفی تولیدشده و وزن های اتصالی اولیه ایجاد می کنیم، وآنهارا بااین قانون یادگیری دیکدشده آموزش می دهیم. Fitness هرفرد (قانون یادگیری) رابرطبق میانگین نتایج آموزشی محاسبه می کنیم. والدین راازنسل فعلی برطبق fitness شان انتخاب می کنیم. عملگرهای جستجورابه والدین برای تولید فرزندان که نسل جدید راشکل میدهند، اعمال می کنیم. G5 Evolving Artifitial Neural Networks

تکامل قوانین یادگیری برخلاف تکامل وزن های اتصالی ومعماری، تکامل قوانین یادگیری باید روی رفتار پویای ANN کارکند. مسئله کلیدی:چگونه رفتارپویای یک قانون یادگیری رادریک کروموزوم استاتیک انکد کنیم؟! اعمال محدودیت روی نوع رفتارهای پویا :استخراج فرم اصلی قوانین یادگیری. G5 Evolving Artifitial Neural Networks

فرم اصلی قانون یادگیری: تکامل قوانین یادگیری فرم اصلی قانون یادگیری: t: زمان Δw: تغییروزن x1,x2,…,xn: متغیرهای محلی Θ: ضرایب بامقادیرحقیقی سه مسئله اصلی: تعیین زیرمجموعه عبارات نمایش ضرایب بامقادیرحقیقی به عنوان کروموزوم EA که برای استنتاج این کروموزوم هااستفاده میشود. G5 Evolving Artifitial Neural Networks

تکامل قوانین یادگیری Baxter برای تکامل کل ANN (شامل وزن های اتصالی،معماری،قوانین یادگیری) تلاش کرد. اعمال محدودیت روی تمامی قسمت هابرای جلوگیری ازبزرگ شدن فضای جستجوی ANN : ANN بانودهای آستانه دودویی وزن ها تنها +1 یا -1 می شود. تعدادنودها در ANN ثابت است. قانون یادگیری تنهادومتغییربولی دارد. G5 Evolving Artifitial Neural Networks

ترکیب های دیگر:تکامل ویژگی های ورودی برای مسائل عملی ورودی های ANN می تواندبسیاربزرگ باشد یا تکرار زیادی بین ورودی های مختلف وجودداشته باشد. تعدادزیاد ورودی به یک ANN : سایزش راافزایش میدهد. به داده های آموزشی بیشتر وزمان آموزش طولانی تری نیازدارد تابه یک قدرت تعمیم منطقی دست یابد. راه حل: پیش پردازش داده ها G5 Evolving Artifitial Neural Networks

ترکیب های دیگر:تکامل ویژگی های ورودی EA : جستجوی مجموعه بهینه ازویژگی های ورودی به یک ANN درتکامل ویژگی های ورودی، هرفرد درجمعیت یک زیرمجموعه ازتمام ورودی های ممکن رانشان می دهد. استفاده ازیک کروموزوم باینری برای نمایش هرفرد که طولش برابرتعدادکل ویژگی هاست. ارزیابی هرفرد: آموزش یک ANN بااین ورودی ها واستفاده ازنتایج برای محاسبه مقدارfitness. G5 Evolving Artifitial Neural Networks

نتیجه گیری: یک چارچوب کلی برای EANN ها ازدیدگاه مهندسی،تصمیم گیری روی سطح تکامل به این بستگی داردکه چه نوعی ازدانش قبلی موجودباشد. بهینه سازی قوانین یادگیری زمانی بامعنی تراست که دریک محیط شامل معماری ارزیابی شود. G5 Evolving Artifitial Neural Networks

Thank you... G5 Evolving Artifitial Neural Networks