فهرست مزایا و انتظارات از شبکه عصبی قابلیت های شبکه عصبی پرسپترون

Slides:



Advertisements
Similar presentations
Machine Learning: Connectionist McCulloch-Pitts Neuron Perceptrons Multilayer Networks Support Vector Machines Feedback Networks Hopfield Networks.
Advertisements

The Perceptron CS/CMPE 333 – Neural Networks. CS/CMPE Neural Networks (Sp 2002/2003) - Asim LUMS2 The Perceptron – Basics Simplest and one.
Neural Networks Dr. Peter Phillips. Neural Networks What are Neural Networks Where can neural networks be used Examples Recognition systems (Voice, Signature,
S. Mandayam/ ANN/ECE Dept./Rowan University Artificial Neural Networks / Spring 2002 Shreekanth Mandayam Robi Polikar ECE Department.
The Perceptron Algorithm (Primal Form) Repeat: until no mistakes made within the for loop return:. What is ?
S. Mandayam/ ANN/ECE Dept./Rowan University Artificial Neural Networks / Fall 2004 Shreekanth Mandayam ECE Department Rowan University.
Multi-class Classification Mu-Chun Su. Case I Each pattern class is separable from the other classes by a single hyperplane. M classes need M Perceptrons.
S. Mandayam/ ANN/ECE Dept./Rowan University Artificial Neural Networks ECE /ECE Fall 2010 Shreekanth Mandayam ECE Department Rowan University.
1 Mehran University of Engineering and Technology, Jamshoro Department of Electronic, Telecommunication and Bio-Medical Engineering Neural Networks Mukhtiar.
Neural NetworksNN 11 Neural netwoks thanks to: Basics of neural network theory and practice for supervised and unsupervised.
Neural Networks and Machine Learning Applications CSC 563 Prof. Mohamed Batouche Computer Science Department CCIS – King Saud University Riyadh, Saudi.
Neural NetworksNN 21 Architecture We consider the architecture: feed- forward NN with one layer It is sufficient to study single layer perceptrons with.
SUPPORT VECTOR MACHINES Presented by: Naman Fatehpuria Sumana Venkatesh.
Machine Learning Supervised Learning Classification and Regression K-Nearest Neighbor Classification Fisher’s Criteria & Linear Discriminant Analysis Perceptron:
CS621 : Artificial Intelligence
Chapter 1 Rosenblatt's Perceptron
Machine Learning Fisher’s Criteria & Linear Discriminant Analysis
Machine Learning Clustering: K-means Supervised Learning
Machine Learning Artificial Intelligence
Applying Neural Networks
Chapter 2 Single Layer Feedforward Networks
CS344: Introduction to Artificial Intelligence (associated lab: CS386)
Neural Networks Dr. Peter Phillips.
Classification with Perceptrons Reading:
Azure Machine Learning Noam Brezis Madeira Data Solutions
نتعارف لنتألف في التعارف تألف (( الأرواح جنود مجندة , ماتعارف منها أئتلف , وماتنافر منها اختلف )) نماذج من العبارات الايجابية.
Instructor : Saeed Shiry
Ch 2. Concept Map ⊂ ⊂ Single Layer Perceptron = McCulloch – Pitts Type Learning starts in Ch 2 Architecture, Learning Adaline : Linear Learning.
An Introduction to Support Vector Machines
CS621: Artificial Intelligence
CS540 - Fall 2016 (Shavlik©), Lecture 17, Week 10
Perceptrons for Dummies
Support Vector Machines
شبکه عصبی و کاربرد آن در پزشکی
CS623: Introduction to Computing with Neural Nets (lecture-2)
Chapter 3. Artificial Neural Networks - Introduction -
Biological Neuron Cell body Dendrites Axon Impulses Synapses
ECE 471/571 – Lecture 12 Perceptron.
CSE (c) S. Tanimoto, 2004 Neural Networks
Perceptron as one Type of Linear Discriminants
Neural Networks Chapter 5
Bayesian Decision Theory
Pushpak Bhattacharyya Computer Science and Engineering Department
Machine Learning Week 3.
Image Classification Painting and handwriting identification
CS480/680: Intro to ML Lecture 01: Perceptron 9/11/18 Yao-Liang Yu.
Artificial Intelligence Lecture No. 28
CSE (c) S. Tanimoto, 2001 Neural Networks
Pushpak Bhattacharyya Computer Science and Engineering Department
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John.
CSE (c) S. Tanimoto, 2002 Neural Networks
Introduction to Radial Basis Function Networks
CS621: Artificial Intelligence
Perceptron Algorithm.
Solving a system of equations
Neuro-Computing Lecture 2 Single-Layer Perceptrons
Artificial Intelligence 9. Perceptron
Chapter - 3 Single Layer Percetron
ARTIFICIAL INTELLIGENCE
Machine Learning Support Vector Machine Supervised Learning
CS623: Introduction to Computing with Neural Nets (lecture-3)
CSE (c) S. Tanimoto, 2007 Neural Nets
Perceptron Learning Rule
Artificial Neural Networks ECE /ECE Fall 2006
Perceptron Learning Rule
CS621: Artificial Intelligence Lecture 14: perceptron training
Perceptron Learning Rule
Pattern Recognition ->Machine Learning- >Data Analytics Supervised Learning Unsupervised Learning Semi-supervised Learning Reinforcement Learning.
What is Artificial Intelligence?
CS621: Artificial Intelligence Lecture 17: Feedforward network (lecture 16 was on Adaptive Hypermedia: Debraj, Kekin and Raunak) Pushpak Bhattacharyya.
Presentation transcript:

فهرست مزایا و انتظارات از شبکه عصبی قابلیت های شبکه عصبی پرسپترون دسته بندی و جداسازی خطی توسط شبکه عصبی فرآیند یادگیری انواع یادگیری ماشین - یادگیری با نظارت - یادگیری بدون نظارت - یادگیری تقویتی ارزیابی یادگیری شبکه هب (یادگیری با نظارت)

مزایا و انتظارات از شبکه عصبی

مزایا و انتظارات از شبکه عصبی

مسائل مناسب برای یادگیری شبکه های عصبی خطا در داده های آموزشی وجود داشته باشد. مثل مسائلی که داده های آموزشی دارای نویز حاصل از دادهای سنسورها نظیر دوربین و میکروفن ها هستند. مواردی که نمونه ها توسط مقادیر زیادی زوج ویژگی-مقدار نشان داده شده باشند. نظیر داده های حاصل از یک دوربین ویدئوئی. تابع هدف دارای مقادیر پیوسته باشد. زمان کافی برای یادگیری وجود داشته باشد. این روش در مقایسه با روشهای دیگر نظیر درخت تصمیم نیاز به زمان بیشتری برای یادگیری دارد.

قابلیت های شبکه های عصبی محاسبه یک تابع معلوم تقریب یک تابع ناشناخته شناسائی الگو پردازش سیگنال یادگیری انجام موارد فوق

Perceptron نوعی از شبکه عصبی برمبنای یک واحد محاسباتی به نام پرسپترون ساخته میشود. یک پرسپترون برداری از ورودیهای با مقادیر حقیقی را گرفته و یک ترکیب خطی از این ورودیها را محاسبه میکند. اگر حاصل از یک مقدار آستانه بیشتر بود خروجی پرسپترون بر اساس تابع فعالیت زیربرابر با 1 و در غیر اینصورت معادل -1 خواهد بود. x1 w1 x2 w2 {1 or –1} Σ w0 wn xn X0=1

یادگیری یک پرسپترون خروحی پرسپترون توسط رابطه زیر مشخص میشود: که برای سادگی آن را می توان بصورت زیر نشان داد: 1 if w0 + w1 x1 + w2 x2 + … + wn xn > 0 -1 otherwise O(x1 , x2,…, xn) = O(X) = sgn(WX) where Sgn(y) = 1 if y > 0 -1 otherwise یادگیری پرسپترون عبارت است از: پیدا کردن مقادیردرستی برای W بنابراین منظور از یادگیری پرسپترون عبارت است ازمجموعه تمام مقادیر حقیقی ممکن برای بردارهای وزن.

توانائی پرسپترون پریسپترون را میتوان بصورت یک سطح تصمیم hyperplane در فضای n بعدی نمونه ها در نظر گرفت. پرسپترون برای نمونه های یک طرف صفحه مقدار 1 و برای مقادیر طرف دیگر مقدار -1 بوجود میاورد. + + + - - -

توابعی که پرسپترون قادر به یادگیری آنها می باشد یک پرسپترون فقط قادر است مثالهائی را یاد بگیرد که بصورت خطی جداپذیر باشند. اینگونه مثالها مواردی هستند که به طور کامل توسط یک hyperplane قابل جدا سازی میباشند. + + + + + - - - - + - - Linearly separable Non-linearly separable

افزودن بایاس افزودن بایاس موجب می شود تا استفاده از شبکه پرسپترون با سهولت بیشتری انجام شود. برای اینکه برای یادگیری بایاس نیازی به استفاده از قانون دیگری نداشته باشیم بایاس را به صورت یک ورودی با مقدار ثابت 1 در نظر گرفته و وزن b را به آن اختصاص میدهیم.

دسته بندی ساده

ترکیب عطفی AND

دسته بندی ساده با شبکه عصبی

تبیین عملکرد یک نورون در فضای m بعدی ورودی

تبیین عملکرد یک نورون در فضای m بعدی ورودی

تبیین عملکرد یک نورون در فضای m بعدی ورودی

جدا سازی خطی

جدا سازی خطی

جدا سازی خطی

جدا سازی خطی

فرآیند یادگیری

انواع یادگیری ماشین

یادگیری با نظارت Supervised Learning

یادگیری با نظارت Supervised Learning

کاربردهایی از یادگیری تحت نظارت

یادگیری بدون نظارت unsupervised Learning

یادگیری بدون نظارت unsupervised Learning

کاربردهایی از یادگیری بدون نظارت

یادگیری بدون نظارت

یادگیری بدون نظارت

یادگیری تقویتی reinforcement Learning

مراحل یک یادگیری تقویتی

ارزیابی سیستم های یادگیری

شبکه هب (یادگیری با نظارت)

الگوریتم شبکه هب

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

کاربرد شبکه هب (تابع AND)

نمایش داده ها در شبکه هب