Download presentation
Presentation is loading. Please wait.
Published byWillie Michelman Modified over 9 years ago
1
מנחה הקורס ד"ר לרי מנביץ' 1
2
נושאים מה זה נוירון ? 3 דורות של מודל הנוירון נוירון ביולוגי סימולציה לנוירון IPSP/EPSP LSM סקירת מאמרים 2
3
Man versus Machine (hardware) 3 NumbersHuman brainVon Neumann computer # elements10 10 - 10 12 neurons10 7 - 10 8 transistors # connections / element10 4 - 10 3 10 switching frequency10 3 Hz10 9 Hz energy / operation10 -16 Joule10 -6 Joule power consumption10 Watt100 - 500 Watt reliability of elementslowreasonable reliability of systemhighreasonable
4
Man versus Machine (information processing) 4 FeaturesHuman BrainVon Neumann computer Data representationanalogdigital Memory localizationdistributedlocalized Controldistributedlocalized Processingparallelsequential Skill acquisitionlearningprogramming No memory management, No hardware/software/data distinction
5
Biologically Inspired Electro-chemical signals Threshold output firing 5
6
The Perceptron Binary classifier functions Threshold activation function 6 Y j : output from unit j W ij : weight on connection from j to i X i : weighted sum of input to unit i x i = ∑ j w ij y j y i = f(x i – i) Threshold
7
Type 1. Perceptron feedforward Structure: 1 input layer 1 output layer Supervised learning Hebb learning rule Able : AND or OR. Unable: XOR
8
Learning in a Simple Neuron Perceptron Learning Algorithm: 1. Initialize weights 2. Present a pattern and target output 3. Compute output : 4. Update weights : Repeat starting at 2 until acceptable level of error
9
Computing other functions: the OR function Assume a binary threshold activation function. What should you set w 01, w 02 and w 0b to be so that you can get the right answers for y 0 ? 9 i1i1 i2i2 y0y0 000 011 101 111
10
Many answers would work y = f (w 01 i 1 + w 02 i 2 + w 0b b) recall the threshold function the separation happens when w 01 i 1 + w 02 i 2 + w 0b b = 0 move things around and you get i 2 = - (w 01/ w 02 )i 1 - (w 0b b/w 02 ) 10 i2i2 i2i2 i1i1 i1i1
11
The XOR Function 11 X1/X2X2 = 0X2 = 1 X1= 001 X1 = 110 i2i2 i2i2 i1i1 i1i1
12
12
13
Type 2. Multi-Layer-Perceptron feed forward 1 input layer, 1 or more hidden layers, 1 output layer supervised learning delta learning rule, backpropagation (mostly used) Able : every logical operation
14
The Perceptron 14
15
Type 3. Backpropagation Net feedforward 1 input layer, 1 or more hidden layers, 1 output layer supervised backpropagation sigmoid Used :complex logical operations, pattern classification, speech analysis
16
The Back-propagation Algorithm On-Line algorithm: 1. Initialize weights 2. Present a pattern and target output 3. Compute output : 4. Update weights : Repeat starting at 2 until acceptable level of error
17
Pattern Separation and NN architecture 17
18
סימולציות של רשתות נוירונים דור I McCulloch-Pitts threshold מסוגל לחשב משוואות בוליאניות דור II feed-forward, recurrent neural networks and backward propagation מסוגלות לחשב משוואות פולינומיאלית ונקראים גם universal approximation מכיוון שמסוגלים לחקות כל משוואה אנלוגית. בהשוואה לנוירון הביולוגי הדור 2 מסוגל ל"דבר" ב-rate coding או frequency coding שזה תדירות היריות (המרחק בין ירייה לירייה) 18
19
סימולציות של רשתות נוירונים דור III עליה נוספת בקירוב הסימולציות לנוירון הביולוגי. הנוירונים מסוגלים לרבב multiplexing תדרים יריות ו"לדבר" ב - pulse coding במקום ב – rate coding ובכך להעביר כמה "מילים" באותו זמן "שעון" עצמי לכל יחידה 19
20
20
21
21
22
22
23
23
24
24
25
25
26
26
27
27
28
28
29
29
30
Hodgkin-Huxley Model 100 mV 0 stimulus inside outside Ka Na Ion channels Ion pump Cglgl gKgK g Na I K = אשלגן Na = נתרן 30
31
Hodgkin-Huxley Model stimulus inside outside Ka Na Ion channels Ion pump u u h 0 (u) m 0 (u) pulse input I(t) 31
32
דוגמאות Integrate & Fire Neural Network.htm actionpotential.swf 32
33
מבנה נוירולוגי כללי בגופנו יש שני סוגי מערכות, ממריץ (אנדרנלין) מרגיע\מאיט (אציטין חולין) יש לפחות שני סוגי סינפציות: מעקבות : לרוב מתחברת לגוף התא מעוררת : לרוב מתחברות בסופי העצים מרווח בין הסינפצות הוא 20 ננומטר. מימד הזמן- ניתן ליראות את הלמידה אסוציאטיבית היא שימוש במימד הזמן, - שני מאורעות שקורים בו זמנית הן בדרך כלל קשורים אחד לשני. לדוגמא ניסוי פאבלוב טעם גירוי וזמן. 33
34
34
35
35
36
36
37
37
38
38
39
39
40
40 השלב השני בחיזוק הקשר בין תאים נובע מיצירת סינפסות חדשות, מתמשך לטווח ארוך ומצריך שפעול גנים.
41
41
42
42
43
פלט / קלט טיפוסי 43
44
44
45
Generation of multiple Action Potentials Rate is dependent on depolarization Firing frequency 1 per second is 1 Hz Maximum is about 1000Hz Absolute refractory period Relative refractory period I(ion)=g(ion)(Vm-Eion) 45
46
תגובה אינסטינקטיבית 46
47
Mapping from biological neuron Nervous SystemComputational Abstraction NeuronNode DendritesInput link and propagation Cell BodyCombination function, threshold, activation function AxonOutput link Spike rateOutput Synaptic strengthConnection strength/weight 47
48
EPSP excitatory postsynaptic potential IPSP Inhibitory postsynaptic potential 48
49
חוק Hebb: הקשר בין תאים הפועלים בו זמנית יתחזק 49
50
Liquid State Machine (LSM) 50
51
Liquid State Machine (LSM) Maass’ LSM is a spiking recurrent neural network which satisfies two properties –Separation property (liquid) –Approximation property (readout) LSM features –Only attractor is rest –Temporal integration –Memoryless linear readout map –Universal computational power: can approximate any time invariant filter with fading memory –It also does not require any a-priori decision regarding the ``neural code'' by which information is represented within the circuit. 51
52
Maass’ Definition of the Separation Property The current state x(t) of the microcircuit at time t has to hold all information about preceding inputs. Approximation Property Readout can approximate any continuous function f that maps current liquid states x(t) to outputs v(t). 52
53
2 motors, 1 minute footage of each case, 3400 frames Readouts could utilize wave interference patterns 53
54
Zero One 54
55
סקירת מאמרים Spiking neural networks, an introduction.pdf הקדמה וסיכום על רשתות נוירונים ומבנה של דור 3 במודלים is the integrate-and-fire model good enough – a review.pdf השוואה בין מודל I&F לבין מודל HH כולל הרחבה של מודל I&F למודל שמשלב את שניהם LSM (Liquid State Machine) Liquid State Machines,a review.pdf Liquid State Machine Built of Hodgkin–Huxley Neurons.pdf The Echo State approach to analysing and training recurrent neural networks.pdf LSM Turing Maching On the Computational Power of Circuits of Spiking neurons.pdf The Echo State approach to analysing and training recurrent neural networks.pdf 55
56
סקירת מאמרים The Tempotron מודל לנוירון LIF המסוגל למיין סדרות פולסים עם לימוד Spike Timing Dependent Plasticity Finds the Start of Repeating Patterns in Continuous Spike Trains2.PDF מודל LIF המסוגל לזהות רצף של חזרות בפולסים ללא לימוד, רק ע"י שינוי משקלי הקלטים Hubb’s Rule Hebbian learning and spiking neurons.pdf Competitive Hebbian learning through spike-timing dependent synaptic plasticity.pdf Spike-Timing-Dependent Hebbian Plasticity as Temporal Difference Learning.pdf Pitch Perception Models.pdf מודל המנסה לחקות ולהבין שמיעה ע"י קימוט של התדרים 56
Similar presentations
© 2025 SlidePlayer.com. Inc.
All rights reserved.