第二章 感知機.

Slides:



Advertisements
Similar presentations
McGraw-Hill/Irwin © 2003 The McGraw-Hill Companies, Inc.,All Rights Reserved. 肆 資料分析與表達.
Advertisements

布林代數的應用--- 全及項(最小項)和全或項(最大項)展開式
第七章 抽樣與抽樣分配 蒐集統計資料最常見的方式是抽查。這 牽涉到兩個問題: 抽出的樣本是否具有代表性?是否能反應出母體的特徵?
:Word Morphing ★★☆☆☆ 題組: Problem Set Archive with Online Judge 題號: 10508:word morphing 解題者:楊家豪 解題日期: 2006 年 5 月 21 日 題意: 第一行給你兩個正整數, 第一個代表下面會出現幾個字串,
第二章 太陽能電池的基本原理 及其結構 2-1 太陽能電池的基本原理 2-2 太陽能電池的基本結構 2-3 太陽能電池的製作.
3Com Switch 4500 切VLAN教學.
指導教授:陳淑媛 學生:李宗叡 李卿輔.  利用下列三種方法 (Edge Detection 、 Local Binary Pattern 、 Structured Local Edge Pattern) 來判斷是否為場景變換,以方便使用者來 找出所要的片段。
1.1 線性方程式系統簡介 1.2 高斯消去法與高斯-喬登消去法 1.3 線性方程式系統的應用(-Skip-)
亂數產生器安全性評估 之統計測試 SEC HW7 姓名:翁玉芬 學號:
Review of Chapter 3 - 已學過的 rules( 回顧 )- 朝陽科技大學 資訊管理系 李麗華 教授.
:New Land ★★★★☆ 題組: Problem Set Archive with Online Judge 題號: 11871: New Land 解題者:施博修 解題日期: 2011 年 6 月 8 日 題意:國王有一個懶兒子,為了勞動兒子,他想了一個 辦法,令他在某天早上開始走路,直到太陽下山前,靠.
: OPENING DOORS ? 題組: Problem Set Archive with Online Judge 題號: 10606: OPENING DOORS 解題者:侯沛彣 解題日期: 2006 年 6 月 11 日 題意: - 某間學校有 N 個學生,每個學生都有自己的衣物櫃.
消費者物價指數反映生活成本。當消費者物價指數上升時,一般家庭需要花費更多的金錢才能維持相同的生活水準。經濟學家用物價膨脹(inflation)來描述一般物價持續上升的現象,而物價膨脹率(inflation rate)為物價水準的變動百分比。
STAT0_sampling Random Sampling  母體: Finite population & Infinity population  由一大小為 N 的有限母體中抽出一樣本數為 n 的樣 本,若每一樣本被抽出的機率是一樣的,這樣本稱 為隨機樣本 (random sample)
第 4 章 迴歸的同步推論與其他主題.
第一章 信號與系統初論 信號的簡介與DSP的處理方式。 系統特性與穩定性的判定方法。 以MATLAB驗證系統的線性、非時變、因果等特性。
1. 假設以下的敘述為一未提供 “ 捷徑計算 ” 能力的程式段,試用程 式設計的技巧,使此敘述經此改 寫的動作後,具有與 “ 捷徑計算 ” 之 處理方法相同之處理模式。 if and then E1 else E2 endif.
STAT0_corr1 二變數的相關性  變數之間的關係是統計研究上的一大目標  討論二分類變數的相關性,以列聯表來表示  討論二連續隨機變數時,可以作 x-y 散佈圖觀察它 們的關係強度  以相關係數來代表二者關係的強度.
McGraw-Hill/Irwin © 2003 The McGraw-Hill Companies, Inc.,All Rights Reserved. 肆 資料分析與表達.
Department of Air-conditioning and Refrigeration Engineering/ National Taipei University of Technology 模糊控制設計使用 MATLAB 李達生.
Monte Carlo Simulation Part.2 Metropolis Algorithm Dept. Phys. Tunghai Univ. Numerical Methods C. T. Shih.
Intelligent Systems Mu-Chun Su Department of Computer Science & Information Engineering National Central University.
第一章 演算法:效率、分析與量級 1.1演算法 1.2發展有效率演算法的重要性 1.3演算法的分析 1.4量級(Order)
2009fallStat_samplec.i.1 Chap10 Sampling distribution (review) 樣本必須是隨機樣本 (random sample) ,才能代表母體 Sample mean 是一隨機變數,隨著每一次抽出來的 樣本值不同,它的值也不同,但會有規律性 為了要知道估計的精確性,必需要知道樣本平均數.
具備人臉追蹤與辨識功能的一個 智慧型數位監視系統 系統架構 在巡邏模式中 ,攝影機會左右來回巡視,並 利用動態膚色偵測得知是否有移動膚色物體, 若有移動的膚色物體則進入到追蹤模式,反之 則繼續巡視。
© The McGraw-Hill Companies, Inc., 2008 第 6 章 製造流程的選擇與設計.
McGraw-Hill/Irwin © 2003 The McGraw-Hill Companies, Inc.,All Rights Reserved. 貳 研究設計.
Chapter 13 塑模靜態觀點:物件圖 Static View : Object Diagram.
Introduction to Java Programming Lecture 17 Abstract Classes & Interfaces.
:Problem D: Bit-wise Sequence ★★★☆☆ 題組: Problem Set Archive with Online Judge 題號: 10232: Problem D: Bit-wise Sequence 解題者:李濟宇 解題日期: 2006 年 4 月 16.
: The largest Clique ★★★★☆ 題組: Contest Archive with Online Judge 題號: 11324: The largest Clique 解題者:李重儀 解題日期: 2008 年 11 月 24 日 題意: 簡單來說,給你一個 directed.
Matlab Assignment Due Assignment 兩個 matlab 程式 : Eigenface : Eigenvector 和 eigenvalue 的應用. Fractal : Affine transform( rotation, translation,
: Happy Number ★ ? 題組: Problem Set Archive with Online Judge 題號: 10591: Happy Number 解題者:陳瀅文 解題日期: 2006 年 6 月 6 日 題意:判斷一個正整數 N 是否為 Happy Number.
: Fast and Easy Data Compressor ★★☆☆☆ 題組: Problem Set Archive with Online Judge 題號: 10043: Fast and Easy Data Compressor 解題者:葉貫中 解題日期: 2007 年 3.
3.1 矩陣的行列式 3.2 使用基本運算求行列式 3.3 行列式的性質 3.4 特徵值介紹 3.5 行列式的應用
實用管理科學 陳明德、陳武林 著 前程文化 Ch14 決策分析 14-1 本章結構 隨機模式導論 決策分析步驟 決策分析模式與符號 非機率性模式分析 機率性模式分析 貝氏決策分析技術 決策樹的建立 風險分析與敏感度分析.
CH 15- 元件可靠度之驗證  驗證方法  指數模式之可靠度驗證  韋式模式之可靠度驗證  對數常態模式之可靠度驗證  失效數為零時之可靠度估算  各種失效模式之應用.
: Problem A : MiniMice ★★★★☆ 題組: Contest Archive with Online Judge 題號: 11411: Problem A : MiniMice 解題者:李重儀 解題日期: 2008 年 9 月 3 日 題意:簡單的說,題目中每一隻老鼠有一個編號.
: Multisets and Sequences ★★★★☆ 題組: Problem Set Archive with Online Judge 題號: 11023: Multisets and Sequences 解題者:葉貫中 解題日期: 2007 年 4 月 24 日 題意:在這個題目中,我們要定義.
:Nuts for nuts..Nuts for nuts.. ★★★★☆ 題組: Problem Set Archive with Online Judge 題號: 10944:Nuts for nuts.. 解題者:楊家豪 解題日期: 2006 年 2 月 題意: 給定兩個正整數 x,y.
資料結構實習-一 參數傳遞.
第二章 感知機.
Section 4.2 Probability Models 機率模式. 由實驗看機率 實驗前先列出所有可能的實驗結果。 – 擲銅板:正面或反面。 – 擲骰子: 1~6 點。 – 擲骰子兩顆: (1,1),(1,2),(1,3),… 等 36 種。 決定每一個可能的實驗結果發生機率。 – 實驗後所有的實驗結果整理得到。
函式 Function Part.2 東海大學物理系‧資訊教育 施奇廷. 遞迴( Recursion ) 函式可以「呼叫自己」,這種動作稱為 「遞迴」 此程式的執行結果相當於陷入無窮迴圈, 無法停止(只能按 Ctrl-C ) 這給我們一個暗示:函式的遞迴呼叫可以 達到部分迴圈的效果.
JAVA 程式設計與資料結構 第二十章 Searching. Sequential Searching Sequential Searching 是最簡單的一種搜尋法,此演 算法可應用在 Array 或是 Linked List 此等資料結構。 Sequential Searching 的 worst-case.
演算法 8-1 最大數及最小數找法 8-2 排序 8-3 二元搜尋法.
: Expect the Expected ★★★★☆ 題組: Contest Archive with Online Judge 題號: 11427: Expect the Expected 解題者:李重儀 解題日期: 2008 年 9 月 21 日 題意:玩一種遊戲 (a game.
Chapter 3 Entropy : An Additional Balance Equation
1 第七章 植基於可調整式量化表及離散餘 弦轉換之浮水印技術. 2 Outlines 介紹 介紹 灰階浮水印藏入 灰階浮水印藏入 灰階浮水印取回 灰階浮水印取回 實驗結果 實驗結果.
逆向選擇和市場失調. 定義  資料不對稱 在交易其中,其中一方較對方有多些資料。  逆向選擇 出現在這個情況下,就是當買賣雙方隨意在 市場上交易,與比較主動交易者作交易為佳 。
845: Gas Station Numbers ★★★ 題組: Problem Set Archive with Online Judge 題號: 845: Gas Station Numbers. 解題者:張維珊 解題日期: 2006 年 2 月 題意: 將輸入的數字,經過重新排列組合或旋轉數字,得到比原先的數字大,
Structural Equation Modeling Chapter 6 CFA 根據每個因素有多重指標,以減少 測量誤差並可建立問卷的構念效度 驗證性因素分析.
Learning Method in Multilingual Speech Recognition Author : Hui Lin, Li Deng, Jasha Droppo Professor: 陳嘉平 Reporter: 許峰閤.
© The McGraw-Hill Companies, Inc., 2006© The McGraw-Hill Companies, Inc., 2007 Chapter 4 IP 定址:分級式定址.
Chapter 10 m-way 搜尋樹與B-Tree
Probability Distribution 機率分配 汪群超 12/12. 目的:產生具均等分配的數值 (Data) ,並以 『直方圖』的功能計算出數值在不同範圍內出現 的頻率,及繪製數值的分配圖,以反應出該 機率分配的特性。
1/17 A Study on Separation between Acoustic Models and Its Application Author : Yu Tsao, Jinyu Li, Chin-Hui Lee Professor : 陳嘉平 Reporter : 許峰閤.
5 重複迴圈 5.1 增減運算符號 增量運算符號 減量運算符號
連續隨機變數 連續變數:時間、分數、重量、……
Teacher : Ing-Jer Huang TA : Chien-Hung Chen 2015/6/30 Course Embedded Systems : Principles and Implementations Weekly Preview Question CH7.1~CH /12/26.
: Wine trading in Gergovia ★★☆☆☆ 題組: Contest Volumes with Online Judge 題號: 11054: Wine trading in Gergovia 解題者:劉洙愷 解題日期: 2008 年 2 月 29 日 題意:在 Gergovia.
: Finding Paths in Grid ★★★★☆ 題組: Contest Archive with Online Judge 題號: 11486: Finding Paths in Grid 解題者:李重儀 解題日期: 2008 年 10 月 14 日 題意:給一個 7 個 column.
:Problem E.Stone Game ★★★☆☆ 題組: Problem Set Archive with Online Judge 題號: 10165: Problem E.Stone Game 解題者:李濟宇 解題日期: 2006 年 3 月 26 日 題意: Jack 與 Jim.
:Rings and Glue ★★☆☆☆ 題組: Problem Set Archive with Online Judge 題號: 10301: Rings and Glue 解題者:施博修 解題日期: 2011 年 5 月 18 日 題意:小約翰有了個大麻煩,他不小心將 rings.
幼兒行為觀察與記錄 第八章 事件取樣法.
CH 14-可靠度工程之數學基礎 探討重點 失效時間之機率分配 指數模式之可靠度工程.
第 1 章 PC 的基本構造. 本章提要 PC 系統簡介 80x86 系列 CPU 及其暫存器群 記憶體: Memory 80x86 的分節式記憶體管理 80x86 的 I/O 結構 學習組合語言的基本工具.
: How many 0's? ★★★☆☆ 題組: Problem Set Archive with Online Judge 題號: 11038: How many 0’s? 解題者:楊鵬宇 解題日期: 2007 年 5 月 15 日 題意:寫下題目給的 m 與 n(m
McGraw-Hill/Irwin © 2003 The McGraw-Hill Companies, Inc.,All Rights Reserved. 肆 資料分析與表達.
Presentation transcript:

第二章 感知機

2.1 簡介 在1943年,McCulloch和Pitts已提出第一個類神經元的運算模型 。 神經心理學家Hebb提出一種理論,他認為學習現象的發生,乃在於神經元間的突觸產生某種變化。 Rosenblatt將這兩種創新學說結合起來,孕育出所謂的感知機(perceptron)。 感知機是由具有可調整的鍵結值 (synaptic weights) 以及閥值 (threshold) 的單一個類神經元 (neuron) 所組成。 感知機是各種類神經網路中,最簡單且最早發展出來的類神經網路模型,通常被用來做為分類器(classifier)使用。 證明訓練演算法的收斂過程稱之為”感知機收斂定理”

2.2 感知機基本架構 (1) 感知機的基本組成元件為一個具有線性組合功能的累加器,後接一個硬限制器 (hard limiter) 而成,如圖2.1所示。 一般說來,若我們設定硬限制器之輸入為正值時,則類神經元的輸出為 +1;反之,若硬限制器之輸入為負值時,則類神經元的輸出為 -1。 圖2.1:感知機之架構方塊。

2.2 感知機基本架構 (2) 分類的判斷規則是:若感知機的輸出為 +1,則將其歸類於 C1 群類;若感知機的輸出為 -1,則將其歸類於 C2 群類。 判斷規則所劃分的只有兩個判斷區域,我們可以將作為分類依據的超平面定義如下: (2.2) (1)閥值將判斷邊界 從原點加入一位移量 (2)鍵結值與閥值可用如 “錯誤更正法”來調整 圖2.2:一個具有二維輸入的兩群分類問題。

2.3 感知機收斂定理 (1) (2.11) 步驟一:網路初始化 2.3 感知機收斂定理 (1) 步驟一:網路初始化 以隨機的方式來產生亂數,令 w(0) 為很小的實數,並且將學習循環 n 設定為1。 步驟二:計算網路輸出值 在第n次學習循環時,呈現輸入向量 x(n),此時類神經元的輸出為: 步驟三:調整鍵結值向量 步驟四: 將學習循環 n 加1;回到步驟二。 (2.11)

2.3 感知機收斂定理 (2) 調整後的類神經元,若再用相同的輸入範例來加以測試,則其輸出值會更加地接近期待值,其原因如下: 2.3 感知機收斂定理 (2) 調整後的類神經元,若再用相同的輸入範例來加以測試,則其輸出值會更加地接近期待值,其原因如下: 圖2.4:以幾何觀點來分析感知機之訓練過程; (a)若 d=-1且y=1 ;(b)若 d=1且y=-1 。

範例2.1:感知機 (1) 訓練資料 x(n) 期望輸出值 d(n) (0, 0) 1 (0, 1) -1 (1, 1) (1) n=0 學習率  為 0.8,並且將鍵結值的初始值設定為 (0, 1), 令活化函數為sgn函數,神經元之閥值為-1 (1) n=0

(1) n = 1, (2) n = 2, (3) n = 3,

(4) n = 4, (5) n = 5,

(6) n = 6, 圖2.5:感知機於疊代次數第 4, 5, 8 次時的鍵結值向量。

2.4 Widrow-Hoff 法則 (1) 此種由Widrow和Hoff於1960年提出訓練所謂“適應線性元件” (Adaptive Linear Element 簡稱為 Adaline) 的學習規則,被稱做Widrow-Hoff法則或最小均方誤差法 。 基本上 Adaline 和感知機的架構是一樣的,主要的差別在於訓練法則的不同,感知機的訓練目標是減少分類錯誤,而 Adaline 是減少類神經元的真實輸出與期望輸出間的均方誤差。 圖2.6:Adaline 之架構方塊圖。

2.4 Widrow-Hoff 法則 (2) (2.17) 給定一組輸入/輸出對, , 代表網路的期望輸出值。 給定一組輸入/輸出對, , 代表網路的期望輸出值。 用來訓練 Adaline 的 LMS 法則就是想辦法找出一個鍵結值向量 ,它可以使得誤差 的均方值 (mean square) 最小,其中 。這個問題的答案在於所謂的 Wiener-Hoff 方程式 。 定義均方誤差 (mean-square error) 為: 其中是機率期望值運算子。 (2.17)

2.4 Widrow-Hoff 法則 (3) (2.18) (2.20) (2.21) (2.22) 首先將 代入式(2.17)並且展開可得: 我們另外定義式(2.19)中的三個期望值運算如下: 1. 是期望輸出 d 的「均方值」(mean-square value);令 2. 是期望輸出 d 與輸入信號 的「交互相關函數」 (cross-correlation function);令 3. 是輸入信號 與 彼此間的「自相關函數」 (autocorrelation function);令 (2.18) (2.20) (2.21) (2.22)

2.4 Widrow-Hoff 法則 (4) (2.23) (2.24) (2.25) 有了以上三個式子的定義,現在我們把式(2.19)重寫如下: 我們將誤差函數 J 對權重作偏微分,並將此偏微分方程式設為零,因此我們可以得到以下 p 個方程式 令 為權重 的最佳值,從式(2.24)可知權重參數的最佳值是由下列 p 個方程式所決定: 這組方程式稱為「Wiener-Hopf 方程式」,而根據此權重參數所設計的濾波器則稱之為 Wiener 濾波器。 (2.23) (2.24) (2.25)

2.4 Widrow-Hoff 法則 (5) (2.26) (2.27) 式(2.25)其實可以寫成如下的矩陣型式: 其中 , 是一個 其中 , 是一個 維度的自相關矩陣,和 是一個 維度的交互相關向量。 很顯然地,Wiener-Hoff 方程式的解為 問題是,我們通常不知道自相關矩陣與交互相關向量的值是多少。即使知道,我們每次都必須計算出 R 的反矩陣,而求反矩陣的計算量相當龐大,因此實際上的作法是採用 LMS 演算法,以疊代的方式來解 Wiener-Hoff 方程式。 (2.26) (2.27)

2.4.1 最小均方演算法 (1) 當我們無法得知自相關函數 與交互相關函數 的資訊時,以「瞬間估測」(instantaneous estimates) 的技術來估測這兩個相關函數,並且使用梯度坡降法來疊代求解。 從式(2.21)與式(2.22)可以導出: 由於 LMS 法則使用梯度坡降法,所以權重 的調整方向是往誤差梯度的反方向修正,計算方式如下: (2.28) (2.29) (2.30)

2.4.1 最小均方演算法 (2) (2.31) 將式(2.28)及式(2.29)代入式(2.30)中的梯度 ,便可以得到下式: 2.4.1 最小均方演算法 (2) 將式(2.28)及式(2.29)代入式(2.30)中的梯度 ,便可以得到下式: (2.31) 注意在式(2.31)中,我們以 來代替 , 以強調式(2.31)中的權重參數是估測值。

2.4.1 最小均方演算法 (3) 步驟一:權重初始化,令 步驟二:設定學習循環 n = 1,並且計算 步驟三:將學習循環加1,回到步驟二。

2.4.1 最小均方演算法 (4) 我們將「感知機訓練法」與「最小均方演算法」比較如下: 2.4.1 最小均方演算法 (4) 我們將「感知機訓練法」與「最小均方演算法」比較如下: 感知機訓練演繹法主要的目標是調整鍵結值,使得類神經元的輸出 與期望輸出值 相同,亦即分類成功;而 LMS 演繹法強調於如何找出一組鍵結值,使得類神經元的軸突丘細胞膜電位 儘可能地接近 。 2. 在輸入資料為線性不可分割 (linearly inseparable) 的情況下,LMS 演繹法有可能表現得比感知機演繹法還要好,因為前者會收斂至均方誤差的最小值,而後者卻無法收斂,所以訓練過程被中斷後,我們無法保證最後的鍵結值是整個訓練過程中最好的一組鍵結值。 3. 在輸入資料為線性可分割 (linearly separable) 時,感知機演繹法可以保證收斂,並且可以百分之百分類成功;而 LMS 演繹法雖然會收斂,但是卻並不一定可以百分之百分類成功,因為它主要著眼於將均方誤差極小化。

2.4.1 最小均方演算法 (4) 圖2.7:(a) 感知機演繹法與 (b) LMS 演繹法的收斂情形。

2.5 學習率調整方法 應用以梯度坡降法為根本的演算法時,最常遇到的問題就是,如何適當地設定學習率 。 圖2.8:三種設定學習率的方式。

2.6 感知機之進階探討 (1) Gallant所提出的“口袋演繹法”(pocket algorithm) 。 2.6 感知機之進階探討 (1) Gallant所提出的“口袋演繹法”(pocket algorithm) 。 步驟一:設定鍵結值向量的初始值為 向量。 步驟二:隨機地選擇一個訓練樣本 ,並且輸入至感知機網路中 。 步驟三: (a)如果目前的鍵結值向量 能夠將訓練樣本 正確地分類成功,且能夠正確分類的訓練樣本數,大於口袋中的那一組鍵結值向量 所能夠正確分類的訓練樣本數,則以 來取代 ,並且更正目前所能正確分類的訓練樣本數目。 (b)如果目前的鍵結值向量 將訓練樣本 分類錯誤,則修正目前的鍵結值向量 為: 步驟四:回到步驟二。

2.6 感知機之進階探討 (2) 理論上,感知機是可以用來解決任何複雜的圖樣識別的問題,只是當時沒有一個有效率的訓練演繹法來配合而已。 2.6 感知機之進階探討 (2) 理論上,感知機是可以用來解決任何複雜的圖樣識別的問題,只是當時沒有一個有效率的訓練演繹法來配合而已。 單層的感知機是用超平面來切割空間,因此只能處理線性可分割的資料。 雙層感知機可以處理較複雜的問題,譬如說我們限制第二層的感知機只執行邏輯AND的功能,那麼第一層的感知機便可合力圍起一個凸形 (convex) 的決定區域。 三層的感知機則可以形成任意形狀的決定區域,譬如說第二層的感知機執行邏輯AND的功能,而第三層的感知機則執行邏輯OR的功能,那麼不管是凸形、凹形 (concave)的決定區域都可以輕易地形成。

2.6 感知機之進階探討 (3) 當時沒有一種有效的學習演算法可以配套使用。 2.6 感知機之進階探討 (3) 當時沒有一種有效的學習演算法可以配套使用。 之所以需要三層的架構,是因為我們限制了感知機的活化函數是採用硬限制器,以及限定第二層和第三層的類神經元,分別執行AND與OR的功能。 圖2.9:感知機的決定區域之收斂特性分析。