人工知能特論II 第10回 二宮 崇.

Slides:



Advertisements
Similar presentations
SPSSによるHosmer-Lemeshow検定について
Advertisements

レポート書き方. おしいレポート よく調べてある それぞれの、1文の言っていることは正 しい しかし、全体として、何が言いた いのかわからない 内容の重要だが、全体の構成も重 要である.
1 7.時間限定チューリングマシンと クラス P. 2 7 -1.入力サイズ チューリングマシンの入力記号 の長さ を 入力サイズという。 名称:合成数の問題 インスタンス:整数n 問:nは合成数か? 通常は、入力サイズとしてはもっとも短い表現での 長さが利用される。 例えば、次のような合成数の問題における入力サイズは、
7.n次の行列式   一般的な(n次の)行列式の定義には、数学的な概念がいろいろ必要である。まずそれらを順に見ていく。
9.線形写像.
3.多項式計算アルゴリズム べき乗の計算 多項式の計算.
時間的に変化する信号. 普通の正弦波 は豊富な情報を含んでいません これだけではラジオのような複雑な情報 を送れない 振幅 a あるいは角速度 ω を時間的に変化 させて情報を送る.
情報処理A 第10回 Excelの使い方 その3.
九州大学 岡村研究室 久保 貴哉 1. 利用中のAPの数の推移 2 横軸:時刻 縦軸:接続要求数 ・深夜では一分間で平均一台、 昼間では平均14台程度の接続 要求をAPが受けている。 ・急にAPの利用者数が増えてく るのは7~8時あたり.
5.連立一次方程式.
相関.
1 情報量(2章). 2 物理的概念との対比1(入れ物と中 身) 塩水 塩 データ 情報 情報の量? 塩分の量! 情報の量は見た目ではわ からない。データと情報 は異なる概念。 塩分の量は見た目 ではわからない。 しかし、本質的な もの。
つくばだいがくについて 芸術専門学群のこと. 筑波大学ってこんなところ 東京教育大学を前身とする大学で、その 創立は日本で最も古い大学のひとつ。 大学の敷地面積は日本で二番目に広い大 学で、やたら坂が多い。移動時間が15分 しかないのに上り坂を三つ超えることがよ くある。
―本日の講義― ・平均と分散 -代表値 -ぱらつき(分散・標準偏差等) ・Excelによる演習
ノイズ. 雑音とも呼ばれる。(音でなくても、雑 音という) 入力データに含まれる、本来ほしくない 成分.
人工知能特論 II 第 6 回 二宮 崇 1. 今日の講義の予定 確率的文法 品詞解析 HMM 構文解析 PCFG 教科書 北研二 ( 著 ) 辻井潤一 ( 編 ) 言語と計算 4 確率的言語モデル 東大出版会 C. D. Manning & Hinrich Schütze “FOUNDATIONS.
広告付き価格サービ ス 小園一正. はじめに 世の中には様々な表現方法の広告があり ます。その中でも私たち学生にとって身 近にあるものを広告媒体として取り入れ られている。 価格サービス(無料配布のルーズリー フ)を体験したことにより興味を惹かれ るきっかけとなった。主な目的は、これ.
素数判定法 2011/6/20.
フーリエ係数の性質. どこまで足す? 理想的には無限大であるが、実際に はそれは出来ない これをフーリエ解析してみる.
1章 行列と行列式.
本宮市立白岩小学校. 1 はじめに 2 家庭学習プログラム開発の視点 ① 先行学習(予習)を生かした 確かな学力を形成する授業づく り ② 家庭との連携を図った家庭学習の習慣化.
フーリエ級数. 一般的な波はこのように表せる a,b をフーリエ級数とい う 比率:
3.エントロピーの性質と各種情報量.
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
Excelによる積分.
1 6.低次の行列式とその応用. 2 行列式とは 行列式とは、正方行列の特徴を表す一つのスカ ラーである。すなわち、行列式は正方行列からスカ ラーに写す写像の一種とみなすこともできる。 正方行列 スカラー(実数) の行列に対する行列式を、 次の行列式という。 行列 の行列式を とも表す。 行列式と行列の記号.
計算のスピードアップ コンピュータでも、sin、cosの計算は大変です 足し算、引き算、掛け算、割り算は早いです
線形符号(10章).
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
10.PとNP完全問題との境界.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
人工知能特論II 第7回 二宮 崇.
信号測定. 正弦波 多くの場合正弦波は 0V の上下で振動する しかし、これでは AD 変換器に入れら れないので、オフ セットを調整して データを取った.
1 9.線形写像. 2 ここでは、行列の積によって、写像を 定義できることをみていく。 また、行列の積によって定義される写 像の性質を調べていく。
通信路(7章).
アルゴリズムとデータ構造 補足資料 7-4 「単純交換ソート exsort.c 」 横浜国立大学 理工学部 数物・電子情報系学科 富井尚志.
3.プッシュダウンオートマトンと 文脈自由文法
6.符号化法(6章).
ビット. 十進数と二進数 十進数  0から9までの数字を使って 0、1、2、3、4、5、6、7、8、9、 10、11、12 と数える 二進数  0と1を使って 0、1、10、11、100、101、11 0、111 と数える.
人工知能特論II 第12回 二宮 崇.
人工知能特論 II 第 4 回 二宮 崇 1. CCG (COMBINATORY CATEGORIAL GRAMMAR) 組合せ範疇文法 2 今日の講義の予定.
井元清哉、上 昌広 2035年の日本医療を考える ワーキンググループ
平成22年度予算の国立大学法人関連要望事項に係るパブリックコメント説明会
3.正方行列(単位行列、逆行列、対称行列、交代行列)
年度 情報数理学. 2 履修にあたって 2009 年度 大学院奇数セメスター(前期)開講 K336→ 大学院棟 D 416(次回から)教室: 時限: 火曜日3時限( 12:50 - 14:20 ) 担当 草苅良至 4/21( 火) 休講 → 補講 ?/? ? 時限 D416.
様々な情報源(4章).
名古屋工業大学 電気電子工学科 岩波・岡本研究室 野々村嘉人
論理回路 第1回. 今日の内容 論理回路とは? 本講義の位置づけ,達成目標 講義スケジュールと内容 受講時の注意事項 成績の評価方法.
Bar-TOP における光の 群速度伝播の解析 名古屋大学 高エネルギー物理研究室 松石 武 (Matsuishi Takeru)
クロスバリデーションを用いた ベイズ基準によるコンテキストクラスタリング
ベイズ基準による音声認識のための 事前分布推定法の検討 情報工学専攻 徳田・李研究室 橋本 佳. 2 背景  音声認識技術の普及  カーナビゲーションシステム  携帯電話 ⇒ さらなる認識性能の改善が必要  隠れマルコフモデルによる音声のモデル化  性能改善のためにはモデルの高精度化が必要.
JPN 311: Conversation and Composition 許可 (permission)
方程式を「算木」で 解いてみよう! 愛媛大学 教育学部 平田 浩一.
データベース入門 日進高等学校 情報化推進委員会. 表計算ソフトとの比較 表計算ソフト (Excel) データベース ( Access ) 編集 二人目はデータの編集が ロックされる 複数の人が同時にデータ を 編集できる 信頼性 ファイルの数だけ データが存在する データは一つ データ処理 自由.
C言語応用 構造体.
目次 8.2 条件付き独立性 つのグラフの例 有向分離 (d分離).
3.多項式計算アルゴリズム べき乗の計算 多項式の計算.
1 中野研究室 4 年ゼミのイロハ 斉藤(修士 2 年) ( 2009 年 ”4 年ゼミのイロハ ” を参考に作りました)
1 プログラミング言語論 第13回 プログラムの意味論と検証 (2) 表示的意味論 担当:犬塚. 2 表示的意味論 denotational semantics  表示的意味論では、プログラムの要素とそれが 意味するものを対応付ける。 変数 式 文 A B … A+2 2B+C A:=A+2 if.
8.任意のデータ構造 (グラフの表現とアルゴリズム)
メニューに戻る メニューに戻る | 前表示スライド 前表示スライド G*power 3 の web ページ Windows はこちら Mac はこちら ダウンロード後,実行してインストール.
第14回 プログラムの意味論と検証(3) 不動点意味論 担当:犬塚
実験5 規則波 C0XXXX 石黒 ○○ C0XXXX 杉浦 ○○ C0XXXX 大杉 ○○ C0XXXX 高柳 ○○ C0XXXX 岡田 ○○ C0XXXX 藤江 ○○ C0XXXX 尾形 ○○ C0XXXX 足立 ○○
オセロの思考アルゴリズムについて 1103072 岩間 隆浩.
金融の基本Q&A50  Q37~Q /6/24 蔵内雄大.
音の変化を視覚化する サウンドプレイヤーの作成
Self-efficacy(自己効力感)について
IIR 輪講復習 #18 Matrix decompositions and latent semantic indexing.
腎臓移植 腎臓移植の前に、ドナー両方の腎臓は機 能的に良好でなければならない。ドナー の両方の腎臓が機能的に健康であること を保証するために、多数の試験が行われ ている。
Presentation transcript:

人工知能特論II 第10回 二宮 崇

今日の講義の予定 HMMの前向き後向きアルゴリズムによるパラメータ学習 生成モデルと識別モデル 教科書 北研二(著) 辻井潤一(編) 言語と計算4 確率的言語モデル 東大出版会 Christopher M. Bishop “PATTERN RECOGNITION AND MACHINE LEARNING” Springer, 2006

HMMの教師無し学習 Unsupervised Learning of HMMs パラメータ推定 訓練データ (入力) パラメータ (出力)

HMMのEMアルゴリズム パラメータ更新式 π, a, b をπ’, a’, b’ に更新

HMMのEMアルゴリズム パラメータ更新式 π, a, b をπ’, a’, b’ に更新

HMMのEMアルゴリズム パラメータ更新式 π, a, b をπ’, a’, b’ に更新

HMMのためのEMアルゴリズムの問題点 期待値を計算するために全ての可能な隠れ状態を列挙すると文長に対し、指数爆発的計算量が必要 解決策:前向き後向きアルゴリズム。隠れ状態を列挙することなく、この期待値を計算する動的計画法。

前向きアルゴリズムと後ろ向きアルゴリズム

前向きアルゴリズム (1/3) 動的計画法 α(t, q): o1 … otを出力し、otが出力される時(時刻t)に状態qである確率 全てのt,qに対し、α(t, q)を求めれば良い 時刻 1 2 3 T 出力記号 o1 o2 o3 oT … 状態1 … 状態2 トレリス … 状態3 … 状態4

前向きアルゴリズム (2/3) 全ての遷移確率の和 o1 o2 ot-1 ot oT 状態1 … … 状態2 … … … … … 状態 q

前向きアルゴリズム (3/3) α[1,q] := π[q]b[q,o1] (for all q) for t =2 to T for q ∈ Q α[t, q] := Σq’∈Q {α[t-1, q’]a[q’,q]b[q, ot]}

後ろ向きアルゴリズム (1/3) 前向きアルゴリズムを逆方向に適用 文末から文頭に向かって実行 向きが逆になることを除けば前向きアルゴリズムとまったく同じ β(t, q) :時刻tに状態qから始める状態遷移によってot+1…oTまで出力する確率

後ろ向きアルゴリズム (2/3) 全ての遷移確率の和 o1 o2 ot ot+1 oT 状態1 … … 状態2 … … … … … 状態 q

後ろ向きアルゴリズム (3/3) β[T,q] := 1 (for all q) for t := T-1 to 1 for q ∈ Q β[t, q] := Σq’∈Q {a[q, q’]b[q’, ot+1]β[t+1, q’]}

前向き後ろ向きアルゴリズムの導出

前向き後ろ向きアルゴリズム: 生成確率 生成確率

前向き後ろ向きアルゴリズム: π’

前向き後ろ向きアルゴリズム: π’ 後向き確率 o1 o2 oT … … 状態 q … …

前向き後ろ向きアルゴリズム: a’

前向き後ろ向きアルゴリズム: a’ γ(t,q,r): 記号列o1…oTに対し、時刻t-1から時刻tに状態qから状態rに遷移する確率 前向き確率 後向き確率 o1 o2 ot-1 ot oT … … … … 状態 q … … … 状態 r … … …

前向き後ろ向きアルゴリズム: a’

前向き後ろ向きアルゴリズム: b’

前向き後ろ向きアルゴリズム: b’ γ(t,q): 記号列o1…oTに対し、時刻tに状態qに滞在する確率 前向き確率 後向き確率 o1 o2

前向き後ろ向きアルゴリズム: b’ ちなみに、

前向き後向きアルゴリズム まとめ(1/2) α(t, q): o1 … otを出力し、otが出力される時(時刻t)に状態qである確率 β(t, q) :時刻tに状態qから始める状態遷移によってot+1…oTまで出力する確率

前向き後向きアルゴリズム まとめ(2/2) あるパラメータπ,a,bが与えられているとする αを求める(前向きアルゴリズム) βを求める(後向きアルゴリズム) それぞれ動的計画法。計算量はO(T) ※ビタビアルゴリズムも計算量はO(T)。ビタビアルゴリズムのおよそ3倍の計算量。 次のようにπ, a, bを更新する

Generative Model and Discriminative Model 生成モデルと識別モデル

生成モデルから識別モデルへ 生成モデル HMM PCFG 状態遷移による生成 状態遷移の確率は一つ前の状態のみに依存 任意の文sと状態列qに対する同時確率p(s,q)を計算できる PCFG CFGによる生成のステップ(書換規則の適用 A → B C)の確率をp(B C| A)とする CFGによる生成の過程の確率を、独立な事象の(条件付き)確率の積とする 任意の文sと構文木tに対する同時確率p(s, t)を計算できる

生成モデルの改良の先に 構文木の分岐の外の情報を条件部に導入 素性(特徴)という考え方 PCFG: p(BC|A, hw) [Ahw→BhwC] (hw: 主辞) HMM: p(qj|qj-1, qj-2) 素性(特徴)という考え方 条件部をどんどんリッチにして線形補間をとればよいのでは?→構文木のノードxの確率p(x)=p(x|x周辺の状況)

生成モデルの問題点 生成モデルの問題点 独立性の仮定 PCFGでは、各構文木ノードは独立な(条件付き)試行により生成されていると仮定している 例えば、(S (NP John) (VP eats (NP apples)))という構文木は、以下の独立な(条件付き)事象に分解されている SからNP VPを生成 NPからJohnを生成 VPからeats NPを生成 NPからapplesを生成 結果、上記のNPの文脈(S→NP VP)から導出されたNPか(VP→eats NP)から導出されたNPかわからなくなっている→主語のNPなのか目的語のNPなのかわからない。

生成モデルの問題点 生成モデル しかし、  であるからp (s;θ) が計算できてしまう分、冗長なモデルになっている。間接的に分類問題を解いている。 独立性を仮定した事象に分解しないと同時確率を計算することができない

識別モデル 識別モデル 直接 を解く 独立な事象を仮定しない 「条件部の確率」をモデルにいれない

生成モデルと識別モデル (イメージ) 生成モデル 識別モデル GOOD BAD

生成モデルと識別モデル (イメージ2) 生成モデル 識別モデル 絵を描いて全体像の比較 それぞれの特徴を比較 鼻の位置 耳の形 体の大きさ 舌の表面

識別するための訓練 教師付学習 良い例と悪い例を与えて、どこに注目すればより良く識別出来るのか学習 good examples bad examples

… 識別モデル s = “A blue eye girl with white hair and skin walked” 素性ベクトル (特徴ベクトル) (0,0,1,0) (1,0,1,0) (1,1,1,0) (0,0,1,1) (1,0,0,0) t1 t2 t3 t4 … tn 文法Gによりsから導出出来る全ての構文木集合 p(t3|s) はt1,t2,t3,..,tnからt3を選択する確率

生成モデルと識別モデル 生成モデル 識別モデル 1.0

どちらが優秀なのか? Tom Minka (2005) Discriminative models, not discriminative training, MSR-TR-2005-144, 1 p. xを入力(文)、yを出力(構文木)としたときのパラメータ推定 生成モデル 識別モデル 一般モデル θ = θ’

まとめ HMMの前向き後向きアルゴリズム 生成モデルと識別モデル 今までの講義資料 動的計画法 計算量はO(T) ※ビタビアルゴリズムも計算量はO(T)。ビタビアルゴリズムのおよそ3倍の計算量。 隠れ状態を全て並べあげることなく、トレリス上で期待値を計算できる ある状態からある状態への遷移回数の期待値 ある状態からある記号を出力する回数の期待値 生成モデルと識別モデル 今までの講義資料 http://aiweb.cs.ehime-u.ac.jp/~ninomiya/ai2/