人工知能特論II 第12回 二宮 崇.

Slides:



Advertisements
Similar presentations
SPSSによるHosmer-Lemeshow検定について
Advertisements

あなたは真夜中に 山の頂上を目指す登山者です
確率と統計 - 確率2回目 - 平成 18 年 11 月 1 日. 2 今日の内容 1. 確率の復習(再整理) 2. 加法の定理 3. 乗法の定理へのイントロ.
レポート書き方. おしいレポート よく調べてある それぞれの、1文の言っていることは正 しい しかし、全体として、何が言いた いのかわからない 内容の重要だが、全体の構成も重 要である.
東京工科大学 コンピュータサイエンス 亀田弘之
7.n次の行列式   一般的な(n次の)行列式の定義には、数学的な概念がいろいろ必要である。まずそれらを順に見ていく。
9.線形写像.
情報処理A 第10回 Excelの使い方 その3.
九州大学 岡村研究室 久保 貴哉 1. 利用中のAPの数の推移 2 横軸:時刻 縦軸:接続要求数 ・深夜では一分間で平均一台、 昼間では平均14台程度の接続 要求をAPが受けている。 ・急にAPの利用者数が増えてく るのは7~8時あたり.
5.連立一次方程式.
相関.
1 情報量(2章). 2 物理的概念との対比1(入れ物と中 身) 塩水 塩 データ 情報 情報の量? 塩分の量! 情報の量は見た目ではわ からない。データと情報 は異なる概念。 塩分の量は見た目 ではわからない。 しかし、本質的な もの。
―本日の講義― ・平均と分散 -代表値 -ぱらつき(分散・標準偏差等) ・Excelによる演習
ノイズ. 雑音とも呼ばれる。(音でなくても、雑 音という) 入力データに含まれる、本来ほしくない 成分.
人工知能特論 II 第 6 回 二宮 崇 1. 今日の講義の予定 確率的文法 品詞解析 HMM 構文解析 PCFG 教科書 北研二 ( 著 ) 辻井潤一 ( 編 ) 言語と計算 4 確率的言語モデル 東大出版会 C. D. Manning & Hinrich Schütze “FOUNDATIONS.
広告付き価格サービ ス 小園一正. はじめに 世の中には様々な表現方法の広告があり ます。その中でも私たち学生にとって身 近にあるものを広告媒体として取り入れ られている。 価格サービス(無料配布のルーズリー フ)を体験したことにより興味を惹かれ るきっかけとなった。主な目的は、これ.
素数判定法 2011/6/20.
フーリエ係数の性質. どこまで足す? 理想的には無限大であるが、実際に はそれは出来ない これをフーリエ解析してみる.
1章 行列と行列式.
本宮市立白岩小学校. 1 はじめに 2 家庭学習プログラム開発の視点 ① 先行学習(予習)を生かした 確かな学力を形成する授業づく り ② 家庭との連携を図った家庭学習の習慣化.
プログラミングⅠ( 1 組) 第 9 回
フーリエ級数. 一般的な波はこのように表せる a,b をフーリエ級数とい う 比率:
3.エントロピーの性質と各種情報量.
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
人工知能特論II 第10回 二宮 崇.
Excelによる積分.
1 6.低次の行列式とその応用. 2 行列式とは 行列式とは、正方行列の特徴を表す一つのスカ ラーである。すなわち、行列式は正方行列からスカ ラーに写す写像の一種とみなすこともできる。 正方行列 スカラー(実数) の行列に対する行列式を、 次の行列式という。 行列 の行列式を とも表す。 行列式と行列の記号.
計算のスピードアップ コンピュータでも、sin、cosの計算は大変です 足し算、引き算、掛け算、割り算は早いです
線形符号(10章).
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
複素数.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
人工知能特論II 第7回 二宮 崇.
信号測定. 正弦波 多くの場合正弦波は 0V の上下で振動する しかし、これでは AD 変換器に入れら れないので、オフ セットを調整して データを取った.
1 9.線形写像. 2 ここでは、行列の積によって、写像を 定義できることをみていく。 また、行列の積によって定義される写 像の性質を調べていく。
通信路(7章).
アルゴリズムとデータ構造 補足資料 7-4 「単純交換ソート exsort.c 」 横浜国立大学 理工学部 数物・電子情報系学科 富井尚志.
3.プッシュダウンオートマトンと 文脈自由文法
6.符号化法(6章).
人工知能特論 II 第 4 回 二宮 崇 1. CCG (COMBINATORY CATEGORIAL GRAMMAR) 組合せ範疇文法 2 今日の講義の予定.
アルゴリズムとデータ構造 補足資料14-1 「ハッシュ法」
3.正方行列(単位行列、逆行列、対称行列、交代行列)
様々な情報源(4章).
プログラミング演習B ML編 第3回 2010/6/15 (コミ) 2010/6/16 (情報・知能) 住井 ~sumii/class/proenb2010/ml3/
論理回路 第1回. 今日の内容 論理回路とは? 本講義の位置づけ,達成目標 講義スケジュールと内容 受講時の注意事項 成績の評価方法.
Three-Year Course Orientation International Course.
方程式を「算木」で 解いてみよう! 愛媛大学 教育学部 平田 浩一.
C言語応用 構造体.
実装の流れと 今後のスケジュール 03k0014 岸原 大祐. システム概要 天気データをもとに、前向き推論をし ていき、親の代わりに子供に服装、持 ち物、気をつけることなどを教える。
3.多項式計算アルゴリズム べき乗の計算 多項式の計算.
HKS Analysis Log Jul 2006 Part1 D.Kawama. 第壱部 HKS Sieve Slit Analysis.
知能情報処理 第1回 この授業の概要 組合せ最適化問題とは.
1 中野研究室 4 年ゼミのイロハ 斉藤(修士 2 年) ( 2009 年 ”4 年ゼミのイロハ ” を参考に作りました)
移動エージェントプログラムの 動作表示のためのアニメーション言 語 名古屋大学情報工学コース 坂部研究室 高岸 健.
1 プログラミング言語論 第13回 プログラムの意味論と検証 (2) 表示的意味論 担当:犬塚. 2 表示的意味論 denotational semantics  表示的意味論では、プログラムの要素とそれが 意味するものを対応付ける。 変数 式 文 A B … A+2 2B+C A:=A+2 if.
プログラミングⅠ( 2 組) 第 1 回 / pLB1.pptx.
「ネット社会の歩き方」レッスンキット プレゼンテーション資料集 15. チャットで個人情報は 言わない プレゼンテーション資料 著作権は独立行政法人情報処理推進機構( IPA )及び経済産業省に帰属します。
8.任意のデータ構造 (グラフの表現とアルゴリズム)
第14回 プログラムの意味論と検証(3) 不動点意味論 担当:犬塚
ことばとコンピュータ 2007 年度 1 学期 第 1 回. 2 ことばとコンピュータ 授業科目名:言語情報処理論 授業題目名:ことばとコンピュータ 履修コード: 5067 教室: 323 一学期開講 授業の進め方 – 基本的に講義中心ですすめ,時々コンピュー タを使う.
Kitenet の解析 (110118) 九州大学 工学部 電気情報工学科 岡村研究室 久保 貴哉.
音の変化を視覚化する サウンドプレイヤーの作成
プログラミングの基礎知識 プログラミングの手順と重要概念 アルゴリズム. プログラミングの手順 コーディング エディタなどでコードを記述 コンパイル・インタープリタ 実行可能な形に翻訳 デバッグ(虫取り、不具合の調整) 完成!
本文. 考えながら読みましょ う 「いろいろなこと」( 3 行目)は何で すか 「①電話料金はコンビニで支払いをしていま す。いつでも払えますから、便利です。」 「②夕食はコンビニで買います。お弁当やお かずがいろいろありますから。」今、若者に 人気のあるコンビニは、いろいろなことをす るのに非常に便利な場所になった。
11万km上空のかぐやから見た地球. デジタル信号処理 Digital Signal Processing 2010 年度春学期 Spring Semester, 2010 担当者: 栗濱 忠司( Professor ) 第3週第3週.
東北大学 情報科学研究科 システム情報科学専攻 TOKUYAMA Lab. 1 左順序付き柔軟ラベリングの実 装 Implementation of Left-part ordered Flexible Labeling 東北大学大学院 情報科学研究科 ◎小池 敦 徳山 豪.
IIR 輪講復習 #18 Matrix decompositions and latent semantic indexing.
2015/11/19. To foster Historical Thinking Skill by Creating Story Necessary Relationships and Elements of Characters In historical learning, historical.
地球儀と様々な地図. 1 球体としての地球 こうした現象はあることをイ メージすると理解できる。
Presentation transcript:

人工知能特論II 第12回 二宮 崇

今日の講義の予定 系列ラベリングのための確率的識別モデル(Linear-chain CRF) 教科書 解析 (ビタビアルゴリズム) 学習 (前向き後ろ向きアルゴリズム) 教科書 高村 大也 (著), 奥村 学 (監修) 言語処理のための機械学習入門 (自然言語処理シリーズ), コロナ社, 2010 Yusuke Miyao (2006) From Linguistic Theory to Syntactic Analysis: Corpus-Oriented Grammar Development and Feature Forest Model, Ph.D Thesis, University of Tokyo Jun’ichi Kazama (2004) Improving Maximum Entropy Natural Language Processing by Uncertainty-aware Extensions and Unsupervised Learning, Ph.D. Thesis, University of Tokyo Cristopher M. Bishop “PATTERN RECOGNITION AND MACHINE LEARNING” Springer, 2006

系列ラベリングのための確率的識別モデル Linear-chain CRF

系列ラベリングのための確率的識別モデル Linear-chain CRF CRF (Conditional Random Fields, 条件付確率場) 最大エントロピーモデルの一種 出力yは入力xに対する条件付確率 出力yが無向グラフ(yをノードに分解できる) 素性を各ノードの近傍で定義 Linear-chain CRF ノードが線形につながったCRF (系列ラベリングのためのCRF) 例えば、品詞解析の場合、入力xが文で、出力yが単語-品詞列となる。単語と品詞のペアがノードになる。素性を各ノードの近傍で定義する。 I have a pen . 代名詞 動詞 不定冠詞 名詞 ピリオド x =“I have a pen.” y=“I-代名詞 have-動詞 a-不定冠詞 pen-名詞 .-ピリオド” に対しp(y|x)を求める

Linear-chain CRF: 素性テンプレート どのような素性を採用するか表記したもの 訓練データに対し素性テンプレートを適用し、実際に出現した値だけを素性として採用 素性テンプレートの例 i番目のノードをciとする i番目の品詞をpiとする i番目の単語をwiとする HMMと同様の素性の場合 各ノードciに対し、pi-1pi [最大で品詞数×品詞数の次元ができうる] 各ノードciに対し、wipi [最大で単語数×品詞数の次元ができうる] 他にもいろんな組合せの素性を追加できる 各ノードciに対し、 wi-1wipi 各ノードciに対し、 pi-2pi-1pi

Linear-chain CRF: 素性テンプレートと素性 素性テンプレートの例 HMMと同様の素性の場合 各ノードciに対し、pi-1pi 各ノードciに対し、wipi w1 w2 w3 w4 w5 w6 a pen is a pen . x 不定冠詞 名詞 動詞 不定冠詞 名詞 ピリオド y p1 p2 p3 p4 p5 p6 pi-1piから生成される素性 wipiから生成される素性 不定冠詞-名詞 a-不定冠詞 名詞-動詞 pen-名詞 動詞-不定冠詞 is-動詞 名詞-ピリオド .-ピリオド

Linear-chain CRF: 全体の素性ベクトルと局所的素性ベクトルの関係 各素性関数の値は1文中に各素性が発火(出現)した回数 a pen is a pen . x 不定冠詞 名詞 動詞 不定冠詞 名詞 ピリオド y pen-名詞 is-動詞 a-不定冠詞 名詞-動詞 不定冠詞-名詞 素性ベクトル(…, 0, 2, 0, …, 0, 1, 0, …, 0, 2, 0, …, 0, 1, 0, …, 0, 2, 0, …)

Linear-chain CRF: 全体のスコアと局所的なスコアの関係 文全体の素性ベクトル: (2,0,3,1,1) 掛算 (1,0,1,1,0) (0,0,1,0,0) (1,0,1,0,1) w1 w2 w3 p1 p2 p3

Linear-chain CRF: スコアの分解とHMMとの対応 単語-品詞列の確率 解析: ビタビアルゴリズムの適用 遷移確率と出力確率 ⇔ ノードのスコア 学習: 前向き後向きアルゴリズムの適用 遷移回数と出力回数 ⇔ 素性値(素性の発火回数) 品詞列集合全体のスコアの和 (前向きアルゴリズムで計算) HMMの遷移確率と出力確率に対応

f (時刻 t -1 のラベル, 時刻 t のラベル, 入力, 時刻) 1次のLinear-chain CRF ラベル集合をQ、入力をx、出力をq1q2…qTとする。 Linear-chain CRF ただし、Zx は分配関数、λj は fj に対する重み、q0 = DUMMY(ダミーのラベル)とし、素性関数 f の引数は次のように定義される。   f (時刻 t -1 のラベル, 時刻 t のラベル, 入力, 時刻) 入力(第三引数)と時刻(第四引数)を与えることによって、入力の情報を素性として用いることができる 例えば、品詞解析の場合、ラベルが品詞であり、入力が単語列となり、時刻tやその前後における単語を素性として用いることができる。

Linear-chain CRFの解析

Linear-chain CRFの解析 入力x ラベル集合Q Linear-chain CRFの解析 (Zx は定数であるため、必要ない)

Linear-chain CRFの解析: ビタビアルゴリズム 動的計画法 δ(t, q): 時刻tにラベルqとなるラベル列の中で最大のスコア maxq∈Q δ(T, q)を求めれば良い 時刻 1 2 3 T … ラベル1 … ラベル2 … ラベル3 … ラベル4 トレリス

Linear-chain CRFの解析: ビタビアルゴリズム 最大スコアで遷移したパスをバックポインタで保存 1 2 t-1 t T 時刻 ラベル1 … … ラベル2 … … … … … ラベル q … … …

Linear-chain CRF:解析(ビタビアルゴリズム) 入力x Linear-chain CRFの解析 Linear-chain CRFのビタビアルゴリズム for q∈Q δ[1, q] := exp{Σjλjfj(DUMMY,q,x,1)} for t =2 to T for q∈Q δ[t, q] := maxq’ ∈Q δ[t - 1,q’]exp{Σjλjfj(q’, q, x, t)} bp[t, q] := argmaxq’ ∈Q δ[t - 1,q’]exp{Σjλjfj(q’, q, x, t)} HMMとの対応 𝜋 𝑞 𝑏[𝑞, 𝑜 1 ] 𝑎[ 𝑞 ′ ,𝑞] 𝑏[𝑞, 𝑜 𝑡 ]

LINEAR-CHAIN CRFの学習

Linear-chain CRFの学習 学習 (パラメータ推定) 問題点 解決策 訓練データの対数尤度(=目的関数)に対する勾配を0にする 目的関数とその勾配が計算できれば勾配法でパラメータが求まる。 問題点 素性関数の期待値の計算: 「ある文xに対する全ての可能なラベル列集合Y(x)に対する確率」を計算しないといけない 文長n、ラベル数lに対し、可能なラベル列はlnある。全て展開するのはほぼ不可能 解決策 前向き後ろ向きアルゴリズム 畳み込まれたデータ構造を展開することなく素性関数の期待値を計算

Linear-chain CRFの学習: 目的関数 訓練データ D={(x1, y1), (x2, y2), …, (xN, yN)} 各 yi を yi=qi1qi2…qiTiとする。 目的関数: 訓練データに対するLinear-chain CRFの対数尤度 パラメータλに対する目的関数 L(λ)

Linear-chain CRFの学習: 目的関数の勾配 (1/2) 素性関数の合計の期待値となっている

Linear-chain CRFの学習: 目的関数の勾配 (2/2) (前のスライドの続き) qt-1 qt の周辺確率を効率的に求められればよい

Linear-chain CRFの学習: 前向きアルゴリズム (1/3) 動的計画法 α(t, q): 時刻tにラベルqであるスコアの合計 全てのt,qに対し、α(t, q)を求めれば良い 時刻 1 2 3 T … ラベル1 … ラベル2 トレリス … ラベル3 … ラベル4

Linear-chain CRFの学習: 前向きアルゴリズム (2/3) 全てのスコアの和 時刻 1 2 t-1 t T ラベル1 … … ラベル2 … … … … … ラベル q … … …

Linear-chain CRFの学習: 前向きアルゴリズム (3/3) for q∈Q α[1, q] := exp{Σjλjfj(DUMMY,q,x,1)} for t =2 to T for q∈Q α[t, q] := Σq’ ∈Q α[t - 1,q’]exp{Σjλjfj(q’, q, x, t)} 入力xとパラメータλが与えられているとする 分配関数 Zx を効率的に求めることもできる ⇒ 目的関数を効率的に求めることができる!

Linear-chain CRFの学習: 後ろ向きアルゴリズム (1/3) 前向きアルゴリズムを逆方向に適用 文末から文頭に向かって実行 向きが逆になることを除けば前向きアルゴリズムとまったく同じ β(t, q) :時刻tにラベルqとなっているとき、時刻t+1から文末までのスコアの合計

Linear-chain CRFの学習: 後ろ向きアルゴリズム (2/3) 全てのスコアの和 時刻 1 2 t t+1 T ラベル1 … … ラベル2 … … … … … ラベル q … … …

Linear-chain CRFの学習: 後ろ向きアルゴリズム (3/3) for q∈Q β[T, q] := 1 for t = T - 1 to 1 for q ∈ Q β[t, q] := Σq’∈Q β[t + 1, q’]exp{Σjλjfj(q, q’, x, t + 1)}

Linear-chain CRF 学習(前向き後ろ向きアルゴリズム) qt-1 qt の周辺確率

Linear-chain CRF 学習(前向き後ろ向きアルゴリズム)

まとめ 系列ラベリングのための確率的識別モデル Linear-chain CRF 解析 (ビタビアルゴリズム) 学習 (前向き後ろ向きアルゴリズム) 今までの講義資料 http://aiweb.cs.ehime-u.ac.jp/~ninomiya/ai2/