人工知能特論II 第14回 二宮 崇.

Slides:



Advertisements
Similar presentations
あなたは真夜中に 山の頂上を目指す登山者です
Advertisements

レポート書き方. おしいレポート よく調べてある それぞれの、1文の言っていることは正 しい しかし、全体として、何が言いた いのかわからない 内容の重要だが、全体の構成も重 要である.
東京工科大学 コンピュータサイエンス 亀田弘之
1 7.時間限定チューリングマシンと クラス P. 2 7 -1.入力サイズ チューリングマシンの入力記号 の長さ を 入力サイズという。 名称:合成数の問題 インスタンス:整数n 問:nは合成数か? 通常は、入力サイズとしてはもっとも短い表現での 長さが利用される。 例えば、次のような合成数の問題における入力サイズは、
7.n次の行列式   一般的な(n次の)行列式の定義には、数学的な概念がいろいろ必要である。まずそれらを順に見ていく。
9.線形写像.
3.多項式計算アルゴリズム べき乗の計算 多項式の計算.
5.連立一次方程式.
1 情報量(2章). 2 物理的概念との対比1(入れ物と中 身) 塩水 塩 データ 情報 情報の量? 塩分の量! 情報の量は見た目ではわ からない。データと情報 は異なる概念。 塩分の量は見た目 ではわからない。 しかし、本質的な もの。
つくばだいがくについて 芸術専門学群のこと. 筑波大学ってこんなところ 東京教育大学を前身とする大学で、その 創立は日本で最も古い大学のひとつ。 大学の敷地面積は日本で二番目に広い大 学で、やたら坂が多い。移動時間が15分 しかないのに上り坂を三つ超えることがよ くある。
―本日の講義― ・平均と分散 -代表値 -ぱらつき(分散・標準偏差等) ・Excelによる演習
論理回路 第2回 今日の内容 前回の課題の説明 数の体系 – 数の表現 – 代表的な数 – 基数の変換 – 補数.
ノイズ. 雑音とも呼ばれる。(音でなくても、雑 音という) 入力データに含まれる、本来ほしくない 成分.
人工知能特論 II 第 6 回 二宮 崇 1. 今日の講義の予定 確率的文法 品詞解析 HMM 構文解析 PCFG 教科書 北研二 ( 著 ) 辻井潤一 ( 編 ) 言語と計算 4 確率的言語モデル 東大出版会 C. D. Manning & Hinrich Schütze “FOUNDATIONS.
広告付き価格サービ ス 小園一正. はじめに 世の中には様々な表現方法の広告があり ます。その中でも私たち学生にとって身 近にあるものを広告媒体として取り入れ られている。 価格サービス(無料配布のルーズリー フ)を体験したことにより興味を惹かれ るきっかけとなった。主な目的は、これ.
素数判定法 2011/6/20.
公開鍵暗号系 2011/05/09.
1章 行列と行列式.
本宮市立白岩小学校. 1 はじめに 2 家庭学習プログラム開発の視点 ① 先行学習(予習)を生かした 確かな学力を形成する授業づく り ② 家庭との連携を図った家庭学習の習慣化.
人工知能特論 II 第 5 回 二宮 崇 1. CCG (COMBINATORY CATEGORIAL GRAMMAR) 組合せ範疇文法 2 今日の講義の予定.
プログラミングⅠ( 1 組) 第 9 回
フーリエ級数. 一般的な波はこのように表せる a,b をフーリエ級数とい う 比率:
3.エントロピーの性質と各種情報量.
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
人工知能特論II 第10回 二宮 崇.
Excelによる積分.
1 6.低次の行列式とその応用. 2 行列式とは 行列式とは、正方行列の特徴を表す一つのスカ ラーである。すなわち、行列式は正方行列からスカ ラーに写す写像の一種とみなすこともできる。 正方行列 スカラー(実数) の行列に対する行列式を、 次の行列式という。 行列 の行列式を とも表す。 行列式と行列の記号.
計算のスピードアップ コンピュータでも、sin、cosの計算は大変です 足し算、引き算、掛け算、割り算は早いです
線形符号(10章).
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
10.PとNP完全問題との境界.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
1 0章 数学基礎. 2 ( 定義)集合 集合については、 3セメスタ開講の「離散数学」で詳しく扱う。 集合 大学では、高校より厳密に議論を行う。そのために、議論の 対象を明確にする必要がある。 ある “ もの ” (基本的な対象、概念)の集まりを、 集合という。 集合に含まれる “ もの ” を、集合の要素または元という。
人工知能特論II 第7回 二宮 崇.
信号測定. 正弦波 多くの場合正弦波は 0V の上下で振動する しかし、これでは AD 変換器に入れら れないので、オフ セットを調整して データを取った.
1 9.線形写像. 2 ここでは、行列の積によって、写像を 定義できることをみていく。 また、行列の積によって定義される写 像の性質を調べていく。
通信路(7章).
1 情報理論 2008 年度 4 セメスター. 2 履修にあたって 担当 – 草苅 良至(部屋GI511、内線209 5 ) 教科書 平田廣則著「情報理論のエッセンス」 昭晃堂、 \2,700- ・参考書 今井秀樹著「情報理論」 昭晃堂、 \2,900-
3.プッシュダウンオートマトンと 文脈自由文法
人工知能特論II 第13回 二宮 崇.
6.符号化法(6章).
ビット. 十進数と二進数 十進数  0から9までの数字を使って 0、1、2、3、4、5、6、7、8、9、 10、11、12 と数える 二進数  0と1を使って 0、1、10、11、100、101、11 0、111 と数える.
人工知能特論II 第12回 二宮 崇.
人工知能特論 II 第 4 回 二宮 崇 1. CCG (COMBINATORY CATEGORIAL GRAMMAR) 組合せ範疇文法 2 今日の講義の予定.
重不況の経済学 第2章第2節 山下 真弘. 不均等成長 不均等成長=市場の特定の製品または特定の国・ 地域で付加価値の縮小が生じること 要因は2つ 製品別の「生産性向上速度の差」 付加価値総額の天井(=需要制約)
アルゴリズムとデータ構造 補足資料14-1 「ハッシュ法」
平成22年度予算の国立大学法人関連要望事項に係るパブリックコメント説明会
3.正方行列(単位行列、逆行列、対称行列、交代行列)
様々な情報源(4章).
学習者の意欲を高める音読指導の 一時例 1 Speak を使った 音読指導 鈴木政浩(西武文理大学)
名古屋工業大学 電気電子工学科 岩波・岡本研究室 野々村嘉人
論理回路 第1回. 今日の内容 論理回路とは? 本講義の位置づけ,達成目標 講義スケジュールと内容 受講時の注意事項 成績の評価方法.
伝わるスライド 中野研究室 M2 石川 雅 信. どのようなスライドを作れば良 いか 伝えたいこと.
方程式を「算木」で 解いてみよう! 愛媛大学 教育学部 平田 浩一.
C言語応用 構造体.
3.多項式計算アルゴリズム べき乗の計算 多項式の計算.
Automatic Language Acquisition, an Interactive Approach † Robert J. Martin † 大西昇 ‡ 山村毅 † 名古屋大学 ‡ 愛知県立大学.
HKS Analysis Log Jul 2006 Part1 D.Kawama. 第壱部 HKS Sieve Slit Analysis.
1 中野研究室 4 年ゼミのイロハ 斉藤(修士 2 年) ( 2009 年 ”4 年ゼミのイロハ ” を参考に作りました)
言語とジェンダー. 目的 言語には、性的な存在である人間の自己認識や 世界認識を決定する力が潜んでいる。 – 言語構造の面(言語的カテゴリー ) – 言語運用の面 日常に潜む無意識の言語の力を、記述し、意識 化することが本講義の目的である。 同時に、さまざまな言語、さまざまな文化には、 それぞれに特徴的な問題があり、ジェンダーの.
「ネット社会の歩き方」レッスンキット プレゼンテーション資料集 15. チャットで個人情報は 言わない プレゼンテーション資料 著作権は独立行政法人情報処理推進機構( IPA )及び経済産業省に帰属します。
8.任意のデータ構造 (グラフの表現とアルゴリズム)
平成 16 年 6 月 29 日佐賀大学知能情報システム学科 1 計算の理論 I 文脈自由文法 火曜3校時 大月 美佳.
第14回 プログラムの意味論と検証(3) 不動点意味論 担当:犬塚
ことばとコンピュータ 2007 年度 1 学期 第 1 回. 2 ことばとコンピュータ 授業科目名:言語情報処理論 授業題目名:ことばとコンピュータ 履修コード: 5067 教室: 323 一学期開講 授業の進め方 – 基本的に講義中心ですすめ,時々コンピュー タを使う.
オセロの思考アルゴリズムについて 1103072 岩間 隆浩.
音の変化を視覚化する サウンドプレイヤーの作成
本文. 考えながら読みましょ う 「いろいろなこと」( 3 行目)は何で すか 「①電話料金はコンビニで支払いをしていま す。いつでも払えますから、便利です。」 「②夕食はコンビニで買います。お弁当やお かずがいろいろありますから。」今、若者に 人気のあるコンビニは、いろいろなことをす るのに非常に便利な場所になった。
IIR 輪講復習 #18 Matrix decompositions and latent semantic indexing.
英語勉強会 名手⇒詫間 2015/10/22. 原文 This study says acquiring motor skills support system. There is how to acquire moor skills that coach advises learner. Motor.
Presentation transcript:

人工知能特論II 第14回 二宮 崇

今日の講義の予定 PCFGの学習 教科書 教師付学習 教師無し学習 北研二(著) 辻井潤一(編) 言語と計算4 確率的言語モデル 東大出版会 EMアルゴリズム+内側外側アルゴリズム 教科書 北研二(著) 辻井潤一(編) 言語と計算4 確率的言語モデル 東大出版会 C. D. Manning & Hinrich Schütze “FOUNDATIONS OF STATISTICAL NATURAL LANGUAGE PROCESSING” MIT Press, 1999 D. Jurafsky, J. H. Martin, A. Kehler, K.V. Linden & N. Ward “Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition” Prentice Hall Series in Artificial Intelligence, 2000

パラメータ推定 PCFGの学習

PCFGの学習 教師付学習 教師無学習 正解構文木の集合(=ツリーバンクと呼ばれる)が存在する場合の学習 正解構文木の集合が与えられない状況で、パラメータの推定を行う学習

PCFGの学習 最尤推定によるパラメータ推定 教師付学習 教師無学習 正解構文木の集合(ツリーバンクと呼ばれる)に対する単純な数え上げ 文法規則の確率モデル化、語彙化、補語や下位範疇化フレームの導入、粒度の異なる混合モデルに対する補間係数の学習 教師無学習 正解構文木がない場合や書換規則パラメータ以外のパラメータが存在する場合に使われる EMアルゴリズム+内側外側アルゴリズム

パラメータ推定: 単純な数え上げ 正解構文木の集合(ツリーバンク)Treebankが与えられた時、

有名なツリーバンク 構文木や係り受け木を人手で付与したコーパス (ツリーバンク)の登場 Penn Treebank [Marcus et al. 1993] SUSANNE [Sampson 1995] TIGER Treebank [Brants et al. 2002] Prague Dependency Treebank [Hajic 1998] Verbmobil [Hinrichs et al. 2000] EDRコーパス [EDR 1995] 京都大学テキストコーパス [黒橋ら 1997] 日本語話し言葉コーパス [前川ら 2000]

Penn Treebank (1/2) 構文木が付与された最初の大規模英語ツリーバンク [Marcus et al. 1993] 様々な分野の英語テキストを収録 Wall Street Journal (新聞) 約5万文、100万語 ATIS (航空券予約の会話) Brown (様々な分野のテキスト) Switchboard (電話の自由発話)

Penn Treebank (2/2) 品詞: NN(普通名詞), VBZ(三単現動詞)… 構文木: NP(名詞句), VP(動詞句)… Function tag, null element: 述語項構造を計算するための付加情報 (詳細省略) S 名詞句 VP NP VP 限定詞 DT NN NN VBZ RB VBN VBN A record date has n’t been set. 普通名詞 三単現動詞 副詞 過去分詞

PCFGの自動抽出(1/2) ツリーバンクの各分岐をCFG規則だと仮定 して抽出する [Charniak 1996; 1997] c.f. [Sekine1995] CFG規則 S S → NP VP NP → DT NN NN VP → VBZ RB VP VP → VBN VBN VP NP VP DT NN NN VBZ RB VBN VBN A record date has n’t been set.

PCFGの自動抽出(2/2) ツリーバンクでの出現頻度から確率値を推定 確率値最大の木を探索することで、構文解析の曖昧性解消ができる S S → NP VP NP → DT NN NN VP → VBZ RB VP VP → VBN VBN 0.5 0.03 0.02 0.1 VP NP VP DT NN NN VBZ RB VBN VBN A record date has n’t been set. ツリーバンクから学習した文法は「ツリーバンク文法」と呼ばれる

ツリーバンク文法の改良 CFG規則の自動圧縮 [Krotov et al. 1998; 1999] CFG規則の確率モデル化 [Magerman 1995; Collins 1997; Charniak 2000] 非終端記号の細分化 [Magerman 1995; Collins 1996; 1997; Johnson 1998; Charniak 2000]

マルコフ文法 (1/4) CFG規則の確率モデル化 CFG規則を確率的に生成する [Collins 1997; Charniak 2000] 原理的には、全てのCFG規則をもつ PCFG Penn Treebank から抽出したそのままのPCFG よりも高精度 p(NP → DT NN NN | NP) = p(NN | NP) p(NN | NN, NP) p(DT | NN, NN, NP)

マルコフ文法 (2/4) 語彙化: Head percolation table (Magerman 1995) を用いて、非終端記号に head word を付与 (参考)語彙化の意味 [Gildea 2001; Bikel 2004] S applied Head percolation table VP 親の記号 主辞になる子の記号 S VP, … VP VP, VBD, VBZ, … NP NN, … PP IN, … applied VP PP applied to NP NP NP We algorithm IE NN VBD DT NN IN NN We applied the algorithm to IE Charniak [1996]: 80% vs. Magerman [1995]: 86%

マルコフ文法 (3/4) 語彙化+補語(句)/修飾語(句)の区別 下位範疇化フレーム(subcat frame)を導入 補語として取る非終端記号の多重集合(multi set) S(bought, VBD) NP-C(IBM, NNP) VP(bought, VBD) NP(week, NN) NNP(IBM, NNP) NP-C(Lotus, NNP) NN(week, NN) JJ(Last, JJ) VB(bought, VBD) NNP(Lotus, NNP) IBM Last week bought Lotus

マルコフ文法 (4/4) 現在の(おおよそ)最高性能のパーザー(Charniak&Johnson2005)の基礎 Charniak(2000)のパーザーの出力をエントロピー最大化法を用いてreranking Charniakパーザーもマルコフ文法の一種 モデル 精度(LF) collins1999 88.19% charniak2000 89.55% charniak&johnson2005 91.02%

EMアルゴリズムと内側外側アルゴリズム PCFGの教師無し学習

PCFGの教師無し学習 PCFG教師無し学習におけるパラメータ推定 ただし C(r;t): 書換規則rが構文木t中に出現する回数 T(s): 文sに対して、フルパージングで得られる全構文木集合

EMアルゴリズムによる PCFGのパラメータ更新式導出 PCFGのQ関数

PCFGのパラメータ更新式導出 PCFGのQ関数 ラグランジュ関数

PCFGのパラメータ更新式導出 ラグランジュ関数をパラメータで偏微分

PCFGのパラメータ更新式導出 パラメータ更新式 書換規則の適用回数の期待値になっていることに注意

PCFGのEMアルゴリズム θ(0) := 適当な値 [Eステップ] θ(i)を用いて各構文木の確率を計算。文sに対する各構文木の相対確率を計算。 [Mステップ] θ(i+1)を求める 2.に戻る

PCFGに対するEMアルゴリズムの問題点 構文木が多すぎて現実的な時間で各構文木の相対確率を計算できない!(文長に対して指数爆発的に増加。簡単に数百億ぐらいになる。) s parse ... p(t)/Z = 0.21 0.06 0.001 0.05 0.07 数百億続く!

内側外側アルゴリズム アイデア 畳みこまれた構文木集合に対して効率的にEMアルゴリズムを実行する手法 CKY法での構文解析後、CKYテーブルから構文木を展開することなく各書換規則の適用回数の期待値が計算できればよい バイナリールールを仮定し、内側確率と外側確率を動的計画法で効率的に計算 内側確率と外側確率から書換規則の適用回数の期待値が計算

内側確率 内側確率 β(i,j,A) 非終端記号Aから単語列wi+1,...,wjを導出する確率(=単語列wi+1,...,wjを構文解析してルート(根)がAとなる構文木集合の確率の和) A w1,...,wi wi+1, ..................,wj wj+1,...,wn

内側確率の計算 Si,jをビタビアルゴリズムと同様に計算 ただし、ファクタリングの際にmaxをとっていたのをsumにする Si,j: <X, p>の集合 (X: 非終端記号, p: 部分木の確率) Si,jの求め方 for k = i+1 to j-1 forall <B, pX>∈ Si,k forall <C, pY>∈ Sk,j forall A ∈ G(B, C) if( <A, p> exists in Si,j ) p := p + pX×pY×θZ→X Y else Si,j := Si,j ∪ <A, pX×pY×θZ→X Y> sumをmaxにするとビタビアルゴリズムになる

外側確率 外側確率α(i,j,B) S(開始記号)からw1...wiBwj+1...wnを導出する確率 S B w1,...,wi wi+1, ..................,wj wj+1,...,wn

外側確率計算のアイデア バイナリールールなので、次の2通りとACの組み合わせからα(i,j,B)が計算できる A→B C: Aの外側確率×Cの内側確率×θA→B C A→C B :Aの外側確率×Cの内側確率×θA→C B S S A A B C B C w1..wi wi+1 ..wj wj+1 ..wk wk+1..wn w1..wk wk+1 ..wi wi+1 ..wj wj+1..wn

外側確率の計算 α(i,j,B)の計算

外側確率の計算 α(i,j,X)の計算の順番 S0,6 S0,5 S1,6 S0,4 S1,5 S2,6 S0,3 S1,4 S2,5 スタート S0,5 S1,6 S0,4 S1,5 S2,6 S0,3 S1,4 S2,5 S3,6 S0,2 S1,3 S2,4 S3,5 S4,6 S0,1 S1,2 S2,3 S3,4 S4,5 S5,6 1 2 3 4 5 6 w1 w2 w3 w4 w5 w6

外側確率計算アルゴリズム フルパージングと内側確率計算後を仮定 for all 0 ≦i < j ≦n, X∈VN α(i,j,X) := 0 α(0,n,S) := 1.0 for l = n – 1 to 1 for i = 0 to n - l j := i + l forall Ai,j → Bi,k Ck,j in Si,j α(i, k, B):=α(i, k, B)+α(i,j,A)×β(k,j,C)×θA→ B C α(k, j, C):=α(k, j, C)+α(i,j,A)×β(i,k,B)×θA→B C Ai,j → Bi,k Ck,j in Si,jはフルパージングの際にSi,j中の非終端記号Aを生成するに到った履歴 ・書換規則がA→B C ・BはSi,kの中の要素 ・CはSk,jの中の要素

書換規則の適用回数の期待値 Ai,j→Bi,k Ck,jの適用回数の期待値 =1/Z×(Ai,j→Bi,k Ck,j の出現した構文木の確率の和) =1/Z×(Bi,kの内側確率×Ck,jの内側確率×θA→B C×Ai,jの外側確率) S A B C w1..wi wi+1 ..wk wk+1 ..wj wj+1..wn

内側外側アルゴリズム θ(0) := 適当な値 [Eステップ] θ(i)を用いて内側確率と外側確率を計算。 [Mステップ] 書換規則の適用回数の期待値を計算。θ(i+1)を求める 2.に戻る

まとめ PCFGの学習 資料 http://aiweb.cs.ehime-u.ac.jp/~ninomiya/ai2/ 教師有り学習 単純な数え上げ ツリーバンクからの文法抽出 マルコフ文法 教師無し学習 EMアルゴリズムと内側外側アルゴリズム 資料 http://aiweb.cs.ehime-u.ac.jp/~ninomiya/ai2/