人工知能特論II 第15回 二宮 崇.

Slides:



Advertisements
Similar presentations
PCFG の EM アルゴリズムとス ムージング 二宮 崇 1. 今日の講義の予定 PCFG (Probabilistic Context Free Grammar, 確率付 文脈自由文法 ) EM アルゴリズム スムージング 教科書 北研二 ( 著 ) 辻井潤一 ( 編 ) 言語と計算 4 確率的言語モデル.
Advertisements

数理言語情報論 第 2 回 数理言語情報学研究室 講師 二宮 崇 2009 年 10 月 14 日 1.
Lecture02-Binary Search Trees 通信情報システム専攻 岩間伊藤研究室 M1 前田圭介.
人工知能特論 II 第 11 回 二宮 崇二宮 崇 1. 今日の講義の予定 確率的識別モデル 最大エントロピーモデル ( 多クラスロジスティック回帰、対数線形モデル ) パラメータ推定 自然言語処理での素性ベクトル 教科書 Yusuke Miyao (2006) From Linguistic Theory.
Problem J: いにしえの数式 問題作成・解説: 北村 解答作成協力: 八森.
ロジスティクス工学 第6章 動的ロットサイズ決定モデル 東京商船大学 久保 幹雄
基本情報技術概論 I 演習(第5回) 埼玉大学 理工学研究科 堀山 貴史
計算の理論 I 文脈自由文法 月曜3校時 大月 美佳 平成15年6月30日 佐賀大学知能情報システム学科.
自然言語処理:第3回 1.前回の確認 2.構文解析 3.格文法.
人工知能特論 8.教師あり学習と教師なし学習
Problem by D. Mikurube Slides by Y. Izumi
数理言語情報論 第12回 2010年1月13日 数理言語情報学研究室 講師 二宮 崇.
数理言語情報論 第11回 2009年12月16日 数理言語情報学研究室 講師 二宮 崇.
人工知能特論II 二宮 崇.
数理言語情報論 第3回 2007年10月22日 数理言語情報学研究室 講師 二宮 崇.
言語体系とコンピュータ 第6回.
言語処理系(6) 金子敬一.
数理言語情報論 第11回 2007年1月21日 数理言語情報学研究室 講師 二宮 崇.
数理言語情報論 第8回 2009年11月25日 数理言語情報学研究室 講師 二宮 崇.
部分木に基づくマルコフ確率場と言語解析への適用
プログラミング言語論 第4回 式の構文、式の評価
第6章 ユニフィケーション解析 ユニフィケーション解析とは?
言語処理系(5) 金子敬一.
言語処理系(8) 金子敬一.
データ構造とアルゴリズム 第6回の2 木 ~ データ構造(3)~.
第11講: 平成18年12月 8日 (金) 4限 E352教室 グラフ (1).
コンパイラ 2012年10月22日
数理言語情報論 第7回 2007年11月19日 数理言語情報学研究室 講師 二宮 崇.
大岩 元 慶応大学環境情報学部 二分木 データ構造とプログラミング(10) 大岩 元 慶応大学環境情報学部
コンパイラ 2011年10月24日
二分探索木によるサーチ.
2009/10/16 いろいろなデータ構造 第3講: 平成21年10月16日 (金) 4限 E252教室 コンピュータアルゴリズム.
ロジスティクス工学 第7章 配送計画モデル 東京商船大学 久保 幹雄
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
“Purely Functional Data Structures” セミナー
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
ネットワーク上での社会的効用と個人的効用の対立問題に対するアルゴリズム的研究
人工知能特論II 第2回 二宮 崇.
決定木とランダムフォレスト 和田 俊和.
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
1 T 行きがけ順: A B D F I J C G H 通りがけ順: D B I F J A G C H
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
Online Decoding of Markov Models under Latency Constraints
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
コンパイラ 第13回 上昇型構文解析(1) 38号館4階N-411 内線5459
単一化アルゴリズムとHPSGパージング 二宮 崇.
データ構造とアルゴリズム (第3回) ー木構造ー.
データ構造と アルゴリズム 第七回 知能情報学部 新田直也.
離散数学 07. 木 五島.
文法と言語 ー文脈自由文法とLR構文解析3ー
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
プログラミング 4 木構造とヒープ.
コンパイラ 2011年10月20日
15.cons と種々のデータ構造.
アルゴリズムとデータ構造 第3章 ヒープ 5月31日分
第16章 動的計画法 アルゴリズムイントロダクション.
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
情報工学概論 (アルゴリズムとデータ構造)
統計力学と情報処理 ---自由エネルギーの生み出す新しい情報処理技術--- 2003年8月14日前半
アルゴリズムとデータ構造 第2章 リスト構造 5月24日分
4.プッシュダウンオートマトンと 文脈自由文法の等価性
計算の理論 I 文脈自由文法 月曜3校時 大月美佳.
ヒープソート.
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
コンパイラ 2012年10月11日
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Normalized Web Distanceを用いた音声認識の誤り訂正法 301-4in
プログラミング入門2 第3回 条件分岐(2) 繰り返し文 篠埜 功.
Presentation transcript:

人工知能特論II 第15回 二宮 崇

今日の講義の予定 CFGの条件付確率場 係り受け解析 (MSTパージング) 決定的構文解析

Conditional Random Fields for CFGs CFGの条件付確率場 (CRF)

… 識別モデル s = “A blue eye girl with white hair and skin walked” 素性ベクトル (特徴ベクトル) (0,0,1,0) (1,0,1,0) (1,1,1,0) (0,0,1,1) (1,0,0,0) t1 t2 t3 t4 … tn 文法Gによりsから導出出来る全ての構文木集合 p(t3|s) はt1,t2,t3,..,tnからt3を選択する確率

CFGの識別モデルの例 構文木生成に用いられた各書換規則の適用回数 各次元は書換規則に対応 ルールID 1 2 3 4 5 6 7 8 9 10 素性ベクトル(0,0,1,0,3,0,1,1,2,0) 構文木中に含まれる各書換規則の適用回数 構文木

構文木の素性ベクトル 簡単なCFGの例 ID S → SUBJ VP1 1 S → SUBJ V 2 SUBJ → NP が 3 VP1 → OBJ1 V 4 OBJ1 → NP を 5 NP → S NP 6 V → 送った 7 V → 読んだ 8 NP → 香織 9 NP → 恵 10 NP → 電子メール 11 NP → プレゼント 12 NP → 香織 NP1 13 NP → 恵 NP1 14 NP1 → と NP 15 ID 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 素性ベクトル( 1, 1, 2, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0) 構文木 t S VP1 SUBJ NP OBJ1 V が 読んだ 香織 NP を S NP SUBJ V 電子メール NP が 送った 恵

素性森 (Feature Forest) 畳み込み構文森のためのCRF (Packed Parse CRF) 素性関数の期待値の計算: 「ある文xに対する全ての構文木集合Y(x)に対する確率」を計算しないといけない 畳み込まれたデータ構造を展開することなく素性関数の期待値を計算 内側外側アルゴリズム (構文木集合) 前向き後向きアルゴリズム (系列ラベリング)

素性森 各ブランチのスコアの積=全体のスコア ... ... ... ... ... 構文木全体の素性ベクトル: (1,0,2,1,0) (0,0,1,0,0) ... ... (1,0,1,1,0) 掛算 ... ...

素性森 構文木の確率 内側外側アルゴリズムの適用 書換規則の適用回数⇒素性値(素性の発火回数) 書換規則の確率 θr ⇒ブランチのスコア PCFGの書換規則の確率に対応

まとめ 品詞解析 構文解析 データ構造 曖昧性のある畳み込まれた列 曖昧性のある畳み込まれた木構造 生成モデル HMM PCFG 生成モデルの教師無し学習 最尤法(EMアルゴリズム)+前向き後ろ向きアルゴリズム 最尤法(EMアルゴリズム)+内側外側アルゴリズム 生成モデルの教師付学習 正解データの頻度から計算 確率的識別モデル Linear-Chain CRF Feature Forest (Packed-Parse CRF) 識別モデルの教師付学習(教師付き学習) 最尤法(主に勾配法)+前向き後ろ向きアルゴリズム 最尤法(主に勾配法)+内側外側アルゴリズム

Deterministic Parsing 決定性構文解析

動的計画法の問題点 大域素性が使えない データ表現に制限 部分構文木を作る順序に依存しない→左や右の外側の部分構文木の情報を使えない 畳込みのために子ノード以下の内側の部分構文木の情報が使えない データ表現に制限 意味構造等を構文木ノードに付随させると意味構造も分解し、構文解析後に復元しなくてはいけない 単一化文法の場合、確率計算のために遅延評価のメカニズムが必要

Shift-Reduce Parsing 2種類のデータ構造を持ち、2種類のアクションにより行う構文解析 スタック キュー Shift 構文解析の途中結果を格納 キュー まだ処理されていない単語列 Shift キューの先頭の単語を取り出してスタックに積む Reduce スタックの上n個を取り出して文法規則を適用 文法規則の適用結果(=親ノード)をスタックに積む

Shift-Reduce Parsing Shift! powerful quake injures dozens in Japan キュー スタック

Shift-Reduce Parsing quake injures dozens in Japan キュー powerful ADJ スタック ADJ powerful

Shift-Reduce Parsing Shift! quake injures dozens in Japan キュー ADJ スタック powerful

Shift-Reduce Parsing injures dozens in Japan キュー quake NN ADJ スタック ADJ powerful quake

Shift-Reduce Parsing Reduce! injures dozens in Japan キュー NN NP ADJ スタック NP ADJ NN powerful quake

Shift-Reduce Parsing Shift! injures dozens in Japan キュー NP スタック NP ADJ powerful quake

Shift-Reduce Parsing dozens in Japan キュー injures VBZ NP スタック NP ADJ NN powerful quake injures

Shift-Reduce Parsing Shift! dozens in Japan キュー VBZ NP スタック NP ADJ NN powerful quake injures

Shift-Reduce Parsing in Japan NN dozens キュー VBZ NP スタック NP ADJ NN VBZ powerful quake injures dozens

Shift-Reduce Parsing Shift! in Japan NN キュー VBZ NP スタック NP ADJ NN VBZ powerful quake injures dozens

Shift-Reduce Parsing Japan in P NN キュー VBZ NP スタック NP ADJ NN VBZ NN P powerful quake injures dozens in

Shift-Reduce Parsing Shift! Japan P NN キュー VBZ NP スタック NP ADJ NN VBZ powerful quake injures dozens in

Shift-Reduce Parsing NN Japan P NN キュー VBZ NP スタック NP ADJ NN VBZ NN P powerful quake injures dozens in Japan

Shift-Reduce Parsing Reduce! NN P PP NN キュー VBZ NP スタック NP PP ADJ NN powerful quake injures dozens in Japan

Shift-Reduce Parsing Reduce! PP NN キュー VP VBZ NP スタック VP NP PP ADJ NN powerful quake injures dozens in Japan

Shift-Reduce Parsing Reduce! キュー VP S NP S スタック VP NP PP ADJ NN VBZ NN powerful quake injures dozens in Japan

完了! Shift-Reduce Parsing キュー S S スタック VP NP PP ADJ NN VBZ NN P NN powerful quake injures dozens in Japan

Deterministic Shift-Reduce Parsing (Ratnaparkhi1997, Yamada&Matsumoto2003, Sagae&Lavie2005) 識別器を用いて、どのアクションを行うか選択 SVMやMEを使う 素性はスタック上の全ての構文木(大域素性)や単語、品詞(静的素性) 決定的に解析する(バックトラックを用いたり、複数の状態をもたない)

Shift-Reduce Parsing アクションの種類 Shift-X Reduce-Binary-X Reduce-Unary-X Xという非終端記号(CFG) Xという語彙項目(HPSG) Reduce-Binary-X 二分岐 Xという非終端記号が親ノード(CFG) Xという文法規則(HPSG) Reduce-Unary-X 一分岐

MST Parsing for Dependency Analysis

句構造と依存構造 S 句構造 NP VP 私は PP NP VP 依存構造 ペンを 置いた 机の上に 私は 机の 上に ペンを 置いた

依存構造の問題設定 有向木 有向木の根ノード=文全体を表す特殊なノード (根ノードを除いて)各単語は文中のどれかの単語一つに必ず係る ※有向木の弧の向きは、普通の係り受けの向きと逆になることに注意 私は 机の 上に ペンを 置いた 根ノード

依存構造解析 cost(v, w): 単語wが単語vに係るコスト(有向木でのv→wの弧) ある係り受けのスコア 構文解析 私は 机の 上に ペンを 置いた 根ノード

依存構造解析の問題設定 構文解析 全ての単語v,wに対し、cost(v,w)が与えられていることを想定 全てのノード間で弧が貼られた有向グラフから最もコストの低い有向木をみつける 弧(v,w)の重みはcost(v,w)で与えられる 根ノード w1 w2 w3 w4 r

MST Parsingによる依存構造解析 構文解析 ⇒この問題は「最小コスト全域有向木問題(Minimum-Cost Arborescence Problem)」と等価 (参考) 有名なMaximum Spanning Tree Problemは無向グラフであるときの最大全域木を求める問題 この問題は、Chu–Liu/Edmonds‘s algorithmでO(n2)で解ける

Chu-Liu/Edmond’s Algorithm For each node v≠r Let yv be the minimum cost of an edge entering node v Modify the costs of all edges e entering v to cost(e)←cost(e)-yv Choose one 0-cost edge entering each v≠r, obtaining a set F* If F* forms an arborescence, then return it Else there is a directed cycle C ⊆F* Contract C to a single supernode, yielding a graph G’=(V’, E’) Recursively find an optimal arborescence (V’, F’) in G’ Extend (V’, F’) to an arborescence (V, F) in G by adding all but one edge of C (Algorithm Design, Jon Kleinberg & Eva Tardos, Pearson Education, 2006 より) (アルゴリズムデザイン)

MST Parsingによる依存構造解析 Perceptronによる学習 cij=cost(wi, wj)を学習する あるコストcijが与えられた時コスト最小の依存構造を求めることができればより良いコストcijに更新できる Input: training data D={<x,y>}, feature functions f={fij}, initial parameters c={cij} Output: optimal parameters c loop until c converges foreach <x,y> ∈ D z’ := argminz cost(z;x, c) if( y ≠ z’ ) foreach fij ∈ f cij := cij – fij(y) + fij(z’)

まとめ さまざまな構文解析手法について紹介 講義資料 CFGの条件付確率場 決定性構文解析 依存構造解析 http://aiweb.cs.ehime-u.ac.jp/~ninomiya/ai2/

さいごに parsingの歌 http://www.cs.jhu.edu/~jason/fun/grammar-and-the-sentence/