自然言語処理プログラミング勉強会5 - 隠れマルコフモデルによる品詞推定

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

自然言語処理プログラミング勉強会5 - 隠れマルコフモデルによる品詞推定 Graham Neubig 奈良先端科学技術大学院大学 (NAIST)

品詞推定 文Xが与えられた時の品詞列Yを予測する 先々週で話した「構造化予測」に分類される 予測をどうやって行うか? Natural language processing ( NLP ) is a field of computer science JJ NN NN -LRB- NN -RRB- VBZ DT NN IN NN NN

実際には多くの解決策 点予測: 各単語を個別に予測(例:パーセプトロン、日本 語の形態素解析:KyTea) 系列に対する生成モデル: 今日の話 (例:隠れマルコフ モデル、日本語の形態素解析器:ChaSen) 系列に対する識別モデル: 分類器を使って系列全体を 予測(例:CRF、構造化パーセプトロン、日本語の形態素 解析器:MeCab) Natural language processing ( NLP ) is a field of computer science classifier classifier “processing” = NN? VBG? JJ? “computer” = NN? VBG? JJ?

タグ付けの確率モデル 文が与えられた場合、最も確率の高いタグ列を計算 これをどうやってモデル化? Natural language processing ( NLP ) is a field of computer science JJ NN NN LRB NN RRB VBZ DT NN IN NN NN argmax 𝑌 𝑃 𝑌∣𝑋

系列に対する生成モデル ベイズ則で確率を分解 単語と品詞の関係を考慮 前の品詞と次の品詞の関係を考慮 名詞(NN)が限定詞(DET)に続く argmax 𝑌 𝑃 𝑌∣𝑋 = argmax 𝑌 𝑃 𝑋∣𝑌 𝑃 𝑌 𝑃 𝑋 argmax 𝑌 𝑃 𝑌∣𝑋 = argmax 𝑌 𝑃 𝑋∣𝑌 𝑃 𝑌 単語と品詞の関係を考慮 「natural」はたぶん形容詞(JJ) 前の品詞と次の品詞の関係を考慮 名詞(NN)が限定詞(DET)に続く

隠れマルコフモデル(HMM)

品詞推定のための(HMM) 品詞→品詞の遷移確率 2-gramモデルとほぼ一緒 品詞→単語の生成確率 <s> JJ NN NN 𝑃 𝑌 ≈ 𝑖=1 𝐼+1 𝑃 𝑇 𝑦 𝑖 ∣ 𝑦 𝑖−1 𝑃 𝑋∣𝑌 ≈ 1 𝐼 𝑃 𝐸 𝑥 𝑖 ∣ 𝑦 𝑖 PT(JJ|<s>) * PT(NN|JJ) * PT(NN|NN) … <s> JJ NN NN LRB NN RRB ... </s> natural language processing ( nlp ) ... PE(natural|JJ) * PE(language|NN) * PE(processing|NN) …

タグ付きコーパスからのHMM学習 コーパス中の頻度を数え上げ、 … … 文脈の頻度で割ることで確率を求める natural language processing ( nlp ) is … <s> JJ NN NN LRB NN RRB VB … </s> c(JJ→natural)++ c(NN→language)++ … c(<s> JJ)++ c(JJ NN)++ … 文脈の頻度で割ることで確率を求める PT(LRB|NN) = c(NN LRB)/c(NN) = 1/3 PE(language|NN) = c(NN → language)/c(NN) = 1/3

学習アルゴリズム # 入力データ形式は「natural_JJ language_NN …」 make a map emit, transition, context for each line in file previous = “<s>” # 文頭記号 context[previous]++ split line into wordtags with “ “ for each wordtag in wordtags split wordtag into word, tag with “_” transition[previous+“ “+tag]++ # 遷移を数え上げる context[tag]++ # 文脈を数え上げる emit[tag+“ “+word]++ # 生成を数え上げる previous = tag transition[previous+” </s>”]++ # 遷移確率を出力 for each key, value in transition split key into previous, word with “ “ print “T”, key, value/context[previous] # 同じく生成確率を出力(「T」ではなく「E」を付与)

平滑化 2-gramモデルで平滑化を用いた: PLM(wi|wi-1) = λ PML(wi|wi-1) + (1-λ) PLM(wi) HMM遷移確率:タグの数は少ないので平滑化は不要 HMM生成確率:未知語を扱うために平滑化が必要 PLM(wi|wi-1) = λ PML(wi|wi-1) + (1-λ) PLM(wi) PT(yi|yi-1) = PML(yi|yi-1) PE(xi|yi) = λ PML(xi|yi) + (1-λ) 1/N

品詞推定の探索

マルコフモデルを使った品詞推定 やはらビタビアルゴリズムを利用 品詞推定の探索グラフの形は? 重要だと言った だろう!

HMM品詞推定のグラフ 品詞推定の探索グラフの形: 1:NN 2:NN 3:NN 4:NN 5:NN 6:NN 1:JJ 2:JJ 3:JJ natural language processing ( nlp ) 0:<S> 1:NN 2:NN 3:NN 4:NN 5:NN 6:NN 1:JJ 2:JJ 3:JJ 4:JJ 5:JJ 6:JJ 1:VB 2:VB 3:VB 4:VB 5:VB 6:VB … 1:LRB 2:LRB 3:LRB 4:LRB 5:LRB 6:LRB 1:RRB 2:RRB 3:RRB 4:RRB 5:RRB 6:RRB … … … … … …

HMM品詞推定のグラフ 各パスは品詞列を表す 1:NN 2:NN 3:NN 4:NN 5:NN 6:NN 1:JJ 2:JJ 3:JJ natural language processing ( nlp ) 0:<S> 1:NN 2:NN 3:NN 4:NN 5:NN 6:NN 1:JJ 2:JJ 3:JJ 4:JJ 5:JJ 6:JJ 1:VB 2:VB 3:VB 4:VB 5:VB 6:VB … 1:LRB 2:LRB 3:LRB 4:LRB 5:LRB 6:LRB 1:RRB 2:RRB 3:RRB 4:RRB 5:RRB 6:RRB … … … … … … <s> JJ NN NN LRB NN RRB

復習:ビタビアルゴリズムのステップ 前向きステップ:各ノードへたどる確率の計算 負の対数尤度がもっとも低くなるパス 後ろ向きステップ:パスの復元 単語分割とほとんど同じ

前向きステップ:文頭 文頭記号<S>から1単語目への遷移と1単語目の生成の 確率 natural 1:NN 1:JJ 1:VB best_score[“1 NN”] = -log PT(NN|<S>) + -log PE(natural | NN) 1:JJ best_score[“1 JJ”] = -log PT(JJ|<S>) + -log PE(natural | JJ) 1:VB best_score[“1 VB”] = -log PT(VB|<S>) + -log PE(natural | VB) 1:LRB best_score[“1 LRB”] = -log PT(LRB|<S>) + -log PE(natural | LRB) 1:RRB best_score[“1 RRB”] = -log PT(RRB|<S>) + -log PE(natural | RRB) …

前向きステップ:中間 前の品詞を全部比べて、これまでのパス、遷移、生成を 全て考慮した最短パスを利用 natural language best_score[“2 NN”] = min( best_score[“1 NN”] + -log PT(NN|NN) + -log PE(language | NN), best_score[“1 JJ”] + -log PT(NN|JJ) + -log PE(language | NN), best_score[“1 VB”] + -log PT(NN|VB) + -log PE(language | NN), best_score[“1 LRB”] + -log PT(NN|LRB) + -log PE(language | NN), best_score[“1 RRB”] + -log PT(NN|RRB) + -log PE(language | NN), ... ) 1:NN 2:NN 1:JJ 2:JJ 1:VB 2:VB 1:LRB 2:LRB best_score[“2 JJ”] = min( best_score[“1 NN”] + -log PT(JJ|NN) + -log PE(language | JJ), best_score[“1 JJ”] + -log PT(JJ|JJ) + -log PE(language | JJ), best_score[“1 VB”] + -log PT(JJ|VB) + -log PE(language | JJ), ... 1:RRB 2:RRB … …

前向きステップ:文末 文末記号への遷移を考慮して終わり science I:NN I+1:</S> I:JJ I:VB … best_score[“I+1 </S>”] = min( best_score[“I NN”] + -log PT(</S>|NN), best_score[“I JJ”] + -log PT(</S>|JJ), best_score[“I VB”] + -log PT(</S>|VB), best_score[“I LRB”] + -log PT(</S>|LRB), best_score[“I NN”] + -log PT(</S>|RRB), ... ) I:NN I+1:</S> I:JJ I:VB I:LRB I:RRB …

実装:モデル読み込み make a map for transition, emission, possible_tags for each line in model_file split line into type, context, word, prob possible_tags[context] = 1 # 可能なタグとして保存 if type = “T” transition[“context word”] = prob else emission[“context word”] = prob

実装:前向きステップ split line into words I = length(words) make maps best_score, best_edge best_score[“0 <s>”] = 0 # <s>から始まる best_edge[“0 <s>”] = NULL for i in 0 … I-1: for each prev in keys of possible_tags for each next in keys of possible_tags if best_score[“i prev”] and transition[“prev next”] exist score = best_score[“i prev”] + -log PT(next|prev) + -log PE(word[i]|next) if best_score[“i+1 next”] is new or > score best_score[“i+1 next”] = score best_edge[“i+1 next”] = “i prev” # 最後、</s>に対して同じ操作を行う

実装:後ろ向きステップ tags = [ ] next_edge = best_edge[ “I </s>” ] while next_edge != “0 <s>” # このエッジの品詞を出力に追加 split next_edge into position, tag append tag to tags next_edge = best_edge[ next_edge ] tags.reverse() join tags into a string and print

演習問題

演習問題 train-hmmとtest-hmmを実装 テスト: 入力: test/05-{train,test}-input.txt 正解: test/05-{train,test}-answer.txt data/wiki-en-train.norm_posを使ってモデルを学習し、data/wiki- en-test.normに対して品詞推定を行う 品詞推定の性能を評価して報告: script/gradepos.pl data/wiki-en-test.pos my_answer.pos 上級編:精度を向上させる方法を考える