自然言語処理プログラミング勉強会2 n-gram言語モデル

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

自然言語処理プログラミング勉強会2 n-gram言語モデル Graham Neubig 奈良先端科学技術大学院大学 (NAIST)

先週の復習:文の確率計算 文の確率が欲しい 変数で以下のように表す(連鎖の法則を用いて): W = speech recognition system P(|W| = 3, w1=”speech”, w2=”recognition”, w3=”system”) = P(w1=“speech” | w0 = “<s>”) * P(w2=”recognition” | w0 = “<s>”, w1=“speech”) * P(w3=”system” | w0 = “<s>”, w1=“speech”, w2=”recognition”) * P(w4=”</s>” | w0 = “<s>”, w1=“speech”, w2=”recognition”, w3=”system”) 注: 文頭「<s>」と文末「</s>」記号 注: P(w0 = <s>) = 1

確率の漸次的な計算 前のスライドの積を以下のように一般化 以下の条件付き確率の決め方は? 𝑃 𝑊 = 𝑖=1 ∣𝑊∣+1 𝑃 𝑤 𝑖 ∣ 𝑤 0 … 𝑤 𝑖−1 𝑃 𝑤 𝑖 ∣ 𝑤 0 … 𝑤 𝑖−1

= 1-gramモデルは語順を考慮しない 以下の確率は同等 Puni(w=speech recognition system) = P(w=speech) * P(w=recognition) * P(w=system) * P(w=</s>) = Puni(w=system recognition speech ) = P(w=speech) * P(w=recognition) * P(w=system) * P(w=</s>)

1-gramモデルは単語の 関係性を考慮しない 文法的な文:(名詞と活用が一致) 文法的でない文:(名詞と活用が矛盾) Puni(w=i am) = P(w=i) * P(w=am) * P(w=</s>) Puni(w=we are) = P(w=we) * P(w=are) * P(w=</s>) Puni(w=we am) = P(w=we) * P(w=am) * P(w=</s>) Puni(w=i are) = P(w=i) * P(w=are) * P(w=</s>) しかし、確率は上記の文と同等

文脈を考慮することで解決! 1-gramモデルは文脈を考慮しない 2-gramは1単語の文脈を考慮 3-gramは2単語の文脈を考慮 𝑃 𝑤 𝑖 ∣ 𝑤 0 … 𝑤 𝑖−1 ≈𝑃 𝑤 𝑖 𝑃 𝑤 𝑖 ∣ 𝑤 0 … 𝑤 𝑖−1 ≈𝑃 𝑤 𝑖 ∣ 𝑤 𝑖−1 𝑃 𝑤 𝑖 ∣ 𝑤 0 … 𝑤 𝑖−1 ≈𝑃 𝑤 𝑖 ∣ 𝑤 𝑖−2 𝑤 𝑖−1

n-gram確率の最尤推定 i live in osaka . </s> n単語とn-1単語からなる文字列の頻度を利用 𝑃 𝑤 𝑖 ∣ 𝑤 𝑖−𝑛+1 … 𝑤 𝑖−1 = 𝑐 𝑤 𝑖−𝑛+1 … 𝑤 𝑖 𝑐 𝑤 𝑖−𝑛+1 … 𝑤 𝑖−1 i live in osaka . </s> i am a graduate student . </s> my school is in nara . </s> P(osaka | in) = c(in osaka)/c(in) = 1 / 2 = 0.5 n=2 → P(nara | in) = c(in nara)/c(in) = 1 / 2 = 0.5

低頻度n-gramの問題 P(osaka | in) = c(in osaka)/c(in) = 1 / 2 = 0.5 n-gram頻度が0→n-gram確率も0 1-gramモデルと同じく、線形補間を用いる P(osaka | in) = c(in osaka)/c(in) = 1 / 2 = 0.5 P(nara | in) = c(in nara)/c(in) = 1 / 2 = 0.5 P(school | in) = c(in school)/c(in) = 0 / 2 = 0!! 2-gram: 𝑃 𝑤 𝑖 ∣ 𝑤 𝑖−1 = λ 2 𝑃 𝑀𝐿 𝑤 𝑖 ∣ 𝑤 𝑖−1 + 1− λ 2 𝑃 𝑤 𝑖 𝑃 𝑤 𝑖 = λ 1 𝑃 𝑀𝐿 𝑤 𝑖 + 1− λ 1 1 𝑁 1-gram:

補間係数の選択法:グリッド探索 … … 問題: λ2とλ1の様々な値を試し、尤度が最も高くなるように選択 選択肢が多すぎる λ 2 =0.95, λ 1 =0.95 λ 2 =0.95, λ 1 =0.90 λ 2 =0.95, λ 1 =0.85 問題: … 選択肢が多すぎる → 選択に時間がかかる! 全てのn-gramに対して同じλ → 尤度が最適とは限らない! λ 2 =0.95, λ 1 =0.05 λ 2 =0.90, λ 1 =0.95 λ 2 =0.90, λ 1 =0.90 … λ 2 =0.05, λ 1 =0.10 λ 2 =0.05, λ 1 =0.05

文脈を考慮した補間係数の選択 補間係数の選択にも文脈を考慮: 頻度の高い単語:Tokyo c(Tokyo city) = 40 c(Tokyo is) = 35 c(Tokyo was) = 24 c(Tokyo tower) = 15 c(Tokyo port) = 10 … ほとんどの2-gramが既観測 → 大きなλが最適 頻度の低い単語:Tottori c(Tottori is) = 2 c(Tottori city) = 1 c(Tottori was) = 0 未観測の2-gramが多い → 小さなλが最適 補間係数の選択にも文脈を考慮: 𝑃 𝑤 𝑖 ∣ 𝑤 𝑖−1 = λ 𝑤 𝑖−1 𝑃 𝑀𝐿 𝑤 𝑖 ∣ 𝑤 𝑖−1 + 1− λ 𝑤 𝑖−1 𝑃 𝑤 𝑖

Witten-Bell平滑化 を選ぶ方法の1つ 例えば、 = wi-1の後に続く単語の異なり数   を選ぶ方法の1つ 例えば、 λ 𝑤 𝑖−1 λ 𝑤 𝑖−1 =1− 𝑢 𝑤 𝑖−1 𝑢 𝑤 𝑖−1 +𝑐 𝑤 𝑖−1 𝑢 𝑤 𝑖−1 = wi-1の後に続く単語の異なり数 c(Tottori is) = 2 c(Tottori city) = 1 c(Tottori) = 3 u(Tottori) = 2 c(Tokyo city) = 40 c(Tokyo is) = 35 ... c(Tokyo) = 270 u(Tokyo) = 30 λ 𝑇𝑜𝑡𝑡𝑜𝑟𝑖 =1− 2 2+3 =0.6 λ 𝑇𝑜𝑘𝑦𝑜 =1− 30 30+270 =0.9

言語モデルのための プログラミング技術

配列への挿入 文頭・文末記号を考慮するために以下の操作を利用 Pythonでappendとinsert関数を利用 my_words = [“this”, “is”, “a”, “pen”] my_words = [“<s>”, “this”, “is”, “a”, “pen”, “</s>”] my_words.append(“</s>”) # 配列の最後い挿入 my_words.insert(0, “<s>”) # 配列の最初に挿入

リストの一部の抜き出し あるリストが与えられた時、x-1要素目からy要素目を抜 き出す my_list[x:y] n-gram wi-n+1 … wiが与えられた場合、文脈wi-n+1 … wi-1 の計算に利用 my_list = [“a”, “b”, “c”, “d”, “e”] print my_list[1:3] # リストの2番と3番の要素をプリント print my_list[:3] # リストの最初の3つの要素をプリント print my_list[3:] # リストの4番目以降の要素をプリント print my_list[:-2] # リストの最後の2つの要素以外をプリント

演習問題

演習問題 2つのプログラムを作成 train-bigram: 2-gramモデルを学習 test-bigram: 2-gramモデルに基づいて評価データの エントロピーを計算 テスト入力:test/02-train-input.txt 学習データ:data/wiki-en-train.word data/wiki-en-test.wordに対してエントロピーを計算(線 形補間を用いる場合、様々なλ2を試す) 上級編: Witten-Bell平滑化を利用(線形補間の方が簡単) 任意な文脈長が利用可能なプログラムを作成

test-bigram擬似コード (線形補間) λ1 = ???, λ2 = ???, V = 1000000, W = 0, H = 0 load model into probs for each line in test_file split line into an array of words append “</s>” to the end and “<s>” to the beginning of words for each i in 1 to length(words)-1 # 注:<s>の後に始まる P1 = λ1 probs[“wi”] + (1 – λ1) / V # 1-gramの平滑化された確率 P2 = λ2 probs[“wi-1 wi”] + (1 – λ2) * P1 # 2-gramの平滑化された確率 H += -log2(P2) W += 1 print “entropy = ”+H/W

train-bigram擬似コード (線形補間) create map counts, context_counts for each line in the training_file split line into an array of words append “</s>” to the end and “<s>” to the beginning of words for each i in 1 to length(words)-1 # 注:<s>の後に始まる counts[“wi-1 wi”] += 1 # 2-gramの分子と分母を加算 context_counts[“wi-1”] += 1 counts[“wi”] += 1 # 1-gramの分子と分母を加算 context_counts[“”] += 1 open the model_file for writing for each ngram, count in counts split ngram into an array of words # “wi-1 wi” → {“wi-1”, “wi”} remove the last element of words # {“wi-1”, “wi”} → {“wi-1”} join words into context # {“wi-1”} → “wi-1” probability = counts[ngram]/context_counts[context] print ngram, probability to model_file