自然言語処理プログラミング勉強会4 - 単語分割

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

自然言語処理プログラミング勉強会4 - 単語分割 Graham Neubig 奈良先端科学技術大学院大学 (NAIST)

単語分割とは 単語分割を行う 単語 分割 を 行 う 日本語や中国語、タイ語などは英語と違って単語の間に 空白を使わない 単語分割は単語の間に明示的な区切りを入れる 単語分割を行う 単語 分割 を 行 う

必要なプログラミング技術: 部分文字列 文字列の一部からなる部分文字列を作る方法 $ ./my-program.py hello world

Unicode文字列の扱い (文字化けを防ぐ) unicode()とencode()関数でUTF-8を扱う $ cat test_file.txt 単語分割 $ ./my-program.py str: �� � utf_str: 単語 分割

単語分割は難しい! o x 農産物価格安定法 農産 物 価格 安定 法 農産 物価 格安 定法 各文に対する多くの解釈はあるが、正解はただ1つ 正しい仮説をどうやって選ぶか? 農産物価格安定法 o x 農産 物 価格 安定 法 農産 物価 格安 定法 (agricultural product price stabilization law) (agricultural cost of living discount measurement)

… 1つの解決策:言語モデルの利用 P(農産 物 価格 安定 法) = 4.12*10-23 最も確率の高い仮説を選ぶ ここで1-gram言語モデルを利用 P(農産 物 価格 安定 法) = 4.12*10-23 P(農産 物価 格安 定法) = 3.53*10-24 P(農産 物 価 格安 定法) = 6.53*10-25 P(農産 物 価格 安 定法) = 6.53*10-27 …

問題:膨大な仮説空間 … 農産物価格安定法 農 産物価格安定法 農産 物価格安定法 農 産 物価格安定法 農産物 価格安定法 農 産物 価格安定法 農産 物 価格安定法 農 産 物 価格安定法 農産物価 格安定法 農 産物価 格安定法 農産 物価 格安定法 農 産 物価 格安定法 農産物 価 格安定法 農 産物 価 格安定法 農産 物 価 格安定法 農 産 物 価 格安定法 農産物価格 安定法 農 産物価格 安定法 農産 物価格 安定法 農 産 物価格 安定法 農産物 価格 安定法 農 産物 価格 安定法 農産 物 価格 安定法 農 産 物 価格 安定法 農産物価 格 安定法 農 産物価 格 安定法 農産 物価 格 安定法 農 産 物価 格 安定法 農産物 価 格 安定法 農 産物 価 格 安定法 農産 物 価 格 安定法 農 産 物 価 格 安定法 農産物価格安 定法 農 産物価格安 定法 農産 物価格安 定法 農 産 物価格安 定法 農産物 価格安 定法 農 産物 価格安 定法 農産 物 価格安 定法 農 産 物 価格安 定法 農産物価 格安 定法 農 産物価 格安 定法 農産 物価 格安 定法 農 産 物価 格安 定法 農産物 価 格安 定法 農 産物 価 格安 定法 農産 物 価 格安 定法 農 産 物 価 格安 定法 農産物価格 安 定法 農 産物価格 安 定法 農産 物価格 安 定法 農 産 物価格 安 定法 農産物 価格 安 定法 農 産物 価格 安 定法 農産 物 価格 安 定法 農 産 物 価格 安 定法 農産物価 格 安 定法 農 産物価 格 安 定法 農産 物価 格 安 定法 農 産 物価 格 安 定法 農産物 価 格 安 定法 農 産物 価 格 安 定法 農産 物 価 格 安 定法 農 産 物 価 格 安 定法 農産物価格安定 法 農 産物価格安定 法 農産 物価格安定 法 農 産 物価格安定 法 農産物 価格安定 法 農 産物 価格安定 法 農産 物 価格安定 法 農 産 物 価格安定 法 農産物価 格安定 法 農 産物価 格安定 法 農産 物価 格安定 法 農 産 物価 格安定 法 農産物 価 格安定 法 農 産物 価 格安定 法 農産 物 価 格安定 法 農 産 物 価 格安定 法 … 実際の 仮説数は? 最も確率の高い仮説をどうやって効率良く見つけるか

アンドリュー・ビタビ (カリフォルニア大学LA校教授→Qualcomm代表取締役) 俺に任せろ! Andrew Viterbi アンドリュー・ビタビ (カリフォルニア大学LA校教授→Qualcomm代表取締役)

ビタビアルゴリズム

ビタビアルゴリズム グラフの最短経路を見つけるアルゴリズム 1.4 4.0 2.3 2.5 1 2 3 2.1 ビタビ 1.4 1 2 2.3 3

グラフ? 単語分割の話じゃなかったっけ? ???

グラフとしての単語分割 1.4 2.3 2.5 1 4.0 2 3 2.1 農 産 物

グラフとしての単語分割 1.4 2.3 2.5 1 4.0 2 3 2.1 農産 物 各エッジは単語を表す

農産 物 グラフとしての単語分割 1 2 3 1.4 2.3 4.0 2.5 2.1 各エッジは単語を表す エッジの重みは負の対数確率 2.5 1 4.0 2.3 2 3 2.1 農産 物 各エッジは単語を表す エッジの重みは負の対数確率 なぜ負? (ヒント:最短経路) - log(P(農産)) = 1.4

グラフとしての単語分割 1.4 2.3 2.5 1 4.0 2 3 2.1 農産 物 グラフの経路は文の分割候補を表す

農産 物 グラフとしての単語分割 1 2 3 1.4 2.3 4.0 2.5 2.1 グラフの経路は文の分割候補を表す 2.5 1 4.0 2.3 2 3 2.1 農産 物 グラフの経路は文の分割候補を表す 経路の重みは文の1-gram負対数確率 - log(P(農産)) + - log(P(物)) = 1.4 + 2.3 = 3.7

ビタビ先生、もっと教えて! ビタビアルゴリズムは2つのステップからなる 前向きステップで、各ノードへたどる最短経路 の長さを計算 後ろ向きステップで、最短経路自体を構築

前向きステップ

前向きステップ e2 1.4 4.0 2.3 2.5 1 2 3 e1 e3 e5 e4 2.1 best_score[0] = 0 for each node in the graph (昇順) best_score[node] = ∞ for each incoming edge of node score = best_score[edge.prev_node] + edge.score if score < best_score[node] best_score[node] = score best_edge[node] = edge

例: e2 e5 e3 e1 e4 1 2 3 初期化: 1.4 2.5 4.0 2.3 2.1 best_score[0] = 0 0.0 0.0 1 ∞ 2 ∞ 3 ∞ 2.5 4.0 2.3 e3 e5 e1 2.1 e4 初期化: best_score[0] = 0

例: e2 1.4 0.0 1 2.5 2 ∞ 3 ∞ 2.5 4.0 2.3 e3 e5 e1 2.1 e4 初期化: best_score[0] = 0 e1を計算: score = 0 + 2.5 = 2.5 (< ∞) best_score[1] = 2.5 best_edge[1] = e1

例: e2 e5 e3 e1 e4 1 2 3 初期化: e1を計算: e2を計算: 1.4 2.5 4.0 2.3 2.1 0.0 1 2.5 2 1.4 3 ∞ 2.5 4.0 2.3 e3 e5 e1 2.1 e4 初期化: best_score[0] = 0 e1を計算: score = 0 + 2.5 = 2.5 (< ∞) best_score[1] = 2.5 best_edge[1] = e1 e2を計算: score = 0 + 1.4 = 1.4 (< ∞) best_score[2] = 1.4 best_edge[2] = e2

例: e2 e5 e3 e1 e4 1 2 3 e3を計算: 初期化: e1を計算: e2を計算: 1.4 2.5 4.0 2.3 2.1 0.0 1 2.5 2 1.4 3 ∞ 2.5 4.0 2.3 e3 e5 e1 2.1 e4 e3を計算: 初期化: score = 2.5 + 4.0 = 6.5 (> 1.4) 変更なし! best_score[0] = 0 e1を計算: score = 0 + 2.5 = 2.5 (< ∞) best_score[1] = 2.5 best_edge[1] = e1 e2を計算: score = 0 + 1.4 = 1.4 (< ∞) best_score[2] = 1.4 best_edge[2] = e2

例: e2 e5 e3 e1 e4 1 2 3 e3を計算: 初期化: e1を計算: e4を計算: e2を計算: 1.4 2.5 4.0 0.0 1 2.5 2 1.4 3 4.6 2.5 4.0 2.3 e3 e5 e1 2.1 e4 e3を計算: 初期化: score = 2.5 + 4.0 = 6.5 (> 1.4) 変更なし! best_score[0] = 0 e1を計算: e4を計算: score = 0 + 2.5 = 2.5 (< ∞) best_score[1] = 2.5 best_edge[1] = e1 score = 2.5 + 2.1 = 4.6 (< ∞) best_score[3] = 4.6 best_edge[3] = e4 e2を計算: score = 0 + 1.4 = 1.4 (< ∞) best_score[2] = 1.4 best_edge[2] = e2

例: e2 e5 e3 e1 e4 1 2 3 e3を計算: 初期化: e1を計算: e4を計算: e2を計算: e5を計算: 1.4 0.0 1 2.5 2 1.4 3 3.7 2.5 4.0 2.3 e3 e5 e1 2.1 e4 e3を計算: 初期化: score = 2.5 + 4.0 = 6.5 (> 1.4) 変更なし! best_score[0] = 0 e1を計算: e4を計算: score = 0 + 2.5 = 2.5 (< ∞) best_score[1] = 2.5 best_edge[1] = e1 score = 2.5 + 2.1 = 4.6 (< ∞) best_score[3] = 4.6 best_edge[3] = e4 e2を計算: e5を計算: score = 0 + 1.4 = 1.4 (< ∞) best_score[2] = 1.4 best_edge[2] = e2 score = 1.4 + 2.3 = 3.7 (< 4.6) best_score[3] = 3.7 best_edge[3] = e5

前向きステップの結果: e2 1.4 0.0 2.5 1 2.5 4.0 2.3 2 1.4 3 3.7 e1 e3 e5 e4 2.1 best_score = ( 0.0, 2.5, 1.4, 3.7 ) best_edge = ( NULL, e1, e2, e5 )

後ろ向きステップ

後ろ向きステップのアルゴリズム e2 1.4 4.0 2.3 0.0 2.5 1 2.5 2 1.4 3 3.7 e1 e3 e5 e4 2.1 best_path = [ ] next_edge = best_edge[best_edge.length – 1] while next_edge != NULL add next_edge to best_path next_edge = best_edge[next_edge.prev_node] reverse best_path

e2 1.4 0.0 2.5 1 2.5 4.0 2 1.4 2.3 3 3.7 e1 e3 e5 e4 2.1 初期化: best_path = [] next_edge = best_edge[3] = e5

後ろ向きステップの例 初期化: e5を計算: e2 1.4 0.0 2.5 1 2.5 4.0 2 1.4 2.3 3 3.7 e1 e3 0.0 2.5 1 2.5 4.0 2 1.4 2.3 3 3.7 e1 e3 e5 e4 2.1 初期化: best_path = [] next_edge = best_edge[3] = e5 e5を計算: best_path = [e5] next_edge = best_edge[2] = e2

後ろ向きステップの例 初期化: e2を計算: e5を計算: e2 1.4 0.0 2.5 1 2.5 4.0 2 1.4 2.3 3 3.7 0.0 2.5 1 2.5 4.0 2 1.4 2.3 3 3.7 e1 e3 e5 e4 2.1 初期化: e2を計算: best_path = [] next_edge = best_edge[3] = e5 best_path = [e5, e2] next_edge = best_edge[0] = NULL e5を計算: best_path = [e5] next_edge = best_edge[2] = e2

後ろ向きステップの例 初期化: e5を計算: e5を計算: 逆順に並べ替え: 0.0 1 2.5 2 1.4 3 3.7 4.0 2.3 0.0 1 2.5 2 1.4 3 3.7 4.0 2.3 2.1 e1 e2 e3 e5 e4 初期化: e5を計算: best_path = [] next_edge = best_edge[3] = e5 best_path = [e5, e2] next_edge = best_edge[0] = NULL e5を計算: 逆順に並べ替え: best_path = [e5] next_edge = best_edge[2] = e2 best_path = [e2, e5]

必要なプログラミング技術: 配列を逆順にする エッジの順番を逆にする必要がある $ ./my-program.py [5, 4, 3, 2, 1]

ビタビアルゴリズムを用いた 単語分割

農 産 物 単語分割の前向きステップ 1 2 3 0.0 + -log(P(農)) 0.0 + -log(P(農産)) 農 産 物 1 2 3 0.0 + -log(P(農)) 0.0 + -log(P(農産)) best(1) + -log(P(産)) 0.0 + -log(P(農産物)) best(1) + -log(P(産物)) best(2) + -log(P(物))

注:未知語モデル 1-gramモデル確率は以下のように定義した 全ての未知語に対して同一の確率を付与 Punk(“proof”) = 1/N Punk(“校正(こうせい、英:proof”) = 1/N 単語分割に悪影響! (未知語が1つでもあれば分割しない) 解決策: もっと良いモデルを作成(少し難しいが、高精度) 未知語の長さを1に限定(簡単、今回はこれを利用) 𝑃 𝑤 𝑖 = λ 1 𝑃 𝑀𝐿 𝑤 𝑖 + 1− λ 1 1 𝑁

単語分割アルゴリズム(1) load a map of unigram probabilities # 1-gramモデルの演習課題から for each line in the input # 前向きステップ remove newline and convert line with “unicode()” best_edge[0] = NULL best_score[0] = 0 for each word_end in [1, 2, …, length(line)] best_score[word_end] = 1010 # とても大きな値に設定 for each word_begin in [0, 1, …, word_end – 1] word = line[word_begin:word_end] # 部分文字列を取得 if word is in unigram or length(word) = 1 # 既知語か長さ1 prob = Puni(word) # 1-gram演習と同じ my_score = best_score[word_begin] + -log( prob ) if my_score < best_score[word_end] best_score[word_end] = my_score best_edge[word_end] = (word_begin, word_end)

単語分割アルゴリズム(2) # 後ろ向きステップ words = [ ] next_edge = best_edge[ length(best_edge) – 1 ] while next_edge != NULL # このエッジの部分文字列を追加 word = line[next_edge[0]:next_edge[1] ] encode word with the “encode()” function append word to words next_edge = best_edge[ next_edge[0] ] words.reverse() join words into a string and print

演習課題

演習課題 単語分割プログラムを作成 テスト モデル: test/04-unigram.txt 入力: test/04-input.txt 正解: test/04-answer.txt data/wiki-ja-train.wordを使って学習した1-gramモデルで、 data/wiki-ja-test.txtを分割 分割精度を以下のスクリプトで評価 script/gradews.pl data/wiki-ja-test.word my_answer.word F値(F-meas)を報告

チャレンジ data/big-ws-model.txtに入っている、より大きなテキス トで学習されたモデルを利用した分割精度を計る 未知語モデルの改善 2-gramモデルを使った単語分割