自然言語処理プログラミング勉強会7 - トピックモデル

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

自然言語処理プログラミング勉強会7 - トピックモデル Graham Neubig 奈良先端科学技術大学院大学 (NAIST)

Cuomo to Push for Broader Ban on Assault Weapons 文章のトピック 文章には様々なトピックが存在する Cuomo to Push for Broader Ban on Assault Weapons … 2012 Was Hottest Year in U.S. History …

Cuomo to Push for Broader Ban on Assault Weapons 文章のトピック 文章には様々なトピックが存在する Cuomo to Push for Broader Ban on Assault Weapons … 2012 Was Hottest Year in U.S. History … ニューヨーク 天気 政治 気候 武器 統計 犯罪 アメリカ

Cuomo to Push for Broader Ban on Assault Weapons トピックモデル トピックモデルでは文章Xに対してトピックYを発見 構造予測の一種 Cuomo to Push for Broader Ban on Assault Weapons … 2012 Was Hottest Year in U.S. History … X Topic Modeling ニューヨーク 天気 政治 気候 Y 武器 統計 犯罪 アメリカ

確率的生成モデル 文章XとトピックYが何かの過程によって同時に生成さ れたとする 同時確率が高ければ、条件付き確率も高い: 𝑃 𝑌,𝑋 argmax 𝑌 𝑃 𝑌∣𝑋 = argmax 𝑌 𝑃 𝑌,𝑋

X = Cuomo to Push for Broader Ban on Assault Weapons トピックを考慮した文の生成モデル 単語列Xとトピック列Y: まずトピックを独立に生成: その次、各単語をトピックに基づいて生成: X = Cuomo to Push for Broader Ban on Assault Weapons Y = NY 機能 政治 機能 政治 政治 機能 犯罪 犯罪 𝑃 𝑌 = 𝑖=1 𝐼 𝑃 𝑦 𝑖 𝑃 𝑋∣𝑌 = 𝑖=1 𝐼 𝑃 𝑥 𝑖 ∣ 𝑦 𝑖 𝑃 𝑋,𝑌 =𝑃 𝑋∣𝑌 𝑃 𝑌 = 𝑖=1 𝐼 𝑃 𝑥 𝑖 ∣ 𝑦 𝑖 𝑃 𝑦 𝑖

Cuomo to Push for Broader Ban on Assault Weapons 教師なしトピックモデル 文章XのみからトピックらしいクラスYを発見 前と違ってYの記された学習データがない! Cuomo to Push for Broader Ban on Assault Weapons … 2012 Was Hottest Year in U.S. History … X 教師なし トピックモデル 32 5 24 18 Y 10 49 19 37

潜在的ディリクレ配分法 (Latent Dirichlet Allocaton: LDA) トピックモデルの中で最も一般的 まずモデルのパラメータθを生成: 各文章に対してX: 文章のトピック分布Tiを生成: Xiの各単語xi,jに対して: トピックyi,jを生成: 単語xi,jを生成: 𝑃 θ 𝑃 𝑇 𝑖 ∣θ 𝑃 𝑦 𝑖,𝑗 ∣ 𝑇 𝑖 ,θ 𝑃 𝑥 𝑖,𝑗 ∣ 𝑦 𝑖,𝑗 ,θ 𝑃 𝑋,𝑌 = θ 𝑃 θ 𝑖 𝑃 𝑇 𝑖 ∣θ 𝑗 𝑃 𝑦 𝑖,𝑗 ∣ 𝑇 𝑖 ,θ 𝑃 𝑥 𝑖,𝑗 ∣ 𝑦 𝑖,𝑗 ,θ

X1 = Cuomo to Push for Broader Ban on Assault Weapons 最尤推定 単語XとトピックYが与えられたとしたら: 各文章のトピック分布を決定: 各トピックの単語分布を決定: X1 = Cuomo to Push for Broader Ban on Assault Weapons Y1 = 32 7 24 7 24 24 7 10 10 𝑃 𝑦∣ 𝑌 𝑖 =𝑐 𝑦, 𝑌 𝑖 ∣ 𝑌 𝑖 ∣ 𝑃 𝑦=24∣ 𝑌 1 = 2 9 e.g.: e.g.: 𝑃 𝑥∣𝑦 =𝑐 𝑥,𝑦 𝑐 𝑦 𝑃 𝑥=assault∣𝑦=10 = 1 2

隠れ変数 問題: yi,jの値は与えられていない 解決策: 教師なし学習を利用 教師なし学習の手法例: EMアルゴリズム 変分ベイズ サンプリング

サンプリングの例 ある分布に従ってサンプルを生成: サンプルを数え上げて割ったら確率が近似可能: サンプルが増えれば近似の精度も増える: 分布: P(A)=0.5 P(B)=0.3 P(C)=0.2 サンプル: B B C A A C A B B A … P(A)= 4/10 = 0.4, P(B)= 4/10 = 0.4, P(C) = 2/10 = 0.2

アルゴリズム SampleOne(probs[]) z = Sum(probs) remaining = Rand(z) for each i in 0 .. probs.size-1 remaining -= probs[i] if remaining <= 0 return i 確率の和(正規化項)を計算 [0,z)の乱数を一様分布に よって生成 probsの各項目を検証 現在の確率を引く 0より小さい場合、返す 全ての確率が終わっても返さない場合はバグでエラー終了!

ギブスサンプリング 2つの変数を分布P(X,Y)からサンプルしたい … P(X,Y)からサンプリングすることが不可 … P(X|Y)とP(Y|X)からサンプリングすることが可 ギブスサンプリングでは、変数を1個ずつサンプリング する 各イタレーション: Xを固定し、YをP(Y|X)に従ってサンプリング Yを固定し、XをP(X|Y)に従ってサンプリング

ギブスサンプリングの例 親Aと子Bは買い物している、それぞれの性別は? P(母|娘) = 5/6 = 0.833 P(母|息子) = 5/8 = 0.625 P(娘|母) = 2/3 = 0.667 P(娘|父) = 2/5 = 0.4 初期状態:母/娘 Aをサンプル:P(母|娘)=0.833, 母を選んだ! Bをサンプル:P(娘|母)=0.667, 息子を選んだ!  c(母,息子)++ Aをサンプル:P(母|息子)=0.625, 母を選んだ! Bをサンプル:P(娘|母)=0.667, 娘を選んだ! c(母,娘)++ …

実際にやってみると 同時確率の式を手で解いてこの結果を確認できる

X1 = Cuomo to Push for Broader Ban on Assault Weapons トピックモデルのサンプリング(1) yi,jを1つずつ: まずyi,j をカウントから削除、確率を再計算 X1 = Cuomo to Push for Broader Ban on Assault Weapons Y1 = 5 7 4 7 3 4 7 6 6 {0, 0, 1/9, 2/9, 1/9, 2/9, 3/9, 0} {0, 0, 1/8, 2/8, 1/8, 2/8, 2/8, 0}

X1 = Cuomo to Push for Broader Ban on Assault Weapons トピックモデルのサンプリング(2) yi,jを1つずつ: トピック確率と単語確率を掛け合わせる: X1 = Cuomo to Push for Broader Ban on Assault Weapons Y1 = 5 7 4 ??? 3 4 7 6 6 コーパス全体から計算 P(yi,j | Ti) = { 0, 0, 0.125, 0.25, 0.125, 0.25, 0.25, 0} * P(xi,j | yi,j, θ) ={0.01, 0.02, 0.01, 0.10, 0.08, 0.07, 0.70, 0.01} = P(xi,j yi,j| Ti, θ)={ 0, 0,0.00125,0.01,0.01,0.00875,0.175, 0}/Z 正規化係数

X1 = Cuomo to Push for Broader Ban on Assault Weapons トピックモデルのサンプリング(3) 確率分布から1つの値をサンプリング: トピックを更新: カウントと確率を更新: P(xi,j, yi,j | Ti, θ)={ 0, 0,0.00125,0.01,0.01,0.00875,0.175, 0}/Z X1 = Cuomo to Push for Broader Ban on Assault Weapons Y1 = 5 7 4 6 3 4 7 6 6 {0, 0, 1/8, 2/8, 1/8, 2/8, 2/8, 0} {0, 0, 1/9, 2/9, 1/9, 3/9, 2/9, 0}

ディリクレ分布による平滑化: 問題: 多くのカウントが0→多くの確率が0 → 局所解に陥る 解決策: 確率の平滑化 問題: 多くのカウントが0→多くの確率が0 → 局所解に陥る 解決策: 確率の平滑化 NxとNy はそれぞれ単語とトピックの異なり数 確率に対してディリクレ分布に基づく事前分布の利用と 等しい(LDAの論文を参照) 平滑化なし 平滑化有り 𝑃 𝑥 𝑖,𝑗 ∣ 𝑥 𝑖,𝑗 = 𝑐 𝑥 𝑖,𝑗 , 𝑦 𝑖,𝑗 𝑐 𝑦 𝑖,𝑗 𝑃 𝑥 𝑖,𝑗 ∣ 𝑦 𝑖,𝑗 = 𝑐 𝑥 𝑖,𝑗 , 𝑦 𝑖,𝑗 +α 𝑐 𝑦 𝑖,𝑗 +α∗ 𝑁 𝑥 𝑃 𝑦 𝑖,𝑗 ∣ 𝑌 𝑖 = 𝑐 𝑦 𝑖,𝑗 ∣ 𝑌 𝑖 +β 𝑐 𝑌 𝑖 +β∗ 𝑁 𝑦 𝑃 𝑦 𝑖,𝑗 ∣ 𝑌 𝑖 = 𝑐 𝑦 𝑖,𝑗 , 𝑌 𝑖 𝑐 𝑌 𝑖

実装:初期化 make vectors xcorpus, ycorpus # 各x, yを格納 make map xcounts, ycounts # カウントの格納 for line in file docid = size of xcorpus # この文章のIDを獲得 split line into words make vector topics # 単語のトピックをランダム 初期化 for word in words topic = Rand(NUM_TOPICS) # [0,NUM_TOP)の間 append topic to topics AddCounts(word, topic, docid, 1) # カウントを追加 append words (vector) to xcorpus append topics (vector) to ycorpus

実装:カウントの追加 AddCounts(word, topic, docid, amount) xcounts[“topic”] += amount xcounts[“word|topic”] += amount ycounts[“docid”] += amount ycounts[“topic|docid”] += amount バグチェック   < 0の場合はエラー終了 𝑃 𝑥 𝑖,𝑗 ∣ 𝑦 𝑖,𝑗 = 𝑐 𝑥 𝑖,𝑗 , 𝑦 𝑖,𝑗 +α 𝑐 𝑦 𝑖,𝑗 +α∗ 𝑁 𝑥 𝑃 𝑦 𝑖,𝑗 ∣ 𝑌 𝑖 = 𝑐 𝑦 𝑖,𝑗 , 𝑌 𝑖 +β 𝑐 𝑌 𝑖 +β∗ 𝑁 𝑦

実装:サンプリング for many iterations: for i in 0:Size(xcorpus): for j in 0:Size(xcorpus[i]): x = xcorpus[i][j] y = ycorpus[i][j] AddCounts(x, y, i, -1) # 各カウントの減算(-1) make vector probs for k in 0 .. NUM_TOPICS-1: append P(x|k) * P(k|Y) to probs # トピックkの確 率 new_y = SampleOne(probs) ll += log(probs[new_y]) # 対数尤度の計 AddCounts(x, new_y, i, 1) # 各カウントの加算 ycorpus[i][j] = new_y print ll print out wcounts and tcounts

演習課題

Exercise 実装 learn-lda テスト (NUM_TOPICS=2) 入力: test/07-train.txt 正解: 正解はない! (サンプリングはランダムなので) しかし、「a b c d」と「e f g h」に分かれる確率が高い 学習 data/wiki-en-documents.wordを使って 検証 発見されたトピックは直感に沿うのか?(機能語を削除 して、各トピックで頻度の高い内容語を見ると良い) チャレンジ トピック数を事前に決めなくても良いようにモデ ルを変更(ノンパラメトリックベイズで検索)

Thank You!