Semi-Supervised QA with Generative Domain-Adaptive Nets

Slides:



Advertisements
Similar presentations
音声翻訳における機械翻訳・音声合成の 性能評価および分析 ☆橋本佳 ,山岸順一 , William Byrne , Simon King ,徳田恵一 名工大 University of Edinburgh Cambridge University
Advertisements

大規模コーパスから獲得した 名詞の出現パターンを用いた 事態名詞の項構造解析
Web アプリをユーザー毎に カスタマイズ可能にする AOP フレームワーク
顔表情クラスタリングによる 映像コンテンツへのタギング
到着時刻と燃料消費量を同時に最適化する船速・航路計画
Building text features for object image classification
最大エントロピーモデルに基づく形態素解析と辞書による影響
ラベル付き区間グラフを列挙するBDDとその応用
Deep learningによる 読唇システム
実証分析の手順 経済データ解析 2011年度.
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
実験 関数・記号付き文型パターンを用いた機械翻訳の試作と評価 石上真理子 水田理夫 徳久雅人 村上仁一 池原悟 (鳥取大) ◎評価方法1
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
雑音重み推定と音声 GMMを用いた雑音除去
第6章 2重ループ&配列 2重ループと配列をやります.
状況の制約を用いることにより認識誤りを改善 同時に野球実況中継の構造化
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ML 演習 第 7 回 新井淳也、中村宇佑、前田俊行 2011/05/31.
DMLA 小町守 半教師あり学習 チュートリアル.
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
情報通信システム(13) plala. or 情報通信システム(13) 年7月24日 火曜日  午後4時10分~5時40分 NTT-TX Corp. 加藤 洋一.
大規模データによる未知語処理を統合した頑健な統計的仮名漢字変換
識別子の命名支援を目的とした動詞-目的語関係の辞書構築
決定木とランダムフォレスト 和田 俊和.
視点移動カメラにおけるカメラキャリブレーション
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
ChaIME: 大規模コーパスを 用いた統計的仮名漢字変換
利用関係に基づく類似度を用いたJavaコンポーネント分類ツールの作成
第14章 モデルの結合 修士2年 山川佳洋.
雑音環境下における 非負値行列因子分解を用いた声質変換
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
訓練データとテストデータが 異なる分布に従う場合の学習
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
中京大学 工学部 電気電子工学科 白井研究室 4年 T 為房直人
2018/9/10 ACL読み会 名古屋大学大学院 M2 佐藤・松崎研 土居裕典.
計算量理論輪講 chap5-3 M1 高井唯史.
Data Clustering: A Review
Webコミュニティ概念を用いた Webマイニングについての研究 A study on Web Mining Based on Web Communities 清水 洋志.
部分的最小二乗回帰 Partial Least Squares Regression PLS
電機情報工学専門実験 6. 強化学習シミュレーション
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
論文紹介: “Joint Embedding of Words and Labels for Text Classification”
Core Technology Center
Number of random matrices
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Data Clustering: A Review
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
ブースティングとキーワードフィルタリング によるシステム要求検出
構造的類似性を持つ半構造化文書における頻度分析
設計情報の再利用を目的とした UML図の自動推薦ツール
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
保守請負時を対象とした 労力見積のためのメトリクスの提案
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
ビデオデータベースを用いた 流体画像に基づくアニメーション生成
欠陥検出を目的とした類似コード検索法 吉田則裕,石尾隆,松下誠,井上克郎 大阪大学 大学院情報科学研究科
ソフトウェア理解支援を目的とした 辞書の作成法
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
Webページタイプによるクラスタ リングを用いた検索支援システム
コードクローン解析に基づく デザインパターン適用候補の検出手法
CSP係数の識別に基づく話者の 頭部方向の推定
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
雑音環境下における Sparse Coding声質変換 3-P-49d
転移学習 Transfer learning
Presentation transcript:

Semi-Supervised QA with Generative Domain-Adaptive Nets 東工大 奥村・高村研 長谷川 駿

対象タスク:抽出によるQA Paragraph, QuestionからAnswerを予測 Paragraph中の連続するchunkをAnswerとして抽出 Q P A

問題点と着眼点(1) 学習用の大規模データを用意するのが困難 ラベルなしデータ(Pのみ)を使えないか? 既存のコーパスは、小さい or ドメインが限られる コーパスを作成するのは、高コスト ラベルなしデータ(Pのみ)を使えないか? Aを生成しないので言語モデルを鍛えても効果小 P(A|Q, P)の学習に直接使いたい QとAを作り、疑似データとして学習に使おう!

問題点と着眼点(2) QとAを作り、疑似データとして学習に この方法の問題点 Pから統語情報に基づくルールでA’を抽出(割愛) PとA’から、Q’を生成 ラベルあり{P, Q, A}とラベルなし{P, Q’, A’}を学習に 用いる この方法の問題点 ラベルあり と ラベルなし で性質が異なり、変なバ イアスがかかる可能性が高い

問題点と着眼点(3) 問題点 対策 – 別ドメインとして扱う ラベルあり と ラベルなし で性質が異なり、変なバ イアスがかかる可能性が高い 1. ドメインを区別するタグを導入 共通する性質は共有し、異なる性質はタグに紐づける 2. 強化学習を用いて質問生成モデルをfine-tune 正しいAが予想されやすいようなQを生成する

貢献点 問題を生成するという新しい形のsemi-supervised QAを提案 シンプルで有効な質問生成のベースラインの提案 今から説明する もちろん結果も良い

目次 質問生成のシンプルなベースライン 提案法:Generative Domain-Adaptive Nets データ詳細 結果 解答抽出器 Domain tagの導入 質問生成器 RLを用いた学習方法 データ詳細 結果

シンプルで有効なベースライン P = (p1, p2, p3, ……, p20) A’ = (p10, p11) ラベルなし{P, A’}からQ’を作成する手法 P = (p1, p2, p3, ……, p20) A’ = (p10, p11) Q’ = (p10 - W, …., p11 + W) W: window幅 ラベルありデータが少ない場合、かなり有効

目次 質問生成のシンプルなベースライン 提案法:Generative Domain-Adaptive Nets データ詳細 結果 解答抽出器 Domain tagの導入 質問生成器 RLを用いた学習方法 データ詳細 結果

提案法:GDANs 準備するもの ラベルあり{P, Q, A} ラベルなし{P, A’} 解答抽出器 質問生成器 入力:P, Q 出力:A (P中での最初と最後のindex) 質問生成器 入力:P, A 出力:Q (単語列)

解答抽出器(既存モデル) Q P Gated-Attention module (Dhingra et al., 2016) p1 p2 pn Softmaxを2つ 最初のindex用 最後のindex用 Gated-Attention module (Dhingra et al., 2016)

解答抽出器 – domain tagの導入 PとQの最後にdomain tagを追加する 目的 訓練時 テスト時 ラベルありならd_trueを追加 ラベルなしならd_genを追加 テスト時 d_trueを追加 目的 共通する性質は共有し、異なる性質はタグに紐 づける

質問生成器 GRUを用いたCopy機構付きEncoder-Decoder 例:P = (x1, x2, x3) A’ = (x2) eos [0; x1] [1; x2] [0, x3] eos Y1 Y2 Y3 Aに含まれる場合は1を追加

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化 While True; Gを用いてUgのQ’を生成

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化 While True; Gを用いてUgのQ’を生成 LとUgを用いたMLEにより解答抽出器(D)を学習

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化 While True; Gを用いてUgのQ’を生成 LとUgを用いたMLEにより解答抽出器(D)を学習 タグをつけて普通に最尤推定

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化 While True; Gを用いてUgのQ’を生成 LとUgを用いたMLEにより解答抽出器(D)を学習 UgとDを用いたRLにより質問生成器(G)を学習

学習方法 LとUgを用いたMLEにより解答抽出器(D)を学習 UgとDを用いたRLにより質問生成器(G)を学習

学習方法 LとUgを用いたMLEにより解答抽出器(D)を学習 UgとDを用いたRLにより質問生成器(G)を学習 生成したQを、人手で作ったQとして解答抽出器に入力した場合に 正しいAが抽出されるようGを学習している ≒解答抽出器において人手で作ったQと近い挙動をするような Qを生成するようGを学習

学習方法 ラベルあり(L)、ラベルなし(Ug) を用意 Lを用いたMLEにより質問生成器(G)を初期化 While True; Gを用いてUgのQ’を生成 LとUgを用いたMLEにより解答抽出器(D)を学習 UgとDを用いたRLにより質問生成器(G)を学習 解答抽出器(D)が完成

MLE(最尤推定) vs RL(強化学習) MLE RL ラベルが必要 P(Q|P, A)を最適化 ラベルが必要ない =P(A|P ,Q)とP(Q|P)を最適化していることになり、P(Q|P)が余分 RL ラベルが必要ない P(A|P, Q)を最適化

目次 質問生成のシンプルなベースライン 提案法:Generative Domain-Adaptive Nets データ詳細 結果 解答抽出器 Domain tagの導入 質問生成器 RLを用いた学習方法 データ詳細 結果

データセット ラベルありデータ(SQuAD) ラベルなしデータ(Wikiの記事) Wikiの記事におけるQAデータ 訓練データ:約8万 テストデータ:約8千 ラベルなしデータ(Wikiの記事) 約100万Paragraph 約500万Answer

実験結果 8K 80K Context:Aの周辺をQとして使う, Gen:生成したQを使う ラベルあり の量 ラベルなし の量 Exact Matching 8K 80K Context:Aの周辺をQとして使う, Gen:生成したQを使う domain: domain tagを使う, adv:Qの学習にRLを使う

結果:Supervised Learning vs Semi-SL ラベルあり の量 ラベルなし の量 Exact Matching 8K 80K ラベルありデータが少ないほどsemi-SLが良い結果 Context:Aの周辺をQとして使う, Gen:生成したQを使う domain: domain tagを使う, adv:Qの学習にRLを使う

結果:domain tagの効果 基本的に有効っぽい 8K 80K Context:Aの周辺をQとして使う, Gen:生成したQを使う ラベルあり の量 ラベルなし の量 Exact Matching 8K 80K 基本的に有効っぽい Context:Aの周辺をQとして使う, Gen:生成したQを使う domain: domain tagを使う, adv:Qの学習にRLを使う

結果:advの効果 8K 80K ラベルありが少ないとadvが有効(最尤推定による質問生成器の質が低いため?) の量 ラベルなし の量 Exact Matching 8K 80K ラベルありが少ないとadvが有効(最尤推定による質問生成器の質が低いため?) ラベルありがたくさんあれば、avdがなくても良さそう Context:Aの周辺をQとして使う, Gen:生成したQを使う domain: domain tagを使う, adv:Qの学習にRLを使う

まとめ 問題を生成するという新しい形のsemi-supervised QAを提案 GDANsを提案 シンプルで有効なベースラインの提案 Domain tag RLによる質問生成器の学習 シンプルで有効なベースラインの提案 実験結果は多数載っているので興味あれば