訓練データとテストデータが 異なる分布に従う場合の学習

Slides:



Advertisements
Similar presentations
Maxent model への挑戦 - 驚きとドキドキ感の理論 - 大野ゆかり Phillips et al. (2006) Maximum entropy modeling of species geographic distributions. Ecological Modeling 190:
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
寺尾 敦 青山学院大学社会情報学部 Fisher の直接確率法 寺尾 敦 青山学院大学社会情報学部
人工知能特論 8.教師あり学習と教師なし学習
Pattern Recognition and Machine Learning 1.5 決定理論
Bassモデルにおける 最尤法を用いたパラメータ推定
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Approximation of k-Set Cover by Semi-Local Optimization
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
Object Group ANalizer Graduate School of Information Science and Technology, Osaka University OGAN visualizes representative interactions between a pair.
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
雑音重み推定と音声 GMMを用いた雑音除去
3章 Analysing averages and frequencies (前半 p )
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
情報経済システム論:第11回 担当教員 黒田敏史 2018/9/20 情報経済システム論.
Semi-Supervised QA with Generative Domain-Adaptive Nets
東京工業大学 機械制御システム専攻 山北 昌毅
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
高次元データにおける幾つかの検定統計量の漸近分布について
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
極大ノイズを除去する情報量最小化 学習アルゴリズム
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
機械翻訳勉強会 NTCIR-7について 2007年10月16日 奈良先端大D1小町守.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
雑音環境下における 非負値行列因子分解を用いた声質変換
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Anja von Heydebreck et al. 発表:上嶋裕樹
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Data Clustering: A Review
部分的最小二乗回帰 Partial Least Squares Regression PLS
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ベイズ・アプローチによる グラフィカル・テスト理論
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
ポッツスピン型隠れ変数による画像領域分割
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
音響伝達特性モデルを用いた シングルチャネル音源位置推定の検討 2-P-34 高島遼一,住田雄司,滝口哲也,有木康雄 (神戸大) 研究の背景
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
多重関数を用いた調波時間スペクトル形状のモデル化による音声合成 1-P-4
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
ランダムプロジェクションを用いた音響モデルの線形変換
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

訓練データとテストデータが 異なる分布に従う場合の学習 東京工業大学 計算工学専攻 杉山 将 http://sugiyama-www.cs.titech.ac.jp/~sugi/ sugi@cs.titech.ac.jp

はじめに NIPS2006にて, Learning when test and training inputs have different distributions, というワークショップを開催しました. 結構たくさんの人が参加してくれました. ワークショップ本も出す予定です. NIPS2006の本会議でも,関連の論文がいくつか発表されました.

教師付き学習 出力 入力 訓練データ       を用いて,真の関数    を 最もよく近似する関数    を見つける

時間と共にデータの生成分布が 変化する場合 ナイーブなアプローチ:最近採取したデータのみを学習に用いる 欠点:過去に集めた膨大なデータを捨ててしまうため,効率が悪い 過去のデータも有効に利用したい! 分布の変化が1段階の場合を考える

分布の変化の仮定 分布の変化に何も条件がなければ,テストデータに関して訓練データから何も情報が得られない 共変量シフト: クラス事前確率変化: 混合比変化:

共変量シフトの例 (弱)外挿問題 訓練データ テストデータ

外挿問題における通常の最小二乗法 モデルが正しければ,バイアスは最小(ゼロ) モデルが正しくないとき,バイアスは漸近的にも最小にならない バイアスを減らしたい

“重要度重み付き”最小二乗法 (Shimodaira, 2000) モデルが正しくない場合でも バイアスは漸近的に最小

“重要度”をどうやって推定するか ナイーブなアプローチ:訓練入力分布とテスト入力分布を個別に推定 個別に分布を推定するよりも,分布の比を直接推定するほうがよい

Maximum Mean Discrepancy A Kernel Method for the Two-Sample-Problem (NIPS2006) A. Gretton, K. Borgwardt, M. Rasch, B. Schölkopf , A. Smola 二つの分布       が同じかどうか調べたい ある十分に豊かな関数クラス  に対して 関数クラスが複雑すぎるとうまく計算できないので,程よい複雑さの関数クラスを使いたい :期待値 :分散

Maximum Mean Discrepancy(続き)   がuniversal RKHS (K行列が常に正値)の単位球内なら 例えば,ガウシアンRKHSはOK 実用上は経験分布で近似: 

Kernel Mean Matching 似たような考え方で, これの経験分布バージョンは2次計画問題 Correcting Sample Selection Bias by Unlabeled Data (NIPS2006) J. Huang, A. Smola, A. Gretton, K. Borgwardt, B. Schölkopf 似たような考え方で, これの経験分布バージョンは2次計画問題

分布の変化の仮定 分布の変化に何も条件がなければ,訓練データからテストデータに関して何も情報が得られない 共変量シフト: クラス事前確率変化: 混合比変化:

クラス事前確率変化 同様に重要度重み付きで補正できる Positive Negative

分布の変化の仮定 分布の変化に何も条件がなければ,訓練データからテストデータに関して何も情報が得られない 共変量シフト: クラス事前確率変化: 混合比変化:

混合比変化 データは二つの関数から採取(どちらからの関数に対するデータかは分からない) その混合比が変化 Mixture regression for covariate shift (NIPS2006) A. Storkey, M. Sugiyama データは二つの関数から採取(どちらからの関数に対するデータかは分からない) その混合比が変化 ベイズアプローチ:生成モデルを仮定し,EM

混合比変化:例 訓練データからは二つの関数から採取 テストデータはどちらかの一方からのみから採取 データをうまく“クラスタリング”する.

まとめ 設定: 分布の変化の種類はどうやって推定するか? テスト分布の出力データも得られる場合は? 実データへの応用 訓練入力と出力,テスト入力が得られる場合 訓練時とテスト時での分布の変化の種類が分かる 分布の変化の種類はどうやって推定するか? テスト分布の出力データも得られる場合は? 実データへの応用 Domain Adaptation for Statistical Classifiers (JAIR2006) H Daume III, D. Marcu