回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation

Slides:



Advertisements
Similar presentations
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
Advertisements

生物統計学・第 4 回 比べる準備をする 平均、分散、標準偏差、標準誤差、標準 化 2015 年 10 月 20 日 生命環境科学域 応用生命科学類 尾形 善之.
生物統計学・第 15 回 エラーを調べる -第一種の過誤、第二種の過誤、外れ値 - 2016 年 1 月 26 日 生命環境科学域 応用生命科学類 尾形 善之.
データ分析入門(12) 第12章 単回帰分析 廣野元久.
点対応の外れ値除去の最適化によるカメラの動的校正手法の精度向上
HOG特徴に基づく 単眼画像からの人体3次元姿勢推定
時系列の予測 時系列:観測値を時刻の順に並べたものの集合
フィージビリティスタディを目的とした予測シミュレーション
実証分析の手順 経済データ解析 2011年度.
Pattern Recognition and Machine Learning 1.5 決定理論
得点と打率・長打率・出塁率らの関係 政治経済学部経済学科 ●年●組 ●● ●●.
Bias2 - Variance - Noise 分解
徳島大学工学部知能情報工学科 A1 グループ 学部4年 森陽司
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
EMアルゴリズム クラスタリングへの応用と最近の発展
主成分分析                     結城  隆   .
アルゴリズムとデータ構造 補足資料4-2 「線形探索」
計測工学 -測定の誤差と精度2- 計測工学 2009年5月17日 Ⅰ限目.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
プロセスデータ解析学2 -単回帰分析- 担当:長谷部伸治     金 尚弘.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
相関分析.
Fuzzy c-Means法による クラスター分析に関する研究
4章までのまとめ ー 計量経済学 ー.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
アルゴリズムとプログラミング (Algorithms and Programming)
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
予測に用いる数学 2004/05/07 ide.
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
部分的最小二乗回帰 Partial Least Squares Regression PLS
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Number of random matrices
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
回帰分析入門 経済データ解析 2011年度.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

“良い”回帰モデル・クラス分類モデルとは何か? 新しいサンプルの目的変数の値・ラベルを、正確に推定できるモデルが 良い回帰モデル・クラス分類モデル 回帰モデル・クラス分類モデルを構築したサンプルではないことに注意 そのような良いモデルを選ぶために、 いろいろなモデルを評価・比較しなければならない モデルを評価・比較するための、モデルの検証の話です

データセットの呼び方 トレーニングデータ (キャリブレーションデータ) 回帰モデル・クラス分類モデルの構築に用いるデータ 目的変数の値・ラベルは分かっている バリデーションデータ・テストデータ 回帰モデル・クラス分類モデルの検証に用いるデータ 実際には目的変数の値・ラベルは分かっているが、 わからないものとして (目隠し・ブラインドして)モデルから推定し、 実際と推定結果とがどれくらいあっているか確認する バリデーションデータで、モデルのハイパーパラメータ (PLSの 最適成分数など) を最適化する テストデータで、最終的にモデルの優劣を比較する バリデーションデータはなく、トレーニングデータとテストデータだけ のときもある (このときのモデルのハイパーパラメータの最適化 については後述)

比較指標 モデルの性能を評価し、比較するための指標 基本的には比較だけに用いるのがよく、絶対的な値に意味はない トレーニングデータ・バリデーションデータ・テストデータそれぞれについて、 実際の目的変数の値・ラベルと、推定された値・ラベルとが揃うと 計算できる 回帰分析 決定係数 r2 根平均二乗誤差 (Root Mean Squared Error, RMSE) 平均絶対誤差 (Mean Absolute Error, MAE) など クラス分類 混同行列 (confusion matrix) を計算したのちの、 正解率、精度、検出率、誤検出率、Kappa係数など

回帰分析 決定係数 r2 目的変数のばらつきの中で、回帰モデルによって説明できた割合 1に近いほど回帰モデルの”性能”が高い y(i):i 番目のサンプルにおける 目的変数の値 yEST(i):i 番目のサンプルにおける 目的変数の推定値 yA:目的変数の平均値 n:サンプル数

回帰分析 RMSE 平均的な誤差の大きさ 0 に近いほど回帰モデルの”性能”が高い データセットが同じであれば、r2 が大きいほど RMSE は小さい 外れ値 (異常に誤差が大きいサンプル) があると、その値の影響を 受けやすく、RMSE が大きくなりやすい

回帰分析 MAE 平均的な誤差の大きさ 0 に近いほど回帰モデルの”性能”が高い 異なるデータセットの間で RMSE を比較しないほうがよい 外れ値 (異常に誤差が大きいサンプル) の影響を受けにくい

クラス分類 混同行列・正解率・精度・検出率 混同行列 (confusion matrix) 予測されたクラス 1 (Positive, 陽性) -1 (Negative, 陰性) 実際の クラス True Positive (TP) False Negative (FN) False Positive (FP) True Negative (TN) TP + TN TP 正解率 = 検出率 = TP + FN + FP + TN TP + FN TP FP 精度 = 誤検出率 = など TP + FP FP + TN

クラス分類 Kappa係数 実際と予測結果の一致度を評価する指標 Positive(陽性)データとNegative(陰性)データの偏りがある時に有効 正解率 - 偶然による一致率 Kappa係数 = 1 - 偶然による一致率 TP + FN TP + FP FP + TN FN + TN 偶然による一致率 = × + × A A A A ( A = TP + FN + FP + TN ) http://en.wikipedia.org/wiki/Cohen%27s_kappa 予測されたクラス 1 (Positive, 陽性) -1 (Negative, 陰性) 実際の クラス True Positive (TP) False Negative (FN) False Positive (FP) True Negative (TN)

モデルの評価・比較 ハイパーパラメータの決定 PLSの最適成分数 LASSOの λ SVMの C、γ など 良いモデル (p.1 参照) になるようにハイパーパラメータを決めたい

どのようなハイパーパラメータを用いるか? トレーニングデータの比較指標の値がよくなるようなハイパーパラメータ そもそもモデルがトレーニングデータを用いて構築されているため、 トレーニングデータには合うが、新しいサンプルの目的変数を推定 できないようなハイパーパラメータが選ばれてしまう 基本的に用いられない バリデーションデータの比較指標の値がよくなるようなハイパーパラメータ 新しいサンプルに対する推定性能を考慮できる データに偏りがないようにトレーニングデータとバリデーションデータとを 分けるよう注意する トレーニングデータが少なくなってしまう ハイパーパラメータを決めた後、バリデーションデータも合わせて 再度モデルを構築する 十分にデータ数が多いとき以外は、あまり用いられない クロスバリデーション

クロスバリデーション 例) 3-fold クロスバリデーション ② ③ 比較指標の 計算 ① ① ② ③ 変数 サンプル X y X1 y1 y1p y1 サンプル X2 y2 ③ y2p y2 比較指標の 計算 X3 y3 ① y3p y3 ① ② ③ X1 y1 X2 y2 X3 y3 X2 y2 X3 y3 X1 y1 X3 モデル1 y3p X1 モデル2 y1p X2 モデル3 y2p

クロスバリデーションの補足 Leave-one-out クロスバリデーション サンプルを1つ除いて、残りのサンプルでモデルを構築し、 除いたサンプルを推定する、ということをサンプル数だけ繰り返す 特にサンプル数が多いときに、すべてのサンプルでモデルを構築し、 すべてのサンプルを推定することと似てしまうため、望ましくない 2-fold, 5-fold, 10-foldが一般的 データ数が多すぎると、計算時間がかかりすぎてしまうときは、 トレーニングデータとバリデーションデータとを分ける方法を用いる

どのようにデータセットを分けるか? トレーニングデータ・バリデーションデータ・テストデータで、 サンプルに偏りがない方がよい トレーニングデータ・バリデーションデータ・テストデータで、 サンプルに偏りがない方がよい 基本的にランダムに分けるのでOK トレーニングデータはなるべくばらついている方がよい Kennard-Stone (KS) アルゴリズムにより、 トレーニングデータ・バリデーションデータ・テストデータの順に選ぶ データセットの説明変数の平均を計算 平均とのユークリッド距離が一番大きいサンプルを選択 選択されていない各サンプルにおいて、これまで選択された すべてのサンプルとの間でユークリッド距離を計算し、 その中の最小値を代表距離とする 代表距離が最も大きいサンプルを選択する 3. と 4. とを繰り返す

Y-randomization (Yランダマイゼイション) 特に、サンプル数が少なく説明変数 (記述子) の数が多いとき、 本当は X と y の間に相関関係がなくても、r2, r2CVの値が大きく なってしまうことがある たまたま X のノイズと y との間で相関がでてしまう 偶然の相関 偶然の相関かどうかを見分けるため、Y-randomizationが行われる Y のみ値をランダムに並べかえて、おかしなデータセットにする モデリングして、 r2, r2CVの値が 0 付近になることを確認する