Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択

Slides:



Advertisements
Similar presentations
計量的手法入門 人材開発コース・ワークショップ (IV) 2000 年 6 月 29 日、 7 月 6 ・ 13 日 奥西 好夫
Advertisements

データ分析入門(12) 第12章 単回帰分析 廣野元久.
Rによる回帰分析 高崎経済大学 宮田 庸一.
自己回帰モデルへの橋渡し 高崎経済大学 宮田庸一
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
補章 時系列モデル入門 ー 計量経済学 ー.
重回帰分析入門 経済データ解析 2009年度.
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
実証分析の手順 経済データ解析 2011年度.
得点と打率・長打率・出塁率らの関係 政治経済学部経済学科 ●年●組 ●● ●●.
重回帰分析入門 経済データ解析 2011年度.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
回帰分析.
寺尾 敦 青山学院大学社会情報学部 社会統計 第12回 重回帰分析(第11章前半) 寺尾 敦 青山学院大学社会情報学部
第6章 数量化I類.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
構造方程式モデリング(SEM) Structural Equation Modeling.
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
補章 時系列モデル入門 ー 計量経済学 ー.
プロセスデータ解析学2 -単回帰分析- 担当:長谷部伸治     金 尚弘.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
相関分析.
データ解析 静岡大学工学部 安藤和敏
市場規模の予測.
4章までのまとめ ー 計量経済学 ー.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
最小自乗法.
指標の数と信頼性・ 内容的妥当性 指標の数は多いほうがよい.
主成分分析 Principal Component Analysis PCA
市場規模の予測.
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
部分的最小二乗回帰 Partial Least Squares Regression PLS
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第3章補足2 多変量データの記述 統計学基礎 2010年度.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
過学習を考慮した IS1-60 AAMパラメータの選択と回帰分析による 顔・視線方向同時推定 顔・視線同時推定 研究背景
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
重回帰分析入門 経済データ解析 2008年度.
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
重回帰分析入門 (第5章補足) 統計学 2007年度.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析入門 経済データ解析 2011年度.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
AAMと回帰分析による視線、顔方向同時推定
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

Stepwise (ステップワイズ) 法とは? 説明変数 (入力変数・記述子・特徴量) を選択する手法 1つずつ説明変数を追加したり、削除したりしながら、 最適な説明変数の組合せを探す 回帰モデルの構築を繰り返す数が多くなると時間がかかる どんな回帰分析手法とも組み合わせることができる

Stepwise法の種類 変数増加法 (forward stepwise) 説明変数なしからはじめて、1つずつ説明変数を増やす 変数減少法 (backward stepwise) すべての説明変数からはじめて、1つずつ説明変数を減らす 変数増減法 (forward-backward stepwise) 説明変数なしからはじめて、1つずつ説明変数を 増やすか減らすかする 変数減増法 (backward-forward stepwise) すべての説明変数からはじめて、1つずつ説明変数を 増やすか減らすかする

どのように説明変数を増やすか? ある説明変数の組み合わせが選ばれているとき (最初はもちろん説明変数なし) ある説明変数の組み合わせが選ばれているとき (最初はもちろん説明変数なし) 選ばれていない説明変数の中から、1つ選んで追加して、 評価指標の値を計算する 計算し終わったら、追加した説明変数を戻す 選ばれていない説明変数すべてで評価指標の計算を行い、 評価指標の値が一番もっとも良くなった説明変数を実際に追加する

評価指標 (最小二乗法による重回帰分析用) 1/2 Mallows's Cp 小さいほど良い n:サンプル数 m : 回帰モデルを構築した 説明変数の数 S2 : すべての説明変数を用いて 回帰分析を行ったときの 誤差の二乗の平均 y(i):i 番目のサンプルにおける 目的変数の値 yEST(i):i 番目のサンプルにおける 目的変数の推定値

評価指標 (最小二乗法による重回帰分析用) 2/2 赤池情報量規準 (Akaike’s Information Criterion, AIC) 小さいほど良い Bayesian Information Criterion (BIC)

評価指標 (任意の回帰分析手法で使える) RMSECV:クロスバリデーション後のRoot Mean Squared Error 小さいほど良い MAECV:クロスバリデーション後のMean Absolute Error (MAE) yCVEST(i):i 番目のサンプルにおける クロスバリデーション後の       目的変数の推定値

どのように説明変数を減らすか? ある説明変数の組み合わせが選ばれているとき (最初はもちろん説明変数なし) ある説明変数の組み合わせが選ばれているとき (最初はもちろん説明変数なし) 選ばれている説明変数の中から、1つ選んで削除して、 評価指標の値を計算する 計算し終わったら、削除した説明変数を戻す 選ばれている説明変数すべてで評価指標の計算を行い、 評価指標の値が一番もっとも良くなった説明変数を実際に追加する

減らすときだけで使える手法 回帰分析手法の標準回帰係数に基づく変数削除 標準回帰係数:標準化 (オートスケーリング) 後に計算された 回帰係数 選ばれている説明変数を用いて一度線形回帰分析を行い、 標準回帰係数の絶対値がもっとも小さい変数を削除 説明変数を1つ減らすときに、削除して回帰モデル構築を 繰り返さなくてよいため、計算時間が短い

どのように説明変数を増やすか減らすかするか? ある説明変数の組み合わせが選ばれているとき (最初はもちろん説明変数なし) 選ばれていない説明変数の中から、1つ選んで追加して、 評価指標の値を計算する 計算し終わったら、追加した説明変数を戻す 選ばれている説明変数の中から、1つ選んで削除して、 評価指標の値を計算する 計算し終わったら、削除した説明変数を戻す 全通りで評価指標の計算を行い、評価指標の値が一番もっとも 良くなった説明変数を実際に追加 or 削除する