リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.

Slides:



Advertisements
Similar presentations
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
Advertisements

データ分析入門(12) 第12章 単回帰分析 廣野元久.
寺尾 敦 青山学院大学社会情報学部 社会統計 第13回 重回帰分析(第11章後半) 寺尾 敦 青山学院大学社会情報学部
第4章 回帰分析の諸問題(1) ー 計量経済学 ー.
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
第4章 回帰分析の諸問題(1) ー 計量経済学 ー.
重回帰分析入門 経済データ解析 2009年度.
得点と打率・長打率・出塁率らの関係 政治経済学部経済学科 ●年●組 ●● ●●.
重回帰分析入門 経済データ解析 2011年度.
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
回帰分析.
寺尾 敦 青山学院大学社会情報学部 社会統計 第12回 重回帰分析(第11章前半) 寺尾 敦 青山学院大学社会情報学部
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
回帰分析/多変量分析 1月18日.
誤差の二乗和の一次導関数 偏微分.
? ? ? ? ? ? ? ? 多変量解析とは? 問題となっている現象 ●問題の発生原因がわからない(因果関係)
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
相関分析.
データ解析 静岡大学工学部 安藤和敏
市場規模の予測.
VII. 空間モデル.
4章までのまとめ ー 計量経済学 ー.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
最小自乗法.
主成分分析 Principal Component Analysis PCA
市場規模の予測.
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Black Litterman Modelによる最適化
部分的最小二乗回帰 Partial Least Squares Regression PLS
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第3章補足2 多変量データの記述 統計学基礎 2010年度.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
第7章 単回帰で「消費関数」を計測する 1.所得の定義 1.1 国民純生産 国内総生産(GDP) ⇔ 所得
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
重回帰分析入門 経済データ解析 2008年度.
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
重回帰分析入門 (第5章補足) 統計学 2007年度.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析入門 経済データ解析 2011年度.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
自己縮小画像と混合ガウス分布モデルを用いた超解像
AAMと回帰分析による視線、顔方向同時推定
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

RR・LASSO・EN とは? 線形の回帰分析手法 目的変数の誤差の二乗和に加えて、それぞれ以下の項を最小化する ことで、過学習を防ぐ 目的変数の誤差の二乗和に加えて、それぞれ以下の項を最小化する ことで、過学習を防ぐ RR: 回帰係数の二乗和 LASSO: 回帰係数の絶対値の和 EN: 回帰係数の二乗和と絶対値の和 (RRとLASSOとの中間) LASSOとENは回帰係数の値が0になりやすく、変数選択としても 利用できる

OLS・RR・LASSO・EN・SVR 最小二乗法による線形重回帰分析 (Ordinary Least Squares, OLS) リッジ回帰 (Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) サポートベクター回帰 (Support Vector Regression, SVR)

OLS・RR・LASSO・EN・SVRの共通点 線形の回帰分析手法 たとえば説明変数が2つのとき、目的変数・説明変数を オートスケーリングしたあと、 と表わされる ある関数 G を最小化することで回帰係数を求める y: 目的変数 x1, x2: 説明変数 (記述子) b1, b2: (標準)回帰係数 yC: y の、x で表すことができる部分 f: y の、x で表すことができない部分 (誤差、残差)

OLS・RR・LASSO・EN・SVRの違い 1/2 OLS: G は誤差の二乗和 RR: G は誤差の二乗和と回帰係数の二乗和 LASSO: G は誤差の二乗和と回帰係数の絶対値の和 n:サンプル数 fi : i 番目のサンプルの誤差 行列の表し方についてはこちら m:説明変数の数 bi : i 番目の説明変数の回帰係数 λ : 重み

OLS・RR・LASSO・EN・SVRの違い 2/2 EN: G は誤差の二乗和と回帰係数の二乗和と絶対値の和 SVR: G はある誤差関数 h と回帰係数の二乗和 h についてはSVRの資料のときに α : 重み (α=1 → RR, α=0 → LASSO)

回帰係数の求め方 G が最小値を取る G が極小値を取る G を 各bi で偏微分したものが 0

どうしてLASSOは回帰係数が0になりやすいの? b2 ||y-Xb||2 が最小になる (b1, b2) b1, b2 を変えたときの||y-Xb||2 の 等高線 が最小になる (b1, b2) = (0,0) b1 b1, b2 を変えたときの の 等高線

どうしてLASSOは回帰係数が0になりやすいの? b2 と との交点が、 b1 = 0 G が最小になる (b1, b2) の角が軸上にあるため b1 b1 もしくは b2 が 0 になりやすい (ENも回帰係数が0になりやすい)

重み λ, α の決め方 グリッドサーチによって、クロスバリデーションの後の r2 の値が もっとも高い λ (RR, LASSO) もしくは λとαの組み合わせ (EN) とする RRにおける λ の候補の例: 0.01, 0.02, …, 0.69, 0.7 LASSOにおける λ の候補の例: 0.01, 0.02, …, 0.69, 0.7 ENにおける λ の候補の例: 0.01, 0.02, …, 0.69, 0.7 ENにおける α の候補の例: 0, 0.01, …, 0.99, 1