Locally-Weighted Partial Least Squares LWPLS 局所PLS

Slides:



Advertisements
Similar presentations
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
Advertisements

主成分分析 主成分分析は 多くの変数の中を軸を取り直すことで より低い次元で表現できるようにする。 データがばらついている方向ほど
データ分析入門(12) 第12章 単回帰分析 廣野元久.
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
補章 時系列モデル入門 ー 計量経済学 ー.
9. 主成分分析 Principal Component Analysis (PCA)
データ解析 静岡大学工学部 安藤和敏
得点と打率・長打率・出塁率らの関係 政治経済学部経済学科 ●年●組 ●● ●●.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
回帰分析.
アルゴリズムとデータ構造 補足資料7-3 「単純選択ソートselsort.c」
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
主成分分析                     結城  隆   .
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
変数選択手法っていろいろあるけど 何を使えばいいの?
Generative Topographic Mapping (GTM) でデータの 可視化・回帰分析・モデルの 逆解析を一緒にやってみた
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
補章 時系列モデル入門 ー 計量経済学 ー.
プロセスデータ解析学2 -単回帰分析- 担当:長谷部伸治     金 尚弘.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
相関分析.
 統計学講義 第11回     相関係数、回帰直線    決定係数.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
第9章 混合モデルとEM 修士2年 北川直樹.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
主成分分析 (Principle Component Analysis)
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
独立成分分析 (ICA:Independent Component Analysis )
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
Black Litterman Modelによる最適化
部分的最小二乗回帰 Partial Least Squares Regression PLS
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
回帰分析(Regression Analysis)
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
土木計画学 第12回(1月14日) 計画における代替案の作成2 担当:榊原 弘之.
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
実験計画法 Design of Experiments (DoE)
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
Boruta 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

Locally-Weighted Partial Least Squares LWPLS 局所PLS 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

LWPLSとは? 非線形PLSの一つ PLS (Partial Least Squares) の詳細はこちら https://datachemeng.com/partialleastsquares/ Just-In-Time (JIT) モデリングの一つ 目的変数の値を推定したいサンプルごとにモデリングする 目的変数の値を推定したいサンプルに近いトレーニングデータほど 大きい重みを付けてモデリングする 時系列データなど、説明変数と目的変数のデータセットのサンプルが 増えていく場合に特に効果を発揮する

LWPLS のイメージ LWPLS

PLS の復習 1/2 PCA (Principal Component Analysis) 主成分 t の分散 ( tTt ) が最大になるように主成分を抽出 PLS (Partial Least Squares) 主成分 t と目的変数 y との共分散 ( tTy ) が最大になるように 主成分を抽出 説明変数(記述子) 主成分 X 成分抽出 T 最小二乗法 y サンプル yの情報

PLS の復習 2/2 X、y はオートスケーリング後 (平均0、標準偏差1) オートスケーリングについては こちら A : PLS の成分数 ta : a 番目の主成分 pa : a 番目のローディング E : X の残差 qa : a 番目の係数 f : y の残差 行列の表し方やローディングについては こちら

LWPLS の前提 トレーニングデータ X : m × n の行列 y : m × 1 のベクトル m : サンプルの数 目的変数の値を推定したいサンプル (クエリ) xq : 1 × n のベクトル 説明変数(記述子) n 個 X y サンプル m個

トレーニングデータとクエリとの類似度行列 U x(i) : i 番目のトレーニングデータ s(i) : ||x(1)-xq||, ||x(2)-xq||, …, ||x(m)-xq|| の標準偏差 λ : 類似度調整用パラメータ (ハイパーパラメータ)

トレーニングデータの平均化 クエリとの類似度で重み付き平均したもの

1成分目の計算 成分数 a = 1 のとき、 wa : a 成分目のウェイトベクトル ta : a 成分目のスコアベクトル pa : a 成分目のローディングベクトル qa : a 成分目の係数

2成分目の計算へ、そして繰り返し 下のように X と y をアップデート そして、a を a + 1 として、再び p. 7 の計算をする このように、p. 7 の計算と X, y のアップデートを繰り返して、 2, 3, … 成分目の計算をする これにより、成分ごとのウェイトベクトル・ローディングベクトル・係数が 得られる

クエリの推定をする a 成分目までを用いたときの、クエリの目的変数の推定値を、 yq,a とする 定数項を yq,0 として、p. 6 のクエリとの類似度で重み付き平均したもの yw とする yq,0 = yw

クエリの平均化 xw,1, xw,2, …, xw,n については、p. 6 参照

1成分目の計算 成分数 a = 1 のとき、

2成分目の計算へ、そして繰り返し 下のように xq と yq をアップデート そして、a を a + 1 として、再び p. 11 の計算をする このように、p. 11 の計算と xq と yq のアップデートを繰り返して、 2, 3, … 成分目のクエリの推定値を計算する

ハイパーパラメータをどうするか? λ の値をどうするか? 何成分目の推定値を用いるか? クロスバリデーション+グリッドサーチ (網羅的な探索) で決める クロスバリデーションについての詳細はこちら https://datachemeng.com/modelvalidation/ 候補の例 λ : 2-9, 2-8, …, 25 成分数 : 1, 2, …, 20

どうやって実際にLWPLSを実行するか? LWPLS をするための MATLAB や Python のプログラムを 作りました! LWPLSのデモと、クロスバリデーションでハイパーパラメータを最適化する デモも付いています! https://github.com/hkaneko1985/lwpls