線形判別分析 Linear Discriminant Analysis LDA

Slides:



Advertisements
Similar presentations
画像処理・実習 第十四回:パターン認識 東海大学 情報理工学部 情報メディア学科 濱本和彦. 今回の内容 5. パターン認識 5.1 マッチングの原理 5.2 テンプレートマッチング 実習 相互相関とテンプレートマッチング.
Advertisements

中学校段階での 相関関係の指導 宮崎大学教育文化学部 藤井良宜. 概要 現在の学習指導要領における統計の扱い これまでの相関関係の指導 相関関係の指導のポイント 相関関係.
摂南大学理工学部における 数学教育と EMaT への取組み 東武大、小林俊公、中津了勇、島田伸一、寺本惠昭、友枝 恭子 ( 摂南大学理工学部 基礎理工学機構 ) 日本工学教育協会 第 63 回年次大会 2015 年 9 月 4 日 ( 金 ) 9:30-9:45.
生物統計学・第 15 回 エラーを調べる -第一種の過誤、第二種の過誤、外れ値 - 2016 年 1 月 26 日 生命環境科学域 応用生命科学類 尾形 善之.
顔表情クラスタリングによる 映像コンテンツへのタギング
主成分分析 主成分分析は 多くの変数の中を軸を取り直すことで より低い次元で表現できるようにする。 データがばらついている方向ほど
「わかりやすいパターン認識」 第1章:パターン認識とは
Deep learningによる 読唇システム
回帰分析.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
主成分分析                     結城  隆   .
アルゴリズムとデータ構造 補足資料4-2 「線形探索」
画像情報を用いた交通流計測 情報工学科 藤吉研究室 EP02076 都築勇司
変数選択手法っていろいろあるけど 何を使えばいいの?
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
果物識別 マハラノビス距離を求める.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
サポートベクターマシン によるパターン認識
複数尤度を用いた 3次元パーティクルフィルタによる選手の追跡 IS1-39
データ解析 静岡大学工学部 安藤和敏
小山工業高等専門学校 電子制御工学科 4年 小山田 晃
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
第9章 混合モデルとEM 修士2年 北川直樹.
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
コードクローン検出ツールを用いた ソースコード分析システムの試作と プログラミング演習への適用
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
予測に用いる数学 2004/05/07 ide.
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
部分的最小二乗回帰 Partial Least Squares Regression PLS
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
Genetic Algorithm-based Partial Least Squares GAPLS Genetic Algorithm-based Support Vector Regression GASVR 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Number of random matrices
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
遺伝的アルゴリズム (GA) を活用した スペクトルの波長選択および時系列 データにおけるプロセス変数かつその時間 遅れ (ダイナミクス) の選択 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
ブースティングとキーワードフィルタリング によるシステム要求検出
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
CSP係数の識別に基づく話者の 頭部方向の推定
転移学習 Transfer learning
空間図形の取り扱いについて.
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

線形判別分析 Linear Discriminant Analysis LDA 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

線形判別分析 (LDA) とは? 線形判別分析 (Linear Discriminant Analysis, LDA) 2つのクラスを “最もよく判別する” 直線を引く 1次元(z)に線形写像し、zで2つのクラスを識別する クラスが3つ以上あるときにも対応できる x2 z クラス1 クラス-1 x1

“最もよく判別する” とは? ① 各クラスのサンプルは固まっている z でのクラス内のばらつき VWz ② クラス1(赤) とクラス-1(青)は散らばっている z でのクラス内のばらつき VWz : クラス k のみの zの平均 z でのクラス間のばらつき VBz

重み w の求め方 ① 各クラスのサンプルは固まっている z でのクラス内のばらつき VWz ② クラス1(赤) とクラス-1(青)は散らばっている z でのクラス間のばらつき VBz VWz が小さく(①)、VBz が大きくなる(②) 直線を引く (w1, w2を求める) が最大になるw1, w2を求める

J の整理 : クラス k のみの x の平均ベクトル ただし、

w を求める J が最大値 J が極大値 J を w で偏微分して0 スカラ wの大きさは気にしなくてよい

クラス分類の結果の評価 混同行列 (confusion matrix) 正解率 = 検出率 = 精度 = 誤検出率 = など 予測されたクラス 1 (Positive, 陽性) -1 (Negative, 陰性) 実際の クラス True Positive (TP) False Negative (FN) False Positive (FP) True Negative (TN) TP + TN TP 正解率 = 検出率 = TP + FN + FP + TN TP + FN TP FP 精度 = 誤検出率 = など TP + FP FP + TN

クラス分類の結果の評価 例 混同行列 (confusion matrix) 正解率 = = 0.79 検出率 = = 0.90 精度 = 予測されたクラス 1 (Positive, 陽性) -1 (Negative, 陰性) 実際の クラス 45 5 20 50 45 + 50 45 正解率 = = 0.79 検出率 = = 0.90 45+5+20+50 45 + 5 45 20 精度 = = 0.69 誤検出率 = = 0.29 45 + 20 20 + 50

(参考) Kappa係数 実際と予測結果の一致度を評価する指標 Positive(陽性)データとNegative(陰性)データの偏りがある時に有効 正解率 - 偶然による一致率 Kappa係数 = 1 - 偶然による一致率 TP + FN TP + FP FP + TN FN + TN 偶然による一致率 = × + × A A A A ( A = TP + FN + FP + TN ) http://en.wikipedia.org/wiki/Cohen%27s_kappa 予測されたクラス 1 (Positive, 陽性) -1 (Negative, 陰性) 実際の クラス True Positive (TP) False Negative (FN) False Positive (FP) True Negative (TN)