第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一

Slides:



Advertisements
Similar presentations
母平均の区間推定 ケース2 ・・・ 母分散 σ 2 が未知 の場合 母集団(平均 μ 、分散 σ 2) からの N 個の無作為標本から平均値 が得られてい る 標本平均は平均 μ 、分散 σ 2 /Nの正規分布に近似的に従 う 信頼水準1- α で区間推定 95 %信頼水準 α= % 信頼水準.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
Building text features for object image classification
点対応の外れ値除去の最適化によるカメラの動的校正手法の精度向上
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
遺伝的アルゴリズム  新川 大貴.
Pattern Recognition and Machine Learning 1.5 決定理論
疫学概論 母集団と標本集団 Lesson 10. 標本抽出 §A. 母集団と標本集団 S.Harano,MD,PhD,MPH.
統計的仮説検定 治験データから判断する際の過誤 検定結果 真実 仮説Hoを採用 仮説Hoを棄却 第一種の過誤(α) (アワテモノの誤り)
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
岩井 儀雄 コンピュータ基礎演習  ー探索、整列ー 岩井 儀雄
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
第3章 補足:パラメータが極小値に収束する例
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
第6章 連立方程式モデル ー 計量経済学 ー.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
決定木とランダムフォレスト 和田 俊和.
5 テスト技術 5.1 テストとは LISのテスト 故障診断 fault diagnosis 故障解析 fault analysis
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
第14章 モデルの結合 修士2年 山川佳洋.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
超幾何分布とポアソン分布 超幾何分布 ポアソン分布.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
計測工学 -誤差、演習問題 計測工学(第6回) 2009年5月26日 Ⅱ限目.
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
市場調査の手順 問題の設定 調査方法の決定 データ収集方法の決定 データ収集の実行 データ分析と解釈 報告書の作成 標本デザイン、データ収集
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
ウィルスって どの位感染しているのかな? 菊池研究室  小堀智弘.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
楽器音を対象とした音源同定: 音高による音色変化を考慮する識別手法の検討
第3章 線形回帰モデル 修士1年 山田 孝太郎.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
ベイズ音声合成における 事前分布とモデル構造の話者間共有
データ解析 静岡大学工学部 安藤和敏
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
パターン認識特論 ADA Boosting.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
Locally-Weighted Partial Least Squares LWPLS 局所PLS
パターン認識特論 ADA Boosting.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一 わかりやすいパターン認識 第4章 識別部の設計  4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一

〔1〕識別部を決定するパラメータ 線形識別関数、ニューラルネットワーク、k-NN法(ノンパラメトリックな手法) ハイパーパラメータを設定しなければならない     (識別機の“本来のパラメータのためのパラメータ”) ※ハイパーパラメータの設定は実用上極めて重要!!                (識別性能に大きな影響を与える)

各手法におけるハイパーパラメータ 識別手法 ハイパーパラメータ 線形識別関数 関数の次数 ニューラルネットワーク 中間ユニット数 k-NN法

ハイパーパラメータの設定方法(1) クラスラベルつきパターン集合 ハイパーパラメータは未知パターンに対する識別性能を評価することで  決定される 誤識別率の低いハイパーパラメータが望ましい ハイパーパラメータをλとする 全ての可能な未知パターンに対する識別機の誤識別率の   平均値として  を求める   を最小にする      を決定する                     (Λ:λ全体の集合)

ハイパーパラメータの設定方法(2) 実際は、分布が未知なので単純に  を計算できない 与えられたクラスラベル付パターン集合   から  を推定する

〔2〕分割学習法 分割学習法(H法) の推定精度が良くない :与えられたパターン集合の一部をテストパターン集合と みなす方法 手順    :与えられたパターン集合の一部をテストパターン集合と     みなす方法 手順 X→X1(学習パターン集合)、X2(テストパターン集合)に分割 X1を用いて     の各値で識別機を設計 X2で識別性能を評価 問題点 学習パターン数が減少し、識別性能が劣化 学習パターン数を多くすると、テストパターン数が少なくなり、              性能評価の信頼性が低下 の推定精度が良くない

〔3〕交差確認法 交差確認法(CV法) 手順 Xをm個のグループ に分割 Xiを除いた(m-1)個のグループパターンで学習した後 Xiの要素数=1となるように分割する方法(一つ抜き法[L法])  がよく用いられている 全てのパターンが学習とテストに用いられているため  H法より  の推定精度が向上

〔4〕ブートストラップ法[1] ブートストラップ法(BS法) (推定値がXの変動に対し安定)      :CV法に比べ推定値の分散が小さくなる                    (推定値がXの変動に対し安定) Xを学習とテストの両方に利用してそのときの推定値を   とする    は真値  よりも小さくなる              (学習パターン数がテストにも利用されたから) ずれを         とする Rをなんらかの方法で推定できれば        として   真値  を推定できる ●Xからn回の復元抽出により疑似パターン集合               を生成し、この   を用いて  Rの推定値を求める

ブートストラップ法[2] 手順 L法、BS法は、かなりの学習回数を要し、膨大な 計算時間を要するが、精度が良いことでこの欠点を カバーできる (  のサンプリング影響をなくすため) B個の疑似パターンについて          を求めて  それらの平均値を  とする(          )      :  を学習とテストの両方に用いたもの      :  を学習に、Xをテストに用いたもの 求めるべき推定値は      となる L法、BS法は、かなりの学習回数を要し、膨大な 計算時間を要するが、精度が良いことでこの欠点を カバーできる