Pattern Recognition and Machine Learning 1.5 決定理論

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
統計学入門2 関係を探る方法 講義のまとめ. 今日の話 変数間の関係を探る クロス集計表の検定:独立性の検定 散布図、相関係数 講義のまとめ と キーワード 「統計学入門」後の関連講義・実習 社会調査士.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
電子情報工学科5年(前期) 7回目(21/5/2015) 担当:古山彰一
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
統計解析 第9回 第9章 正規分布、第11章 理論分布.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
パターン認識と機械学習 第1章:序論(後半)
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
ベイズ的ロジスティックモデル に関する研究
人工知能概論 第6章 確率とベイズ理論の基礎.
統計学 12/13(木).
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
第4章 線形識別モデル 修士2年 松村草也.
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
決定木とランダムフォレスト 和田 俊和.
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
領域ベースの隠れ変数を用いた画像領域分割
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
連続領域におけるファジィ制約充足問題の 反復改善アルゴリズムによる解法 Solving by heuristic repair Algorithm of the Fuzzy Constraint Satisfaction Problems with Continuous Domains 北海道大学.
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
経営学研究科 M1年 学籍番号 speedster
サポートベクターマシン Support Vector Machine SVM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
ポッツスピン型隠れ変数による画像領域分割
確率論・数値解析及び演習 (第7章) 補足資料
構造方程式ゼミナール 2012年11月14日-11月21日 構造方程式モデルの作成.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
Fourier 変換 Mellin変換 演習課題
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

Pattern Recognition and Machine Learning 1.5 決定理論 2010.11.25 多田 圭佑

目次 0. 決定理論とは 1. 誤識別率の最小化 2. 期待損失の最小化 3. 棄却オプション 4. 推論と決定 5. 回帰のための損失関数 6. まとめ

決定理論とは 適切な確率が与えられた(推論された)時に,最適な決定をするための理論 例:患者のX線画像からその患者が癌かどうかの診断の決定方法は? 入力ベクトルx :画像のピクセル強度 出力変数t :癌であるクラス か,癌でないクラス どちらかを表す 同時分布 を求める:推論の問題 これが分かった上で患者にどのような診断を下すか:決定の段階 ※ここでは,推論の問題は解決できる(同時分布が求まる)として,決定理論の話をする.しばらくはこの癌に診断の例を用いる.

ベイズの定理 (確認) が求まるとき,ベイズの定理により, (新たな患者のX線画像xが得られた時,修正された事後確率)を求めることができる. ※今から述べる決定理論では, が得られると適切なクラス分類ができる.

誤識別率の最小化 (1/2) 誤ったクラスに分類する可能性を最小にしたい →事後確率 が最大となるクラスにxを割り当てる 直感的には正しそうだが,本当に正しいか?

誤識別率の最小化 (2/2) 領域 上の点は全てクラス を割り当てるとする. 誤りが起きる確率は, 領域 上の点は全てクラス を割り当てるとする. 誤りが起きる確率は, となる.これを最小にするには, ならxにはクラス を割り当てる必要がある(図1.24参照). であり,p(x)はどちらのクラスでも共通なので,誤り確率を最小にするのは,各xを事後確率 が最大となるクラスに割り当てる時である.

期待損失の最小化 (1/3) 単に誤識別率を減らすだけでは十分でないケースがある(例えば,癌であるのに健康と診断するのは,癌でないのに癌であると診断するより罪が重い). →損失関数を導入しそれを最小化する (損失関数は未知である真のクラスの不確実性 に依存するため,損失の平均を考える.)

期待損失の最小化 (2/3) 新たなxに対し,真のクラスが で,xをクラス に割り当てたとする.その時の損失を で表すと,それをk,j成分とする損失行列を考えることができる. 損失の平均(期待損失)は, で,これを最小化したい. →各xごとに を最小化すればよい. → を用いて共通因子p(x)を取り除く →新たなxを以下の量が最小になるようなクラスjに割り当てればよい. これは事後確率 が分かっていれば求まる. 癌 正常 癌 正常

期待損失の最小化 (3/3) の直感的な理解 i)新たなxをj=1のクラスに割り当てるとすると(癌であると診断すると) ii)新たなxをj=2のクラスに割り当てるとすると(正常であると診断すると) i)とii)の小さくなるほうのjのクラスをこのxに割り当てればよい. 癌 正常 癌 正常

棄却オプション の最大値が1よりかなり小さい場合 →どのクラスに属するか不確か.決定を避けるほうがいい場合もある. → の最大値がθ以下だったら棄却する.

推論と決定 決定までに3つの方法がある. a) の推論問題を解き,ベイズの定理から事後確率 を求め,決定理論を用いる. b)事後確率 の推論問題を解き,決定理論を用いる. c)推論と決定の問題を同時に解いて入力xから直接クラスラベルに写像する識別関数f(x)を求める. a)が一番大変でc)が一番楽. c)だと事後確率が出せない(事後確率が知りたい場合は数多くある).

回帰のための損失関数 (1/3) クラス分類問題ではなく,回帰問題の場合を考える. 目標:入力ベクトルxと対応する目標変数tがあり,新たなxの値に対するtを予測する. 前提:同時確率分布p(x,t)は推論問題を解くことで求まっているとする. 決定段階でやること:各入力xに対して,目標変数tの値に対する良い推定値y(x)を選ぶ.

回帰のための損失関数 (2/3) 損失関数 の期待損失を考える. 目標:E[L]を最小にするy(x)を選ぶこと 二乗誤差 の場合,変分法で, 損失関数 の期待損失を考える. 目標:E[L]を最小にするy(x)を選ぶこと 二乗誤差 の場合,変分法で, となり,これより, を得る. y(x)の最適解は条件付き平均となる.

回帰のための損失関数 (3/3) 期待二乗誤差を最小にする回帰関数y(x)は,条件付き分布p(t|x)の平均で与えられる.

まとめ 推論→決定 決定の仕方(誤識別率,期待損失,棄却) 決定までの3通りのアプローチ クラス分類問題と回帰問題