上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)

Slides:



Advertisements
Similar presentations
果物識別 補足資料 1. やりたい事  入力された画像内に映っている果物が何かを自動判 別するプログラムを組むこと 識別器 りんご です.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
Ruth Onn, Alfred Bruckstein (Int J Comp Vision 1990)
主成分分析 主成分分析は 多くの変数の中を軸を取り直すことで より低い次元で表現できるようにする。 データがばらついている方向ほど
テンソル積展開 宮崎大輔.
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
「わかりやすいパターン認識」 第1章:パターン認識とは
統計学第9回 「2群の差に関するノンパラメトリックな検定」 中澤 港
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
ウェーブレットによる 信号処理と画像処理 宮崎大輔 2004年11月24日(水) PBVセミナー.
Pattern Recognition and Machine Learning 1.5 決定理論
第三回 線形計画法の解法(1) 標準最大値問題 山梨大学.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
Bias2 - Variance - Noise 分解
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
第2章補足Ⅱ 2項分布と正規分布についての補足
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
第 七 回 双対問題とその解法 山梨大学.
第4章 線形識別モデル 修士2年 松村草也.
第6章 カーネル法 修士2年 藤井 敬士.
果物識別 マハラノビス距離を求める.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
Introduction to Soft Computing (第11回目)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
文化財のデジタル保存のための 偏光を用いた透明物体形状計測手法
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
データ解析 静岡大学工学部 安藤和敏
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
パターン認識特論 ADA Boosting.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
パターン認識特論 ADA Boosting.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土) パターン認識と学習のアルゴリズム 上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)

1 ベイズの識別規則

病気の診断 100人のうち30人が病気、70人が健康 このデータをもとに、ランダムに患者が来たときに誤診の少ないように診断したい

パターン パターンXとしてr個の属性X1,…,Xrの組を考える 各属性Xkは任意の実数値をとり得る確率変数とする 病気の診断の例の場合 X1: 熱があるかないか(熱がないX1=0, 熱があるX1=1) X2: せきが出るか出ないか(せきが出ないX2=0, せきが出るX2=1) r = 2

クラスと確率 パターンクラスとして の2つを考え、これらの発生確率を とする クラス の中からパターン が発生する条件付き確率密度を とする パターンクラスとして の2つを考え、これらの発生確率を とする クラス の中からパターン が発生する条件付き確率密度を とする 病気診断の例 c1=健康 c2=病気 P1 = (50+10+5+5)/100 = 0.7 P2 = (2+3+20+5)/100 = 0.3

ベイズの識別規則 としたとき がベイズの識別規則(=認識の誤り確率が最小となる識別規則)となる としたとき がベイズの識別規則(=認識の誤り確率が最小となる識別規則)となる あるいは を使って とも書ける。このgが識別関数 病気の診断の例 となるので、 熱がなければ(x1=0)健康 熱があってせきが出なければ(x1=1,x2=0)病気 熱がありせきが出る場合(x1=1,x2=1)は病気と判断しても健康と判断しても平均的な誤り確率は変わらない

連続分布の場合 条件付き確率密度関数をそれぞれ平均ベクトル で共分散行列 の正規分布の密度関数とする 最終的にgは以下のようになる

連続分布のパターン認識

2 古典パーセプトロンの学習

パーセプトロン 重み w1,…,wn 出力 y パターン x1,…,xn 感覚層 (入力素子) 連合層 (隠れ素子) 反応層 (出力)

認識機械としてのパーセプトロン 入力x=(x1,…,xn)tが与えられたとき、重みwiを使って出力yを計算する このとき、出力が負ならxはクラスX0に属し、正ならxはクラスX1に属するようにする 入力群と出力群が与えられたとき、重みを自動的に決定したい

弛緩法による構成 重み パターン X0とX1に属するすべてのパターンを適当に無限に並べる 重みw(1)に適当な初期値(例えば(0,…,0))を入れ、以下を収束するまで計算

学習の簡単な例 x(2)=(1,0,1)t =x(6)=x(10)=… x(4)=(1,1,1)t =x(8)=x(12)=… クラスX1

となり、パターンクラスを分割する識別面はx1=1/2になる 学習の簡単な例(つづき) パーセプトロンは となり、パターンクラスを分割する識別面はx1=1/2になる

適用例 X0に属する10個のパターン X1に属する10個のパターン パターンの成分の数n=9

適用例(つづき)

適用例(つづき)

3 現代パーセプトロンの学習

シグモイド関数

ニューロンのアナログモデル 第2層の重みwij 第3層の重みvj 出力素子の出力 隠れ素子の出力 パーセプトロンの認識関数

誤差 誤差 学習パターン集合Xに属する学習パターンxとその認識結果d(x)を人間が与えて学習させ、Eを最小化するパーセプトロンhを求めたい(dは目標関数と呼ばれる) αは各パターンxにおけるhとdの近さに関する重要さの程度を表す重み、既知 |X|はパターンの個数、||z||はユークリッドノルム

誤差逆伝搬学習法 第3層の重みの更新式 第2層の重みの更新式 Δは十分小さな値 第3層の誤差 第2層の誤差 δ1j(x)を求めるのにδ2k(x)を使う→誤差が出力側から入力側に流れる→誤差逆伝搬学習法

1入力1出力のパーセプトロンの学習 N=5個の学習パターン 290回の重みの更新

4 KL展開

Karhunen-Loeve展開 ` N個の属性を持つパターンX 実数値Wn(n=1,…,N) パターンXを以下で表現できる→KL展開 固有ベクトルを正規化したもの

近似 これをK項(K≦N)までで打ち切り 固有値λkを大きい順に並べて λkに対応する固有ベクトルをμkとしたとき、上の打ち切ったXは最も良い近似を与える

固有値問題 固有値問題 を解く N次元パターンJ個が入力 ΣはパターンXの共分散行列(N次正方行列)

適用例 N=10の学習パターン □標準基底 ○固有ベクトル

Daisuke Miyazaki 2003 Creative Commons Attribution 4 Daisuke Miyazaki 2003 Creative Commons Attribution 4.0 International License. http://www.cvl.iis.u-tokyo.ac.jp/