パターン認識特論 ADA Boosting.

Slides:



Advertisements
Similar presentations
画像処理・実習 第十四回:パターン認識 東海大学 情報理工学部 情報メディア学科 濱本和彦. 今回の内容 5. パターン認識 5.1 マッチングの原理 5.2 テンプレートマッチング 実習 相互相関とテンプレートマッチング.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
コンピュータビジョン特論 OpenCVについて
Building text features for object image classification
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
基礎プログラミング (第五回) 担当者: 伊藤誠 (量子多体物理研究室) 内容: 1. 先週のおさらいと続き (実習)
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
雑音重み推定と音声 GMMを用いた雑音除去
TextonBoost:Joint Appearance, Shape and Context Modeling for Multi-Class Object Recognition and Segmentation 伊原有仁.
SURF: Speeded Up Robust Features
CV輪講 姿勢変化に対応したSoft Decision Featureと Online Real Boostingによる人物追跡
画像情報を用いた交通流計測 情報工学科 藤吉研究室 EP02076 都築勇司
第3章 補足:パラメータが極小値に収束する例
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
長岡技科大オープンハウス 岐阜高専4年電子制御工学科 森 永二郎.
k 個のミスマッチを許した点集合マッチング・アルゴリズム
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第二回 演習課題
高度情報演習1C 実践 画像処理プログラミング 第二回 演習課題
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Introduction to Soft Computing (第11回目)
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
1-P-25 3次キュムラントバイスペクトラム特徴とReal AdaBoostによる音声区間検出
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
Number of random matrices
各会話シーン毎に、発話(音源)方向を推定
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
SIFTとGraph Cutsを用いた 物体認識及びセグメンテーション
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
AdaBoostを用いた システムへの問い合わせと雑談の判別
ブースティングとキーワードフィルタリング によるシステム要求検出
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
重みつきノルム基準によるF0周波数選択を用いた Specmurtによる多重音解析
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
クラスタリングを用いた ベイズ学習モデルを動的に更新する ソフトウェア障害検知手法
パターン認識特論 ADA Boosting.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
音響伝達特性を用いた単一チャネル 音源位置推定における特徴量選択の検討
パターン認識特論 カーネル主成分分析 和田俊和.
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
ランダムプロジェクションを用いた音響モデルの線形変換
Presentation transcript:

パターン認識特論 ADA Boosting

低精度の識別器を組み合わせて 高精度の識別器を作る 入力(特徴ベクトル) 識別器1 識別器2 識別器n 出力(識別結果) Boostingとは同じタイプの識別器を異なる学習をさせて結合する 異なるタイプの識別器を学習をさせて結合する方法もある

ADA Boostingの利点 単純な計算の反復で安定な識別器を作ることができる. 最適化の特別なアルゴリズムを必要とせず,実装が容易. 人物顔検出などに用いることができ,特徴の「選択」も行える.

歴史的背景 1988年 Keans, Valiant :  大量の学習データが与えられているとき、ランダム選択よりも少しましな学習能力を有する識別器があれば、それらを組み合わせることによって、任意の高精度識別器が構成できる 1989年 Schapire 最初の Boosting アルゴリズム 1990年 Freund 改良型 Boosting 1995年 Freund and Schapire ADA Boosting 1998年 Friedman et al Real AdaBoost Friedman et al LogitBoost Friedman et al Gentle ADABoost 2000年 Freund BrownBoosting

識別器出力の統合 組み合わされた出力    は、個々の識別器の出力            の重み付き和として表される。 出力(識別結果)

Step1:初期化 以下のデータ分布が与えられているとする. 各点は以下のクラスラベル: x1 xn x2 +1 ( ) yn= +1 ( ) -1 ( ) yn= と重みを持つ: Dn =1/N It is a sequential procedure that builds a complex classifier out of simpler ones by combining them additively.

Step1:初期化                   が与えられているとする。但し、        である。              とする。  このとき、以下のStep2と3を、t=1~Tまで繰り返す。

Step2:識別器tの学習 識別誤差を最小化するように学習 弱識別器が直線の場合

Step3:重みの更新 重み付きエラー 間違わないほど のとき 大きな値になる 識別器tの重み 0とする。 データの重み 間違うほど大       のとき 0とする。 間違わないほど 大きな値になる データの重み 間違うほど大 きな値になる 正規化項

Step3:重みの更新(イメージ図) 誤識別を起こしたデータの重みを増す

学習終了後に得られる識別器 入力(特徴ベクトル) 識別器1 識別器2 識別器n 出力(識別結果)

続き

続き

続き

最終結果 f1 f2 f4 f3 線形識別面4枚から非線形識別面を作ることができる

ADA Boosting の特性 誤識別確率 学習すればするほど誤りは少なくなる。 しかも、誤識別が減るのが速い。

未知入力に対するリスク トレーニングサンプルに対する誤りの確率 未知入力に対する誤りのオーダ d: VC dimension

デモ http://www.cs.technion.ac.il/~rani/LocBoost/

Real ADABoost Step3の重み更新式が違う

識別による検出 (クラスモデルとのマッチング) Cascaded ADABoosting 入力 強学習器 1 2 t Face T No Face カスケード型識別器 特徴 学習データ 特徴量 特徴1 顔データ 非顔データ 検出に有効か調査顔

内積計算の高速化 Integral Image(Viola&Jones) (x, y) (0, 0)

Integral Imageを用いた矩形内積分 iiRB -iiRT -iiLB +iiLT わずか3回の加減算で,任意の矩形領域の積分が行え,顔検出で用いられるHarr Like特徴も高速に計算可能 Harr Like特徴 (0, 0) iiRT iiLT iiLB iiRB

検出時の位置・大きさ の変化に対する対処法 イメージピラミッドの走査