「わかりやすいパターン認識」 第1章:パターン認識とは

Slides:



Advertisements
Similar presentations
はじめてのパターン認識 第1章 第4グループ 平田翔暉. パターン認識 パターン認識 o 観測されたパターンを、あらかじめ定められ たクラスに分類すること クラス o 硬貨: 1 円玉、 5 円玉、 10 円玉、 50 円玉、 100 円玉、 500 円玉 o アルファベット: 26 種類 o 数字:
Advertisements

知能情報工学 年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較.
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
BRIEF: Binary Robust Independent Elementary Features
人工知能特論 8.教師あり学習と教師なし学習
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
第1章 第1節 情報のディジタル化のしくみ 4 音の表現 5 画像の表現
ラベル付き区間グラフを列挙するBDDとその応用
プログラミング言語としてのR 情報知能学科 白井 英俊.
情 報 の 表 現(3) 情報社会とコンピュータ 第10回.
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
芦田尚美*,髙田雅美*,木目沢司†,城和貴* *奈良女子大学大学院 †国立国会図書館
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
顔表情認識のための顔特徴点抽出 徳島大学 大学院 工学研究科 長野 信男.
状況の制約を用いることにより認識誤りを改善 同時に野球実況中継の構造化
EMアルゴリズム クラスタリングへの応用と最近の発展
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
果物識別 マハラノビス距離を求める.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
サポートベクターマシン によるパターン認識
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
決定木とランダムフォレスト 和田 俊和.
第11回   ディジタル画像(2) ディジタル画像処理(2)
Hough変換 投票と多数決原理に基づく図形の検出
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
画像処理工学 2013年1月23日 担当教員 北川 輝彦.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
音高による音色変化に着目した音源同定に関する研究
第14章 モデルの結合 修士2年 山川佳洋.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
音色空間の音高依存性を考慮した 楽器音の音源同定
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
岩村雅一 知能情報工学演習I 第13回(後半第7回) 岩村雅一
長崎大学工学部 情報システム工学科 「パターン認識」って・・・ 何? 宮原・喜安研究室.
Minoのブロック配置のデータ構造 K.Yonezawa.
プログラミング論 主成分分析
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
Webコミュニティ概念を用いた Webマイニングについての研究 A study on Web Mining Based on Web Communities 清水 洋志.
複数特徴量の重み付け統合による一般物体認識
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
Data Clustering: A Review
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
Number of random matrices
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
楽器音を対象とした音源同定: 音高による音色変化を考慮する識別手法の検討
自己組織化マップ Self-Organizing Map SOM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
地理情報システム論(総)/ 国民経済計算論(商)
情報基礎Ⅱ (第1回) 月曜4限 担当:北川 晃.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
地理情報システム論(総)/ 国民経済計算論(商)
地理情報システム論 第4回 コンピュータシステムおける データ表現(2)
ポッツスピン型隠れ変数による画像領域分割
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
Data Clustering: A Review
コンパイラ 2012年10月11日
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Presentation transcript:

「わかりやすいパターン認識」 第1章:パターン認識とは 1.1 パターン認識系の構成 1.2 特徴ベクトルと特徴空間 1.3 プロトタイプと最近傍決定則 4月11日(金) 発表者 新納浩幸

1.1 パターン認識系の構成

パターン認識とは クラスの集合 入力 ? どのクラス に対応するか? 事例、個体、…、あるもの

パターン認識の例 文字認識 音声認識 センサーによる状況の判断 C は文字の集合、事例は文字が書かれた画像 非常に多くの応用がある、知的処理の根幹

事例の表現 ? 特徴ベクトルで表現する d 個の特徴に注目 (例:文字認識、、、文字線の傾き、幅、曲率、面積など) k 番目の特徴の値を で表す ?

簡単な例 問題) 外見から日本人か外人かを識別せよ C ={日本人,外人} 識別に有効そうな特徴を考える 特徴1 身長 ......実数値 (とりえる値) 特徴1 身長 ......実数値 特徴2 髪の色 .....赤,ブロンド,黄色,黒 特徴3 目の色 .....黒,青,茶色 A君の特徴ベクトル とりあえずカテゴリ値は 考えない.属性は実数値 をとるとしておく ( 170,黄色,黒)

認識系の構成 5 識別部 入力パターン 出力 特徴 抽出部 識別 演算部 前処理部 ノイズ除去 正規化 設定してある 特徴を取り出す 識別辞書 識別部

1.2 特徴ベクトルと特徴空間

特徴空間 特徴ベクトルの張る空間のこと 同じクラスを持つ特徴ベクトルは特徴空間上で まとまった塊(クラスター)となっている

特徴抽出の例 特徴ベクトルで表現できるパターン数は 画像を特徴ベクトルへ 注目する特徴は画像の各位置の濃度 画像を 256 分割し、各メッシュの濃度を8段階で表す 256分割 標本化 各画素を 8段階に 各メッシュを 8段階に 量子化 量子化 256次元のベクトルで表現できる 特徴ベクトルで表現できるパターン数は

特徴ベクトルの多様性 手書き数字文字の認識 5*5 のメッシュ(25次元)、各メッシュは 0 or 1 の値 クラスは 0,1,2,...,9 と reject の 11個 5*5 のメッシュ(25次元)、各メッシュは 0 or 1 の値 (白 or 黒) 数字の2のあるパターン 表せるパターンは 各パターンに対してそのクラスを付与しておけば、識別は簡単。 しかしそれはパターン数の膨大さから不可能。

1.3 プロトタイプと最近傍決定則

プロトタイプ 起こりうるすべてのパターンとそのクラスを記憶しておくのは不可能 クラスの代表的なパターンのみを記憶しておく プロトタイプ 識別は事例と各プロトタイプとの距離を測り、もっとも近い プロトタイプのクラスを出力する 最近傍法(NN法)

イメージ的には,,, 入力された事例は 特徴空間上のある1点 最も近いクラスターに に属すると考える 近さを測るメジャーが 必要,とりあえず ユークリッドの距離

NN法の定式化 クラスの集合 n 個のプロトタイプ 事例 の識別 のクラス を出力 注) は x と y の距離を表す。

k-NN法 NN法の拡張、入力事例と距離の近い順にプロトタイプを k 個取り出し、それらのクラスの多数決でクラスを決定 入力2 入力1は と識別 入力1 入力2は reject と識別

プロトタイプの決め方 全数記憶方式 収集できたパターンをすべてプロトタイプにする。 重心 収集できたパターンをクラスごとに分けて、 各クラスのそれらのパターンの重心をプロトタイプとする。 クラスあたり1個のプロトタイプ。

特徴空間の分割 reject NN法の適用を考えるとクラスを分離する境界がある 決定境界 プロトタイプを重心に選ぶ、収集したパターンを完全に分離できた例 赤の線が 決定境界 reject NN法の適用を考えるとクラスを分離する境界がある 決定境界 図(2次元)では決定境界は2つのプロトタイプの垂直2等分線

Coffee Break 表現することと判別すること 事例を忠実に表現できる特徴が必ずしもよい特徴ではない クラスを精度よく判別できる特徴がよい特徴 (1)文字認識において画像をビットマップに対応する 特徴ベクトルで表現,,, 表現力は高いけど,これで判別できるかは? (2)事例を忠実に表現しようとして特徴を増やす(次元を増やす) のは一般にはよくない。次元は少ないほうが望ましい。

Coffee Break NN法を見直そう NN法は単純だけど、奥が深い。近年は計算機の性能が 上がってきたので、実用的な手法になってきている。 参考) 訓練データ(クラスが付与された事例集)が多いと けっこう強力!

Coffee Break 特徴抽出に王道なし 識別の精度は学習アルゴリズムよりも、どんな特徴に 注目したかの方が効く。 どんな特徴に注目したらよいかは機械的に発見できる ものではない。問題に精通することが大事。 図形の認識,画像の認識,,,,,奥が深い 自然言語処理の問題は文脈というものを どのように特徴付けるかが1つのポイント