パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/16 早稲田大学大学院理工学研究科講義.

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
第12章 連続潜在変数 修士 1年 村下 昇平.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/9/16 早稲田大学大学院理工学研究科講義.
第4章 線形識別モデル 修士2年 松村草也.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
決定木とランダムフォレスト 和田 俊和.
第9章 混合モデルとEM 修士2年 北川直樹.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
独立成分分析 (ICA:Independent Component Analysis )
予測に用いる数学 2004/05/07 ide.
主成分分析 Principal Component Analysis PCA
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
部分的最小二乗回帰 Partial Least Squares Regression PLS
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/16 早稲田大学大学院理工学研究科講義

講義内容 1時限目 2時限目 統計的決定理論 統計的特徴抽出の理論 パターン認識とは ベイズ決定理論 確率密度分布の推定 特徴抽出の枠組み パラメトリックモデルを用いる方法 ノンパラメトリックな方法 セミパラメトリックモデルを用いる方法 2時限目 統計的特徴抽出の理論 特徴抽出の枠組み 線形多変量データ解析手法 非線形判別特徴の抽出 線形手法と非線形手法との関係

講義内容 3時限目 4時限目 学習の理論とニューラルネットワーク その他のニューラルネット 単純パーセプトロン ADALINE ロジスティック回帰 多層パーセプトロン 汎化性 4時限目 その他のニューラルネット 恒等写像学習 RBF(Radial Basis Function)ネットワーク Mixture of Experts SVM(Support Vector Machine)

主成分分析(K-L展開) 主成分分析 線形写像 最適解 情報圧縮(次元の縮小)や類別のための教師なしの特徴抽出の代表的な手法 K-L展開(Karhunen-Loeve expansion)、あるいは、主成分分析(Principal Component Analysis (PCA))と呼ばれる 特徴空間Xの情報(分散)を最も良く保存するようなYを求める 線形写像 最適解 共分分散行列の固有ベクトル 分散最大 主成分空間 特徴空間

主成分分析と最小2乗近似 最小2乗近似 主成分空間 特徴空間

恒等写像学習 教師信号 多層パーセプトロン 評価基準(2乗誤差最小) 学習則

カメラ回転に伴うオプティカルフローの推定 カメラ回転と移動物体 + image background flow independent motion 恒等写像学習によりカメラ回転に伴う オプティカルフローをモデル化

カメラ回転に伴うオプティカルフロー head-mounted camera flow component at position (x,y) angular velocities 2x2 unknown

apply dimensionality reduction フローの生成過程のモデル化 … flow vector linear model rotation param. 2P-dim. vector : generated from 2-dim. parameter and are unknown apply dimensionality reduction

恒等写像学習による順逆モデルの同時推定 output input … forward model intrinsic parameters inverse output input intrinsic parameters

評価実験 optical flow #components: 11x8 #units: 176-2-176 MLP カメラ SightLine Tech. EyeView & SONY EVI-D30 入力画像 30 [frame/sec], 80x60 [pixel] optical flow #components: 11x8 MLP #units: 176-2-176 推定されたカメラの動きに 伴うオプティカルフロー 入力オプティカルフロー

獲得された内部表現

Moving Objects Detection image original flow reconstructed difference

Hebb学習則 Hebb学習則 心理学者D.O.Hebbにより提案された学習アルゴリズム ニューロンが発火したときに、そのニューロンに刺激を入力したニューロンからのシナプス結合を強化 線形ニューロンの出力 結合ベクトルは入力の相関行列の正の固有値に対応する固有ベクトルの方向に向かう しかし、一度ある結合係数が強化されるとその結合係数との線形結合で表される出力の値が大きくなり、結果として同じ結合係数が強化されつづけ、発散してしまう

Ojaの学習アルゴリズム Ojaの学習アルゴリズム Hebb学習則に良く成功を加えたもの 性質 結合係数のノルムは1に収束する 結合係数は入力の相関行列の最大固有値に対応する固有ベクトルに収束する 結合係数は出力yの分散を最大化させる

学習型主成分分析アルゴリズム Ojaの学習アルゴリズム Subspace Network Algorithm (Oja 1992) K個の固有ベクトルそのものには収束しないで、K個の固有ベクトルが張る部分空間の基底ベクトルに収束 Generalized Hebbian Algorithm (GHA) (Sanger 1989) 学習が進むと入力の相関行列の最大固有値から順に取られたK個の固有ベクトルに収束

生体の視覚情報処理の流れ 外側膝状体 第1次視覚野(V1) 網膜 上丘 ・情報の中継 ・信号整形 ・外界の視覚情報の受容 ・形の特徴抽出 ・動きの特徴抽出 ・眼優位性 ・色の情報処理 上丘 ・眼球運動

単純型細胞受容野の特性 受容野の3特性 a b c d e 方位選択性(b、c)、局所性(d)、幅選択性(e) 出力 - + - - + - 受容野:細胞の入力領域 ON反応の受容野 明スリット光 OFF反応の受容野 b c d e 受容野の3特性 方位選択性(b、c)、局所性(d)、幅選択性(e)

主成分分析(GHA)を用いて求めた受容野 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1 2 3 4 5 6 7 8 8x8の受容野(64個) 16x16の受容野(256個)

主成分分析とGHAによるエッジ抽出 原画像 (主成分分析) 第2主成分 第3主成分 第4主成分 第5主成分 (GHA)

GHAによる結果 (出力144個中) 受容野の3特性を持つものがいくつか存在 種類は少ない 主成分分析型アルゴリズムは不適切 自然画像 網膜での処理を施した自然画像 受容野の3特性を持つものがいくつか存在 種類は少ない       主成分分析型アルゴリズムは不適切

Maximum Sparseness Algorithm (Olshausen & Field 1996) 評価関数     最大化 ニューロンの出力 結合係数uの更新式

Maximum Sparseness Algorithmによる結果 (出力64個中) 網膜での処理を施した自然画像 入力画像の特性によく反応している 単純型細胞の受容野特性を持ったものが多数存在する 得られた結合係数の種類が多い          スパース型アルゴリズムは生体に近い

RBFネットワーク RBF(Radial Basis Function)ネットワーク 中間層の基底関数の出力を線形結合することによってネットワークの出力を計算するようなネットワーク 基底関数 中間層の基底関数は入力がその中心に近い場合にのみ大きな出力を出す 出力

RBFネットワーク(性質) RBFネットワークの能力 特徴 中間層のユニット数が多ければ、任意の連続関数を近似できる 多層パーセプトロン 中間層の入出力関数がシグモイド関数の場合、中間層の出力が入力空間の無限に大きな領域で大きな値を持つ RBFネットワーク 入力空間の局所的な領域でのみ大きな値を持つ 核関数に基づく確率密度の推定方法と密接に関連する

RBFネットワーク(学習) アプローチ ステップ1: 初期値の推定 ステップ2: パラメータの微調整 中間層での学習と出力層での学習を別々に行い、その結果を初期値としてパラメータを最急降下法等を用いて微調整する ステップ1: 初期値の推定 学習データをクラスタリングする クラスタリング手法としては、K-means法を用いる クラスタリングの結果から、各クラスターにひとつのユニットを割り当て、各クラスターの中心をそのユニットの中心とする。 基底関数の正規化パラメータσはクラスターの広がり具合から推定 最小2情報によって、中間層から出力への結合荷重を推定 ステップ2: パラメータの微調整 最急降下法により2乗誤差を最小にするようにパラメータを微調整

RBFネットワーク(応用例) 3次元データの向きによらない表現の獲得(1990 Possigo)

Mixture of Experts Mixture of Experts Jordan等が提案した、全学習データの部分集合のみを扱うようにした複数の部分ネットワーク(Experts)を結合したネットワークアーキテクチャ(1991)

Multinomial Logit model Expert (classifier) Multinomial Logit model 尤度・対数尤度 学習アルゴリズム

Multinomial Logit model Gating network Gating Network 入力に対して適切な識別器を選択 Softmax関数で実現 Multinomial Logit model

Mixture of Classifiers の学習 尤度・対数尤度 学習アルゴリズム 入力xに対するn番目の識別器の事後確率

サポートベクターマシン(SVM) サポートベクターマシン(Support Vector Machine, SVM) パターン認識の能力に関して、現在知られている中で最も優れた学習モデルのひとつ 基本的な構造は、ニューロンモデルとして最も単純な線形しきい素子(McCulloch & Pittsモデル) Vapnik等が、単純パーセプトロンのよい性質を保ちつつ、数理計画法や関数解析に関わるいくつかの工夫を加えてSVMを実現 正則化やBayes推定、スパース表現とも関連 2クラスの識別問題に対して有効 「マージン最大化」という基準で「線形しきい値素子」を用いたモデルを学習 「カーネルトリック」という工夫で性能をあげる

問題設定 識別関数 学習 外界からd次元の入力パターンxが与えられたとき、これを2つのクラスのどちらかに識別。 クラスのラベルを1と-1に数値化 識別関数:入力パターンからクラスラベルへの関数 学習 N個のサンプルパターンとそれぞれに対する正解のクラスラベルを訓練サンプルとして、それらが正しく識別されるような識別関数を求める 訓練サンプルに含まれない入力パターンに対しても出力の誤りをできるだけ小さくしたい

線形しきい素子 線形しきい素子 他のニューロンからの入力xがシナプス果汁wに比例して内部ポテンシャルに加算され、しきい値hを超えたところで出力1を出力する 幾何学的には、入力空間をしきい値hで決まる超平面で二つにわけ、一方に1を、もう一方に-1を割り当てる 線形分離可能 すべてのサンプルに対して正しい出力を出すようにパラメータを調節可能

マージン最大化 よりよい超平面 学習用のサンプル集合を線形分離可能でも、それを実現する超平面は一意でない 訓練サンプルすれすれを通る超平面よりも、多少余裕をもった超平面の方が良い => 余裕をどうやってはかる? マージン 超平面と訓練サンプルとの距離の最小値

評価関数の導出 マージンの大きさ 制約条件付最適化問題 線形分離可能 目的関数: 制約条件: H1 すべてのサンプルが制約条件 を満たすようにできる つまり、2枚の超平面H1とH2をはさんでラベル1のサンプルとラベル-1のサンプルが分離されており、2枚の超平面の間には1つもサンプルがない 超平面H1と超平面H2上に少なくとも1つ以上の訓練サンプルが存在すると仮定 制約条件付最適化問題 目的関数: 制約条件: H1 H2

制約条件付き最適化問題の解法 Lagrange乗数を用いて変形 双対問題 停留点での条件 目的関数: 制約条件: これをもとの式に代入 => 双対問題 双対問題 目的関数: 制約条件: この解で、αが正となるデータ点を「サポートベクター」と呼ぶ。これは、超平面H1あるいはH2の上にのる

識別関数 識別関数 ここで、Snはサポートベクターに対応するデータの添え字の集合 => サポートベクターのみで識別関数が構成される

ソフトマージン ソフトマージン 制約条件の変更 線形分離可能でない場合に対応するため、多少の識別誤りは許すように制約を緩める方法 目的関数: 制約条件: Cは制約を破ったサンプルに対するペナルティ

高次元化 高次元化 線形分離可能でない場合に対応するため、xを非線形変換により高次元の空間に写像して、その空間で線形の識別をする 線形分離可能性は、訓練サンプル数が大きくなるほど難しく、次元が大きいほどやさしくなる。 次元がサンプル数+1以上であり、パターンが一般の位置にあれば、どんなラベル付けに対しても線形分離可能 高次元化の課題 次元の呪い:次元の増加とともに汎化能力が落ちてしまう 計算量:難しい問題を線形分離可能にするためには、訓練サンプル数と同程度の次元に射影する必要がある

カーネルトリック 非線形写像 内積 識別関数 カーネルの例 もとの入力パターンxをHilbert空間(完備内積空間)の元に写像 のように、zを経由しないで、x1とx2だけから簡単に計算できるなら、SVMの最適化問題や識別関数における内積をKで置き換え、線形分離可能な識別関数を得ることができる 識別関数 カーネルの例

SVMの例

レポート 課題 自分の身の回りで、パターン認識手法が使えそうな課題を探し、その課題を解決するために必要な特徴を認識対象から自動的に計測するための方法についてまとめください。 提出方法 A4の用紙に1ページ~数ページでまとめてください。 フォーマットは自由 最初のページに名前と学籍番号を記入してください 提出先は、事務局(レポート回収箱?) 提出期限:2000年12月1日

パターン認識過程 特徴抽出 識別 認識対象から何らかの特徴量を計測(抽出)する必要がある 認識に有効な情報(特徴)を抽出し、次元を縮小した効率の良い空間を構成する過程 文字認識: スキャナ等で取り込んだ画像から文字の識別に必要な本質的な特徴のみを抽出(例、文字線の傾き、曲率、面積など) 識別 与えられた未知の対象を、特徴とクラスの関係に関する知識に基づいて、どのクラスに属するかを決定(判定)する過程 特徴抽出 識別 概念空間 特徴空間 パターン空間

4時限目終了 次週の予告 パターン認識の応用