パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Pattern Recognition and Machine Learning 1.5 決定理論
先端論文紹介ゼミ Tracking control for nonholonomic mobile robots: Integrating the analog neural network into the backstepping technique 非ホロノミック移動ロボットのための追従制御:
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
人工知能概論 第11回学習と認識(2) パターン認識
芦田尚美*,髙田雅美*,木目沢司†,城和貴* *奈良女子大学大学院 †国立国会図書館
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
クラスター変分法と確率的情報処理 --Belief Propagation と画像処理アルゴリズム--
第4章 線形識別モデル 修士2年 松村草也.
東京工業大学 機械制御システム専攻 山北 昌毅
~Information hiding -meta data hiding- ~
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
サポートベクターマシン によるパターン認識
相関分析.
応用社会システム計画 (第10回) ここで、学習すること 学籍番号: 氏名: ■これまでの講義内容の整理 ■計画問題の設定と手法
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
ニューラルコンピューティングを理解する 第一版:2006/12/12 第二版:2007/11/12
極大ノイズを除去する情報量最小化 学習アルゴリズム
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
音高による音色変化に着目した音源同定に関する研究
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
第14章 モデルの結合 修士2年 山川佳洋.
雑音環境下における 非負値行列因子分解を用いた声質変換
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
強化学習を用いたバックギャモンプレイヤーの生成 TD-Gammon
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Introduction to Soft Computing (第11回目)
予測に用いる数学 2004/05/07 ide.
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
Data Clustering: A Review
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/16 早稲田大学大学院理工学研究科講義.
ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
パターン認識とニューラルネットワーク 栗田多喜夫 2019/4/26 早稲田大学大学院理工学研究科講義.
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
教師がコミティマシンの場合の アンサンブル学習
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
人工知能特論II 第8回 二宮 崇.
パターン認識特論 ADA Boosting.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
パターン認識特論 ADA Boosting.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義

講義内容 1時限目 2時限目 統計的決定理論 統計的特徴抽出の理論 パターン認識とは ベイズ決定理論 確率密度分布の推定 特徴抽出の枠組み パラメトリックモデルを用いる方法 ノンパラメトリックな方法 セミパラメトリックモデルを用いる方法 2時限目 統計的特徴抽出の理論 特徴抽出の枠組み 線形多変量データ解析手法 非線形判別特徴の抽出 線形手法と非線形手法との関係 2018/11/8 早稲田大学大学院理工学研究科講義

講義内容 3時限目 4時限目 学習の理論とニューラルネットワーク その他のニューラルネット 単純パーセプトロン ADALINE ロジスティック回帰 多層パーセプトロン 汎化性 4時限目 その他のニューラルネット 恒等写像学習 RBF(Radial Basis Function)ネットワーク Mixture of Experts SVM(Support Vector Machine) 2018/11/8 早稲田大学大学院理工学研究科講義

学習の理論とニューラルネット パターン認識 ニューラルネット 有限個の例からパターンとクラスの確率的構造を推定 確率密度関数がわかれば、最適なベイズ識別が可能 ニューラルネット パターン認識の分野でもニューラルネットが盛んに利用されるようになってきた。 多層パーセプトロンの学習法として誤差逆伝播法が考案され、良い識別性能を持つ識別器を学習データから比較的簡単に構成できることがわかった セミパラメトリックモデルによる学習と解釈できる ニューラルネットの分類 階層的ニューラルネットワーク 多層パーセプトロン、RBF(Radial Basis Function)ネットワーク等 相互結合ネットワーク Hopfieldネットワーク、Boltzmann Machine等 2018/11/8 早稲田大学大学院理工学研究科講義

歴史1 単純パーセプトロン 1943年 McCulloch & Pitts 1949年 Hebb 1957年 Rosenblatt ニューロンモデルとして、2値(+1,-1)入力の組を2値出力に変換するしきい値論理素子を提案 ニューラルネットは論理計算として万能であることを示す 1949年 Hebb シナプス結合強度の変化規則の提案 => Hebb学習則 1957年 Rosenblatt パーセプトロン(視覚パターン識別学習機械のモデル)の提案 入力パターンに対するパーセプトロンの出力と教師の答えに応じて、結合重みを逐次修正する学習則 1969年 Minsky & Papert パーセプトロン(特に1層)の能力の限界を明らかにした ブームの終了 原因 デジタルな論理関数ネットワークの学習という識別関数のエラーフリーが学習を考えていた 決定論的な観点からのアプローチ 単純パーセプトロンOHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

歴史2 最小2乗線形判別関数の学習 1960年 Widrow & Foff 1966年 Koford & Groner ADALINE (Adaptive Linear Neuron)モデルの提案 モデル 評価基準:2乗誤差最小化 学習:最急降下法に基づく学習 理想的な識別関数を線形関数(判別関数)によって2乗誤差最小化の意味で解析的に近似 <= 多変量解析の考え方と同じ 1966年 Koford & Groner ADALINEとフィシャーの線形判別関数との関係を指摘 1966年 Patterson & Wowmack ADALINEは誤識別率最小の意味で理論的に最適なベイズ識別関数を最小2乗近似していることを指摘 ポイント 連続実数化、線形化 => 統計解析的な研究対象へ 逐次線形重回帰OHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

歴史3 人工知能ブーム 第2次ニューロブーム 他方 1970年代 1980年代前半から 1986年 Rumelhart等 多層パーセプトロンの学習法(誤差逆伝播学習法)の提案 2乗誤差最小化を評価関数とする最急降下 他方 統計では、GLIM(Generalized Linear Model)の研究 ロジスティック回帰 ロジスティック回帰OHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

多層パーセプトロン 多層パーセプトロンの構造・多層パーセプトロンでの計算 多層パーセプトロンの能力 誤差逆伝播学習法 最尤推定としての定式化 フィッシャー情報行列とその学習への利用 多層パーセプトロンOHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

階層型ニューラルネットと非線形回帰 階層型ニューラルネット 最適非線形写像 たくさんの単純なユニットを結合したネットワークにより非線形回帰を行っている 最適非線形写像 学習すべき究極の目標を与えている 非線形回帰OHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

汎化性 学習の目的 学習データに対して良い結果を与えることでは無く、未学習のデータに対して性能が良いこと 汎化性 特に、パターン認識に用いる場合には、学習データでいくらうまく識別出来ても、未知のデータに対してうまく識別出来なければ意味が無い 汎化性 未知データに対する性能 汎化性OHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

ノイズの付加による汎化能力の向上 ノイズの付加 中間層の各ニューロンの入力のノイズを付加 観測データを補間するような学習データを生成(1992赤穂) 中間層のニューロンにノイズを付加(1993栗田) 結合荷重にノイズを付加(1993Murray) 中間層の各ニューロンの入力のノイズを付加 誤差逆伝播学習がどのような影響を受けるか? 中間層へのノイズの付加OHPあり 2018/11/8 早稲田大学大学院理工学研究科講義

3時限目終了 4時限目 その他のニューラルネット 恒等写像学習 RBF(Radial Basis Function)ネットワーク Mixture of Experts SVM(Support Vector Machine) 2018/11/8 早稲田大学大学院理工学研究科講義