「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
第四章 情報源符号化の基礎 4・1 情報量とエントロピー 4・2 エントロピー符号化 4・3 音声符号化 4・4 画像符号化.
「わかりやすいパターン認識」 第1章:パターン認識とは
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
補章 時系列モデル入門 ー 計量経済学 ー.
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
雑音重み推定と音声 GMMを用いた雑音除去
状況の制約を用いることにより認識誤りを改善 同時に野球実況中継の構造化
PSOLA法を用いた極低ビットレート音声符号化に関する検討
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
補章 時系列モデル入門 ー 計量経済学 ー.
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
強化学習を用いたバックギャモンプレイヤーの生成 TD-Gammon
1-R-19 発話に不自由のある聴覚障害者の発話音声認識の検討
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
系列ラベリングのための前向き後ろ向きアルゴリズムの一般化
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
部分的最小二乗回帰 Partial Least Squares Regression PLS
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
Data Clustering: A Review
不完全な定点観測から 真の不正ホストの分布が分かるか?
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
教師がコミティマシンの場合の アンサンブル学習
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
人工知能特論II 第8回 二宮 崇.
ベイズ音声合成における 事前分布とモデル構造の話者間共有
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. ….. 3.1.3 3層パーセプトロン 第3章 複雑な学習モデル 3.1 関数近似モデル ….. 3.1.3 3層パーセプトロン ….. 6月25日(水) 発表者 新納浩幸

3層パーセプトロンとは 関数近似モデルの代表例 任意の関数を近似できる から中間層の各ユニットの 入出力をつくり、そこから をつくる。結局、関数を作っている。 任意の関数を近似できる

ユニットの入出力 第 j 番目の中間ユニットの入出力 第 i 番目の出力ユニットの入出力 σはシグモイド関数 バイアス 求めるべきパラメータ H は中間層のユニット数 σはシグモイド関数 バイアス 求めるべきパラメータ

バイアスの削除 求めるべきパラメータ 常に1を出力する中間ユニットを 考えると、そこから出力ユニット i へ の重みが、 となる の重みが、 となる 常に1を出力する入力ユニットを 考えると、そこから中間ユニット j へ の重みが、 となる 求めるべきパラメータ

誤差逆伝播法(1) パーセプトロンのパラメータを求めるアルゴリズム 最急降下法を利用 (参照 pp.41) この部分を求めることができるかどうかかポイント

誤差逆伝播法(2) シグモイド関数には以下の性質がある! 出力 i の差分: 中間ユニット j : を定義すると が求まる 合成関数の部分を繰り返せば 簡単に導ける を定義すると が求まる

誤差逆伝播法(3) 中間ユニット j から出力ユニット i への 重みの誤差が、 中間ユニット j の出力に 入力ユニット k から中間ユニット j への 重みの誤差が、 入力ユニット k の出力に 中間ユニット k の誤差をかけた形 出力層の誤差が中間層、入力層に伝播してゆく

注20 (学習誤差と予測誤差) パーセプトロンの実際の学習 過学習 適当に学習を 止めないとだめ

例39 (誤差の変化と学習の変化) 英語の文章をモールス信号に変換する仕事を学習 1文字単位の変換の学習から 単語単位の変換の学習へ 誤差が変化しない状態から ある時期に変化が生じる 学習の質の変化

例40(雑音の効用) 画像や音声の識別は特徴量が高次元 普遍性のある学習は困難 入力に雑音を加えて学習データを増やすことで 振る舞いがかなり改善されることがある

例41 (学習対象の特性の学習) 学習対象の特性までを含めて学習させることは不可能ではないが、効率的ではない。 特性がわかっている対象については、データをそれに応じて変換しておくか、モデルをその変化に依存しないように作成していた方がよい。

モデル選択の問題 階層型の学習モデルでは、正則モデルの情報量規準を、原理的に、適用できない。 無理に情報量規準を用いると、何もしないよりも予測誤差は小さくなるが、導入せずに適度な反復回数で停止する場合に比べて予測誤差が小さくなるとは限らない。 モデル選択を行っても、学習回数を増やすと予測誤差は悪化する。 モデル選択を行うと小さなモデルが構成でき、データからの法則発見には役立つこともある。

荷重減衰と事前確率密度関数 荷重減衰法(忘却つき学習法) 事前確率密度関数を設定することに相当する? 損失関数として以下を利用する方法 小さなパラメータ、突出して大きなものが少なくなる 突出して大きなものと0 になるものとに分かれる 情報量規準によるモデル選択と同じ効果が得られる

荷重減衰についてのメモ 適度な反復で学習を停止する場合と比較して、必ずしも予測誤差は減少しない。 荷重減衰を行う場合でも、学習を適当に停止した方がよい。 小さなモデルが得られることもあり、法則発見には役立つこともある。 学習を繰り返し行ってもパラメータの崩壊は起こりにくい。 λの定め方は4章。

アンサンブル学習とベイズ推定 アンサンブル学習 ただし ベイズ法を一般化したもの 3層パーセプトロンにアンサンブル学習を用いると 複数得られたパラメータの重み付き平均により関数を作る方法 ただし ベイズ法を一般化したもの 3層パーセプトロンにアンサンブル学習を用いると 予測誤差を小さくできる。原因は不明。 また、当然、データ中の法則発見はさらに困難になる。

応用 工夫が必要な点 特徴量を何にするか 入力データ固有の変形を吸収できるようなモデルの設計 応用例 例42:文字認識 例43:音声認識 複雑なモデルを使うと、学習対象の性質をそれほど検討しなくても まずまずの認識精度が得られる。これは学習したい対象に対する 知識を持っていてもモデルの設計に盛り込むことが困難であること も意味する。 工夫が必要な点 特徴量を何にするか 入力データ固有の変形を吸収できるようなモデルの設計 応用例 例42:文字認識 例43:音声認識 例44:パーセプトロンについては非常に多くの応用例がある

注21(隠れマルコフモデル) 時系列を学習するモデル N個の状態 状態 i から状態 j へ移る確率 する確率が 観測値 を学習 EMアルゴリズムが有効 音声認識、形態素解析などに効果的なモデル

砂時計型モデル *5層(以上)になっている。 *中間層のユニット数が少ない。 *中間層のユニットはデータが 本質的に持っている自由度に対応。 主成分分析に相当 非線形主成分分析と呼ばれる