第3章 補足:パラメータが極小値に収束する例

Slides:



Advertisements
Similar presentations
Maximal likelihood 法に基づく Matched filter について 田越秀行(阪大理) LCGT コヒーレンス解析 WG 修正 Ref: Finn, PRD63, (2001) Pai, Dhurandhar, Bose, PRD64,
Advertisements

中学校段階での 相関関係の指導 宮崎大学教育文化学部 藤井良宜. 概要 現在の学習指導要領における統計の扱い これまでの相関関係の指導 相関関係の指導のポイント 相関関係.
1. 補間多項式 n 次の多項式 とは、単項式 の 線形結合の事である。 Definitions: ( 区間, 連続関数, abscissas (データ点、格子点、差分点), 多項 式 ) Theorem. (補間多項式の存在と一意性) 各 i = 0, …, n について、 をみたす、次数が高々 n.
3次元nクイーン問題の 解に関する研究 論理工学研究室 伊藤精一
点対応の外れ値除去の最適化によるカメラの動的校正手法の精度向上
Deep learningによる 読唇システム
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Pattern Recognition and Machine Learning 1.5 決定理論
コラッツ予想の変形について 白柳研究室 5509064 田渕 康貴.
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
社会心理学のStudy -集団を媒介とする適応- (仮)
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
プロセス制御工学 6.PID制御 京都大学  加納 学.
エージェントアプローチ 人工知能 21章 B4 片渕 聡.
EMアルゴリズム クラスタリングへの応用と最近の発展
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
CV輪講 姿勢変化に対応したSoft Decision Featureと Online Real Boostingによる人物追跡
LogStructuredFileSystem Servey
10. 積分 積分・・確率モデルと動学モデルで使われる この章は計算方法の紹介 積分の定義から
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
モデリングシミュレーション入門(井庭崇)
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
合成伝達関数の求め方(1) 「直列結合 = 伝達関数の掛け算」, 「並列結合 = 伝達関数の足し算」であった。
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
強化学習を用いたバックギャモンプレイヤーの生成 TD-Gammon
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
超幾何分布とポアソン分布 超幾何分布 ポアソン分布.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
Data Clustering: A Review
「選挙の大切さについて」 資料モデル 1 選挙制度の意義や目的について、選挙の歴史や制度の特徴 などを踏まえてわかりやすく説明する。
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
適応的近傍を持つ シミュレーテッドアニーリングの性能
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
「アルゴリズムとプログラム」 結果を統計的に正しく判断 三学期 第7回 袖高の生徒ってどうよ調査(3)
ベイズ最適化 Bayesian Optimization BO
シミュレーション物理 スピングラスなどについて.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
統計学  第9回 西 山.
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
パターン認識特論 ADA Boosting.
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
パターン認識特論 ADA Boosting.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Cプログラミング演習 ニュートン法による方程式の求解.
統計現象 高嶋 隆一 6/26/2019.
参考:大きい要素の処理.
各種荷重を受ける 中空押出形成材の構造最適化
Presentation transcript:

第3章 3.3.3 補足:パラメータが極小値に収束する例 第3章 3.3.3 補足:パラメータが極小値に収束する例 15K0133 村田 亘 1

第3章 3.3.3 補足:パラメータが極小値に収束する例 第3章 3.3.3 補足:パラメータが極小値に収束する例 - 目次 - ミニバッチと確率的勾配降下法 の おさらい 極小値へ収束 まとめ 2

第3章 3.3.3 補足:パラメータが極小値に収束する例 第3章 3.3.3 補足:パラメータが極小値に収束する例 ミニバッチと確率的勾配降下法 の おさらい 3

ミニバッチとは 全体の計算時間の短縮 ミニバッチと確率的勾配降下法 の おさらい ミニバッチと確率的勾配降下法 の おさらい ミニバッチとは 訓練データの一部を取り出し、複数回に分けて最適化処理を行うこと。 一度に投入するデータ量を少なくする... 全体の計算時間の短縮 4

勾配降下法とは 確率的勾配降下法とは ミニバッチと確率的勾配降下法 の おさらい すべてのデータをもとに誤差関数の最小値を探求する方法 ミニバッチと確率的勾配降下法 の おさらい 勾配降下法とは すべてのデータをもとに誤差関数の最小値を探求する方法 確率的勾配降下法とは 一直線に最小値に向かうのではなく、 ランダムに(確率的に)最小値を探求する方法 5

ミニバッチ確率的勾配降下法を用いるメリット ミニバッチと確率的勾配降下法 の おさらい ミニバッチ確率的勾配降下法を用いるメリット 極小値を避けて 真の最小値に 到達することができる 6

ミニバッチと確率的勾配降下法 の おさらい 誤差関数が最小値の他に極小値を持つ場合 7

ミニバッチと確率的勾配降下法 の おさらい 誤差関数が最小値の他に極小値を持つ場合 勾配降下法 8

ミニバッチと確率的勾配降下法 の おさらい 誤差関数が最小値の他に極小値を持つ場合 ミニバッチ 確率的勾配降下法 9

ミニバッチ確率的勾配降下法を用いるメリット ミニバッチと確率的勾配降下法 の おさらい ミニバッチ確率的勾配降下法を用いるメリット 極小値を避けて 真の最小値に 到達することができる 10

第3章 3.3.3 補足:パラメータが極小値に収束する例 第3章 3.3.3 補足:パラメータが極小値に収束する例 極小値へ収束 11

上手に設定しないと、最小値に到達できない 極小値へ収束 上手に設定しないと、最小値に到達できない 12

極小値へ収束 学習率 13

極小値へ収束 学習率とは パラメータ更新の幅のこと。(パラメータをどのくらい動かすか) (学習率) ≤ 1 14

極小値へ収束 サンプルプログラム 学習率 小 ◯ 15

極小値へ収束 サンプルプログラム 学習率 小 ◯ パラメータ修正をどれだけ行っても… 正解率→低い 誤差関数の値→大きい 16

学習率を小さくする (=パラメータを小さく動かす) ことにより 極小値に到達した状態から 正解率がより低くなる状態, 極小値へ収束 学習率を小さくする (=パラメータを小さく動かす) ことにより 極小値に到達した状態から 正解率がより低くなる状態, 誤差関数がより大きくなる状態 (つまり、この丘) を 超えられなくなってしまう 17

第3章 3.3.3 補足:パラメータが極小値に収束する例 第3章 3.3.3 補足:パラメータが極小値に収束する例 まとめ 18

ミニバッチ確率的勾配降下法を使用すれば 最小値へ到達できるかもしれない まとめ ミニバッチ確率的勾配降下法を使用すれば 最小値へ到達できるかもしれない 学習率が 大きすぎると 計算時間は短く済む いつまでたっても収束しないー>発散 精度がものすごく悪い 小さすぎると 長期的に見ると、精度は上がるはずなんですけど 計算時間がものすごくかかる上に 最小値に到達できないパターンがほとんどなので結果として精 度が落ちる でも何を持って丁度いいというのかはまだよく分からない 大きすぎる → いつまで経っても収束しない 小さすぎる → 極小値から抜け出せない 丁度いい  → 最小値に行くかも? 19

TensorFlowを使って学習率による動きの違いを確認する 参考 Qiitaの記事 TensorFlowを使って学習率による動きの違いを確認する http://qiita.com/isaac-otao/items/6d44fdc0cfc8fed53657 20