教師が真の教師のまわりを まわる場合のオンライン学習

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

Division of Process Control & Process Systems Engineering Department of Chemical Engineering, Kyoto University
計量的手法入門 人材開発コース・ワークショップ (IV) 2000 年 6 月 29 日、 7 月 6 ・ 13 日 奥西 好夫
数理統計学 西 山. 前回の問題 ある高校の 1 年生からランダムに 5 名を選 んで 50 メートル走の記録をとると、 、 、 、 、 だった。学年全体の平均を推定しなさい. 信頼係数は90%とする。 当分、 は元の分散と一致 していると仮定する.
1 微分・ベクトル解析 (4) 講師:幹 浩文( A314) TA :西方良太 M 1 ( A305 ) A 1 03 ( 10 : 50~12 : 20 ) 【金】 https://
相対論的場の理論における 散逸モードの微視的同定 斎藤陽平( KEK ) 共同研究者:藤井宏次、板倉数記、森松治.
Computational Fluid Dynamics(CFD) 岡永 博夫
ソーラス符号の パーシャルアニーリング 三好 誠司 上江洌 達也 岡田 真人 神戸高専 奈良女子大 東大,理研
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
理化学研究所 脳科学総合研究センター 脳数理研究チーム 岡田真人
3 二次方程式 1章 二次方程式 §2 二次方程式と因数分解         (3時間).
第1回 担当: 西山 統計学.
「2次方程式を利用して、いろいろな問題を解決しましょう。」
Scilab で学ぶ  わかりやすい数値計算法 舞鶴高専 電子制御工学科 川田 昌克.
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
流れ(3時間分) 1 ちらばりは必要か? 2 分散・標準偏差の意味 3 計算演習(例題と問題) 4 実験1(きれいな山型の性質を知ろう)
東京工業大学 機械制御システム専攻 山北 昌毅
IT入門B2 ー 連立一次方程式 ー.
第二回 連立1次方程式の解法 内容 目標 連立1次方程式の掃出し法 初期基底を求める 連立1次方程式を掃出し法を用いてExcelで解析する
4.2 連立非線形方程式 (1)繰返し法による方法
流体のラグランジアンカオスとカオス混合 1.ラグランジアンカオス 定常流や時間周期流のような層流の下での流体の微小部分のカオス的運動
誤差の二乗和の一次導関数 偏微分.
第4章 線形識別モデル 修士2年 松村草也.
脳活動に関するデータ データの種類 データの特徴 脳波・脳磁図・fMRI画像 脳活動とパフォーマンスの関係はきわめて冗長。
プロセスデータ解析学2 -単回帰分析- 担当:長谷部伸治     金 尚弘.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
第6章 連立方程式モデル ー 計量経済学 ー.
圧力発展格子ボルツマン法による大規模気液二相流GPUコードの開発 ならびに多孔体浸潤液滴シミュレーション
Statistical Physics and Singularity Theory
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
背 景 多数の「スピン」とそれらの「相互作用」という二種類の変数を有する系の解析においては,相互作用の方は固定されておりスピンだけが 変化するモデルを考える場合が多い.   (例:連想記憶モデル) 「スピン」よりもゆっくりと「相互作用」も変化するモデル(パーシャルアニーリング)の性質は興味深い.
領域ベースの隠れ変数を用いた画像領域分割
タップ長が一般化された 適応フィルタの統計力学
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
極大ノイズを除去する情報量最小化 学習アルゴリズム
ブラックホール周辺の 磁場構造について 大阪市立大学 孝森 洋介 共同研究者 石原秀樹,木村匡志,中尾憲一(阪市大),柳哲文(京大基研)
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
教師がコミティマシンの場合の アンサンブル学習
データ解析 静岡大学工学部 安藤和敏
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
過学習を考慮した IS1-60 AAMパラメータの選択と回帰分析による 顔・視線方向同時推定 顔・視線同時推定 研究背景
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
ポッツスピン型隠れ変数による画像領域分割
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
領域ベースの隠れ変数を用いた決定論的画像領域分割
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
How shall we do “Numerical Simulation”?
3 一次関数 1章 一次関数とグラフ §4 方程式とグラフ         (3時間).
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
コンピュータの高速化により, 即座に計算できるようになってきたが, 手法的にはコンピュータ出現以前に考え出された 方法が数多く使われている。
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

教師が真の教師のまわりを まわる場合のオンライン学習 三好 誠司       岡田 真人    神戸市立工業高専  東大, 理研, 科技機構さきがけ

背景(1) バッチ学習 オンライン学習 与えられたいくつかの例題を繰り返し使用 すべての例題に正しく答えられる 長い時間が必要 例題を蓄えておくメモリが必要 オンライン学習 一度使った例題は捨ててしまう 過去の例題に必ず正しく答えられるとは限らない 例題を蓄えておくメモリが不要 時間的に変化する教師にも追随

背景(2) Teacher Student 学習可能な場合

背景(3) 学習不能な場合 (Inoue & Nishimori, Phys. Rev. E, 1997) Teacher Student 学習不能な場合 (Inoue & Nishimori, Phys. Rev. E, 1997) (Inoue, Nishimori & Kabashima, TANC-97, cond-mat/9708096, 1997)

背景(4) ヘブ学習 パーセプトロン学習 アダトロン学習

モデル(1) 真の教師 生徒 動く教師

モデル(2) 動く教師の長さ 生徒の長さ

モデル(3) 線形パーセプトロン ノイズ

モデル(4) 二乗誤差 勾配法 g f

汎化誤差 多重ガウス分布 誤差

巨視的変数のダイナミクスを記述する連立微分方程式

モデル(4) 二乗誤差 勾配法 g f

+ Bm+1 = Bm + gm xm NRm+1 lBm+1 = NRm lBm + gmvm Ndt NRm+1 lBm+1 = NRm lBm + gmvm NRm+2 lBm+2 = NRm+1 lBm+1 + gm+1vm+1 + NRm+Ndt lBm+Ndt = NRm+Ndt-1 lBm+Ndt-1 + gm+Ndt-1vm+Ndt-1 NRm+Ndt lBm+Ndt = NRm lBm + Ndt <gv> N r m+Ndt = N r m + Ndt <gv> N(r+dr) = Nr + Ndt <gv> dr/dt = <gv>

巨視的変数のダイナミクスを記述する連立微分方程式

サンプル平均

巨視的変数のダイナミクスを記述する連立微分方程式

巨視的変数の解析解

巨視的変数のダイナミクスを記述する連立微分方程式

汎化誤差

汎化誤差のダイナミクス ηJ=0.3の場合 ηJ=1.2の場合

Rとlのダイナミクス ηJ=1.2の場合 ηJ=0.3の場合

巨視的変数の解析解

定常解析

ηJ=1.8 ηJ=0

まとめ 真の教師,動く教師,生徒がノイズ有りの線形なパーセプトロンである場合を考え,統計力学的手法により汎化誤差を解析的に求めた. 生徒が動く教師の入出力だけを使用するにもかかわらず,生徒が動く教師よりも賢くなりうるという興味深い結果が明らかになった.