P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

Division of Process Control & Process Systems Engineering Department of Chemical Engineering, Kyoto University
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
1 微分・ベクトル解析 (4) 講師:幹 浩文( A314) TA :西方良太 M 1 ( A305 ) A 1 03 ( 10 : 50~12 : 20 ) 【金】 https://
相対論的場の理論における 散逸モードの微視的同定 斎藤陽平( KEK ) 共同研究者:藤井宏次、板倉数記、森松治.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
ソーラス符号の パーシャルアニーリング 三好 誠司 上江洌 達也 岡田 真人 神戸高専 奈良女子大 東大,理研
看護学部 中澤 港 統計学第5回 看護学部 中澤 港
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
理化学研究所 脳科学総合研究センター 脳数理研究チーム 岡田真人
Pattern Recognition and Machine Learning 1.5 決定理論
3 二次方程式 1章 二次方程式 §2 二次方程式と因数分解         (3時間).
第1回 担当: 西山 統計学.
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
東京工業大学 機械制御システム専攻 山北 昌毅
第二回 連立1次方程式の解法 内容 目標 連立1次方程式の掃出し法 初期基底を求める 連立1次方程式を掃出し法を用いてExcelで解析する
データ構造と アルゴリズム 知能情報学部 新田直也.
流体のラグランジアンカオスとカオス混合 1.ラグランジアンカオス 定常流や時間周期流のような層流の下での流体の微小部分のカオス的運動
非線形方程式の近似解 (2分法,はさみうち法,Newton-Raphson法)
(ラプラス変換の復習) 教科書には相当する章はない
3次元剛体運動の理論と シミュレーション技法
ー 第1日目 ー 確率過程について 抵抗の熱雑音の測定実験
プロセスデータ解析学2 -単回帰分析- 担当:長谷部伸治     金 尚弘.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
システムモデルと伝達関数 1. インパルス応答と伝達関数 キーワード : 伝達関数、インパルス応答、 ステップ応答、ランプ応答
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
第6章 連立方程式モデル ー 計量経済学 ー.
合成伝達関数の求め方(1) 「直列結合 = 伝達関数の掛け算」, 「並列結合 = 伝達関数の足し算」であった。
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
Statistical Physics and Singularity Theory
背 景 多数の「スピン」とそれらの「相互作用」という二種類の変数を有する系の解析においては,相互作用の方は固定されておりスピンだけが 変化するモデルを考える場合が多い.   (例:連想記憶モデル) 「スピン」よりもゆっくりと「相互作用」も変化するモデル(パーシャルアニーリング)の性質は興味深い.
領域ベースの隠れ変数を用いた画像領域分割
タップ長が一般化された 適応フィルタの統計力学
NTTコミュニケーション科学基礎研究所 村山 立人
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
6. ラプラス変換.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
Poisson Image Editing SIGGRAPH 2003
市場調査の手順 問題の設定 調査方法の決定 データ収集方法の決定 データ収集の実行 データ分析と解釈 報告書の作成 標本デザイン、データ収集
(昨年度のオープンコースウェア) 10/17 組み合わせと確率 10/24 確率変数と確率分布 10/31 代表的な確率分布
電機制御工学 定量的制御編 清弘 智昭.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
教師がコミティマシンの場合の アンサンブル学習
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
教師が真の教師のまわりを まわる場合のオンライン学習
ポッツスピン型隠れ変数による画像領域分割
Poisson Image Editing SIGGRAPH 2003
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
電気回路学Ⅱ 通信工学コース 5セメ 山田 博仁.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
2008年6月5日 非線形方程式の近似解 2分法,はさみうち法,Newton-Raphson法)
領域ベースの隠れ変数を用いた決定論的画像領域分割
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
混合ガウスモデル Gaussian Mixture Model GMM
アルゴリズム ~すべてのプログラムの基礎~.
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)

あらまし オンライン学習において,教師機械と学習機械の構造の相違,雑音の影響などにより汎化誤差がゼロにならないモデルでは,学習機械が教師機械のまわりを動き続ける場合がある.この動き続ける学習機械を教師とするような新たな生徒を考え,その汎化能力を統計力学的手法で解析した.真の教師,動く教師,生徒のいずれもがノイズ有りの線形なパーセプトロンであるモデルについて汎化誤差を解析的に求めた結果,生徒が動く教師の入出力だけを例題として使用するにもかかわらず,動く教師よりも生徒の方が賢くなりうることが明らかになった.

背 景 (1/2) バッチ学習 オンライン学習 与えられたいくつかの例題を繰り返し使用 すべての例題に正しく答えられる 長い時間が必要 背 景 (1/2) バッチ学習 与えられたいくつかの例題を繰り返し使用 すべての例題に正しく答えられる 長い時間が必要 例題を蓄えておくメモリが必要 オンライン学習 一度使った例題は捨ててしまう 過去の例題に必ず正しく答えられるとは限らない 例題を蓄えておくメモリが不要 時間的に変化する教師にも追随

背 景 (2/2) 目 的 真の教師のまわりを動き続ける学習機械を教師とするような新たな生徒を考え,この生徒の汎化能力を理論的に調べる. 背 景 (2/2) 教師機械と生徒機械の構造の違い等により汎化誤差がゼロにならない場合がある→学習不能な場合 (例) 教師がコミティマシンで生徒が単純パーセプトロン 教師が非単調パーセプトロンで生徒が単純パーセプトロン 教師や生徒にノイズがのっている 学習不能な場合には生徒が教師のまわりを動き続ける場合がある 目 的 真の教師のまわりを動き続ける学習機械を教師とするような新たな生徒を考え,この生徒の汎化能力を理論的に調べる.

モデル (1/3) A B J BはAの入出力を学習 JはBの入出力を学習 Jは直接にはAの入出力は見えない モデル (1/3) 真の教師 A 動く教師 生徒 B J BはAの入出力を学習 JはBの入出力を学習 Jは直接にはAの入出力は見えない A,B,Jはノイズがのった線形パーセプトロン

モデル (2/3) 動く教師の長さ 生徒の長さ 真の教師の出力 動く教師の出力 生徒の出力 入力: 真の教師: 動く教師: 生徒: モデル (2/3) 真の教師の出力 動く教師の出力 生徒の出力 入力:  真の教師:  動く教師: 生徒: N→∞(熱力学的極限) 動く教師の長さ 生徒の長さ

モデル (3/3) 二乗誤差 勾配法 g f

汎化誤差 統計的学習理論の目的のひとつは汎化誤差を理論的に計算することである 汎化誤差=未知の入力に関する誤差の平均 多重ガウス分布 誤差

巨視的変数のダイナミクスを記述する決定論的 な連立微分方程式を熱力学的極限における 自己平均性に基づいて導出する方法 1.解析を容易にするため補助的な巨視的変数を導入 2. Bm+1 = Bm + gm xm の両辺にAをかける 3. NrBm+1 = NrBm + gmym NrBm+2 = NrBm+1 + gm+1ym+1 Ndt個 + NrBm+Ndt = NrBm+Ndt-1 + gm+Ndt-1ym+Ndt-1 NrBm+Ndt = NrBm + Ndt <gy> N(rB+drB) = NrB + Ndt <gy> drB / dt = <gy>

巨視的変数のダイナミクスを記述する 決定論的連立微分方程式

巨視的変数の解析解

汎化誤差のダイナミクス ηJ=1.2 ηJ=0.3 教師より生徒が賢くなる

Rとlのダイナミクス ηJ=1.2 ηJ=0.3 R<0 (生徒がいったん出遅れる) 生徒が教師より内側に入る

定常解析 (1/2) η→2で汎化誤差が発散 ηが小さいとき生徒は 教師より賢くなる

定常解析 (2/2) ηが小さいとき生徒は教師より真の教師に近くなる η→0でR→1 η=2で 相転移 η→2で長さが発散 η→0で長さ1

ηJが2に近いとき ηJ を小さくすると生徒が教師より内側に入る ηJ → 0で生徒は長さ・方向とも真の教師と完全に一致

まとめ 真の教師,動く教師,生徒がノイズ有りの線形なパーセプトロンである場合を考え,統計力学的手法により汎化誤差を解析的に求めた. 生徒が動く教師の入出力だけを使用するにもかかわらず,生徒が動く教師よりも賢くなりうるという興味深い結果が明らかになった.