ニューラルネットは、いつ、なぜ、どのようにして役立つか?

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
データ解析
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
Permutationグラフと Distance-Hereditaryグラフの 再構築アルゴリズム
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
情報学習理論 最後までご聴講いただきありがとうございました。 渡辺澄夫 東京工業大学.
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
ベイズ的ロジスティックモデル に関する研究
データ構造と アルゴリズム 第二回 知能情報学部 新田直也.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
京都大学 化学研究所 バイオインフォマティクスセンター
計測工学 -測定の誤差と精度2- 計測工学 2009年5月17日 Ⅰ限目.
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
数値積分.
Mathematical Learning Theory
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
物理学者でない人 のための統計力学 東京工業大学 渡辺澄夫 DEX-SMI 1/1/2019.
卒業論文 重力波のデータ解析における 分散処理の必要性
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
Algebraic Geometry of Learning Machines
最小自乗法.
顧客維持に関するモデル.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
訓練データとテストデータが 異なる分布に従う場合の学習
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
第3回 アルゴリズムと計算量 2019/2/24.
第12回   ディジタル画像(3) ディジタル画像処理(3)
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
Extractor D3 川原 純.
計測工学 -誤差、演習問題 計測工学(第6回) 2009年5月26日 Ⅱ限目.
Additive Combinatrics 7
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
サポートベクターマシンを用いた タンパク質スレッディングの ためのスコア関数の学習 情報科学科4年 81025G 蓬来祐一郎.
ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
Max Cut and the Smallest Eigenvalue 論文紹介
人工知能特論II 第8回 二宮 崇.
データ解析 静岡大学工学部 安藤和敏
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
情報工学概論 (アルゴリズムとデータ構造)
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
計算の理論 II 多テープTuring機械 月曜4校時 大月美佳 平成16年11月29日 佐賀大学知能情報システム学科.
一般ボルツマンマシンにおける平均場近似自由エネルギーの漸近的挙動
Presentation transcript:

ニューラルネットは、いつ、なぜ、どのようにして役立つか? 東京工業大学 渡辺澄夫 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks ニューラルネット(NN)とは K k=1 f(x,w) = Σ a k σ(bk・x+ck) ◎階層的な構造 階層構造は何を引き起こすか? 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks NNが役立つとき どれだけたくさんの 関数になりうるか? (1) 対象がまったく未知であるとき NNは関数空間の中で豊富か? (2) できる限りよい予測をしたい 精度のよい予測 ができるか? NNの予測は高精度か? ※ 学習理論の鉄の掟: (1) と (2) は普通、相反する 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 関数空間の中での豊富さ g(x) が二乗可積分なら g(x) = ∫u(b,c)σ(b・x+c) dbdc 超完全性:   u(b,c) はユニークには定まらない 特定できない 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 関数近似 Barron, A.R.(1993)  g(x) のフーリエ展開が L1 に属するとき x の次元によらず K k=1 = C K ∫[ g(x)- Σ a k σ(bk・x+ck) ]2 q(x) dx を満たす (a k , bk, ck ) が存在 どれだけ早く 誤差が消えるか 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 関数近似効率 科学的に 比較できる ニューラルネット C/K 多項式,三角関数 C/K2/N N:xの次元 近 似 誤 差 K:パラメータ数 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 学習の問題 q(x) ~ x1,x2,…,xn 学習して 夢をかなえる yi = g(xi) + εi εi~ N(0,12) y y = g(x) x 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 学習と予測 データから s(x) を作り出す アルゴリズムはいろいろ (x1 ,y1 ) (x2 ,y2 ) (xi ,yi ) s(x) 学習 (xn ,yn ) ∫( g(x) - s(x) )2q(x)dx G(n)=E[ ] 予測誤差 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 予測アルゴリズム n i=1 1 2 E(w) = ∑ (yi – f(xi,w))2 最尤推測 w* = argmin E(w) f(x,w*) 一人で予測 ベイズ推測 p(w) ∝ e – E(w) φ(w) ∫f(x,w)p(w)dw みんなで予測 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 予測誤差 NN 最尤法 Open Problem NN ベイズ法 Watanabe(1999) 正則モデル 最尤法 Akaike(1974) 正則モデル ベイズ法 Schwarz(1978) 予 測 誤 差 予 測 誤 差 パラメータ数 パラメータ数 2018/11/28 Mathematical foundation of neural networks

なぜNNは統計的正則モデルと異なるのか? K k=1 f(x,w) = Σ a k σ(bk・x+ck) パラメータが特定可能でない f(x, w1) = f(x, w2) ⇒ w1 = w2 が成り立たない 中身は不明 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks パラメータ空間 K k=1 入力 X パ ラ メ | タ w 学習モデル 出力 Y 大きい モデル 中間 のモデル C B A 小さい モデル パラメータ空間  W 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks NNの学習理論 K k=1 真の関数  g(x) = Σ a* k σ(b*k・x+c*k) f(x,w) = Σ a k σ(bk・x+ck) H k=1 学習モデル K<H のときの予測誤差を解明せよ 集合 {w; g(x) =f(x,w) } は特異点を持つ解析的集合 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks ベイズ法 Re(z) Im(z) -λ 1 2 H(w) = ∫(g(x)-f(x,w))2 q(x)dx J(z) = ∫ H(w)z φ(w)dw ゼータ関数 G(n) = λ    (m-1) n    n log n 数理の不思議 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks 最尤法,MAP法 n i=1 1 2 E(w) = ∑ (yi – f(xi,w))2 + α t(w) w* = argmin E(w) 未解決問題 H(w*) = ∫(g(x)-f(x,w*))2 q(x)dx 1 2 予想 ∝ log n n 正則モデルなら パラメータ数 2n 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks なぜベイズ法でうまくいくのか? 1 2 E(w) = ∑ (g(xi) + εi– f(xi,w))2  H(w) = ∫(g(x)-f(x,w))2 q(x)dx 1 2  p(w) に従う w は  w* の近く   にはない w* = argmin E(w) p(w) ∝e – E(w) φ(w) 最尤 ベイズ 2018/11/28 Mathematical foundation of neural networks

Mathematical foundation of neural networks まとめ ニューラルネットは 真の分布が未知のとき (2) パラメータが特定不能であることが理由で (3) ベイズ法により高精度な予測ができるので 実問題において役立つ 2018/11/28 Mathematical foundation of neural networks