ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.

Slides:



Advertisements
Similar presentations
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
Advertisements

点対応の外れ値除去の最適化によるカメラの動的校正手法の精度向上
実証分析の手順 経済データ解析 2011年度.
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
芦田尚美*,髙田雅美*,木目沢司†,城和貴* *奈良女子大学大学院 †国立国会図書館
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
第3章 補足:パラメータが極小値に収束する例
第5章 ニューラル ネットワーク 博士課程1年 原 祐輔.
第4章 線形識別モデル 修士2年 松村草也.
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
応用社会システム計画 (第10回) ここで、学習すること 学籍番号: 氏名: ■これまでの講義内容の整理 ■計画問題の設定と手法
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Statistical Physics and Singularity Theory
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
ニューラルコンピューティングを理解する 第一版:2006/12/12 第二版:2007/11/12
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
強化学習を用いたバックギャモンプレイヤーの生成 TD-Gammon
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
Introduction to Soft Computing (第11回目)
予測に用いる数学 2004/05/07 ide.
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
サポートベクターマシンを用いた タンパク質スレッディングの ためのスコア関数の学習 情報科学科4年 81025G 蓬来祐一郎.
ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
適応的近傍を持つ シミュレーテッドアニーリングの性能
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
教師がコミティマシンの場合の アンサンブル学習
過学習を考慮した IS1-60 AAMパラメータの選択と回帰分析による 顔・視線方向同時推定 顔・視線同時推定 研究背景
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
教師が真の教師のまわりを まわる場合のオンライン学習
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Cプログラミング演習 ニュートン法による方程式の求解.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔

動機 脳の構造が知りたい。 実際に脳を眺めてみても何が起きているのかよく分からない。 脳のモデルとしてのNNを研究しよう。

ロードマップ フィードフォワード型(3層パーセプトロン) リカレントネットワーク SOM 生理学的な知見を検証しうるモデルへ 最もオーソドックスなニューラルネット 当面はこれに絞る。 リカレントネットワーク 相互結合を持つことにより、過去の入力にも依存した出力が得られる。 連想記憶など。 SOM 教師なし学習ができる。 生理学的な知見を検証しうるモデルへ

FF型について(1枚目) 実ベクトルから実ベクトルへの関数

FF型について(2枚目) 万能関数近似器 学習段階(パラメータ決定)→使用段階 誤差逆伝播法による効率的な計算法 コンパクト集合上の任意の連続関数・Lp関数を近似できる。(Cybenko89; Hornik, Stinchcombe, White89; White89) あるクラスの関数は中間素子数 n に対し,二乗和誤差を O(1/n) で一様近似できる。(Barron93, Murata94) 学習段階(パラメータ決定)→使用段階 実際には入力と教師の(二乗和)誤差を最小化する最適化問題を解くのが学習段階。 誤差逆伝播法による効率的な計算法 出力に近い層から入力側の層へ、誤差の情報を再利用していく方法。

Rによる実装 3層ネットワーク( D-M-K ) 誤差逆伝搬学習 300行弱 t = sin(2πx), x∈[0,1] を学習させてみた。 最急降下法 適応的自然勾配法 300行弱 t = sin(2πx), x∈[0,1] を学習させてみた。 データ点:100点 最適化法:最急降下法 中間層の素子数:10個 学習回数:5000回 学習係数:0.01

学習結果(その1) 教師信号 学習結果

学習結果(その2) 二乗和誤差:0.6086

FF型の問題点(1枚目) 経験的に決める事項 学習の遅さ 中間層の数はいくつが最適か? 学習係数の値はいくつが良いか? 数値の選択如何では発散する。 学習の遅さ 最急降下法では数万オーダーで回す。 適応的自然勾配法(ANGD)などの情報幾何学的・統計力学的な改良もある。

FF型の問題点(2枚目) 中間層はブラックボックス 生理学的なリアリズム 各パラメータの意味が分からない。 学習は逆問題なので、解が一つに定まらない。 これはプラトー問題にもつながる。 生理学的なリアリズム 情報が一方通行 BPのような情報の逆流は考えにくい。

研究する問題 無事に学習が終わるための指標を探す。 学習係数をどのように選ぶか? 中間層の素子数をどのように選ぶか? 意図した精度が実際に計算できるための方法。 学習係数をどのように選ぶか? 中間層の素子数をどのように選ぶか?

研究する問題―学習係数 学習係数を学習する。(Murata97, 01) 適応的自然勾配法(井上・朴・岡田03)

研究する問題―中間層の素子数 多いほど良いわけではない。(汎化の一般論) 多くて良いこともある。(Akaho00) いくつでも大丈夫ということもある。(ベイズ的モデル選択) 情報量規準の理論が古典的(AICなど) 中間層の規約性・極小性(Sussmann92, 福水・渡辺94)

研究手法 回帰問題を扱う。 徐々に関数のクラスを上げていく。 回帰させる関数をどのような基準で選ぶか? 閉区間[0,1]上の連続関数 F : [0,1]→R 最急降下法 徐々に関数のクラスを上げていく。 多次元入力・多次元出力 不連続関数 回帰させる関数をどのような基準で選ぶか?

これからの課題 回帰させる関数を選ぶ客観的な基準がほしい。 関数解析・情報幾何・確率論のスキルアップ 既成パッケージを導入する。 VC次元はある種の「関数の複雑さ」を表す。 関数解析・情報幾何・確率論のスキルアップ 論文を読み進めるにあたって必ずぶち当たる。 既成パッケージを導入する。 バグなのかパラメータが悪いのか判断しかねる。 RよりもCの方がかなり早い(各方面の経験談)

終了 ご清聴ありがとうございました。

現在までの取り組み 「ニューラルネット」の整理 FF型の関数近似能力についての論文を読んだ。 実装してみた。 中間層を減らす試みに着手 どのようなタイプがあるか。 FF、リカレント、SOM、etc どのような手法があるか。 Fisher情報行列、ベイジアン、カーネル FF型の関数近似能力についての論文を読んだ。 実装してみた。 最急勾配法(Bishop, PRML) 適応的自然勾配法(井上先生) 中間層を減らす試みに着手