ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance

Slides:



Advertisements
Similar presentations
全脳アーキテクチャ解明ロー ドマップ 産業技術総合研究所 一杉裕志. 大脳皮質 モデル 大脳皮質モデルを中心とした ロードマップ xx 応用: パターン認識 ロボット制御単純労働様々な労働支援高度な言語処理 時間 到達 目標: 要素 技術: 皮質・基底核連携モデル.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
~Information hiding -meta data hiding- ~
「わかりやすいパターン認識」 第1章:パターン認識とは
ニューラルネットワークの 工学的応用に関する研究 2006年9月 中間報告
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
Introduction to Soft Computing (第12回~第13回)
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
4.2 連立非線形方程式 (1)繰返し法による方法
~Information hiding -meta data hiding- ~
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
決定木とランダムフォレスト 和田 俊和.
ニューラルコンピューティングを理解する 第一版:2006/12/12 第二版:2007/11/12
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
ICML2006勉強会 2006年7月29日 局所フィッシャー判別分析 東京工業大学 計算工学専攻 杉山 将.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
生物統計学・第3回 全体を眺める(1) R、クラスタリング、ヒートマップ、各種手法
Introduction to Soft Computing (第11回目)
多変量解析ゼミ 第10回 第12章クラスター分析 発表者 直江 宗紀.
予測に用いる数学 2004/05/07 ide.
Data Clustering: A Review
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
Nightmare at Test Time: Robust Learning by Feature Deletion
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第16章 動的計画法 アルゴリズムイントロダクション.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
パターン認識特論 ADA Boosting.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
パターン認識特論 ADA Boosting.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Cプログラミング演習 ニュートン法による方程式の求解.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance Keio University Kensuke Naoe

動機・勉強会の趣旨 武藤研の中でもニューラルについてほとんど理解していない学生が多い 自分自身もそうであった 元々の興味は情報セキュリティ 問題解決の一つのツールとしてニューラルを使った 適切に問題設定をし,適切なモデルを使うと有用 みんなにもニューラルについて詳しくなってほしい・興味を持ってほしい

Agenda 第一部 ニューラルネットワークとは 第二部 多層パーセプトロンモデル 第三部 自己組織化特徴マップモデル

ニューラルネットワーク ニューロン(神経細胞) ニューロンにより形成されたネットワークをモデル化したものをニューラルネットワークと呼ぶ 電気信号の入力と出力という単純な作業しか出来ない 有機的に接続されたネットワークを形成すると,様々な複雑な処理が可能 ニューロンにより形成されたネットワークをモデル化したものをニューラルネットワークと呼ぶ

optimization, self organization, supervised learning ニューラルネットワークモデル ニューロンのモデル バイナリモデル(Hopfield, McCulloch&Pitts) シグモイドモデル Radial Basis Functionモデル 競合ニューロン シナプス結合の形態 リカレントモデル 階層型パーセプトロン フィードフォワード フィードバック ニューロンと結合によるモデルの違い 状態遷移モデル Hopfield 連想記憶,最適化問題 Hebb則 競合学習モデル Self Organization Map 自己組織化マップ  教師なし学習 信号伝播モデル パーセプトロン (rosenblatt) 一般δルール Rummelhart 教師あり学習 最適化,自己組織化,学習 optimization, self organization, supervised learning

ニューラルネットワークへの誤解 ニューラルは使えない ニューラルは万能だ これらは全部誤解であると言いたい! アバウトすぎて使えない 毎回答えが違うなんてありえない ニューラルは万能だ ニューラル使えばなんでも解けちゃうよ これらは全部誤解であると言いたい! 問題に合わせたモデルを選択する事が重要 ニューラルの手法の得意な事・不得意な事がある ニューラルが取り扱いたい実際の問題として, 最適な配置問題. 出力(システム)のダイナミクスを観察しないと分からない 特徴空間の分類問題. 特徴空間のクラスが最初からgiven or known 特徴空間がどのようにマップされるか分からない

出力のダイナミクスを観察する N-queen問題の場合

ニューラルでN-queen問題を解く

分類問題 あらかじめクラスが分かっている時(1) 分類問題  あらかじめクラスが分かっている時(1)

分類問題 あらかじめクラスが分かっている時(2) 分類問題  あらかじめクラスが分かっている時(2)

XOR問題をbackpropagation学習で解く

分類問題 クラスがいくつ存在するか分からない時(1) 分類問題  クラスがいくつ存在するか分からない時(1)

分類問題 クラスがいくつ存在するか分からない時(2) 分類問題  クラスがいくつ存在するか分からない時(2)

分類問題 クラスがいくつ存在するか分からない時(3) 分類問題  クラスがいくつ存在するか分からない時(3)

分類問題 クラスがいくつ存在するか分からない時(4) 分類問題  クラスがいくつ存在するか分からない時(4)

ニューラルで色の分類をしてみる

今回の勉強会で話すこと 信号伝播モデル 階層型パーセプトロンモデル 競合学習モデル 自己組織化特徴マップモデル

「多層パーセプトロンモデルと バックプロパゲーション学習」 を説明するスライド 「多層パーセプトロンモデルと  バックプロパゲーション学習」      を説明するスライド Special thanks to Masato Aoba Keio University Graduate School of Media and Governance Kensuke Naoe

パーセプトロン限界説 バックプロパゲーション学習を識別機会の学習則としか考えるなかれ Minskyがパーセプトロンでは非線形分離が出来ない Rummelhartがそんなことは無い,多層構造を持たせて,バックプロパゲーション学習を使えばXOR問題も解けるではないか! 特徴空間における非線形分離能力はバックプロパゲーションで得られる能力のほんの一部でしかない. むしろ非線形な関数近似能力が最大の利点だ!

ニューラルネットワークの種類と性質 (構造による違い)    ニューラルネットワークの種類と性質              (構造による違い) リカレント型 Hopfieldモデル,武藤モデル など リカレント結合 出力のダイナミクスに特徴がある 組み合わせ最適化問題,連想記憶 階層型 多層パーセプトロン,Kohonenモデル,RBFネット など 層構造を持つ フィードフォワード フィードバック 入力に対して出力が一意に決まる 結合係数を学習 教師つき学習 自己組織化学習 Backpropagation学習 教師付き学習 パターン分離,関数近似 が得意 非線形なパターン分離が可能 通常は 3層で十分

3層パーセプトロン 3層構造 フィードフォワード型 ニューロンの入出力関数 Backpropagation 学習 出力層 中間層 (隠れ層) シグモイド関数 Backpropagation 学習 入力層

シグモイド関数 多層パーセプトロンのニューロン入出力関数 シグモイド(sigmoid) = S字 x y

ネットワークの計算 ニューロンの入力値 前層のニューロン出力と結合係数の積和 yj j xj wNj w1j wij y1 yN yi

パーセプトロンの動作 結合係数(Wij)の値によって最終出力が変わる どのように結合係数を決めてやるか? → 学習させる 0.88 0.62 0.89 1.0 -1.0 2.0 2.0 0.5 0.67 0.18 結合係数(Wij)の値によって最終出力が変わる どのように結合係数を決めてやるか? → 学習させる

Backpropagation 学習 多層パーセプトロンの学習則 教師付き学習 教師信号との誤差を逆方向に伝播して結合係数を修正する 1.0 入力 信号 2.0 0.5 0.9 -0.8 1.9 1.3 -0.9 1.0 -1.0 2.0 出力 信号 0.67 誤差

実問題への適用 多層パーセプトロン・バックプロパゲーション学習の利点 問題点もある 入力に多次元ベクトルを扱える 三層以上では非線形分離が可能 非線形分離問題に特化するならSVMの方が有利かも もっとも特徴的なのは分類関数を非線形に近似できる事 問題点もある 実問題ではデータ数が多い場合がある ネットワークの表現・組み方 計算時間 入力ベクトルの次元が増えると指数関数的に計算時間が増える>>次元の呪い

「Self-Organizing Map 自己組織化マップ」 を説明するスライド Special thanks to H.Kusumoto Keio University Graduate School of Media and Governance Kensuke Naoe

Self-Organizing Map (1) 自己組織化マップ T. Kohonen 1982年 教師なし学習 応用 遺伝子解析 音声認識 画像解析 ロボット制御

SOM(2) 入力データ(多次元) 『自己組織化マップ』T.Kohonen

SOM(3) SOMによる結果 『自己組織化マップ』T.Kohonen

Self-Organizing Map (4) 入力データ 多次元データ 表だけを見ていてもデータの特性を理解しづらい SOMによる結果 2次元空間上にマッピングする 似た特徴のデータは近い場所にマッピング 異なる特徴のデータは遠い場所にマッピング 視覚的に理解しやすい

SOM(5) アルゴリズム(1) X1, X2, X3, … , Xi, … , Xn :動物 入力データ X1, X2, X3, … , Xi, … , Xn  :動物 Xi=(xi1, xi2, … , xik, … , xid):属性 マップ 格子状の2次元の空間を用意する データは格子点にマッピングされることになる マップの大きさはデータ量などから決める(m×m)

SOM(6) アルゴリズム(2) マップの格子点に重みベクトルWを置く 各Wに入力データと同じ次元数の要素を与える W(m,m)

SOM(7) アルゴリズム(3) 初期化 入力データ:4個 X1, X2, X3, X4 マップ:5×5 W(5,5)=(w(5,5)1,w(5,5)2, w(5,5)3) Wの初期値は任意

SOM(8) アルゴリズム(4) 探索 入力データを1つ持ってくる X1=(x11, x12, x13) Wの中からX1に値が最も近いものを探す Wwin 勝者ベクトルと呼ぶ

SOM(9) アルゴリズム(5) 学習 X1=(x11, x12, x13) Wwinの値をX1に近づける Wnew=Wold+α(X1-Wold) α:学習率係数

SOM(10) アルゴリズム(6) 学習 X1=(x11, x12, x13) WwinのそばにあるWの値もX1に少し近づける

SOM(10) アルゴリズム(6) 学習 このように「Wの値を変えること」を「学習」と呼ぶ X2,3,4に関しても同様に学習する この学習を繰りかえし行う

SOM(11) アルゴリズム(7) マッピング X4 X3 X2 X1 X4 X3 X2 X1 X1, X2, X3, X4に対して,それぞれ最も近いWを探し,そこにマッピングする X3 X4 X1 X2 X3 X4 似た特徴のデータは近くに 異なる特徴のデータ遠くに マッピングされる X1 X2

実問題への適用 SOMの利点 問題点もある ↓ ほとんどの多次元データを扱える シンプル(複雑な計算式がない) 結果が視覚的にわかりやすい 実問題ではデータ数が多い場合がある マップ上での表現 計算時間     ↓ 実問題への適用には様々な工夫が必要

SOMの問題点(1) 結果の表現方法 入力データ数が多い場合(数百~数万) マップ上に全てを表記するのは不可能  マップ上に全てを表記するのは不可能 動物の例題では16データしかない 『自己組織化マップ』T.Kohonen

SOMの問題点(2) 計算コスト SOMでは繰り返し学習(データ数×数回)が必要 データ数が多い場合(数百~数万)なるべく大きなマップを使いたい 入力ベクトルXに最も近い重みベクトルWを探す時に,Wの個数分の計算が必要になる ↓ 繰り返し学習の回数と,マップの大きさ(M×M)に比例して計算量が増える