「Self-Organizing Map 自己組織化マップ」 を説明するスライド

Slides:



Advertisements
Similar presentations
全脳アーキテクチャ解明ロー ドマップ 産業技術総合研究所 一杉裕志. 大脳皮質 モデル 大脳皮質モデルを中心とした ロードマップ xx 応用: パターン認識 ロボット制御単純労働様々な労働支援高度な言語処理 時間 到達 目標: 要素 技術: 皮質・基底核連携モデル.
Advertisements

はじめてのパターン認識 第1章 第4グループ 平田翔暉. パターン認識 パターン認識 o 観測されたパターンを、あらかじめ定められ たクラスに分類すること クラス o 硬貨: 1 円玉、 5 円玉、 10 円玉、 50 円玉、 100 円玉、 500 円玉 o アルファベット: 26 種類 o 数字:
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
3次元nクイーン問題の 解に関する研究 論理工学研究室 伊藤精一
平成14年2月8日 卒業研究報告 相関行列に基づく非計量多次元尺度法 に関する研究
「わかりやすいパターン認識」 第1章:パターン認識とは
11章 ボリュームレンダリングを学ぶ 本来は目に見えない内部情報をレンダリングし可視化する技術
先端論文ゼミ -タイトル- Identification of homogeneous regions for regional frequency analysis using the self organizing map (自己組織化マップを使っている地域の頻度分析のための均一な地 方の識別)
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
Introduction to Soft Computing (第12回~第13回)
データ構造とアルゴリズム論 第6章 探索のアルゴリズム
分子生物情報学 動的計画法に基づく配列比較法 (ペアワイズアライメント法)
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
アルゴリズムとデータ構造 補足資料7-3 「単純選択ソートselsort.c」
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
データ構造とアルゴリズム論 第2章 配列(構造)を使った処理
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
Mathcad と Excel の比較 PTC ジャパン(株) 部署名 年月日.
ML 演習 第 7 回 新井淳也、中村宇佑、前田俊行 2011/05/31.
データ構造とアルゴリズム論 第7章 探索のアルゴリズム
シミュレーション演習 G. 総合演習 (Mathematica演習) システム創成情報工学科
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
サポートベクターマシン によるパターン認識
MPIを用いた並列処理 ~GAによるTSPの解法~
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
決定木とランダムフォレスト 和田 俊和.
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
ニューラルコンピューティングを理解する 第一版:2006/12/12 第二版:2007/11/12
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
第14章 モデルの結合 修士2年 山川佳洋.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
生物統計学・第3回 全体を眺める(1) R、クラスタリング、ヒートマップ、各種手法
多変量解析ゼミ 第10回 第12章クラスター分析 発表者 直江 宗紀.
2018/9/10 ACL読み会 名古屋大学大学院 M2 佐藤・松崎研 土居裕典.
主成分分析 Principal Component Analysis PCA
appengine ja night beer talk あらかわ
類似度を用いた WWW のリンク構造の解析 谷 研究室    栗原 伸行.
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
ポリゴンメッシュ (2) - 変形と簡略化- 東京大学 精密工学専攻 大竹豊 資料および授業の情報は :
Data Clustering: A Review
複数特徴量の重み付け統合による一般物体認識
第 6 章 :フィードバック制御系の安定性 6.1 フィードバック系の内部安定性 6.2 ナイキストの安定定理
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
CGと形状モデリング 授業資料 1,2限: 大竹豊(東京大学) 3,4限: 俵 丈展(理化学研究所)
プログラミング 4 探索と計算量.
ニューラルコンピューティングを理解する 2006/12/12 Graduate School of Media and Governance
生物統計学・第3回 全体を眺める(2) クラスタリング、ヒートマップ
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
プログラミング 3 2 次元配列.
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
データ構造とアルゴリズム論 第6章 探索のアルゴリズム
Max Cut and the Smallest Eigenvalue 論文紹介
アルゴリズムとプログラミング (Algorithms and Programming)
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
データ解析 静岡大学工学部 安藤和敏
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
blossom取り扱い説明書 <基本説明> <各種設定> 初期画面→ノードの初期化 入力データの選択 学習開始 学習終了 マップの見方
Presentation transcript:

「Self-Organizing Map 自己組織化マップ」 を説明するスライド Special thanks to H.Kusumoto Keio University Graduate School of Media and Governance Kensuke Naoe

Self-Organizing Map (1) 自己組織化マップ T. Kohonen 1982年 教師なし学習 応用 遺伝子解析 音声認識 画像解析 ロボット制御

SOM(2) 入力データ(多次元) 『自己組織化マップ』T.Kohonen

SOM(3) SOMによる結果 『自己組織化マップ』T.Kohonen

Self-Organizing Map (4) 入力データ 多次元データ 表だけを見ていてもデータの特性を理解しづらい SOMによる結果 2次元空間上にマッピングする 似た特徴のデータは近い場所にマッピング 異なる特徴のデータは遠い場所にマッピング 視覚的に理解しやすい

SOM(5) アルゴリズム(1) X1, X2, X3, … , Xi, … , Xn :動物 入力データ X1, X2, X3, … , Xi, … , Xn  :動物 Xi=(xi1, xi2, … , xik, … , xid) :属性 マップ 格子状の2次元の空間を用意する データは格子点にマッピングされることになる マップの大きさはデータ量などから決める(m×m)

SOM(6) アルゴリズム(2) マップの格子点に重みベクトルWを置く 各Wに入力データと同じ次元数の要素を与える W(m,m)

SOM(7) アルゴリズム(3) 初期化 入力データ:4個 X1, X2, X3, X4 マップ:5×5 W(5,5)=(w(5,5)1,w(5,5)2, w(5,5)3) Wの初期値は任意

SOM(8) アルゴリズム(4) 探索 入力データを1つ持ってくる X1=(x11, x12, x13) Wの中からX1に値が最も近いものを探す Wwin 勝者ベクトルと呼ぶ

SOM(9) アルゴリズム(5) 学習 X1=(x11, x12, x13) Wwinの値をX1に近づける Wnew=Wold+α(X1-Wold) α:学習率係数

SOM(10) アルゴリズム(6) 学習 X1=(x11, x12, x13) WwinのそばにあるWの値もX1に少し近づける

SOM(10) アルゴリズム(6) 学習 このように「Wの値を変えること」を「学習」と呼ぶ X2,3,4に関しても同様に学習する この学習を繰りかえし行う

SOM(11) アルゴリズム(7) マッピング X4 X3 X2 X1 X4 X3 X2 X1 X1, X2, X3, X4に対して,それぞれ最も近いWを探し,そこにマッピングする X3 X4 X1 X2 X3 X4 似た特徴のデータは近くに 異なる特徴のデータ遠くに マッピングされる X1 X2

実問題への適用 SOMの利点 問題点もある ↓ ほとんどの多次元データを扱える シンプル(複雑な計算式がない) 結果が視覚的にわかりやすい 実問題ではデータ数が多い場合がある マップ上での表現 計算時間     ↓ 実問題への適用には様々な工夫が必要

SOMの問題点(1) 結果の表現方法 入力データ数が多い場合(数百~数万) マップ上に全てを表記するのは不可能  マップ上に全てを表記するのは不可能 動物の例題では16データしかない 『自己組織化マップ』T.Kohonen

SOMの問題点(2) 計算コスト SOMでは繰り返し学習(データ数×数回)が必要 データ数が多い場合(数百~数万)なるべく大きなマップを使いたい 入力ベクトルXに最も近い重みベクトルWを探す時に,Wの個数分の計算が必要になる ↓ 繰り返し学習の回数と,マップの大きさ(M×M)に比例して計算量が増える