独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
0章 数学基礎.
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
看護学部 中澤 港 統計学第5回 看護学部 中澤 港
有限差分法による 時間発展問題の解法の基礎
オンライン学習 Prediction Learning and Games Ch2
電子情報工学科5年(前期) 7回目(21/5/2015) 担当:古山彰一
復習.
電子物性第1 第5回 ー 原子の軌道 ー 電子物性第1スライド5-1 目次 2 はじめに 3 場所の関数φ 4 波動方程式の意味
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
統計解析 第9回 第9章 正規分布、第11章 理論分布.
重力3体問題の数値積分Integration of 3-body encounter.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
次に 円筒座標系で、 速度ベクトルと加速度ベクトルを 求める.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
9.NP完全問題とNP困難問題.
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
非線形方程式の近似解 (2分法,はさみうち法,Newton-Raphson法)
(ラプラス変換の復習) 教科書には相当する章はない
誤差の二乗和の一次導関数 偏微分.
Selfish Routing and the Price of Anarchy 第2回
ガウス過程による回帰 Gaussian Process Regression GPR
システムモデルと伝達関数 1. インパルス応答と伝達関数 キーワード : 伝達関数、インパルス応答、 ステップ応答、ランプ応答
第6章 連立方程式モデル ー 計量経済学 ー.
3. 可制御性・可観測性.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
第25章 単一始点最短路 3節 Bellman-Fordのアルゴリズム
スペクトル法の一部の基礎の初歩への はじめの一歩
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
6. ラプラス変換.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
独立成分分析 (ICA:Independent Component Analysis )
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
システム制御基礎論 システム工学科2年後期.
Introduction to Soft Computing (第11回目)
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
予測に用いる数学 2004/05/07 ide.
電気回路学Ⅱ コミュニケーションネットワークコース 5セメ 山田 博仁.
25. Randomized Algorithms
計算量理論輪講 chap5-3 M1 高井唯史.
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
様々な情報源(4章).
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
1:Weak lensing 2:shear 3:高次展開 4:利点 5:問題点
回帰分析(Regression Analysis)
解析学 ー第9〜10回ー 2019/5/12.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
【第六講義】非線形微分方程式.
行列 一次変換,とくに直交変換.
電磁気学C Electromagnetics C 5/20講義分 電磁場の波動方程式 山田 博仁.
2008年6月5日 非線形方程式の近似解 2分法,はさみうち法,Newton-Raphson法)
パターン認識特論 カーネル主成分分析 和田俊和.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
大阪市立大学 孝森 洋介 with 大川,諏訪,高本
線形符号(10章).
Presentation transcript:

独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲

独立成分分析の 学習アルゴリズムの性質(1/4) 前章で導いた式 の性質について説明する。 まずは記号の意味について復習する。 n個の独立な成分を持つ記号Stが時間tに発生するものとして、これが線形に混ざったxt=Astが各時間t=1,2,・・・に観測される。

独立成分分析の 学習アルゴリズムの性質(2/4) この時y=Wxのxから元のsを復元したい。 がわかっていればいいが、わからないので、時間tでのWの候補をWtとしてyt=Wtxtを観測するたびに、これをWt+1=Wt+ΔWtに変えていく学習アルゴリズムの話だった。 ここで、ηtは学習の大きさを示す係数、Iは単位行列、φ(y)は成分がφi(yi)というベクトルのことで、φiはとりあえず適当な非線形関数であった。

独立成分分析の 学習アルゴリズムの性質(3/4) stは確率的に発生する平均0の信号である。よってxtもytも確率信号である。だから先ほどの学習アルゴリズムの式も確率変数で駆動される確率差分方程式ということになる。 するとWtは過去に出たs1・・・snによって決まる。つまりWtが時間と共にどこへ収束するかは不確定ではないか?という疑問がでる。

独立成分分析の 学習アルゴリズムの性質(4/4) しかし、stは1回ごとにランダムに決まるといっても方程式を解くことはΔWを足していくことなので、stまたはytをtに関して加えることになる。 すると大数の法則などによりWtは右辺をstについて平均化したものに近づいていく。 この話を厳密にすると確率近似法の話になる。

確率近似法による収束の話(1/3) 係数ηtを1/tのオーダーで小さくしていくと収束が確率1で保証されている。ηtが小さい定数だと微小変動は残るが一応、平均化した方程式 の解に近づいていく。 ここでEは確率変数ytについての期待値。

確率近似法による収束の話(2/3) 差分方程式より微分方程式の方が解析が楽なので、tを連続時間として として議論する。                    (5-3) として議論する。 この方程式が収束すると仮定するとdWt/dt=0となる。このとき答えは右辺が0、つまりy=Wxとして

確率近似法による収束の話(3/3) を満たすWが答えとして出る。 成分で書くと E[φi(yi)yi]=1 、 E[φi(yi)yj]=0 , i≠j である。 しかし、元の信号siが復元できたとしてもそのスケールはわからない。そこでこのアルゴリズムでは仮に信号のスケールが決まる。よって元の信号を正しく分離するWはこの学習の方程式の平衡状態になっている。

平衡状態の安定性 先ほどの解が平衡状態に収束するかどうかは、平衡状態の安定性にかかっている。 そこで平均化した微分方程式で平衡状態の安定性を調べると、条件付ではあるが、正解が安定平衡点に収束することが微分方程式の議論により証明できた。

まとめ 今までの話をまとめるとICAで元の信号源の信号を復元するのに復元行列Wを学習で求めるのが(5-3)式である。 いずれにしてもφi(yi)というn個の関数を選ばなくてはならない。この時、安定性を満たすようにφiを選べば正しい解が得られるが、満たしていなければ分離はうまくいかない。