多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研

Slides:



Advertisements
Similar presentations
Maximal likelihood 法に基づく Matched filter について 田越秀行(阪大理) LCGT コヒーレンス解析 WG 修正 Ref: Finn, PRD63, (2001) Pai, Dhurandhar, Bose, PRD64,
Advertisements

Division of Process Control & Process Systems Engineering Department of Chemical Engineering, Kyoto University
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
相対論的場の理論における 散逸モードの微視的同定 斎藤陽平( KEK ) 共同研究者:藤井宏次、板倉数記、森松治.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
データ解析
ソーラス符号の パーシャルアニーリング 三好 誠司 上江洌 達也 岡田 真人 神戸高専 奈良女子大 東大,理研
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
Building text features for object image classification
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
理化学研究所 脳科学総合研究センター 脳数理研究チーム 岡田真人
ウェーブレットによる 信号処理と画像処理 宮崎大輔 2004年11月24日(水) PBVセミナー.
3 二次方程式 1章 二次方程式 §2 二次方程式と因数分解         (3時間).
統計学 11/13(月) 担当:鈴木智也.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
Bias2 - Variance - Noise 分解
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
東京工業大学 機械制御システム専攻 山北 昌毅
統計学 11/19(月) 担当:鈴木智也.
情報理論2 第6回 小林 学 湘南工科大学 2011年11月15日 〒 神奈川県藤沢市辻堂西海岸1-1-25
(ラプラス変換の復習) 教科書には相当する章はない
東京工業大学 機械制御システム専攻 山北 昌毅
脳活動に関するデータ データの種類 データの特徴 脳波・脳磁図・fMRI画像 脳活動とパフォーマンスの関係はきわめて冗長。
システムモデルと伝達関数 1. インパルス応答と伝達関数 キーワード : 伝達関数、インパルス応答、 ステップ応答、ランプ応答
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
ニューラルネットは、いつ、なぜ、どのようにして役立つか?
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
背 景 多数の「スピン」とそれらの「相互作用」という二種類の変数を有する系の解析においては,相互作用の方は固定されておりスピンだけが 変化するモデルを考える場合が多い.   (例:連想記憶モデル) 「スピン」よりもゆっくりと「相互作用」も変化するモデル(パーシャルアニーリング)の性質は興味深い.
領域ベースの隠れ変数を用いた画像領域分割
タップ長が一般化された 適応フィルタの統計力学
5 テスト技術 5.1 テストとは LISのテスト 故障診断 fault diagnosis 故障解析 fault analysis
第9章 混合モデルとEM 修士2年 北川直樹.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
6. ラプラス変換.
数学教育・工学教育における 数式処理電卓の活用
訓練データとテストデータが 異なる分布に従う場合の学習
Anja von Heydebreck et al. 発表:上嶋裕樹
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
(昨年度のオープンコースウェア) 10/17 組み合わせと確率 10/24 確率変数と確率分布 10/31 代表的な確率分布
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
プログラミングコンテストシステムへの 提出履歴データとその分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
Core Technology Center
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
教師がコミティマシンの場合の アンサンブル学習
東北大 情報科学 田中和之,吉池紀子 山口大 工 庄野逸 理化学研究所 岡田真人
回帰分析(Regression Analysis)
京大院情報学研究科 Graduate School of Informatics, Kyoto University
数理統計学 西 山.
人工知能特論II 第8回 二宮 崇.
教師が真の教師のまわりを まわる場合のオンライン学習
ポッツスピン型隠れ変数による画像領域分割
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
領域ベースの隠れ変数を用いた決定論的画像領域分割
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
アルゴリズム ~すべてのプログラムの基礎~.
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研 多数の疑似システムを用いた システム同定の統計力学 三好 誠司   岡田 真人 神 戸 高 専       東 大, 理 研

学習 観測データだけを使って,その背後にあるデータ生成過程をモデル化すること

学習 女 教師 生徒

学習 男 教師 生徒

学習 男 教師 生徒

学習 女 教師 生徒

学習 A J Teacher Student J J

学習 バッチ学習 オンライン学習 与えられたいくつかの例題を繰り返し使用 すべての例題に正しく答えられる 長い時間が必要 例題を蓄えておくメモリが必要 オンライン学習 一度使った例題は捨ててしまう 過去の例題に必ず正しく答えられるとは限らない 例題を蓄えておくメモリが不要 時間的に変化する教師にも追随

よく似ている! 適応信号処理(システム同定) + 学習 システム同定 未知システム 適応フィルタ - 適応アルゴリズム 入力 Teacher Student よく似ている!

今回扱うモデル + A B1 B2 BK J 未知システム 疑似システム 疑似システム 疑似システム 適応フィルタ 入力 + - 適応 アルゴリズム 未知システム 疑似システム 疑似システム 疑似システム 適応フィルタ A B1 B2 BK J 入力

今回扱うモデル 未知システム A, B1,B2,・・・ ,J はトランスバーサルフィルタ J は A の出力を直接観測することはできない 適応フィルタ 疑似システム A, B1,B2,・・・ ,J はトランスバーサルフィルタ J は A の出力を直接観測することはできない J は B1,B2,・・・ の出力を順番に使う

目 的 未知システム, K個の疑似システム, 適応フィルタからなるモデル の二乗平均誤差を計算する. 特に, 疑似システムの個数K, 目 的 未知システム, K個の疑似システム, 適応フィルタからなるモデル の二乗平均誤差を計算する. 特に, 疑似システムの個数K, 疑似システム集団の多様性と 二乗平均誤差の関係について 議論する.

トランスバーサルフィルタ Output Σ Tap Weights J1 J2 JN Inputs x1 x2 xN

出力にノイズが乗るトランスバーサルフィルタ モデル 出力にノイズが乗るトランスバーサルフィルタ

モデル 入力:  未知システム: 疑似システム:  適応フィルタの初期値: N→∞ (熱力学的極限) 巨視的変数 適応フィルタの長さ 方向余弦

未知システム 疑似システム 適応フィルタ

モデル 二乗誤差 LMSアルゴリズム fkm 適応フィルタはK個の疑似システムの出力を順番に使う

二乗平均誤差 本研究の目的は二乗平均誤差を理論的に求めること 二乗平均誤差 = 新しい入力とノイズに関する二乗誤差の平均

巨視的変数のダイナミクスを記述する 決定論的連立微分方程式

熱力学的極限における自己平均性にもとづき巨視的変数の ダイナミクスを記述する微分方程式を決定論的な形で導出 1.解析を容易にするため補助的巨視的変数を導入

モデル 二乗誤差 LMSアルゴリズム fkm 適応フィルタはK個の疑似システムの出力を順番に使う

熱力学的極限における自己平均性にもとづき巨視的変数の ダイナミクスを記述する微分方程式を決定論的な形で導出 1.解析を容易にするため補助的巨視的変数を導入 2. Jm+1 = Jm + f1m xm の両辺にAを乗ずる NrJm+1 = NrJm + f1m ym 3. + Ndt inputs NrJm+2 = NrJm+1 + f2m+1 ym+1 NrJm+Ndt = NrJm+Ndt-1 + fkm+Ndt-1 ym+Ndt-1 < > は サンプル平均 を表す

巨視的変数のダイナミクスを記述する 決定論的連立微分方程式

解析的に得られた巨視的変数

二乗平均誤差 本研究の目的は二乗平均誤差を理論的に求めること 二乗平均誤差 = 新しい入力とノイズに関する二乗誤差の平均

二乗平均誤差,RJ ,lのダイナミクス (η=0.3, K=3, RB=0.7, σA2=0.0, σB2=0.1, σJ2=0.2) J Student Adaptive Filter Mean-Squared Error J Ensemble teachers False System

解析的に得られた巨視的変数

定常状態の解析 ( t → ∞ ) 二乗平均誤差は発散してしまう ・ η<0 あるいは η>2 ならば 二乗平均誤差は発散してしまう ・ 0<η<2 ならば η<1ならば,疑似システムの多様性が豊かであるほど また 疑似システムの数Kが多いほど二乗平均誤差は小さくなる. η>1ならば,疑似システムの多様性が乏しいほど また 疑似システムの数Kが少ないほど二乗平均誤差は小さくなる.

二乗平均誤差,RJ の定常値 (K=3, RB=0.7, σA2=σB2=σJ2=0.0) J

二乗平均誤差,RJ の定常値 (q=0.49, RB=0.7, σA2=σB2=σJ2=0.0) J

まとめ 未知システム,K個の疑似システム,適応フィルタから構成されるモデルのシステム同定について解析した. 適応フィルタの二乗平均誤差を統計力学的手法を用いて理論的に計算した結果,ステップサイズがη<1 のときには疑似システムの個数が多いほど,また,疑似システムの多様性が豊かであるほど適応フィルタの二乗平均誤差は小さくなるが,η>1 の場合には全く逆であるという興味深い結果を得た. K個の疑似システムの多様性が十分に豊かである場合には,そして,そのときに限り, η→0,K→∞において雑音の有無によらず完全なシステム同定が達成される.

The Independence Theory (S.Haykin, Adaptive Filter Theory) The statistical analysis of the LMS algorithm based on the following fundamental assumption. The tap-input vectors x1, x2,・・・, xm constitute a sequence of statistically independent vectors. At time m, the tap-input vector xm is statistically independent of all previous samples of the desired response, namely y1,y2,・・・,ym-1. At time m, the desired response ym is dependent on the corresponding tap-input vector xm, but statistically independent of all previous samples of the desired response. The tap-input vector xm and the desired response ym consist of mutually Gaussian-distributed random variables for all m.