東京大学先端科学技術研究センター 矢入 健久,町田 和雄

Slides:



Advertisements
Similar presentations
Division of Process Control & Process Systems Engineering Department of Chemical Engineering, Kyoto University
Advertisements

コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
Fill-in LevelつきIC分解による 前処理について
補章 時系列モデル入門 ー 計量経済学 ー.
Pattern Recognition and Machine Learning 1.5 決定理論
論文紹介 “Data Spectroscopy: Learning mixture models using eigenspaces of convolution operators” (ICML 2008) ─ by Tao Shi, Mikhail Belkin, and Bin Yu IBM東京基礎研究所.
2010年7月9日 統計数理研究所 オープンハウス 確率モデル推定パラメータ値を用いた市場木材価格の期間構造変化の探求 Searching for Structural Change in Market-Based Log Price with Regard to the Estimated Parameters.
Bassモデルにおける 最尤法を用いたパラメータ推定
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
Nonrigid Structure from Motion in Trajectory Space
Bias2 - Variance - Noise 分解
東京工業大学 機械制御システム専攻 山北 昌毅
回帰分析.
東京工業大学 機械制御システム専攻 山北 昌毅
シミュレーション演習 G. 総合演習 (Mathematica演習) システム創成情報工学科
補章 時系列モデル入門 ー 計量経済学 ー.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
3. 可制御性・可観測性.
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
スペクトル法の一部の基礎の初歩への はじめの一歩
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
訓練データとテストデータが 異なる分布に従う場合の学習
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
システム制御基礎論 システム工学科2年後期.
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
様々な情報源(4章).
部分的最小二乗回帰 Partial Least Squares Regression PLS
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ガウシアン確率伝搬法の 近似精度に対する理論解析
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
Number of random matrices
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
北大MMCセミナー 第62回 附属社会創造数学センター主催 Date: 2016年11月4日(金) 16:30~18:00
サポートベクターマシン Support Vector Machine SVM
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
ポッツスピン型隠れ変数による画像領域分割
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
目次 はじめに 収束性理論解析 数値実験 まとめ 特異値計算のための dqds 法 シフトによる収束の加速
線形符号(10章).
AAMと回帰分析による視線、顔方向同時推定
非線形システム解析とオブザーバ.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

東京大学先端科学技術研究センター 矢入 健久,町田 和雄 Kernel Subspace Method by Stochastic Realization for Learning Nonlinear Dynamical Systems (Neural Information Processing Systems 2006) 東京大学大学院航空宇宙工学専攻 河原 吉伸 東京大学先端科学技術研究センター 矢入 健久,町田 和雄

動的システム学習 時系列入出力データから,その生成モデルを推定する モデルは対象システムの制御や動的特性の解析などに利用 入出力データ 状態空間モデル 動的モデル ARMAモデル などなど… 応用 : 対象システムの制御,動的特性の解析,…

状態空間モデル 直接観測されない状態ベクトルを用いたモデル表現. 線形の場合 非線形の場合 直接観測されない状態ベクトルを用いたモデル表現. 過去の全ての観測に関する十分統計量となっているため,ARMAモデルなどの入出力のみに関するモデルに比べ,正確に動的システムを表現可能 その他,物理科学などで得られた解析モデルとのアナロジーが得られやすいなどの特徴があるが,比較的推定は困難.

状態空間学習の分類 入出力データ モデル・データ間の距離の最小化 部分空間上での幾何学的演算 システム行列 状態ベクトル カルマンフィルター 予測誤差 ⇒ 予測誤差法 尤 度 ⇒ EMアルゴリズム 直交分解,CCAによる確率実現 ⇒ 部分空間法 システム行列 状態ベクトル カルマンフィルター 最小二乗法 状態ベクトル システム行列 ○ 高精度(但し初期値依存) × 局所解の問題,要反復計算 ○ 高速で数値的に安定,一意解 × 推定精度はやや劣る

Existing Subspace Methods for Learning Nonlinear Dynamical Systems A nonlinear algorithm is essential for learning complex systems which cannot be expressed sufficiently with linear models. Existing nonlinear subspace methods Nonlinear approaches with neural networks ・ Based on embedding and regression with neural nets [VVS00] Nonlinear approaches with reproducing kernels ・ Method for Hammerstein systems with LS-SVM [GPSM05] ・ Method using Kernel CCA on retarded coordinate vectors [VSB+04] => ・ Operate directly toward input-output data ・ Need additional nonlinear regression frameworks Other approaches ・ Using a conditional expectation algorithm for nonlinear CCA [LB92]

再生核ヒルベルト空間(RKHS) 正定値カーネル: RKHS - 対称性 - 正定値性 - - 再生性 1 : 1 … 正定値カーネルにより特徴空間内の が計算可能となる. 暗黙的に,高次元の特徴空間内でのデータ解析が可能となる. ・ 関数値 ・ 内積 カーネル特徴空間 (RKHS) 元のデータ空間

射影定理(1) ある時刻 に関して,過去の入出力 と未来の入力 から,未来の出力 を予測する問題を考える. 未来の入力 未来の出力(真) ある時刻 に関して,過去の入出力   と未来の入力 から,未来の出力   を予測する問題を考える. 未来の入力 未来の出力(真) に沿った への射影行列 未来の出力(予測) * 過去の入出力 に沿った への射影行列 * 結合過程

射影定理(2) 次の2つの仮定をおく. . , [仮定1] 出力 から入力 へのフィードバックが存在しない [仮定1] 出力  から入力  へのフィードバックが存在しない [仮定2]   が直和分解           を持つ(実用的には,入力 が持続的励起条件を満足していれば十分) このとき,次の射影定理が成り立つ事が導かれる. 過去の入出力と未来の入力に基づいた,未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. . , 条件付き共分散行列

特徴空間における射影定理 前褐の2つの仮定が成立する場合,正定値カーネルで定まる特徴空間においても,同様の条件が成立する事が示せる. 同様の手順で,特徴空間における射影定理が導出できる. 特徴空間における過去の入出力と未来の入力に基づいた,特徴空間における未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. ,

射影定理から分かる事 最適予測子に関する方程式                   を書き直すと 一方,状態空間モデルの観測方程式 となるように     ,   などを選択すればよい

状態ベクトル 次のように,(拡張)可観測行列,(拡張)可制御行列,および状態ベクトルを定義する. 特徴空間上の出力に関するモデルが得られる. 状態ベクトルが持つべき性質(マルコフ性)を満足する 前褐の射影定理と状態空間モデルとの関係が成立する. 特徴空間上の出力に関するモデルが得られる.

元の空間上の状態空間モデル 特徴空間における出力に関する状態空間モデル 元の空間における出力に関する状態空間モデル と特徴写像の全単射性から が導ける 元の空間における出力に関する状態空間モデル 特徴写像を明示的に含んでいるので計算不可

カーネルPCAを用いた近似 ⇒ (近似)特徴ベクトルが明示的に計算可能 基本的な考え方: 特徴ベクトル  を直接用いる代わりに,カーネル主成分で張られる空間上の特徴ベクトル    を用いる 係数行列 は,例えばグラム行列の固有値分解           より,           として計算できる ⇒ (近似)特徴ベクトルが明示的に計算可能 明示的に計算する事が可能な,状態ベクトルおよび非線形状態空間モデルが得られる: 経験的共分散行列 ・ 特異値分解              により計算可

アルゴリズム (1) Step 1. 正則経験的共分散演算子と,その平方根行列を求める: に近い特異値は無視

アルゴリズム (2) Step 4. グラム行列の固有値分解により係数行列  ,  ,  を計算し,次式に最小二乗法を適用してシステム行列を求める. Step 5(カルマンゲインが必要な場合). 残差の共分散行列を計算し,代数リッカチ方程式(本文参照,MATLABで一発)を解き,その安定化解を用いてカルマンゲインを求める.

数値例(1) 下記の非線形システムから生成したデータを利用 0.05秒毎の4,5次のルンゲ・クッタによるシミュレーション 600点を用いて学習し,新たな400点により評価* 入力は の間の均一分布から生成 *) 評価は主に次式で表されるシミュレーション誤差を利用 [OM96] シミュレーション値 観測値

数値例(1) 獲得モデルを用いた長期予測の結果 シミュレーション誤差 : 45.1 〃 : 40.2 (約10%向上) 線形部分空間同定法 [KP99] 非線形部分空間同定法 (提案手法) シミュレーション誤差 : 45.1 〃 : 40.2 (約10%向上)

数値例(2) Simulation data of a pH neutralization process in a constant volume stirring tank. Included in DAISY (DAtasets for the Identification of Systems, which includes several engineering, biological and environmental data). Inputs: acid solution flow and base solution flow in litters Outputs: pH of the solution in the tank

数値例(2) 獲得モデルを用いた長期予測の結果 シミュレーション誤差 : 47.0 〃 : 22.7 (約50%向上) 線形部分空間同定法 [KP99] 非線形部分空間同定法 (提案手法) シミュレーション誤差 : 47.0 〃 : 22.7 (約50%向上)

Conclusions and future works A kernel subspace method based on stochastic realization for learning nonlinear dynamical systems is proposed. The algorithm needs no iterative optimization procedures and can obtain solutions using fast and reliable numerical schemes (SVD, etc.). However, the parameters involve much time and effort for tuning. Future works : To incorporate a scheme for optimizing, automatically, the parameters into the proposed method. To extend other established subspace methods for learning dynamical systems to nonlinear frameworks as well.