東京大学先端科学技術研究センター 矢入 健久,町田 和雄 Kernel Subspace Method by Stochastic Realization for Learning Nonlinear Dynamical Systems (Neural Information Processing Systems 2006) 東京大学大学院航空宇宙工学専攻 河原 吉伸 東京大学先端科学技術研究センター 矢入 健久,町田 和雄
動的システム学習 時系列入出力データから,その生成モデルを推定する モデルは対象システムの制御や動的特性の解析などに利用 入出力データ 状態空間モデル 動的モデル ARMAモデル などなど… 応用 : 対象システムの制御,動的特性の解析,…
状態空間モデル 直接観測されない状態ベクトルを用いたモデル表現. 線形の場合 非線形の場合 直接観測されない状態ベクトルを用いたモデル表現. 過去の全ての観測に関する十分統計量となっているため,ARMAモデルなどの入出力のみに関するモデルに比べ,正確に動的システムを表現可能 その他,物理科学などで得られた解析モデルとのアナロジーが得られやすいなどの特徴があるが,比較的推定は困難.
状態空間学習の分類 入出力データ モデル・データ間の距離の最小化 部分空間上での幾何学的演算 システム行列 状態ベクトル カルマンフィルター 予測誤差 ⇒ 予測誤差法 尤 度 ⇒ EMアルゴリズム 直交分解,CCAによる確率実現 ⇒ 部分空間法 システム行列 状態ベクトル カルマンフィルター 最小二乗法 状態ベクトル システム行列 ○ 高精度(但し初期値依存) × 局所解の問題,要反復計算 ○ 高速で数値的に安定,一意解 × 推定精度はやや劣る
Existing Subspace Methods for Learning Nonlinear Dynamical Systems A nonlinear algorithm is essential for learning complex systems which cannot be expressed sufficiently with linear models. Existing nonlinear subspace methods Nonlinear approaches with neural networks ・ Based on embedding and regression with neural nets [VVS00] Nonlinear approaches with reproducing kernels ・ Method for Hammerstein systems with LS-SVM [GPSM05] ・ Method using Kernel CCA on retarded coordinate vectors [VSB+04] => ・ Operate directly toward input-output data ・ Need additional nonlinear regression frameworks Other approaches ・ Using a conditional expectation algorithm for nonlinear CCA [LB92]
再生核ヒルベルト空間(RKHS) 正定値カーネル: RKHS - 対称性 - 正定値性 - - 再生性 1 : 1 … 正定値カーネルにより特徴空間内の が計算可能となる. 暗黙的に,高次元の特徴空間内でのデータ解析が可能となる. ・ 関数値 ・ 内積 カーネル特徴空間 (RKHS) 元のデータ空間
射影定理(1) ある時刻 に関して,過去の入出力 と未来の入力 から,未来の出力 を予測する問題を考える. 未来の入力 未来の出力(真) ある時刻 に関して,過去の入出力 と未来の入力 から,未来の出力 を予測する問題を考える. 未来の入力 未来の出力(真) に沿った への射影行列 未来の出力(予測) * 過去の入出力 に沿った への射影行列 * 結合過程
射影定理(2) 次の2つの仮定をおく. . , [仮定1] 出力 から入力 へのフィードバックが存在しない [仮定1] 出力 から入力 へのフィードバックが存在しない [仮定2] が直和分解 を持つ(実用的には,入力 が持続的励起条件を満足していれば十分) このとき,次の射影定理が成り立つ事が導かれる. 過去の入出力と未来の入力に基づいた,未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. . , 条件付き共分散行列
特徴空間における射影定理 前褐の2つの仮定が成立する場合,正定値カーネルで定まる特徴空間においても,同様の条件が成立する事が示せる. 同様の手順で,特徴空間における射影定理が導出できる. 特徴空間における過去の入出力と未来の入力に基づいた,特徴空間における未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. ,
射影定理から分かる事 最適予測子に関する方程式 を書き直すと 一方,状態空間モデルの観測方程式 となるように , などを選択すればよい
状態ベクトル 次のように,(拡張)可観測行列,(拡張)可制御行列,および状態ベクトルを定義する. 特徴空間上の出力に関するモデルが得られる. 状態ベクトルが持つべき性質(マルコフ性)を満足する 前褐の射影定理と状態空間モデルとの関係が成立する. 特徴空間上の出力に関するモデルが得られる.
元の空間上の状態空間モデル 特徴空間における出力に関する状態空間モデル 元の空間における出力に関する状態空間モデル と特徴写像の全単射性から が導ける 元の空間における出力に関する状態空間モデル 特徴写像を明示的に含んでいるので計算不可
カーネルPCAを用いた近似 ⇒ (近似)特徴ベクトルが明示的に計算可能 基本的な考え方: 特徴ベクトル を直接用いる代わりに,カーネル主成分で張られる空間上の特徴ベクトル を用いる 係数行列 は,例えばグラム行列の固有値分解 より, として計算できる ⇒ (近似)特徴ベクトルが明示的に計算可能 明示的に計算する事が可能な,状態ベクトルおよび非線形状態空間モデルが得られる: 経験的共分散行列 ・ 特異値分解 により計算可
アルゴリズム (1) Step 1. 正則経験的共分散演算子と,その平方根行列を求める: に近い特異値は無視
アルゴリズム (2) Step 4. グラム行列の固有値分解により係数行列 , , を計算し,次式に最小二乗法を適用してシステム行列を求める. Step 5(カルマンゲインが必要な場合). 残差の共分散行列を計算し,代数リッカチ方程式(本文参照,MATLABで一発)を解き,その安定化解を用いてカルマンゲインを求める.
数値例(1) 下記の非線形システムから生成したデータを利用 0.05秒毎の4,5次のルンゲ・クッタによるシミュレーション 600点を用いて学習し,新たな400点により評価* 入力は の間の均一分布から生成 *) 評価は主に次式で表されるシミュレーション誤差を利用 [OM96] シミュレーション値 観測値
数値例(1) 獲得モデルを用いた長期予測の結果 シミュレーション誤差 : 45.1 〃 : 40.2 (約10%向上) 線形部分空間同定法 [KP99] 非線形部分空間同定法 (提案手法) シミュレーション誤差 : 45.1 〃 : 40.2 (約10%向上)
数値例(2) Simulation data of a pH neutralization process in a constant volume stirring tank. Included in DAISY (DAtasets for the Identification of Systems, which includes several engineering, biological and environmental data). Inputs: acid solution flow and base solution flow in litters Outputs: pH of the solution in the tank
数値例(2) 獲得モデルを用いた長期予測の結果 シミュレーション誤差 : 47.0 〃 : 22.7 (約50%向上) 線形部分空間同定法 [KP99] 非線形部分空間同定法 (提案手法) シミュレーション誤差 : 47.0 〃 : 22.7 (約50%向上)
Conclusions and future works A kernel subspace method based on stochastic realization for learning nonlinear dynamical systems is proposed. The algorithm needs no iterative optimization procedures and can obtain solutions using fast and reliable numerical schemes (SVD, etc.). However, the parameters involve much time and effort for tuning. Future works : To incorporate a scheme for optimizing, automatically, the parameters into the proposed method. To extend other established subspace methods for learning dynamical systems to nonlinear frameworks as well.