2A-1-2 部分時系列クラスタリングの 理論的基礎 IBM東京基礎研究所 井手 剛 | 2006/ / | 第20回 人工知能学会全国大会.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
新設科目:応用数学 イントロダクション 情報工学科 2 年前期 専門科目 担当:准教授 青木義満.
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
行列の圧縮による変化点検出の高速化 IBM東京基礎研究所 井手 剛 | 2006/11/01 | IBIS 2006.
第6回 線形計画法の解法(4) 混合最小値問題 山梨大学.
データ解析
「わかりやすいパターン認識」 第1章:パターン認識とは
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
情報・知能工学系 山本一公 プログラミング演習Ⅱ 第4回 配列(2) 情報・知能工学系 山本一公
電子情報工学科5年(前期) 7回目(21/5/2015) 担当:古山彰一
復習.
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
研究集会 「超大規模行列の数理的諸問題とその高速解法」 2007 年 3 月 7 日 完全パイプライン化シフト QR 法による 実対称三重対角行列の 固有値並列計算 宮田 考史  山本 有作  張 紹良   名古屋大学 大学院工学研究科 計算理工学専攻.
統計解析 第9回 第9章 正規分布、第11章 理論分布.
AllReduce アルゴリズムによる QR 分解の精度について
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
東京工業大学 機械制御システム専攻 山北 昌毅
日経平均株価の時系列データ分析 B03007 明田 剛慈.
次に 円筒座標系で、 速度ベクトルと加速度ベクトルを 求める.
前回の内容 結晶工学特論 第4回目 格子欠陥 ミラー指数 3次元成長 積層欠陥 転位(刃状転位、らせん転位、バーガーズベクトル)
ディジタル信号処理 Digital Signal Processing
固有空間における コンピュータシステムの障害検知
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
非エルミート 量子力学と局在現象 羽田野 直道 D.R. Nelson (Harvard)
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
スペクトル法の一部の基礎の初歩への はじめの一歩
第9章 混合モデルとEM 修士2年 北川直樹.
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
古典論 マクロな世界 Newtonの運動方程式 量子論 ミクロな世界 極低温 Schrodinger方程式 ..
確率伝搬法と量子系の平均場理論 田中和之 東北大学大学院情報科学研究科
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
黒体輻射 1. 黒体輻射 2. StefanのT4法則、 Wienの変位測 3. Rayleigh-Jeansの式
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
独立成分分析 (ICA:Independent Component Analysis )
量子系における 確率推論の平均場理論 田中和之 東北大学大学院情報科学研究科
量子力学の復習(水素原子の波動関数) 光の吸収と放出(ラビ振動)
主成分分析 Principal Component Analysis PCA
計算量理論輪講 chap5-3 M1 高井唯史.
“Regression on Manifolds using Kernel Dimension Reduction” by Jens Nilsson, Fei Sha, and Michael I. Jordan IBM東京基礎研究所 井手剛 | 2007/08/20 | ICML
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
平面波 ・・・ 平面状に一様な電磁界が一群となって伝搬する波
速度ポテンシャルと 流線関数を ベクトルで理解する方法
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
統計ソフトウエアRの基礎.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
潮流によって形成される海底境界層の不安定とその混合効果
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
原子核物理学 第7講 殻模型.
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
実験計画法 Design of Experiments (DoE)
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
Orientifolding of IIB matrix model
目次 はじめに 収束性理論解析 数値実験 まとめ 特異値計算のための dqds 法 シフトによる収束の加速
逆運動学(Inverse Kinematics) 2007.5.15
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

2A-1-2 部分時系列クラスタリングの 理論的基礎 IBM東京基礎研究所 井手 剛 | 2006/ / | 第20回 人工知能学会全国大会

目次 問題を理解する 滑走窓とずらし演算子の関係を理解する k平均クラスタリングを固有値問題に焼きなおしてみる 正弦波効果を導出してみる 実験結果 う、うなり?! 白色雑音なのに正弦波?! | 2006/ / |

問題を理解する | 2006/ / |

部分時系列クラスタリングとは: 1本の(長い)時系列から部分系列を多数生成し、それらをクラスタリング。クラスタ中心=代表パターン、のはず。 滑走窓方式で部分時系列を生成 生成された部分系列を、独立なベクトルとしてk平均クラスタリング 各クラスターの総和平均が「クラスタ中心」 代表パターン | 2006/ / |

正弦波効果とは: 滑走窓式部分時系列クラスタリング(STSC)を使ってパターンを抽出すると、なぜか正弦波が出てくる! Keoghによる衝撃的な報告: “Clustering of time series subsequences is meaningless”, ICDM ’03 k平均の結果、クラスタ中心は正弦波に! 元のパターンとは似ても似つかない ほとんど入力時系列には依存しない こんなやつを30個づつ連結。長い時系列を作る なぜ正弦波が出るのかは未解決問題 K平均STSC実行 「なぜ」を問わぬ所に進歩はない! クラスタ中心は正弦波に。 | 2006/ / |

滑走窓とずらし演算子の関係を理解する | 2006/ / |

時系列の最初と最後をつないで、リングにする。そのリングを1次元の周期格子だと思うと、時系列は、格子上の「状態」として理解できる。 格子点 l をひとつの基底 el だとみなし、時系列をn 次元ベクトルΓだと考えることにする。 格子点 l に値 xl を割り振る。 (人為的に)周期的境界条件を課す | 2006/ / |

部分系列 spは格子上の並進演算子を使ってスマートに表現できる。 「ずらして、ちょん切る」 n 1 後ろに p 歩ずらして第 1 ~ w サイトを切り出したもの ベクトル・行列表記は陰に要素を表すので、演算子の作用を表すのが苦手(見通し悪い)。 ※並進演算子(ずらし演算子)は基底の外積を使って表せる 状態 e2 を l だけずらしている例。 | 2006/ / |

k平均クラスタリングを固有値問題に焼きなおしてみる | 2006/ / |

k平均法は2乗誤差を最小化する算法。 その目的関数はρという行列を使ってシンプルに書ける。 Duda et al. の教科書参照。 クラスタ中心 われわれの表記では下記のように美しく表せる。 ただし、 クラスタ中心に対応する状態ベクトル 密度行列 と呼ぶ。 | 2006/ / |

k平均法の目的関数の最小化は、 密度行列についての固有値問題を解くことで達成できる。 Eの最小化は、下記の固有値問題と同等(説明略)。 ρは、部分系列を並べた行列Hを使って表せる: H = つまり、j 番目のクラスタ中心 u(j) は、行列HHTの固有ベクトルとしても求められる。 (HのSVDとも同等。) 密度行列(= HHT)の固有値問題として正弦波効果を調べてみよう。 | 2006/ / |

正弦波効果を導出してみる | 2006/ / |

密度行列はフーリエ表示でほとんど対角的となるので、 その固有状態はフーリエ状態(=正弦波)そのもの。 ρは並進演算子を使って表せる(略 ←Dirac記法で書かないとなかなか気づかない! )。 そのため、フーリエ基底が相性よさそう。基底の変更をする。 波数。 この { fq } を基底にして w×w行列を作ると、ρの主要項は対角行列になることを示せる: (対角成分)=(各フーリエ成分のパワー) 特定のfqのパワーが大きいときには、非対角成分の寄与は小さい。 特に、w =n (部分系列長=全系列長)の時は第2項は厳密にゼロ。 定理 時系列の(窓幅wの)パワースペクトルにおいてある波数 f が支配的ならば、k 平均のクラスタ中心は波長 w / |q| の正弦波でよく近似される。これは入力時系列の詳細によらない。 | 2006/ / |

実験結果 | 2006/ / |

実験結果(1/3): CBFデータに対する理論の確認。パワースペクトルとクラスタリング結果の対応を理論は完全に説明する(k=3, w=128)。 いずれも |q| = 1 にウェイトが集中。 波長wの正弦波が出るはず。 k平均クラスタ中心 波長wが3つ。 波長wが2つと、w/2がひとつ ↑固有ベクトル間の直交条件による SVD | 2006/ / |

実験結果(2/3):もっと面白い例。Synthetic Control Chartという標準データでは、「うなり」がクラスタ中心において観測される(k=2, w=60) 。 このようなインスタンスを100個づつ連結して、長い時系列を作る。 パワースペクトルはCBFデータと異なるので、クラスタリング結果も異なるはず。 |q| = 4, 5, 6 にピーク この3つの波が干渉して「うなり」を起こす。 うなりの波長も含めて、理論は下記のクラスタリング結果を完全に説明する。 | 2006/ / |

実験結果(3/3): Normalデータだけをクラスタリングしたらどうなるか。窓幅が全時系列長に近づくにつれ、正弦波が現れる(k=2, w=60と6000)。 k=2, w=n=6000 (全時系列長=部分系列長) パワースペクトルがほぼフラットでも、ほぼ純粋な正弦波になる。 → 波数混合は起こらず、一番強いパワーを持つ波数にウェイト集中。 | 2006/ / |

まとめ | 2006/ / |

まとめ 正弦波効果の理論的理解は、データマイニング、機械学習における未解決の重要課題だった。 1次元格子上での密度行列理論を展開することで、正弦波効果の理論的由来をあらわに示すことに初めて成功した。 それは、ここ数年発展してきた spectral clusteringの理論の、新しい別の定式化になっており、機械学習の観点で意義深い。 本論文の結果は、正弦波の擬パターンを回避する方法を考える上での重要な出発点となっており、工学的観点からも意義深い。 | 2006/ / |

ありがとうございました。 | 2006/ / |

時系列の最初と最後をつないで、リングにする。そのリングを1次元の周期格子だと思うと、時系列は、格子上の「状態」として理解できる。 格子点 l をひとつの基底 el だとみなし、時系列をn 次元ベクトルΓだと考えることにする。 格子点 l に値 xl を割り振る。 (人為的に)周期的境界条件を課す | 2006/ / |

部分系列 spは格子上の並進演算子を使ってスマートに表現できる。 Dirac記号は、並進演算子を陽に書けるので猛烈に見通しがよくなる。 n 1 後ろにp歩ずらして第1~wサイトを切り出したもの ベクトル・行列表記は陰に要素を表すので、演算子の作用を表すのが苦手(見通し悪い)。 ※並進演算子(ずらし演算子)の具体的表現 状態 | 2 >を l だけずらしている例。 | 2006/ / |

k平均法は2乗誤差を最小化する算法。 その目的関数はρという線形演算子でシンプルに書ける。 Duda et al. の教科書参照。 クラスタ中心 われわれの表記では下記のように美しく表せる。 ただし、 クラスタ中心に対応する状態ベクトル 統計力学の用語を流用して、密度演算子、と呼ぶ | 2006/ / |

k平均法の目的関数の最小化は、ρについての固有値問題を解くことで達成できる。それは通常の行列演算で計算可能。 Eの最小化は、下記の固有値問題と同等(説明略)。 などを普通のw次元のベクトルに戻して書き表すこともできる。 H = つまり、j 番目のクラスタ中心 u(j) は、行列HHTの固有ベクトルとしても求められる ρ(もしくはHHT)の固有値問題として正弦波効果を調べてみよう。 | 2006/ / |

密度演算子ρの行列表現を求める。 ρはフーリエ表示でほとんど対角的となるので、その固有状態はフーリエ状態(=正弦波)そのもの。 ρは並進演算子を使って表せる(略 ←Dirac記法で書かないとなかなか気づかない! )。 そのため、フーリエ基底が相性よさそう。基底の変更をする。 波数。 のような w×w行列を作ると、 特定のfqのパワーが大きいときには、非対角成分の寄与は小さい。 フーリエ成分 fq のパワー 特に、w =n (部分系列長=全系列長)の時は第2項は厳密にゼロ。 定理 時系列の(窓幅wの)パワースペクトルにおいてある波数 f が支配的ならば、k 平均のクラスタ中心は波長 w / |q| の正弦波でよく近似される。これは入力時系列の詳細によらない。 | 2006/ / |