特異値分解とその応用 2009年5月12日 計算理工学専攻 張研究室 山本有作.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
0章 数学基礎.
Level-3 BLASに基づく特異値分解 アルゴリズムのSMP上での性能
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
「わかりやすいパターン認識」 第1章:パターン認識とは
一般化Bi-CGSTAB(s, L) (=一般化IDR(s, L))
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
Extremal Combinatorics 14.1 ~ 14.2
AllReduce アルゴリズムによる QR 分解の精度について
時空間データからのオブジェクトベース知識発見
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Paper from PVLDB vol.7 (To appear in VLDB 2014)
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
      線形写像  線形写像 U,V:R上のベクトル空間 T:UからVへの写像 (1)T(u+v)=T(u)+T(v)  (u,v∈U),
透視投影(中心射影)とは  ○ 3次元空間上の点を2次元平面へ投影する方法の一つ  ○ 投影方法   1.投影中心を定義する   2.投影平面を定義する
応用数理工学特論 線形計算と ハイパフォーマンスコンピューティング
3次元での回転表示について.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
線形代数学 谷津 哲平 第1章 ベクトル 1.1 ベクトル空間 1.2 ベクトルの一次独立性 1.3 部分ベクトル空間
k 個のミスマッチを許した点集合マッチング・アルゴリズム
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
Level-3 BLASに基づく二重対角化 アルゴリズムとその性能評価
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
独立成分分析 (ICA:Independent Component Analysis )
3次元での回転表示について.
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
Number of random matrices
資料 線型変換のイメージ 固有値、固有ベクトル 平賀譲(209研究室) 資料
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
行列式 方程式の解 Cramerの公式 余因数展開.
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
原子核物理学 第7講 殻模型.
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
◎小堀 智弘,菊池 浩明(東海大学大学院) 寺田 真敏(日立製作所)
行列 一次変換,とくに直交変換.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
Chapter5 Systems of Distinct Representatives
密行列固有値解法の最近の発展 (I) - Multiple Relatively Robust Representation アルゴリズム - 2004年11月26日 名古屋大学 計算理工学専攻 山本有作 日立製作所の山本有作です。 「~」について発表いたします。
計算の理論 I 反復補題 火曜3校時 大月 美佳 平成16年7月13日 佐賀大学知能情報システム学科.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
情報生命科学特別講義III (3)たたみ込みとハッシュに 基づくマッチング
目次 はじめに 収束性理論解析 数値実験 まとめ 特異値計算のための dqds 法 シフトによる収束の加速
線形符号(10章).
ランダムプロジェクションを用いた音響モデルの線形変換
2008年 7月17日 応用数理工学特論 期末発表 鈴木綾華,程飛
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

特異値分解とその応用 2009年5月12日 計算理工学専攻 張研究室 山本有作

目次 特異値分解とその基本的性質 画像圧縮への応用 情報検索への応用

特異値分解とその基本的性質

対称行列の固有値分解 A = VDVT 定理1 任意の n×n 実対称行列 A は次の形に分解できる。 ここで, V: n×n の直交行列 D: n×n の対角行列 D = diag (l1 , l2 , … , ln )      (ただし l1 ≧l2 ≧ … ≧ln ) これを A の固有値分解と呼ぶ。 l1 , l2 , … , ln は A の固有値, V の第 i 列 vi は li に対応する固有ベクトルとなる。 A = VDVT

行列の特異値分解 A = US VT 定理2 = A U S VT 任意の m×n 実行列 A (m ≧ n)は次の形に分解できる。 ここで, U: m×m の直交行列 V: n×n の直交行列 S: m×n の対角行列 S = diag (s1 , s2 , … , sn )      (ただし s1 ≧s2 ≧ … ≧sr > sr+1 = …= sn = 0) これを A の特異値分解,s1 , s2 , … , sn を A の特異値と呼ぶ。 0 でない特異値の個数 r は行列 A のランクに等しい。 A = US VT = A U S VT

特異ベクトル 右特異ベクトルと左特異ベクトル これらを使うと,A はランク1の行列の和として表現できる。 V の各列 v1, v1, …, vn を右特異ベクトルと呼ぶ。 U の各列 u1, u1, …, um を左特異ベクトルと呼ぶ。 右特異ベクトル,左特異ベクトルは,それぞれ Rn, Rm の正規直交基底をなす。 これらを使うと,A はランク1の行列の和として表現できる。 A = s1u1v1T + s2u2v2T + … + srurvrT A = × × + × × + + × × s1 v1 s2 v2 sr vr u1 u2 ur

特異値分解の意味 幾何学的意味 行列 A をかける線形写像において,元の空間と行き先の空間に適当に直交座標を定めると,写像は対角行列で表される。 v3 v4 A による乗算 u1 v2 u2 u3 vi 成分(i = 1, …, r)は si 倍され,ui 方向を向く v1 元の空間 行き先の空間 vi 成分(i = r +1, …, n) は 0 になる。

像空間・核空間との関係 像空間 Im(A) = {y∈Rm | ∃x∈Rn  s.t. y = Ax} Im(A) = span{u1, u2, …, ur} 核空間 Ker(A) = {x∈Rn | Ax = 0} Ker(A) = span{vr+1, vr+2, …, vn} すなわち,特異値分解が与えられると,像空間・核空間の正規直交基底が特異ベクトルによって陽的に表される。

定理2の証明 証明の流れ m×m 正定値対称行列 AAT の固有値を {si2},固有ベクトルを {ui} とする。 s1 ≧ … ≧sr > sr+1 = …= sm = 0 とする。 AT ui = 0 (i = r+1, …, m)を示す。 vi = (1/si) ATuiにより,ベクトル vi (i =1, 2, …, r)を求める。これら が正規直交系をなすことを示す。 V = [v1, v2, … , vn] が直交行列となるように vr+1, …, vn を定める。 U = [u1, u2, … , um] とし,UTAV が対角行列となることを示す。

固有値分解との関係 A の左特異ベクトルは AAT の固有ベクトル A の右特異ベクトルは ATA の固有ベクトル 定理2の証明より明らか。 A の右特異ベクトルは ATA の固有ベクトル 実際に ATAvi を計算してみればよい。 A の特異値は AAT (ATA )の固有値の正の平方根

ランク1の行列の和による行列の近似 近似 A – Ak = x1y1T + x2v2T + … + xkykT 問題 応用 A を次のようにランク1の行列 k 個(k ≦ r)の和で近似する。 近似誤差を || A – Ak ||F で定義する。 || A ||F = (Tr(ATA))1/2 = (Si=1m Sj=1n aij2)1/2 問題 {xi},{yi} をどのように取れば,近似誤差が最小になるか? そのときの近似誤差は? 応用 情報圧縮,情報検索など A – Ak = x1y1T + x2v2T + … + xkykT ~

ランク1の行列の和による行列の最適近似 定理3 (Eckart & Young の定理) ランク1の行列 k 個(k ≦ r)の和による A の最適近似は,A の最初の k 個の特異値と特異ベクトルを用いて次のように与えられる。 また,近似誤差は特異値を用いて次のように書ける。 Ak を A の打ち切り型特異値分解と呼ぶ。 Ak = s1u1v1T + s2u2v2T + … + skukvkT || A – Ak ||F = (S i=k+1r si2)1/2 = A U S VT 打ち切り = Ak Uk Sk VkT

定理3の証明 補題4 m×n 行列の空間 Rm×n における内積を,(A, B) = Tr(ATB) で定義 する。 このとき,mn 個のランク1行列 uivjT (i = 1, 2, …, m, j = 1, 2, …, n)は,この内積に関して正規直交系をなす。 Rm×n は mn 次元であるから,これら mn 個の行列は Rm×n の正規 直交基底をなす。

定理3の証明(続き) 証明の流れ {uivjT} は Rm×n における基底であるから,A – Ak を {uivjT} で展 開してみる。 {uivjT} は正規直交基底であるから,|| A – Ak ||F は展開係数の2 乗和の平方根となる。 これが最小になるよう, Ak の展開係数を決める。ただし,0 でない 展開係数の数が k 個となるようにする。

画像圧縮への応用

画像圧縮の必要性 画像は一般的にデータ量が多い。 画像データの転送・記憶を効率的に行うために,圧縮ができれば望ましい。

行列の近似を用いた画像圧縮 画像を行列と見る ランク1の行列の和による近似 200×320 ピクセルの白黒画像データ これを 200×320 の行列と見なす。 データ量は 200×320 個の実数 ランク1の行列の和による近似 この行列をランク1の行列 k 個の和で近似できたとすると,データ量は k×(200 + 320) 個の実数 k が小さければ,データは大きく圧縮できる。 最適なランク1行列を求めるために,Eckart & Young の定理が利用できる。

特異値分解を用いたアルゴリズム アルゴリズム Ak = s1u1v1T + s2u2v2T + … + skukvkT A の特異値分解 A = US VT を計算 近似誤差 || A – Ak ||F = (S i=k+1r si2)1/2 が十分小さくなるよう,ランク1行列の個数 k を決定 s1u1, …, skuk, v1, …, vk が圧縮データ データを復元するには,次のようにして Ak を計算する。 このデータ圧縮方式は,近似誤差の意味で,最適な圧縮となっている。 Ak = s1u1v1T + s2u2v2T + … + skukvkT

例題の画像データに対する特異値分布 特異値の分布から,ある次数 k で打ち切ったときの近似誤差が推定できる。

打ち切り次数と復元画像の品質

情報検索への応用

効率的な情報検索の必要性 膨大な情報の中から必要な情報を引き出すことの難しさ キーワードによる検索の問題点 課題 文献データベース インターネット上のファイル キーワードによる検索の問題点 synonymyの問題: 内容的には関係の深い文書でも,たまたまそのキーワードを使っていないために検索から漏れる。 polysemyの問題: 同じキーワードを使っていても,内容的には関係のない文書がヒットする。 課題 単なるキーワードのマッチングではなく,文書の意味内容に基づく分類/検索ができないか?

LSIの原理 (1) ベクトル空間モデル Term-Document Matrix 単語が行,文書が列に対応する行列A 要素 aij は,文書 j 中に単語 i が出てくる回数を表す。

LSIの原理 (1) ベクトル空間モデル 例: 文書のタイトルを内容とするデータベース 9個の文書 内容的に大きく2つの分野に分けられる。 例: 文書のタイトルを内容とするデータベース 9個の文書 内容的に大きく2つの分野に分けられる。 c1: Human machine interface for Lab ABC computer applications c2: A survey of user opinion of computer system response time c3: The EPS user interface management system c4: Systems and human systems engineering testing of EPS-2 c5: Relation of user-perceived response time to error measurement m1: The generation of random, binary, unordered trees m2: The intersection graph of paths in trees m3: Graph minors IV: Widths of trees and well-quasi-ordering m4: Graph minors: A survey

LSIの原理 (1) ベクトル空間モデル Term-Document Matrixの例 Document Term c1 c2 c3 c4 c5 m1 m2 m3 m4 human 1  0  0  1  0  0  0  0  0   interface 1  0  1  0  0  0  0  0  0 computer 1  1  0  0  0  0  0  0  0 user 0  1  1  0  1  0  0  0  0 system 0  1  1  2  0  0  0  0  0 response 0  1  0  0  1  0  0  0  0 time 0  1  0  0  1  0  0  0  0 EPS 0  0  1  1  0  0  0  0  0 survey 0  1  0  0  0  0  0  0  1 tree 0  0  0  0  0  1  1  1  0 graph 0  0  0  0  0  0  1  1  1 minor 0  0  0  0  0  0  0  1  1 Term

LSIの原理 (1) ベクトル空間モデル Term-Document Matrix を用いた文書間の近さの計算 単語間の近さの計算 2本の列ベクトル ai,aj の内積の値(またはベクトルのなす角度)により,2つの文書の近さを判定。 内積の値が大きい → 文書の内容が近い 単語間の近さの計算 2本の行ベクトルの内積の値(またはベクトルのなす角度)により,2つの単語の近さを判定。

LSIの原理 (2) ベクトル空間モデルの問題点 文書間の関連が十分に表現されない 内容的に関連のある文書でも,使用する単語に共通なものが少ないと,列ベクトルどうしの内積は0に近くなる。 原因 列ベクトルの張る空間の自由度が大きすぎて,互いに直交する方向の数が多すぎる。

LSIの原理 (2) ベクトル空間モデルの問題点 関連のある文書ベクトルどうしが直交する例 a1 a2 a3 a1 a2 a3 Term-Document Matrix A a1,a2,a3 の位置関係

LSIの原理 (3) 次元の縮小 基本的なアイディア 各単語の軸は完全に独立ではないはず(ex. car と automobile)。 列ベクトルを低次元の部分空間に射影することにより,内容的に近い文書どうしを近くに集める。

LSIの原理 (3) 次元の縮小 次元縮小による文書のクラスタリング 高次元の文書ベクトル集合をできるだけ良く近似する低次元空間(平面)への射影を求める。 a2 a1 a1 a1とa3は直交 a1とa3は非直交 a3 a4 a5 a3 a7 a6 高次元空間 低次元空間(平面)

LSIの原理 (3) 次元の縮小 何次元の空間に射影すべきか? 大きすぎると,関連のある文書ベクトルどうしが直交してしまう。 小さすぎると,関連のない文書ベクトルどうしも重なってしまう。 この2つのトレードオフから,経験的に最適な次元数を決定

LSIの原理 (3) 次元の縮小 次元を指定したとき,どうやって部分空間を求めるか? 元のベクトル集合をもっともよく近似する部分空間を求める。 部分空間の次元をkとするとき,|| A – A(k) ||F を最小化するランクkの行列 A(k) を求めればよい。 特異値分解(SVD)を利用することにより可能

LSIの原理 (4) 特異値分解の利用 A = UΣVt 特異値分解の復習 任意の m×n 行列 A (m≧n) は,次の形に分解できる。 ここで, U: m×n の直交行列 V: n×n の直交行列 Σ: n×n の対角行列Σ=diag (σ1 , σ2 , … , σn )      (ただしσ1 ≧σ2 ≧ … ≧σn ) これをAの特異値分解,σ1 , σ2 , … , σn をAの特異値と呼ぶ。 A = UΣVt

LSIの原理 (4) 特異値分解の利用 Eckart & Young の定理 A(k) = UΣ(k) Vt : 打ち切り型特異値分解 Aの列ベクトルの集合をもっともよく近似するランク k の行列A(k) (k≦n) は,Σにおいてσk+1 以下の特異値をすべて0とした行列Σ(k) =diag (σ1 , σ2 , … , σk , 0, … , 0 ) を用いて次のように求められる。 A(k) = UΣ(k) Vt    : 打ち切り型特異値分解

LSIの原理 (4) 特異値分解の利用 打ち切り型特異値分解の作成 LSIによる文書間の近さの計算 = A U Σ Vt = Ak Uk (1) Term-Document Matrix Aを作成し,特異値分解 (2) 打ち切り型特異値分解 Ak = UkΣkVkt を作成 (3) Ak の2本の列ベクトルの内積から,文書間の近さを計算 特異値分解 = A U Σ Vt 打ち切り型 特異値分解 = Ak Uk Σk Vkt

LSIの原理 (5) キーワードによる検索 LSIによる文書間の近さの計算(続き) キーワードによる検索 A(k) の2本の列ベクトル ai(k),aj(k) の内積は,元のAの列ベクトル ai,ajを使うと以下のように書ける。 U(k) U(k) t は k 次元部分空間への射影演算子と見なせる。 キーワードによる検索 与えられたキーワード群から単語空間での列ベクトル bi (pseudo-objectと呼ぶ) を作成し,以下のようにして任意の文書ベクトル aj との近さλを計算する。 λの値の大きな順に,キーワードに近い文書として答えを返す。 ai(k)・ aj(k) = ai・ U(k) U(k)t aj λ = bi・ U(k) U(k)t aj

今後の課題 打ち切り型特異値分解の効率的な計算法 最適な打ち切り次元数の計算 特異値分解の更新 疎行列であるTerm-Document Matrixに適した計算法 並列化アルゴリズム 最適な打ち切り次元数の計算 現在は,経験的に最適な値を設定 最適な打ち切り次数は,理論的に計算できるか? 特異値分解の更新 データベースに文書を追加すると,特異値分解の再計算が必要 最初から計算し直すことなく,特異値分解を更新できるか?

レポート課題 特異値分解の他の応用例を1つ挙げ,特異値分解がどのように使われるかを数式を交えて説明せよ。 締め切り: 6月2日(火) 締め切り: 6月2日(火) 提出先: 3号館南館4階479号室   または  yamamoto@na.cse.nagoya-u.ac.jp

様々な応用 文書以外のマルチメディア検索への応用 新材料設計への応用 (Oak Ridge国立研究所) 大学におけるエッセイの採点への応用 (Colorado大学)