DATA 森 亮太 デザイン科学クラスタ 60040116 2003.11.15.

Slides:



Advertisements
Similar presentations
Absolute Orientation. Absolute Orientation の問題 二つの座標系の間における剛体 (rigid body) 変換を復元す る問題である。 例えば: 2 台のステレオカメラから得られた3次元情報の間の関 係を推定する問題。 2 台のステレオカメラから得られた3次元情報の間の関.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
0章 数学基礎.
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
「わかりやすいパターン認識」 第1章:パターン認識とは
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
9. 主成分分析 Principal Component Analysis (PCA)
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第4回 (10/16) 授業の学習目標 先輩の卒論の調査に協力する。 2つの定量的変数間の関係を調べる最も簡単な方法は?
Extremal Combinatorics 14.1 ~ 14.2
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
線形代数学 4.行列式 吉村 裕一.
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
第12章 連続潜在変数 修士 1年 村下 昇平.
主成分分析                     結城  隆   .
透視投影(中心射影)とは  ○ 3次元空間上の点を2次元平面へ投影する方法の一つ  ○ 投影方法   1.投影中心を定義する   2.投影平面を定義する
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
高次元データの解析 -平均ベクトルに関する検定統計量の 漸近分布に対する共分散構造の影響-
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
決定木とランダムフォレスト 和田 俊和.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
独立成分分析 (ICA:Independent Component Analysis )
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
Data Clustering: A Review
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
データ解析 静岡大学工学部 安藤和敏
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
1ーQー18 音声特徴量抽出のための音素部分空間統合法の検討
行列 一次変換,とくに直交変換.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

DATA 森 亮太 デザイン科学クラスタ 60040116 2003.11.15

Contents Abstract(要約) Data Compression (データ圧縮) Coordinate Systems(座標系) Eigenvalues and Eigenvectors(固有値と固有ベクトル) Eigenvalues of Positive Matrices(正則行列の固有値) Random Vectors(ランダムベクトル) Normal Distribution(正規分布) Eigenvalues and Eigenvectors of the Covariance Matrix(共分散行列の固有値と固有ベクトル) High-Dimensional Spaces(高次元空間) Clustering(クラスタリング)

Abstract(要約) この章は、連続した状態空間を表すためにベクトルの使用を紹介する そのような状態空間のサイズを減少させるのは自然な計算にとって主要である ベクトル状態空間のサイズを減少させる1つの方法は空間の次元数を変えることである もう1つの方法はプロトタイプポイントに換算してデータをまとめることである

Data Compression(データ圧縮)(1) 学習の大半はまさしく人類における固有の組織から引き起こされなければならない そのような組織は我々のセンサーの出力に反映される この出力は幾何学的かつ代数的な性質をもつ一組の離散的な測定値としてごく一般的に記述されることができる。 そのような性質の最も簡単な収集は線形空間を定義する 本章の焦点はそのような測定値の状態空間での構造を検出するために最も基本的な手法を述べることである その主眼は線形空間の基本的な性質を開発することと、データポイントの収集をコード化するのにどうそれらが使われることができるかを示すことである

Data Compression(2) 問題 解 小さい集合の次元を選択というアプローチのため非常に簡単で的確なテクニック 網膜の出力端での視覚の状態空間を考慮するけれども、それは約100万の独立した測定値がある これらは100万次元の空間に記録されることができる →データが膨大、そこで・・・ 解 非常に小さい次元空間で表現 小さい集合の次元を選択というアプローチのため非常に簡単で的確なテクニック 固有ベクトルを利用する手法(主成分分析) クラスタリングの手法

主成分分析とクラスタ化概要(1) 2つの主な分類、固有ベクトル(主成分分析)とクラスタリング (a)固有ベクトル方向はデータのほとんどの変分方向に沿って指す。例ではこのテクニックはポイントpをただ1つの座標と小さい残差として符号化されるように許容する (b)クラスタリングは近いポイントグループをコード化するのにプロトタイプポイントを使用。例では、プロトタイプの座標はポイントpに関してより小さい残差とともに送られる。節約されたものは、ポイントのグループに同じプロトタイプを使用することができるので当然の結果として生ずる この章の焦点はこれらのテクニックを記述することである

主成分分析とクラスタリング概要(2) 図4.1 数量的データを圧縮するための技術における2つの主な分類 (a)固有ベクトル直線をそのデータ上の最大変化の直線にそって指し示す。たとえば、この技術はたった1つの座標と小さい残差として符号化されるようにそのポイントpを許容する (b)クラスタ化は近くのポイントのグループを符号化するためにプロトタイプポイントを使う。例えば、そのプロトタイプの座標はポイントpに対するより小さい残差を伴いながらあたえれる。その同じプロトタイプがポイントのグループのために使われているため、取り込むことが結果として生ずる。

Data Compression(3) 主成分分析 固有空間はより高次元空間から低次元空間までの変化が線形であると仮定 それらの技術はデータにおける最大変化を保つ変換を指定するということである 変化の方向は固有ベクトル方向 その方向に沿った変化量は固有値 固有ベクトル方向は一般的な座標系を莫大な有用性を持つ状態空間を構成する

Data Compression(4) クラスタリング よりわずかな数のプロトタイプポイントに換算してデータポイントの分布をまとめる。 これらのプロトタイプを計算する系統立った方法はプロトタイプポイントの数を推測し、それらのそれぞれの確率分布の記述を調整するのにデータを使用すること 調整を実行する非常に一般的な方法は期待最大化と呼ばれる。

Coordinate Systems(座標系)(1) ベクトルによって行列をかけ算することはy=Axとなる行列積の特別な場合 上式は としてかくことができる またA列の線形結合として変換すると

Coordinate Systems(2) ベクトルをつかう際、それらが直交座標系に関して説明されると暗黙的に仮定 →実際の同格のベクトルについて議論しない しかし、一般的な場合ではデータに関して右の座標系は直交していないかもしれない この点についてベクトルaiが座標系または多次元空間の基底として特別な解釈をもつということが大事 例えば、3次元上における基礎でa1,a2,a3はy=a1y1+a2y2+a3y3として関わるようにyを許容する

Coordinate Systems(3) 座標系の基本となる重要性質はそれらがお互いに比例して説明可能であるということ 例えば、yは基底ベクトルaiに換算して説明可能

しかし、右の行列は3つ目の成分を説明しない Coordinate Systems(4) この基礎はi≠jのようなすべてのiとjにおいてaj・ai=0に対して直交している しかし、非直交基底もまた動作すると判明 例えば、(係数はもちろん異なっているだろうが)左の行列Aはまだ表現されるようにyを許容するだろう。 しかし、右の行列は3つ目の成分を説明しない すべてのiについてxi =0なら

Coordinate Systems(5) n次元行列の列が空間にかからないとき、何が起こるか? 行列の次元は線形独立ベクトルの数と等しい。(それは、行列の階数[ランク]として知られている)。階数rが次元N以下であるときに、ベクトルはr次元の副空間にかかる

Coordinate Systems(6) 行列には最大階数以下があるのが望ましい 例えば、方程式Ax=0には非自明な解(xが0以外の解を持つ)があるように、Aの列は線形従属でなければならない Ax=0は前の方程式の書き直されたバージョン 列が線形独立であるなら、方程式を満たすことができる唯一の方法はすべてのiについてxi=0を持つこと しかし、非自明な解のために、xiは0であるべきではない →列は線形従属でなければならない。 例えば、すべての面に3つのベクトルがあるとき、3次元上で線形従属

Coordinate Systems(7) 対照的に独自の解をもつ方程式Ax=cにおいてxが唯一の解をもつためにはAは線形独立でなくてはならない 下図のベクトルcは列ajの線形結合に換算して表されなければならない。 一般に列はcの空間に含まれなければならない。 →ベクトルcと共にそれら(a1とa2)は線形従属である

図4.2 (a):Aの列はもし3つ列ベクトルが同一平面上にないなら、3つの次元において線形独立である (b):Ax=cの場合、ベクトルcはAによって補われた空間になければならない。ゆえに2つの次元において、a1とa2とcとはすべて同一平面上になければならない(線形従属)

Coordinate Systems(8) ニューラル・ネットワーク上でy=Wx形式の座標変換を実行することができる この手続きが行われる方法はまず線形神経回路要素を定義することである 基本的要素には、重みまたは非常に簡単な「シナプス」をもつ (代わりに行列のためのWの使用は、要素がシナプスのモデルであること) 各重みはそのそれぞれの入力値で増える ニューラル・ネットワーク上で別々のユニットは出力ベクトルの異なった成分を表している

図4.3 基本行列積は線形座標で使用 線形座標では変換を線形ニューラルネットワークで実行可能

Eigenvalues and Eigenvectors (固有値と固有ベクトル)(1) ベクトルが行列によって掛けられるとき、結果のベクトルの大きさと方向が原型と異なる しかし、どのような行列にもベクトル方向があるので、行列積はベクトルの大きさだけを変える 特別な方向に関しては行列積はスカラー倍に減少する。 例

Eigenvalues and Eigenvectors(2) ベクトルvがこれらの方向の1つを指し示すなら、λであるWv=kvがスカラーとなる vは固有ベクトル、λは固有値 任意のnでn×nマトリクスの固有値を見つけるのはニューメリカルレシピを参照 簡単な2次元の場合を例

方程式に解があるためには、行列の列が線形従属でなければならない |W| = 0. ゆえに(3-λ)(2-λ)-2=0となり、λ1 = 4、λ2 = 1 λ1 = 4を方程式に代入すると ここで、v1=1,v2=1を代入する

Eigenvalues and Eigenvectors(3) 行列の唯一の非零要素が対角線上にある別の行列に行列変換すること さらに、これらの対角要素は固有値である 新しい基底でのスカラー倍へ古い基底における行列積を換算すること →ベクトルをもう1つの集合に表している基底ベクトルを変える 問題は局所基底が変えられるとき、変換に関して何が起こるのかということである

Eigenvalues and Eigenvectors(5) 座標変換はx*=Axとy*=Ayによって与えられるということを仮定 y=Wxと与えられたとすると W*に関してy*=W*x* WとW*の関係はx = A-1x*, y = Wx, y* = Ay 変形をまとめるとy*=AWA-1x* W*=AWA-1 このように関係づけられる行列を相似という

Eigenvalues and Eigenvectors(6) 固有ベクトルを基底としたと仮定 Wの固有ベクトルyiに関してWyi=λyi 固有ベクトルを横に並べた行列をΥとするとWY=YΛ Λは唯一の非零成分が対角要素λiの行列 両辺にY-1をかけるとY-1WY=Λ この方程式が意味することは 行列Wが与えられたとき、変換が唯一の非零要素を基底の固有ベクトルの座標に変形することによって対角線である行列のものに簡素化することが可能

Eigenvalues and Eigenvectors(7) 例 yが以下のy式に与えられるようにxとして特定のベクトルを選択 x* = Υ-1x, y* = Υ-1y これからそのy*=Λx*の値も算出できる

y*=Λx*の値

Eigenvalues and Eigenvectors(8) 固有値と固有ベクトルの多くの役立つ性質 1. 固有値行列Aはどんな直交変換のもとでも不変である。 2. そのすべての固有値が正であるなら、行列Aは正と定義する。 3. Aのトレースは、そのすべての固有値の合計であり、どんな直交変換のもとでも不変である。 4. Amのトレースは、そのすべての固有値の合計であり、どんな直交変換のもとでも不変である。 5. Aの行列式は、そのすべての固有値の積と等しく、どんな直交変換の下でも不変である。

Eigenvalues and Eigenvectors(9) Eigenvalues of Positive Matrices(1) A>0であるときに、Frobenius-Perron定理

Eigenvalues and Eigen vectors(10) Eigenvalues of Positive Matrices(2) Frobenius-Perron定理 A>0であるなら、λ0>0とx0>0となるような以下の1,2,3が存在する 1 2 他のAの固有値 3 は唯一のものである

Eigenvalues and Eigenvectors(11) Eigenvalues of Positive Matrices(3) Frobenius-Perron定理 この定理もまたA≧0であるときの場合に拡張することができるが、An>0のようなnが存在する この場合すべての定理の結論はAに適用する

Eigenvalues and Eigenvectors(12) Eigenvalues of Positive Matrices(4) Frobenius-Perron定理 固有ベクトルを以下の式のように正規化 Ax0=λ0x0なので

Frobenius-Perron定理 すべて足しあわせると ただし、 ゆえにλ0は以下の範囲で制限される

Random Vectors(ランダムベクトル)(1) 行列がデータベクトルの集合上で変分によって定義される ベクトルは自然な変分を全体として得る何らかのランダム分布から得られる ランダムベクトルXは確率密度関数p(X)によって指定される。正式には以下の式となる ただし、

Random Vectors(2) ランダムベクトルは密度関数によって完全に特徴付けられるが、そのような機能は決定するのはしばしば難しいか、または使用するために数学的に複雑 より少ないパラメータで記述することができる関数で分布をモデリング 最も重要なパラメータは、平均ベクトルと共分散行列である

Random Vectors(3) 平均ベクトルと共分散行列が以下の式によって定義される

Random Vectors(4) とおくと、 平均ベクトルは、

共分散行列は、

Random Vectors(5) 特定のP(X)から抽出される任意の集合のランダムデータベクトルを考慮 集合の座標軸に関して、それらの軸に映し出されると、データはある変分を示す データが何らかの方法で凝集されたと仮定すると 意志決定で使用することができる自然類を定義するとき、そのようなかたまりはすべて重要である場合がある かたまりをもっともわかりやすくするために座標を選択 これらの座標方向が共分散行列の固有ベクトルである その上、最も重要な方向(最も多くの変分があるもの)は、大きい固有値を持っていることによって明らかにされる

図4.4 変化を最大にする座標選択は意思決定を簡素化することができる 上図は2つの自然類について明確に考察できるように2つのモードである固有値方向に沿った分布における固有ベクトル方向結果 下図は他の方向をおそらく上図のような構造を明らかにしそうであるが、わかりにくい

Random Vectors(6) Normal Distribution(正規分布) 第3章であったように、最も役に立つパラメトリック分布の1つは正規分布である 大部分の観測された確率変数がいくつかの確率成分の合計である傾向がある 確率成分の合計は通常分布される傾向がある 以下の式は正規分布のベクトルバージョンである

Random Vectors(7) Eigenvalues and Eigenvectors of the Covariance Matrix (1) 正規分布の記述する際、分布の記述を簡素化する座標の選択 特に、分布の変化を最大にする座標を選択→分布の分散が最大となるような基底ベクトル 最初に、以下の式のような新しいランダムベクトルZを選ぶことによって、Xを原点に変換 ゆえに2次式は となる

今ZTZとd2(Z,0,∑)が最大にされるようにZを見つける このための明確な条件は以下の式(4.1)である。 ゆえに2次式は となることから 言い換えれば、Zは固有値λがある共分散行列の固有ベクトルである。(次章を参照)

Random Vectors(4) Eigenvalues and Eigenvectors of the Covariance Matrix (2) 以下の通り主要な結果をまとめることができる ΦがΣの固有値nのn×n行列にする。すなわち、 そして、(4.1)より Λは固有値の対角行列 固有値の大きさがそれに対応する固有ベクトル方向の分散の大きさに対応する →固有値の大きな固有ベクトルをm(m<n)個とればよい近似となる

の証明

Random Vectors(4) Eigenvalues and Eigenvectors of the Covariance Matrix (3) Φはあらゆる正規直交変換である制約条件から始まることによって同様の結果に達することができると判明

Random Vectors(4) Eigenvalues and Eigenvectors of the Covariance Matrix (4) m<nであれば、誤差の最小量がある変化に近似するように、最大固有値mに関連する固有ベクトルを選択 平均2乗誤差は残っている固有値n-mの合計を示す

Random Vectors(4) Eigenvalues and Eigenvectors of the Covariance Matrix (4) Example: A Network That Encodes Data より早くどんな行列操作も線形ニューラルネットワークで実現される どのようなネットワークがデータを符号することができるのかを示す例(図4.5)

図4.5 コード化のための固有ベクトル変換の使用 (a)ネットワークで共分散行列が実現されることができる。 (b)同様に、3つのネットワーク操作の継承として同じ変換を実現されることができる。 →固有値が小さい結合を消すことで少ない次元での近似が可能 もっとも小さい固有値に対応する含有成分をおとすことができるに従って,この定式化はデータがコード化されるのを(いくつかの誤差ともないながら)許容する。 図4.5Aに示されているように、共分散行列はネットワーク操作に換算して表現されることができる。 しかし∑による掛け算は      よる掛け算と等しい、同等のネットワークは図4.5B示されるように図のような3つの操作をもつとういうことをつくられることができる

High-Dimensional Spaces(1) 非常に大きい空間を想定(たとえば、256×256) 共分散行列∑が非現実的に大きくなる→より小さいランクの行列で近似 n次元データベクトルXがM個存在 たいていの変分は次元が空間の次元よりもより少ない副空間にデータを投影することによってとらえることが可能

High-Dimensional Spaces(2) もし、vがATAの固有ベクトルであるならそのときAvはΣの固有ベクトルである より小さいシステムは固有値がはるかに大きいシステムのものと同じ。また、この固有値は∑の固有値と等しく大きいほうからM個の固有値が得られる。だからvを求めてAを左からかければ∑の固有ベクトルが得られる

High-Dimensional Spaces(3) 例:顔認識 複数のイメージに対するベクトルを主成分分析した場合、大きな固有値に対する固有ベクトル(固有顔)はあるパターンを示す 顔の画像はN×Nの明るさの配列のデータとして扱われる。M個の例を与える タスク:新しく与えられた顔画像がどの画像と一番近いかを出力すること

High-Dimensional Spaces(4) 顔画像の主成分得点を計算 訓練集合を とおいて 平均は 平均を引き算することで訓練集合を変換する Mの固有ベクトルukと固有値λk を求めていく

High-Dimensional Spaces(5) より大きい固有ベクトルuk(固有顔)はvkを使うことによって、組み立て可能 (4.2)より7つの固有ベクトル

High-Dimensional Spaces(6) 固有ベクトル空間 固有ベクトル空間における新しいイメージの座標を計算[新しいデータに対して主成分得点を計算] ユークリッドノルムが最小となる顔画像を探す[下式が最小となる分類kを選択する]

Clustering(1) データ圧縮の2番目の手法 標本がプロトタイプベクトル空間に分布し、これらの幾つかの主要なパターン群に分割することをクラスタリングという 正規分布を当てはめるとすれば、 分散 平均

Clustering(2) 2つ以上の内部状態(k=1,2)を表すのは少し困難だが、第2章のとおりで似たようにすればよい

Clustering(3) ガウス分布で表現できると仮定すると

Clustering(4) ベイズの規則を使用しながら内部状態でデータ標本を見る確率を書くことができる 結果としてもしデータを与えられていてそれが特定の状態からきた確率(どちらの状態であるかの確率)を見積もりたいなら次式のベイズの規則を使用することができる この方程式は同様にあらかじめ特定の仮説がたてられている場合平均として許容する

Clustering(5) 現在、サンプルが独自に作りだされるならすべてのデータを見る確率は以下のようになる 最尤法

Clustering(6) それぞれの内部状態のためのパラメータを選ぶには、以下の式に与えられる対数尤度関数を最大にすることによって最尤推定を使用 これらの方程式はデータ点に換算したmkとσkの表現として解決することができる

Clustering(7) 推定を実行するための一般的な方法 期待最大で状態推定のアルゴリズム mkとσのために推定値でモデルを初期化する モデルパラメータが一点に集まるまで以下を実行する: 1. 方程式(4.4)によると、確率的に内部状態を選ぶ。そして、順番に方程式(4.4)は方程式(4.3)を使用する。 2. 状態が見積もられるので方程式(4.5)を使用することによって、そのパラメータをアップデートする。