情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

Lesson 9. 頻度と分布 §D. 正規分布. 正規分布 Normal Distribution 最もよく使われる連続確率分布 釣り鐘形の曲線 -∽から+ ∽までの値を取る 平均 mean =中央値 median =最頻値 mode 曲線より下の面積は1に等しい.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
統計学入門2 関係を探る方法 講義のまとめ. 今日の話 変数間の関係を探る クロス集計表の検定:独立性の検定 散布図、相関係数 講義のまとめ と キーワード 「統計学入門」後の関連講義・実習 社会調査士.
0章 数学基礎.
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
データ解析
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
セキュアネットワーク符号化構成法に関する研究
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
情報理論:楫 勇一(かじ ゆういち) 情報理論: C. E. Shannon によって創始された理論体系
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
5.チューリングマシンと計算.
統計解析 第9回 第9章 正規分布、第11章 理論分布.
5.チューリングマシンと計算.
Extremal Combinatorics 14.1 ~ 14.2
寺尾 敦 青山学院大学社会情報学部 atsushi [at] si.aoyama.ac.jp
Reed-Solomon 符号と擬似ランダム性
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
第2章補足Ⅱ 2項分布と正規分布についての補足
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
線形代数学 4.行列式 吉村 裕一.
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
9.NP完全問題とNP困難問題.
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」
計測工学 復習.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
3. 可制御性・可観測性.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
形式言語の理論 5. 文脈依存言語.
第9章 混合モデルとEM 修士2年 北川直樹.
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第Ⅱ部 協力ゲームの理論 第10章 コア 2008/07/01(火) ゲーム理論合宿.
【第二講義】1次元非線形写像の不変集合とエントロピー
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
 型推論1(単相型) 2007.
Extractor D3 川原 純.
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
様々な情報源(4章).
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
進化ゲームと微分方程式 第15章 n種の群集の安定性
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
計算の理論 I 決定性有限オートマトン(DFA) と 非決定性有限オートマトン(NFA)
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
経営学研究科 M1年 学籍番号 speedster
データ解析 静岡大学工学部 安藤和敏
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
5.チューリングマシンと計算.
人工知能特論II 第8回 二宮 崇.
九州大学大学院 情報学専攻特別講義 (8) ニューラルネットワークの 離散モデル
データ解析 静岡大学工学部 安藤和敏
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
計算の理論 I 反復補題 火曜3校時 大月 美佳 平成16年7月13日 佐賀大学知能情報システム学科.
パターン認識特論 カーネル主成分分析 和田俊和.
コンパイラ 2012年10月11日
線形符号(10章).
Time Reversal E-Text: pp.80-83(PDF: pp.49-50) FM08002 太神 諭
Presentation transcript:

情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回 情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回 第3章 情報源のモデル[前半] 3.1 情報源の統計的表現 3.2 情報源の基本的なモデル 3.3 マルコフ情報源 3.4 マルコフ情報源の確率分布 2016/06/17 情報理論 講義資料

良い符号化法・復号法とは?効率性・信頼性の限界は? これから学ぶこと 情報理論=情報の伝達をいかに効率よく、そして信頼性高く         行うかに関する理論 受け手の知識の変化 =何らかの統計的知識に基づいて 受け手が与えている確率分布の変化 情報源 符号化 通信路 符号化 データ data 符号化 情報源 情報源 符号化 通信路 符号化 誤りや ひずみ 通信路 データ data 復号 あて先 情報源 復号 通信路 復号 良い符号化法・復号法とは?効率性・信頼性の限界は? 2016/06/17 情報理論 講義資料

情報源の統計的表現 離散的M元情報源 X0 X1 X2 X3 Xn-2 Xn-1 … この情報系列の統計的性質は M個の元を持つ情報源アルファベット A={a1,a2,…,aM} から 時点0 より情報源記号を発生する(時点は整数値) 時点 i の情報源の出力を Xi (i = 0, 1, 2, ・・・)で表す 時点 n-1 まで(長さ n)の情報源系列 X0 X1 X2…Xn-1 を考える 確率変数 情報源系列 X0 X1 X2 X3 Xn-2 Xn-1 離散的M元情報源 A={a1,a2,…,aM} … 時点 1 2 3 n-2 n-1 この情報系列の統計的性質は X0 X1 X2…Xn-1の結合確率分布で完全に定まる。 X0, X1, …, Xn-1の結合確率分布 PX0, X1…Xn-1(x0, x1, …, xn-1)= 〔X0 = x0, X1 = x1, …, Xn-1= xn-1 となる確率〕 2016/06/17 情報理論 講義資料

結合確率分布により統計的性質が完全に定まるとは? PX0, X1…Xn-1(x0, x1, …, xn-1)からX0, X1…Xn-1に関する どんな確率分布も計算できる。 例えば X0, X1…Xn-1のうちのm(<n)個の結合確率分布 X0, X1…Xn-1のうちのk個の変数の値に条件を付けたm個(k+m≦n)の条件付結合確率分布 添え字を省略している PX0, X1,X2(x0, x1, x2) の意 (例) 情報源アルファベット A = {0, 1} X0, X1,X2の結合確率分布は右図 x0 x1 x2 P(x0, x1, x2) 0.648 1 0.072 0.032 0.048 0.008 X0 =0 となる確率 PX0(0) は? 1 1 PX0(0) = ∑ ∑ P(0, x1, x2) x1=0 x2=0 = 0.648+0.072+0.032+0.048 = 0.8 2016/06/17 情報理論 講義資料

例の続き:全体の結合確率分布からの条件付確率分布の求め方 条件付確率分布 PX1|X0(x1 | x0) = PX0X1(x0, x1) / PX0(x0) X0 = x0 という条件の下での X1 = x1 となる確率 例) X0 = 0 という条件の下での X1 = 0 となる条件付確率 PX1|X0(0|0) PX1|X0(0|0) = PX0X1(0, 0) PX0(0) = 0.72 0.8 = 0.9 x0 x1 x2 P(x0, x1, x2) 0.648 1 0.072 0.032 0.048 0.008 さらに、X0とX1で条件を付けたX2の条件付確率分布 P (x2 | x0, x1) = P(x0, x1, x2) P(x0, x1) 演習1 2016/06/17 情報理論 講義資料

情報源の各種モデル どんな大きい n についても、X0,X1,…,Xn-1 の結合確率分布を与える(Mn個の確率を与える)ことができれば、この情報源の統計的性質は完全に記述できる。しかし、一般には困難。 議論を進めるためには、情報源に何らかの扱いやすい性質を仮定する必要がある。 記 憶 の な い 情 報 源 あ る 定常 情報源 マルコフ情報源 エルゴード 2016/06/17 情報理論 講義資料

記憶のない定常情報源(最も簡単な性質をもつ情報源) あ る 情 報 源 記憶のない情報源(memoryless information source) 各時点iにおける情報源記号Xiが、他の時点jの情報源記号Xjと独立である情報源 PX0・・・Xn-1(x0, …, xn-1)=Π PXi (xi) 記憶のない定常情報源 記憶のない情報源において、各時点iにおける情報源記号Xiが同一の確率分布 PX(x) に従う情報源 記 憶 の な い 情 報 源 エルゴード 情報源 定常 情報源 記憶のない定常情報源における長さ n の系列の結合確率分布 PX0・・・Xn-1(x0, …, xn-1) = Π PX (xi) i = 0 n-1 マルコフ情報源 例 ) さいころの1の目の出方を調べる。目が1→1、それ以外0。 ⇒ {0,1}の2元情報源で、かつ1、0の発生確率が1/6、5/6となる    記憶のない定常情報源になる。 2016/06/17 情報理論 講義資料

(一般の)定常情報源の定義 定常情報源(stationary information source) 記 憶 の な い 情 報 源 記 憶 の あ る 情 報 源 定常情報源(stationary information source) 時間をずらしても、統計的性質の変わらない情報源 すなわち、任意の正整数 n と i および情報源アルフ  ァベットの任意の元 x0, x1, …, xn-1 に対し、 PX0X1・・・Xn-1(x0, x1, …, xn-1) = PXi Xi+1・・・Xi+n-1(x0, x1, …, xn-1) が成立するとき、この情報源を定常という。 定常情報源の出力は、各時点において同一の確率分布に従う。 この確率分布を定常分布と呼ぶ。 エルゴード 情報源 定常 情報源 マルコフ情報源 ① 式①において、n=1とおくと、PX0(x0) = PXi(x0) となる 2016/06/17 情報理論 講義資料

エルゴード情報源 エルゴード情報源(ergodic information source) ・・・ ・・・ ・・・ ・・・ 記 憶 の な い 情 報 源 記 憶 の あ る 情 報 源 エルゴード 情報源 定常 情報源 エルゴード情報源(ergodic information source) それが発生する十分長い任意の系列に、その情報源の統計的性質が完全に現れている定常情報源 マルコフ情報源 統計的性質が一致 情報源 010000001・・・ 情報源 001000100・・・ 同一の情報源 情報源 100000000・・・ ・・・ ・・・ 情報源 000011000・・・ ・・・ ・・・ 2016/06/17 情報理論 講義資料

エルゴード情報源の性質 エルゴード情報源では、集合平均と時間平均が一致する 集合平均を求めるのは難しい。時間平均を観測するのは容易。 定常分布が PX(x) である定常情報源の出力 X を変数とする任意の 関数 f (X) を考える。ただし f (X) は実数値をとるものとする。 記憶のない定常情報源は エルゴード情報源 f (X) の集合平均(ensemble average) f (X) = ∑ f (x) PX(x) x∈A 記 憶 の な い 情 報 源 記 憶 の あ る 情 報 源 エルゴード 情報源 定常 情報源 f (X) の時間平均(time average) 〈 f (X)〉 = lim ∑ f (xi) i=0 n-1 n 1 n → ∞ マルコフ情報源 エルゴード情報源においては 定常情報源であってもエルゴード的でないものはいくらでもある。 例) 確率1/2で0だけからなる系列か1だけからなる    系列を発生する情報源 f (X) = 〈 f (X)〉 2016/06/17 情報理論 講義資料

系列中の過去 m 文字の並びにしたがって、 次の文字の生起確率が決まるモデル マルコフ情報源 記 憶 の な い 情 報 源 記 憶 の あ る 情 報 源 エルゴード 情報源 定常 情報源 マルコフ情報源 記憶のある情報源の基本的なモデル m重マルコフ情報源(m-th order Markov information source) n を m以上の任意の整数とするとき、任意の時点 i について、 その直前の n 個の出力 Xi-1, Xi-2, …, Xi-n で条件を付けた Xi の 条件付確率分布が、直前の m個の出力 Xi-1, Xi-2, …, Xi-m だけで 条件を付けた Xi の条件付確率と一致するとき、すなわち PXi | Xi-1・・・Xi-n(xi | xi-1, …, xi-n) = PXi | Xi-1・・・Xi-m(xi | xi-1, …, xi-m) (n≧m) となるとき、この情報源をm重マルコフ情報源という。 マルコフ情報源 系列中の過去 m 文字の並びにしたがって、 次の文字の生起確率が決まるモデル 2016/06/17 情報理論 講義資料

1重マルコフ情報源(単純マルコフ情報源)の例 [例] 1, 0をそれぞれ確率 p, 1-p で発生する記憶のない2元情報源の 出力 Yi と、1時点前のこの情報源の出力 Xi-1 とから Xi = Xi-1 ⊕ Yi により、現時点の出力 Xi が定まる2元情報源。 ⊕は、排他的論理和 記憶のない 定常2元情報源 ⊕ 1単位時間遅延 Yi Xi-1 Xi PXi | Xi-1Xi-2(0 | 10) = PXi | Xi-1Xi-2(0 | 11) = PXi | Xi-1(0 | 1) = p 2つ前の出力には左右されない 2016/06/17 情報理論 講義資料

状態(遷移)図 ⇒状態間の遷移関係を表した図(状態遷移図)として表現できる! q元m重マルコフ情報源を考える このことは情報源が、m個の出力のとる値に対応したqm個の状態を持ち、 それぞれの状態において出力の確率分布が定まるとみなせる。 1つの記号を出力するたびに、情報源の状態はqm個の状態の中を遷移していく。 ⇒状態間の遷移関係を表した図(状態遷移図)として表現できる! [例]の単純マルコフ情報源の状態(遷移)図 PXi|Xi-1(xi|xi-1) xi 1 xi-1 1-p p 確率pで遷移し、1を出力する 0/1-p 1/p 1/1-p s0 s1 0/p 状態の集合={S0,S1} S0: 直前の出力が0, S1: 直前の出力が1 2016/06/17 情報理論 講義資料

一般化されたマルコフ情報源 一般化されたq元マルコフ情報源 s0 s1 1/ 0.6 0/ 0.4 0/ 0.3 s2 1/ 0.7 N個の状態S0,S1,…,SNをもつ。 それぞれの状態Siに依存して出力の確率分布が定まる。 1つの記号を出力するたびに、情報源の状態はN個の状態の中を遷移していく。 一般化されたマルコフ情報源の状態図 単純マルコフ情報源の状態図 s0 s1 1/ 0.6 0/ 0.4 0/ 0.3 s2 1/ 0.7 1/ 0.2 0/ 0.8 0/1-p 1/p 1/1-p s0 s1 0/p 一般化 現在の状態は直前の出力により決まる。 直前の出力がiなら現在の状態はSi 現在の状態は直前の出力により決まらない。 直前の出力が1なら現在の状態はS0かS2 2016/06/17 情報理論 講義資料

状態の分類 s0 s1 s2 s4 s3 s5 s6 s7 s8 過渡状態: 十分時間が経過すれば抜け出てしまい、戻ることのない状態 閉じた状態集合: いったん入ると抜け出すことがない状態集合で、任意の状態から             任意の状態へ矢印をたどっていくことのできる状態の集合 非周期的状態集合: 閉じた状態集合で、ある時間が経過した後の任意の時点に おいて、どの状態にある確率も0でないようなもの 周期的状態集合: 閉じた状態集合がいくつかの部分集合に分割され、そのおの おのが周期的な時点においてのみ現れえるもの 時点i+2j : s5 or s7 時点i+2j+1: s6 or s8 s0 s1 s2 s4 s3 s5 s6 s7 s8 i 過渡状態 閉じた状態集合 周期的 閉じた状態集合 非周期的 点線の内部だけの マルコフ情報源は 既約マルコフ情報源 (正規マルコフ情報源) 2016/06/17 情報理論 講義資料

遷移確率行列 N個の状態s0,s1,…,sN-1を持つ、一般のマルコフ情報源を考える Π = p0,0 p0, N-1 pN-1, N-1 状態遷移の仕方は、状態siにあるとき、次の時点で状態sjに 遷移する確率 pij=P(sj | si) により決まる。これを遷移確率という。 遷移確率 pij を(i, j)要素とする N×N行列 を遷移確率行列と呼ぶ。 Π = p0,0 p0, N-1 pN-1, N-1 pN-1,0 ・・・ ・・・・・・・ ・・・・・・・・ s0 s1 1/ 0.6 0/ 0.4 0/ 0.3 s2 1/ 0.7 1/ 0.2 0/ 0.8 例) 図のマルコフ情報源の遷移確率行列は次式のようになる。 Π = 0.6 0.4 0.3 0.7 0.2 0.8 ← s0 ← s1 から ← s2 s0 s1 s2 へ 2016/06/17 情報理論 講義資料

遷移確率行列による t 時点後の遷移確率 Π = p0,0 p0, N-1 pN-1, N-1 pN-1,0 ・・・ ・・・・・・・ ・・・・・・・・ ここで、状態si から出発し、t 時点後に sj に到達する確率を pij(t) とする。明らかに pij(1) = pij であり、pij(t) は pij(t-1) から pij(t) = ∑ pik(t-1)pkj により計算できる。この式から      pij(t) = Π t の (i, j) 要素 となることが直ちに導ける。 Πt-1とΠの積の(i,j) 成分の計算式 N -1 k =0 行列の掛算 Π・Π・・・Π t 回 2016/06/17 情報理論 講義資料

十分時間が経てば、どの状態にも あり得るような情報源だから 正規マルコフ情報源の極限分布 正規マルコフ情報源の定義より、t > t0となる任意の t について pij(t) > 0 (i, j = 0, 1, ・・・, N–1) が成り立つようなある正定数 t0 が存在する。 正規マルコフ情報源では、t →∞ とするとき、 pij(t) は i には無関係な値に収束する。[証明は省略] すなわち、 lim pij(t) = uj ( j = 0, 1, ・・・, N–1) となる uj が存在する。 これを行列の形に書き直すと lim Π t = U  となる。ここで、U はすべての行が u = (u0, u1, ・・・, uN-1) となる N×N行列である。 十分時間が経てば、どの状態にも あり得るような情報源だから t →∞ ② t →∞ 2016/06/17 情報理論 講義資料

正規マルコフ情報源の極限分布(つづき) 時点 t において状態 sj にいる確率を wj(t) で表し、 wt = (w0(t), w1(t), ・・・, wN-1(t) ) という N次元ベクトルを定義する。wt は時点 t における状態の確率分布を表すものであるから、状態確率分布ベクトルまたは簡単に状態分布と呼ぶ。 時点 t-1 で状態 si にいる確率が wi(t-1) であり、状態 si にいるときの次の時点で状態 sj に遷移する確率が pij であるから、 wj(t) = ∑ wi(t-1) pij となる。したがって、 wt = wt-1Π であり、これを繰り返せば次式を得る。 wt = w0Π t ここに、w0 は時点0における状態分布である。これを初期分布と呼ぶ。 wt の t →∞ とした極限を極限分布と呼ぶ。 極限分布は一般に存在するとは限らない 正規マルコフ情報源では、②と③より  lim wt= w0 limΠ t = w0U = u すなわち、極限分布は u となる。 N-1 wt-1とΠのj列の積と同じ i=0 ③ t →∞ t →∞ 2016/06/17 情報理論 講義資料

正規マルコフ情報源の極限分布(つづき) 十分時間が経過すれば、初期分布がどうであれ、 状態分布は定常的な確率分布、すなわち定常分布に落ち着く。 正規マルコフ情報源が落ち着く定常分布を w = (w0, w1, ・・・, wN-1) とする。もちろん、      w0+w1+ ・・・+wN-1 = 1  である。 ある時点の状態分布が定常的で w であるとすれば、 次の時点の状態分布も w でなければならないので、w は wΠ = w を満たさなければならない。 正規マルコフ情報源の遷移確率行列Π に対しては、 式⑤を満たす w が唯一存在し、極限分布と一致する。 十分時間が経過した後はエルゴード的であることも 示されている。[証明は省略] ④ 大事なのは、式④と式⑤! ⑤ 2016/06/17 情報理論 講義資料

正規マルコフ情報源の定常分布 例) 下図のマルコフ情報源の定常分布 w = (w0,w1,w2) を求める。 式⑤ wΠ= w より、 0.6 w0 + 0.3 w1 + 0.2 w2 = w0 0.4 w0 = w1 0.7 w1 + 0.8 w2 = w2 さらに、式④より w0+w1+w2=1 を満たさなければならない。 これらの式から w0 = 0.3571, w1 = 0.1429, w2 = 0.5 が求まる。 wTはΠTの固有値1の固有ベクトル s0 s1 1/ 0.6 0/ 0.4 0/ 0.3 s2 1/ 0.7 1/ 0.2 0/ 0.8 Π = 0.6 0.4 0.3 0.7 0.2 0.8 演習2 2016/06/17 情報理論 講義資料

マルコフ情報源の定常分布 (一般の)マルコフ情報源には、定常分布は1つ以上存在 初期分布として定常分布を与えれば定常情報源となる 既約情報源の場合   定常分布は一意に存在。初期分布として定常分布を与えればエルゴード情報源となる。 非周期的(正規マルコフ情報源)   初期分布としてどんな分布を与えても十分時間がたてば定常情報源でありエルゴード情報源とみなせる。 周期的   初期分布として定常分布以外 を与えると十分時間がたったあ とも定常分布にならない場合 がある。 s0 s1 s2 s4 s3 s5 s6 s7 s8 閉じた状態集合 非周期的 閉じた状態集合 周期的 過渡状態 i 点線の内部だけの マルコフ情報源は 2016/06/17 情報理論 講義資料