北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.

Slides:



Advertisements
Similar presentations
5 章 標本と統計量の分布 湯浅 直弘. 5-1 母集団と標本 ■ 母集合 今までは確率的なこと これからは,確率や割合がわかっていないとき に, 推定することが目標. 個体:実験や観測を行う 1 つの対象 母集団:個体全部の集合  ・有限な場合:有限母集合 → 1つの箱に入っているねじ.  ・無限な場合:無限母集合.
Advertisements

Lesson 9. 頻度と分布 §D. 正規分布. 正規分布 Normal Distribution 最もよく使われる連続確率分布 釣り鐘形の曲線 -∽から+ ∽までの値を取る 平均 mean =中央値 median =最頻値 mode 曲線より下の面積は1に等しい.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
2016 年度 計量経済学 講義内容 担当者: 河田 正樹
復習. 外来誘導雑音の対策 ~ モーター等 スイッチング電源 オートバイ・自動車・携帯電話 ①発生源のシールド ②計測回路のシールド ③ツイストペアケーブル.
0章 数学基礎.
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
疫学概論 二項分布 Lesson 9.頻度と分布 §B. 二項分布 S.Harano,MD,PhD,MPH.
経済統計学 第2回 4/24 Business Statistics
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
パネル分析について 中村さやか.
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
情報理論:楫 勇一(かじ ゆういち) 情報理論: C. E. Shannon によって創始された理論体系
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
前回の練習問題 無記憶・非定常な情報源を一つ例示せよ 時刻 t に t 枚のコインを投げるとき,表が出る枚数 以下のマルコフ情報源について,
統計解析 第9回 第9章 正規分布、第11章 理論分布.
Reed-Solomon 符号と擬似ランダム性
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
統計学 11/08(木) 鈴木智也.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」
離散数学I 第6回 茨城大学工学部 佐々木稔.
計測工学 復習.
母集団と標本:基本概念 母集団パラメーターと標本統計量 標本比率の標本分布
第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる
相関分析.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
形式言語の理論 5. 文脈依存言語.
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
計算の理論 I 正則表現 火曜3校時 大月 美佳 平成16年6月8日 佐賀大学知能情報システム学科.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
【第二講義】1次元非線形写像の不変集合とエントロピー
Basic Tools B4  八田 直樹.
複数の相関のある情報源に対するベイズ符号化について
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
標本分散の標本分布 標本分散の統計量   の定義    の性質 分布表の使い方    分布の信頼区間 
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
Extractor D3 川原 純.
分子生物情報学(2) 配列のマルチプルアライメント法
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
ボルツマンマシンの定義 ボルツマンマシン(Boltzmann machine)は、スピン・システムをヒントに作られたモデルである。
様々な情報源(4章).
計算の理論 I ー閉包性ー 月曜3校時 大月 美佳.
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
計算の理論 I 決定性有限オートマトン(DFA) と 非決定性有限オートマトン(NFA)
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
計算の理論 I 非決定性有限オートマトン(NFA)
計算の理論 I -数学的概念と記法- 火曜 12:50~14:20 大月 美佳 2004年4月20日.
第14回 前半:ラムダ計算(演習付) 後半:小テスト
計算の理論 I -数学的概念と記法- 月曜3校時 大月 美佳.
数理統計学  第6回 西山.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
コンパイラ 2012年10月11日
線形符号(10章).
プログラミング入門2 第5回 配列 変数宣言、初期化について
Presentation transcript:

北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー

北海道大学 Hokkaido University 2 情報理論 講義資料 2016/06/22 [ 復習 ] 情報源の統計的表現 離散的 M 元情報源 –M 個の元を持つ情報源アルファベット A={a 1,a 2,…,a M } から – 時点 0 より情報源記号を発生する(時点は整数値) – 時点 i の情報源の出力を X i ( i = 0, 1, 2, ・・・)で表す – 時点 n-1 まで(長さ n )の情報源系列 X 0 X 1 X 2 …X n-1 を考える 確率変数 離散的 M 元情報源 A={a 1,a 2,…,a M } P X 0, X 1 …X n-1 (x 0, x 1, …, x n-1 )= 〔 X 0 = x 0, X 1 = x 1, …, X n-1 = x n-1 となる確率〕 X 0, X 1, …, X n-1 の結合確率分布 時点 n-1 n-2 … X0X0 X1X1 X2X2 X3X3 X n-2 X n-1 情報源系列 この情報系列の統計的性質は X 0 X 1 X 2 …X n-1 の結合確率分布で完全に定まる。

北海道大学 Hokkaido University 3 情報理論 講義資料 [ 復習 ] 扱いやすい情報源の性質 記憶のない情報源記憶のない情報源 記憶のある情報源記憶のある情報源 定常 情報源 マルコフ情報源 エルゴード 情報源 定常情報源 – 時間をずらしても、統計的性質の変わらない情報源 – 任意の正整数 n と i および情報源アルファベットの任意の元 x 0, x 1, …, x n-1 に対 し、以下が成立。 P X 0 X 1 ・・・ X n-1 (x 0, x 1, …, x n-1 ) = P X i X i+1 ・・・ X i+n-1 (x 0, x 1, …, x n-1 ) エルゴード情報源 – それが発生する十分長い任意の系列に、その情報源の統計的性質が完全に現れ ている定常情報源 – 集合平均と時間平均が一致する。 2016/06/22

北海道大学 Hokkaido University 4 情報理論 講義資料 2016/06/22 [ 復習 ] よく用いられる情報源 記憶のない定常情報源 – 各時点における情報源記号の発生が、他の時点と独立で、各時点におけ る情報源記号の発生が同一の確率分布 P X (x) に従う情報源 正規マルコフ情報源 – 記憶のある情報源。 – 閉じた状態集合からなる非周期的なマルコフ情報源 – 初期分布としてどんな分布を与えても十分時間がたてば定常情報源であ りエルゴード情報源とみなせる。 記憶のない情報源記憶のない情報源 定常 情報源 マルコフ情報源 エルゴード 情報源 記憶のある情報源記憶のある情報源 P X 0 ・・・ X n-1 (x 0, …, x n-1 ) = Π P X (x i ) i = 0 n-1 s0s0 s1s1 1/ 0.6 0/ 0.4 0/ 0.3 s2s2 1/ 0.71/ 0.2 0/ 0.8

北海道大学 Hokkaido University 5 情報理論 講義資料 2016/06/22 [ 復習 ] 確率変数のエントロピー 確率変数 X の取りうる値を a 1, a 2, ・・・, a M とし、 X がそれ ぞれの値をとる確率が p 1, p 2, ・・・, p M (ただし、 p 1 +p 2 + ・・・ +p M =1) であるとき、確率変数 X のエントロ ピー H(X) は、 H(X) =- ∑ p i log 2 p i と定義される。 i =1 M

北海道大学 Hokkaido University 定常情報源の1次エントロピー 6 情報理論 講義資料 2016/06/22 各時点に情報源記号 a 1,a 2,…,a M を出力する確率がそれぞれ p 1,p 2,…,p M であるような M 元定常情報源 S の1次エントロピー H 1 (S) を と定義する。 情報源記号列 X 0,X 1,… を出力する情報源 S のエントロピーは どのように定義すればよいか? 定常情報源であれば、 P Xi (x) は時点 i によらず同じであるから、 X i のエントロピー H(X i ) は時点 i によらず一定 定常情報源 S のエントロピーを H(X i ) で定義してはどうか。

北海道大学 Hokkaido University 1次エントロピーで情報源の曖昧さは測れる か? 7 情報理論 講義資料 2016/06/22 どの時点でも出力情報源記号 X の確率分布 P X (x) が同じであれば その情報源から出力される記号列 X 0 X 1 ・・・の曖昧さは同じ? s0s0 s1s1 0 / 0.91 / 0.61 / / 0.4 マルコフ情報源 S および w 0 +w 1 = 1 から、 w 0 = 0.8 、 w 1 = 0.2 S の定常分布 (w 0, w 1 ) は、 (w 0, w 1 ) = (w 0, w 1 ) P X (0)=0.8× ×0.4=0.8 P X (1)=0.8× ×0.6=0.2 無記憶定常情報源 S P X (0)=0.8 P X (1)=0.2 ともに各時点において 0, 1 が出 力される確率はそれぞれ 0,8 と 0.2 どちらも1次エントロピーは同じ H 1 (S)=-0.8log log 2 0.2=0.7219

北海道大学 Hokkaido University もう少し長い系列の分布でみたら 8 情報理論 講義資料 2016/06/22 定常情報源であれば X i X i+1 の結合確率分布 P X i X i+1 (x,y) も 時点 i によらず一定 s0s0 s1s1 0 / 0.91 / 0.61 / / 0.4 マルコフ情報源 S S の定常分布 :(w 0, w 1 )=(0.8,0.2) P X (0)=0.8 P X (1)=0.2 無記憶定常情報源 S P X (0)=0.8 P X (1)=0.2 X 0 と X 1 の結合エントロピーに情報源の曖昧さの差が現れるのでは? P X0X1 (0,0)=0.64 P X0X1 (0,1)=0.16 P X0X1 (1,0)=0.16 P X0X1 (1,1)=0.04 P X0X1 (0,0)=0.8×0.9× ×0.4×0.9=0.72 P X0X1 (0,1)=0.8×0.9× ×0.4×0.1=0.08 P X0X1 (1,0)=0.8×0.1× ×0.6×0.4=0.08 P X0X1 (1,1)=0.8×0.1× ×0.6×0,6=0.12 H(X 0,X 1 )=1.444 H(X 0,X 1 )=1.291 無記憶定常情報源の方 が曖昧さがおおきい!

北海道大学 Hokkaido University n 次エントロピー 9 情報理論 講義資料 2016/06/22 M 元情報源 S の n 次拡大情報源 S n S が出力する連続する n 個の情報源記号をまとめて1つの 情報源記号とみたとき、それを発生する M n 元情報源 n 次拡大情報源 S n の1次エントロピー H 1 (S n ) H 1 (S n )=H(X 0,X 1,…,X n-1 ) 情報源 S の n 次エントロピー H n (S) H n (S)=H 1 (S n )/n=H(X 0,X 1,…,X n-1 )/n n 確率変数の結合エントロピー 無記憶定常情報源 S P X (0)=0.8 P X (1)=0.2 H 2 (S)=H(X 0,X 1 )/2=1.444/2=0.722 s0s0 s1s1 0 / 0.91 / 0.61 / / 0.4 マルコフ情報源 S H 2 (S)=H(X 0,X 1 )/2=1.291/2=0.646

北海道大学 Hokkaido University 情報源のエントロピー 10 情報理論 講義資料 2016/06/22 H(S)= 情報源 S から得られる1記号あたりの平均情報量 -

北海道大学 Hokkaido University 無記憶定常情報源のエントロピー 11 情報理論 講義資料 2016/06/22 無記憶 0 0 0

北海道大学 Hokkaido University 12 情報理論 講義資料 2016/06/22 マルコフ情報源のエントロピー 図のマルコフ情報源 S のエントロピーを考える s0s0 s1s1 0 / 0.91 / 0.61 / / 0.4 図 : マルコフ情報源 S いま S が状態 s 0 にあるときだけに注目すると、この情報源は 1, 0 を 0.1, 0.9 の確率で発生する無記憶情報源とみなせる。 その場合のエントロピーを Hs 0 (S) と書くと Hs 0 (S) = H (0.1) = 同様に、 S が状態 s 1 にあるときだけを注目すれば Hs 1 (S) = H (0.6) = (定常分布では) s 0 にいる確率が 0.8 、 s 1 にいる確率が 0.2 だから、 H(S) は H(S) = 0.8× × = になると考えられる。 S の定常分布 (w 0, w 1 ) は、 (0.8,0.2) 。 H (x)= - xlog x - (1 - x)log(1 - x)

北海道大学 Hokkaido University 13 情報理論 講義資料 2016/06/22 一般のマルコフ情報源のエントロピー 情報源アルファベット {a 1, a 2, ・・・, a M } 状態 s 0, s 1, ・・・, s N - 1 定常分布 (w 0, w 1, ・・・, w N - 1 ) 状態 s i にあるときに記号 a j を発生する確率 P(a j | s i ) この情報源に対するエントロピー H(S) は H(S) = ∑ w i - ∑ P(a j | s i ) log 2 P(a j | s i ) i=0 N – 1 j =1 M 一般のマルコフ情報源のエントロピー

北海道大学 Hokkaido University 14 情報理論 講義資料 2016/06/22 マルコフ情報源の n 次エントロピー n を大きくしていくと、図 1 のマルコフ情報源 S の n 次エントロピー H n (S)=H 1 (S n )/n は図 2 のように に収束していく。 図 2 :マルコフ情報源のエントロピー S と同じ出力記号の 定常分布 (P(0),P(1))=(0.8,0.2) をもつ無記憶定常情報源 S’ の エントロピー H(S’) 記憶がある分だけ曖昧さが減っている 予想しやすくなっている (圧縮しやすくなっている) s0s0 s1s1 0 / 0.91 / 0.61 / / 0.4 図 1: マルコフ情報源 S