様々な情報源(4章).

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

5 章 標本と統計量の分布 湯浅 直弘. 5-1 母集団と標本 ■ 母集合 今までは確率的なこと これからは,確率や割合がわかっていないとき に, 推定することが目標. 個体:実験や観測を行う 1 つの対象 母集団:個体全部の集合  ・有限な場合:有限母集合 → 1つの箱に入っているねじ.  ・無限な場合:無限母集合.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
統計学 第3回 西山. 第2回のまとめ 確率分布=決まっている分布の 形 期待値とは平均計算 平均=合計 ÷ 個数から卒業! 平均=割合 × 値の合計 同じ平均値でも 同じ分散や標準偏差でも.
0章 数学基礎.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
第12回 順序回路の解析方法 瀬戸 順序回路から,以下を導き、解析を行えるようにする タイムチャート 状態遷移関数・出力関数 状態遷移表
セキュアネットワーク符号化構成法に関する研究
経済統計学 第2回 4/24 Business Statistics
確率と統計 平成23年12月8日 (徐々に統計へ戻ります).
全加算回路 A, Bはそれぞれ0または1をとるとする。 下位桁からの繰り上がりをC1とする。(0または1)
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
情報理論:楫 勇一(かじ ゆういち) 情報理論: C. E. Shannon によって創始された理論体系
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
4.3 連立1次方程式   Ax = b   (23) と書くことができる。
前回の練習問題 無記憶・非定常な情報源を一つ例示せよ 時刻 t に t 枚のコインを投げるとき,表が出る枚数 以下のマルコフ情報源について,
5.チューリングマシンと計算.
5.チューリングマシンと計算.
Extremal Combinatorics 14.1 ~ 14.2
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回
流れ(3時間分) 1 ちらばりは必要か? 2 分散・標準偏差の意味 3 計算演習(例題と問題) 4 実験1(きれいな山型の性質を知ろう)
今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 科学的に扱う情報を確率の概念で説明できる
第2章補足Ⅱ 2項分布と正規分布についての補足
数理統計学  第8回 第2章のエクササイズ 西山.
数理統計学  第8回 西山.
線形代数学 4.行列式 吉村 裕一.
第2章 確率と確率分布 統計学 2006年度.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
需要の価格弾力性 価格の変化率と需要の変化率の比.
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」
F行列 電気回路の縦続接続を扱うのに便利、電気回路以外でも広く利用されている A B C D V1 V2 I2 I1
計測工学 復習.
母集団と標本:基本概念 母集団パラメーターと標本統計量 標本比率の標本分布
第2回: 今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる
第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる
数学 ---> 抽象化、一般化 より複雑な関係ー>解析学 一次関数 y=ax+b より多くの要素ー>線形代数 x y f(x) y1 x1
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
3. 可制御性・可観測性.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
正規分布確率密度関数.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
Basic Tools B4  八田 直樹.
標本分散の標本分布 標本分散の統計量   の定義    の性質 分布表の使い方    分布の信頼区間 
超幾何分布とポアソン分布 超幾何分布 ポアソン分布.
知能システム論I(13) 行列の演算と応用(Matrix) 2008.7.8.
予測に用いる数学 2004/05/07 ide.
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
FEM勉強会 (第3回).
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
1:Weak lensing 2:shear 3:高次展開 4:利点 5:問題点
行列式 方程式の解 Cramerの公式 余因数展開.
度数分布表における平均・分散 (第1章 記述統計の復習 補足)
5.チューリングマシンと計算.
解析学 ー第9〜10回ー 2019/5/12.
11.動的計画法と擬多項式時間アルゴリズム.
電気回路学Ⅱ 通信工学コース 5セメ 山田 博仁.
行列 一次変換,とくに直交変換.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
線形符号(10章).
確率統計学 (データ解析学) 書き込み式ノート(Ver.1) 担当教員:綴木 馴.
Presentation transcript:

様々な情報源(4章)

情報源の役割 伝送路 (通信路) 情報 情報源 受信者 今回扱う。 ☆無記憶情報源 (前の記号に依存しない情報源。サイコロのような情報源)  (前の記号に依存しない情報源。サイコロのような情報源) ☆マルコフ情報源  (前の結果に依存する情報源。英文等は、こっちの方)

情報源モデル 情報源アルファベット 情報源: 情報源から発生する記号の集合 離散的な時刻に従い、 ある記号の集合から、 各時刻に一つの記号を(ある確率的性格で)出力する。 情報源から発生する記号の集合 情報源シンボル(記号) 情報源から発生する記号。 情報源アルファベットの要素 記号        は、時刻 で発生した情報源記号 時間軸

情報源例1 サイコロを振る試行による記号の生成。 情報源アルファベット

情報源例2 英文からアルファベットを拾って記号を生成。 情報源アルファベット

通報 通報 情報源 情報源から生成される 記号の列 時間軸

情報源における記憶 無記憶情報源 記号の生成確率が、 以前の記号に無関係 記憶のある情報源 記号の生成確率が、 生成した記号で変化する

無記憶情報源(独立情報源) 記号の生成確率が、 無記憶情報源 以前の記号に無関係 無記憶情報源の1記号あたりの(平均)情報量は、 次式で表される。

1記号の発生速度を とする。このとき、単位時間あたりの発生平均情報量は、 次式であらわされる。

m m m n in il e t is t at t speake manne teache クイズ 次の四角に入るアルファベットを求めよ。 (1) m m m n in il (2) e t is t at t (3) speake manne teache

記憶のある情報源 記号の生成確率が、 以前の記号で変化する 記憶ある情報

(単純)マルコフ情報源 直前の生成された記号よって、次記号の発生確率が変化する情報源を単純マルコフ情報源という。  発生した記号を条件とする条件付確率で定式化される。すなわち、 に対して条件付確率 で定められる情報源である。 は発生した記号 は今度発生する記号

マルコフ情報源における状態の遷移

状態遷移(確率)行列 行ベクトルはすべて、確率ベクトル(要素は全て0から1の値を持ち、要素の総和が1)。すなわち、確率ベクトル                    に対して次式が成り立つ。

状態遷移確率行列のイメージ 次の記号 条件付確率 前の記号 各行で総和は1 なので正方行列

シャノン線図(状態遷移図) 記号を状態とみなし、条件付確率を矢印で表したもの。

マルコフ情報源例(アルファベット)

状態遷移行列 辞書

シャノン線図(アルファベット)

マルコフ情報源例(2元単純マルコフ情報源) 生成記号が 0の列 生成記号が 1の列 状態(記号) が0の行 状態(記号)が1の行

2元単純マルコフ情報源のシャノン線図

練習1 次の状態遷移確率行列で表されるマルコフ情報源を、シャノン線図で表せ。

練習2 次のシャノン線図で表されるマルコフ情報源の状態遷移確率行列を求めよ。

練習3 次のようなマルコフ情報源の、 状態遷移確率行列およびシャノン線図を求めよ。 自分が出した手の次の手は、 ・前の手に勝つような手を出す確率が1/2である。 ・前の手に引き分ける手を出す確率が1/3である。 ・前の手に負ける手を出す確率が1/6である。

(参考)無記憶情報源の状態遷移行列 次 出る目 均等なサイコロを振ったときの状態遷移行列 今の目 条件付確率

偶数の出やすいサイコロ(無記憶情報源) 次 出る目 今の目 条件付確率

練習 (1)コインを振って得られる状態遷移関数を求めよ。 (2)表の出る確率が、裏のでる確率の2倍であるコインを

定常分布 情報源アルファベット                に対して、出現確率が時刻    と時刻      で変化しないような記号の分布を定常分布という。

定常分布の求め方 定常分布は、状態遷移確率行列から求めることができる。 定常分布を            とし、状態遷移確率行列を        とする。このとき、次式が成り立つ。 時刻  から    になっても変化しない。 常に一定の出現確率となる。 生成した記号の確率と状態遷移確率積なので、次の記号の出現確率を表す。 記号の出現確率。

の意味。 情報理論では、慣用的に確率ベクトルは行ベクトルで表される。 転置を用いて左式のようにも表せる。

定常分布例 情報源アルファベット に対する2元マルコフ情報源の状態遷移確率関数が次式で与えられている。 このとき、定常分布 を求めよ。 解) 情報源アルファベット        に対する2元マルコフ情報源の状態遷移確率関数が次式で与えられている。 このとき、定常分布               を求めよ。 解) より、

全ての行ベクトルが確率ベクトルなので遷移確率行列は正則でなく逆行列を持たない。 よって、このように必ず不定の解になる。 一方、   は確率ベクトルなので、 が成り立つ。 前のスライドとこの式から求める。 検算

練習 次の状態遷移確率行列で表される情報源の定常分布を求めよ。 (1) (2)

無記憶情報源における定常分布 無記憶情報源における定常分布は、出現確率と一致する。 無記憶情報源が次式で表されているとする。 このとき、状態遷移確率行列は次式で表される。 すべての行が同一な 状態遷移行列。 逆に、このような行列で表される情報源が無記憶情報源。

マルコフ情報源の随伴(無記憶)情報源 マルコフ情報源 の定常分布を確率分布とするような無記憶情報源を元のマルコフ情報源の随伴情報源 という。 マルコフ情報源   の定常分布を確率分布とするような無記憶情報源を元のマルコフ情報源の随伴情報源   という。 例 情報源アルファベット           を持ち、状態遷移確率行列が で表されるマルコフ情報源を   とする。 このとき、随伴情報源     は次式で表される。

(補足)マルコフ情報源のエントロピー マルコフ情報源   に対して、   を条件とする   の条件付きエントロピー            をマルコフ情報源のエントロピーという。

マルコフ情報源のエントロピー例 状態遷移確率行列 で定まるマルコフ情報源 のエントロピーを求める。 まず、定常分布 は以下で与えられる。 で定まるマルコフ情報源   のエントロピーを求める。 まず、定常分布    は以下で与えられる。 状態0におけるエントロピー(0を条件とする条件付きエントロピー)        および状態1におけるエントロピー            を求める。

0の時のエントロピー 1の時のエントロピー マルコフ情報源のエントロピー

マルコフ情報源のエントロピーの意味 0状態の一種の存在確率 1状態の一種の存在確率 1状態において、 0状態において、 記号出力に注目した平均情報量 0状態において、 記号出力に注目した平均情報量

イメージ 0を取ったら次は0の箱から取り、1を取ったら次は1の箱からとる。取った玉は元に戻す。 マルコフ情報源 1 1 1 1 1

練習 次の状態遷移確率行列で表される情報源のエントロピーを求めよ。 (1) (2)

マルコフ情報源のエントロピーの性質 マルコフ情報源     に対して、随伴情報源を    とする。このとき、随伴情報源のエントロピーは、マルコフ情報源のエントロピー以上である。すなわち、次式が成り立つ。 出現確率は同じでも、マルコフ情報源の方は記号の現れ方に制限がある。(すなわち、記号の出現の予測が無記憶情報源比べて行いやすい。)したがって、 マルコフ情報源の方が平均情報量が少なくなる。

随伴情報源のエントロピー例 の随伴情報源は である。 したがて、エントロピー     は次式で求められる。

練習 次の状態遷移確率行列で現されるマルコフ情報源 の随伴情報源のエントロピーを求めよ。 (1) (2)