情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

効率的に計算可能な 加法的誤りの訂正可能性 安永 憲司 九州先端科学技術研究所 SITA 2012 @ 別府湾ロイヤルホテル
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
第四章 情報源符号化の基礎 4・1 情報量とエントロピー 4・2 エントロピー符号化 4・3 音声符号化 4・4 画像符号化.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
富山大学 公開講座 2008 「QRコードを作ろう!」 ~ QRコードを作ろう! ~.
セキュアネットワーク符号化構成法に関する研究
黒澤 馨 (茨城大学) 情報セキュリティ特論(4) 黒澤 馨 (茨城大学) 2017/3/4 confidential.
コンパイラ 2011年10月17日
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
[復習]通信路符号化の限界 通信路符号化定理(Shannonの第2符号化定理)
ゲーム理論・ゲーム理論Ⅰ (第6回) 第4章 戦略形ゲームの応用
Pattern Recognition and Machine Learning 1.5 決定理論
初級ミクロ経済学 -生産者行動理論- 2014年10月20日 古川徹也 2014年10月20日 初級ミクロ経済学.
前回の練習問題 無記憶・非定常な情報源を一つ例示せよ 時刻 t に t 枚のコインを投げるとき,表が出る枚数 以下のマルコフ情報源について,
データ構造と アルゴリズム 理工学部 情報システム工学科 新田直也.
Reed-Solomon 符号と擬似ランダム性
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
2012年度 情報数理 ~ QRコードを作ろう!(1) ~.
データ構造と アルゴリズム 知能情報学部 新田直也.
Probabilistic Method 6-3,4
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
コンパイラ 2012年10月15日
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
第Ⅱ部 協力ゲームの理論 第9章 シャープレイ値.
第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる
合成伝達関数の求め方(1) 「直列結合 = 伝達関数の掛け算」, 「並列結合 = 伝達関数の足し算」であった。
2. 論理ゲート と ブール代数 五島 正裕.
第9章 混合モデルとEM 修士2年 北川直樹.
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
7.4 Two General Settings D3 杉原堅也.
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
情報セキュリティ  第8回 RSA暗号.
複数の相関のある情報源に対するベイズ符号化について
電気回路学Ⅱ コミュニケーションネットワークコース 5セメ 山田 博仁.
Extractor D3 川原 純.
25. Randomized Algorithms
計算量理論輪講 chap5-3 M1 高井唯史.
Q q 情報セキュリティ 第8回:2005年6月3日(金) q q.
様々な情報源(4章).
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
Q q 情報セキュリティ 第4回:2005年5月12日(金) q q.
Hoffman符号 2011/05/23.
計算の理論 I ー閉包性ー 月曜3校時 大月 美佳.
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
データ解析 静岡大学工学部 安藤和敏
データ構造とアルゴリズム (第5回) 静岡大学工学部 安藤和敏
富山大学 公開講座 2008 「QRコードを作ろう!」 ~ ハミング距離 ~.
人工知能特論II 第8回 二宮 崇.
精密工学科プログラミング基礎 第7回資料 (11/27実施)
分枝カット法に基づいた線形符号の復号法に関する一考察
4.プッシュダウンオートマトンと 文脈自由文法の等価性
コストのついたグラフの探索 分枝限定法 A*アルゴリズム.
精密工学科プログラミング基礎Ⅱ 第2回資料 今回の授業で習得してほしいこと: 配列の使い方 (今回は1次元,次回は2次元をやります.)
情報数理Ⅱ 第10章 オートマトン 平成28年12月21日.
情報生命科学特別講義III (3)たたみ込みとハッシュに 基づくマッチング
線形符号(10章).
信号データの変数代入と変数参照 フィードバック制御系の定常特性 フィードバック制御系の感度特性
2012年度 情報数理 ~ 授業紹介 ~.
2012年度 情報数理 ~ ハミング距離 ~.
Presentation transcript:

情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」 情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」 第9回 第5章 情報源符号化法 5.4 ひずみが許される場合の情報源符号化 2016/07/08 情報理論 講義資料

ひずみが許される場合とは? ある程度ひずみを許しても、1情報源記号あたりの平均符号長を小さくしたい!(つまり、より小さくデータを圧縮したい) テキストの場合 ひずみを許す符号化 復号 001101011101110001・・・ 6時にスタバでね。ちゃんと来いよ。 6時にスタバでねーちゃんと来いよ。 非常にまずい! 画像の場合 ほとんど問題ない ひずみを許す符号 ビットマップファイル (.bmp; 288 KB) jpegファイル (.jpg; 17.5 KB) 2016/07/08 情報理論 講義資料

Communication channel 情報源符号化におけるひずみ 通信路でひずみが入るのではなく、符号化時にひずみを入れるることを許す 情報源 S 符号化 coding 復号 decoding あて先 destination ひずみ 理想的に伝達されると仮定 x y 図: 情報源出力 x と情報源復号結果 y 情報源 S 符号化 coding 通信路 Communication channel 復号 decoding あて先 destination ひずみ ひずみ測度: x と y の相違を評価する関数 d(x, y) 関数 d(x, y) が大きいほど、ひずみが大きい。また次の性質を持つ。 d(x, y)≧0 x=y のとき d(x, y)=0 ひずみ測度の平均値を平均ひずみと呼び、d で表す。 d=∑∑d(x, y)P(x, y) x y 2016/07/08 情報理論 講義資料

ひずみ測度の例 例1 情報源アルファベットを A={0, 1} とし、ひずみ測度を d(x, y) = 0 ; x=y とする。このとき、平均ひずみは d =∑∑d(x, y)P(x, y)=P(1, 0)+P(0, 1) となる。これは、要するに、符号器の出力が元の情報源出力 と異なる確率であり、通常ビット誤り率と呼ばれる。 例2 情報源アルファベットを有限個の整数または実数の集合 としよう。このとき、ひずみ測度を d(x, y) = | x-y |2 とすれば、平均ひずみは2乗平均誤差(mean square error)と 呼ばれる量となる。ひずみの評価量として非常によく用いられる。 d(x, y) = 0 ; x=y 1 ; x≠y P(1, 0):入力 1 → 出力 0 P(0, 1):入力 0 → 出力 1 x y 2016/07/08 情報理論 講義資料

ひずみが許される場合、情報源符号化定理はどうなるか? [情報源符号化定理] 情報源S は、任意の正数εに対して、1情報源記号あたりの平均符号長Lが H(S) ≦ L < H(S) +ε となるような2元瞬時符号に符号化できる。 しかし、どのような一意復号可能な2元符号を用いても、 平均符号長がH(S)より小さくなるような符号化はできない。 H(S)が限界! ひずみを許せば、どのくらい平均符号長の限界を下げられるか? S:記憶の無い定常情報源、X:任意の時点においてSから出力される情報源記号 1情報源記号あたりの平均符号長の下限 = 情報量H(S)=H(X) ひずみを許した場合、出力Yの値を知っても、元の入力Xに関して、 なお平均 H(X |Y ) のあいまいさが残る。 伝えられる情報の量は I(X;Y )=H(X)-H(X |Y ) ひずみを許した 場合の限界! 2016/07/08 情報理論 講義資料

[ひずみが許される場合の情報源符号化定理] 相互情報量I(X;Y ) が同じでも、平均ひずみ d は同じとは限らない ⇔ 平均ひずみ d が同じであっても、I(X;Y )は符号化の仕方で異なる ある与えられた値 D に対し、平均ひずみ d が d ≦ D を満たす条件の下で、あらゆる情報源符号化法を考えたときの 相互情報量 I(X;Y ) の最小値を考え、これを R(D) と表す。すなわち、 R(D) = min {I(X;Y )} これを情報源S の速度・ひずみ関数(rate-distortion function)と呼ぶ。 d ≦ D [ひずみが許される場合の情報源符号化定理] 平均ひずみ d を D 以下に抑えるという条件の下で、任意の正数εに対して、情報源S を1情報源記号あたりの平均符号長Lが R(D) ≦ L < R(D) +ε となるような2元符号へ符号化できる。しかし、どのような符号化を行っても、 d ≦ D である限り、LをR(D)より小さくすることはできない。 2016/07/08 情報理論 講義資料

速度-ひずみ関数(1) x y R(D) は、d ≦ D を満たす、あらゆる情報源符号化法を考えたときの I(X;Y ) の最小値。 では実際、これをどのようにして求めるのか? 情報源符号化法を変えると、条件付確率 P( y| x) が変わる! → I(X;Y ) の最小化は、d ≦D の条件の下で P( y| x) を変えることで行う* → 下図のような通信路を考え、この通信路の特性を変えることで I(X;Y ) の最小化を計ると解釈できる。この仮想的通信路を試験通信路と呼ぶ。 情報源S P(x) 試験通信路 P( y | x) あて先 x y 図: 試験通信路による速度・ひずみ関数R(D) の解釈 d ≦ D I(X;Y )最小化 *任意の条件付確率 P( y| x) を与えるような情報源符号化・復号法が存在する 2016/07/08 情報理論 講義資料

速度-ひずみ関数(2) 条件付確率 P( y| x) を用いれば、相互情報量 I(X;Y ) は I(X;Y )=∑∑P(x, y)log2 =∑P(x)∑P(y|x) log2 と表せる。ここに P(y) は P(y) =∑P(x) P(y | x) により計算できる。また、d ≦D という条件は d =∑P(x)∑P(y | x) d(x, y) ≦ D と表せる。また、条件付確率は P(y | x) ≧ 0 ∑P(y | x) = 1 for each x を満たさなければならない。 式②~④の条件の下に、式①のI(X;Y )を最小化すればよい! P(x)P(y) P(x, y) x y P(y) P(y|x) ① P(x, y)=P(x)P(y|x) x y P(y|x) が変数 他は既知 x ② x y ③ ④ y 一般には難しい 2016/07/08 情報理論 講義資料

⊕ [例]記憶のない2元情報源の場合(1/3) 1, 0 を確率 p, 1-p で発生する記憶のない2元情報源Sを考える。 また、ひずみ測度としては d(x, y) = を用いるものとする。このとき、平均ひずみ d はビット誤り率となる。 この情報源に対して、0≦D≦0.5 が与えられたとき、 d≦D の元での速度・ひずみ関数 R(D)を求めよう。 相互情報量I(X;Y )=H(X)-H(X |Y ) H(X)= H(p) なので、 H(X|Y) を最大化すればよい。 ここで、Y は左図のように、 1の発生確率が d である ような誤り源の出力E と X の排他的論理和で表せる。 0 ; x=y 1 ; x≠y D>0.5 の場合は 誤る確率の方が 大きいことを意味する 図: 2元情報源に対する試験通信路 情報源S PX(1)=p ⊕ E Y=X  E 試験通信路 誤り源 PE(1)=d X 2016/07/08 情報理論 講義資料

[例]記憶のない2元情報源の場合(2/3) Y=X ⊕ E であるから、X=Y ⊕ E となる。したがって、 H(X | Y)=H(Y ⊕ E | Y)=H(E | Y) が得られる。 H(E | Y) は Y の値を知ったときの E のあいまいさであるから、何も知らないときの E のあいまいさ H(E) より大きくなることはない。さらに、誤り源に記憶がなく定常であれば、H(E)= H( d ) であるが、そうでなければ、H(E)<H( d ) であるから、 H(E | Y) ≦ H(E) ≦ H( d ) となる。それゆえ H(X | Y) ≦H( d ) を得る。d≦D≦1/2 なので、さらに H( d ) ≦H(D) となる。したがって、相互情報量 I(X;Y ) は、 I(X;Y )=H(X)-H(X |Y )≧ H(p)-H(D) I(E;Y ) H(E | Y) H(Y | E) H(E) H(Y) H(E, Y) 2016/07/08 情報理論 講義資料

[例]記憶のない2元情報源の場合(3/3) d=Dで誤り源が無記憶定常で情報源Sと独立であるとき、等号が成立  (I(X;Y )= H(p)-H(D)) するので、 記憶のない定常2元情報源S の速度・ひずみ関数は R(D)= H(p)-H(D) で与えられることが導けた。 左図で分かるように、速度・ひずみ 関数は、Dに関して単調減少であり、 下に凸な関数である。一般の速度・ ひずみ関数も同様な性質を持つこと が証明されている。 記憶のある情報源の場合にも、   I(X;Y )=lim I(Xn;Yn)/n の最小値として、速度・ひずみ関数を 定義することができる。 図: 2元情報源の速度・ひずみ関数 R(D) D n→∞ 2016/07/08 情報理論 講義資料

ひずみが許される場合の情報源符号化法(1) [ひずみが許される場合の情報源符号化定理] 平均ひずみ d を D 以下に抑えるという条件の下で、任意の正数εに対して、情報源S を1情報源記号あたりの平均符号長Lが R(D) ≦ L < R(D) +ε となるような2元符号へ符号化できる。しかし、どのような符号化を行っても、 d ≦ D である限り、LをR(D)より小さくすることはできない。 ひずみが許される場合の情報源符号化定理は、1情報源記号あたりの平均符号長を、速度・ひずみ関数 R(D) にいくらでも近づく符号化法の存在を示している。では、具体的な符号化方法はあるのか? ひずみのない場合に比べて、はるかに難しい! ベクトル量子化 変換符号化 予測符号化 etc. 参考図書 「情報・符号・暗号の理論」 今井秀樹 著、電子情報通信学会 2016/07/08 情報理論 講義資料

ひずみが許される場合の情報源符号化法(2) 情報源S P(x) CDへの符号化 x → w dn(x, w)最小 ひずみのない場合の情報源符号化 x w x, w は長さ n の系列  w∈CD 図5.6 ひずみが許される場合の情報源符号化法 1) まず、情報源S の情報源アルファベットA の記号からなる長さ n の系列を N 個選び、それを符号語とする符号CD を作っておく。 2) 情報源S から発生する長さ n の系列 x=x1x2・・・xn に対し、CDの中から、ひずみ測度 dn(x, w)=∑ d(xi, wi) が最小となるような符号語 w=w1w2・・・wn ∈CD を選ぶ。 3) この符号語に対し、ひずみのない場合の情報源符号化を行う。 i=1 n d(x, y)は与えられる 2016/07/08 情報理論 講義資料

ひずみが許される場合の情報源符号化法(3) n次ベクトル空間 図5.7 はこの符号化法の概念図 図の各点は長さ n の系列 2重丸(青)で示されているのが CDの符号語 ひずみ測度が、左図において 距離に比例するものとする。 このとき、符号化は図の矢印の ように行われる。 つまり、この図の例では符号語と  そのまわりの8個の系列を一つの  符号語で代表させてしまう。 符号CD は、このように符号化したときに、平均ひずみができるだけ小さくなるように選ぶべきである。また、平均ひずみが同じであれば、符号語数の少ないことが望ましい。 図: CDへの符号化の概念図 CDの具体的構成法は 知られていない 2016/07/08 情報理論 講義資料

[例]無記憶2元情報源のひずみあり符号化(1/2) 1, 0 を確率 p, 1-p で発生する記憶のない2元情報源を考える。 また、ひずみ測度としては d(x, y) = を用いるものとする。このとき、平均ひずみ d はビット誤り率となる。 ここで、CD として CD={000, 111} を考える。 CDへの符号化は、情報源系列とのひずみが最も小さい符号を選ぶことにより行われる。すなわち 0 0 0 1 1 1 0 0 1 1 1 0 0 1 0 1 0 1 1 0 0 0 1 1 とすればよい。 0 ; x=y 1 ; x≠y 0 0 0 1 1 1 2016/07/08 情報理論 講義資料

[例]無記憶2元情報源のひずみあり符号化(2/2) このとき、平均ひずみは1情報源記号あたり   d=1/3 [3p(1-p)2 + 3p2(1-p)] となる。また、CDに符号化したとき、 符号語000, 111の発生確率はそれぞれ、 (1-p)3+3p(1-p)2、3p2(1-p)+p3 であるから、これに対し、ひずみのない 情報源符号化を行えば、1情報源記号  あたりの平均符号長 L は   LB=1/3[H( (1-p)3 + 3p(1-p)2 )] にいくらでも近づけることができる。 一方、d だけひずみを許すとき、平均 符号長 L の下限は   LI= H(p)-H( d ) となることが判る。 LB は LI の2倍近い値になっている。 図5.8 例5.5の符号化による平均ひずみ d および1情報源符号あたりの平均符号長の下限LB と LI p LB H(p) d LI 2016/07/08 情報理論 講義資料