第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

2009/11/10 10 進数と r 進数を相互に変換できる コンピュータのための数を表現できる 2進数の補数を扱える コンピュータにおける負の数の表現を説明で きる コンピュータでの演算方法を説明できる 文字や記号の表現方法を示せる 第7回 今日の目標 § 2.2 数の表現と文字コード.
効率的に計算可能な 加法的誤りの訂正可能性 安永 憲司 九州先端科学技術研究所 SITA 2012 @ 別府湾ロイヤルホテル
復習. 外来誘導雑音の対策 ~ モーター等 スイッチング電源 オートバイ・自動車・携帯電話 ①発生源のシールド ②計測回路のシールド ③ツイストペアケーブル.
データの圧縮.
授業展開#3 アナログとデジタル.
量子化(Mid-riser型) 出力y 入力x 通信ネットワーク特論(量子化・符号化).
大学院総合コミュニケーション科学 第②回 ( 4月13日) 担当: 情報・通信工学専攻 情報通信システムコース 川端 勉 教授
第9回放送授業.
第四章 情報源符号化の基礎 4・1 情報量とエントロピー 4・2 エントロピー符号化 4・3 音声符号化 4・4 画像符号化.
ソーラス符号の パーシャルアニーリング 三好 誠司 上江洌 達也 岡田 真人 神戸高専 奈良女子大 東大,理研
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
情報理論学習のためのE-learningシステムの構築
第1章 第1節 情報のディジタル化のしくみ 4 音の表現 5 画像の表現
「情報」 (中村) オリジナル PPT (2010/05/07) 1 1.
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
第1章 第1節 情報のディジタル化のしくみ 4 音の表現 5 画像の表現
[復習]通信路符号化の限界 通信路符号化定理(Shannonの第2符号化定理)
アナログとディジタル 五感 視覚、聴覚、味覚、臭覚、触覚 埼玉県立越ヶ谷高等学校・情報科.
前回の練習問題 無記憶・非定常な情報源を一つ例示せよ 時刻 t に t 枚のコインを投げるとき,表が出る枚数 以下のマルコフ情報源について,
経営情報 #1 デジタル表現 / 2003 (春) 安田豊 1.
第三章 ディジタル符号変換の基礎 3・1PCMパルス符号変換 3・2符号変換 3・3通信路符号形式 3・4スクランブル.
今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 科学的に扱う情報を確率の概念で説明できる
PSOLA法を用いた極低ビットレート音声符号化に関する検討
マルチメディア情報の ディジタル表現と処理
2012年度 情報数理 ~ QRコードを作ろう!(1) ~.
2008年度 情報数理 ~ QRコードを作ろう!(1) ~.
デジタル信号処理④
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
ー 第1日目 ー 確率過程について 抵抗の熱雑音の測定実験
2010年度 情報数理 ~ QRコードを作ろう!(1) ~.
計測工学 復習.
第2回: 今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる
ディジタル信号処理 Digital Signal Processing
情報基礎 講義番号:X61029 科目区分:教養教育科目 対象年次:1-4 必修 クラス指定 工(応化) 講義の内容
大阪大学 大学院工学研究科 極限光通信工学領域 井上研究室 欅田 直也・橘 遼太郎・隅田 拓也・高 祥史
第7回 フィルタとは.
情報機器の発達とディジタル化 第2節 情報のディジタル化②
音信号表現 音声波形のデジタル化(PCM) サンプリング、標本化定理、量子化 ソースフィルタモデル
授業展開#3 アナログとデジタル.
パワーラボの使い方.
画像情報特論 (5) - ディジタル圧縮 (2) 音声・オーディオ圧縮 電子情報通信学科 甲藤二郎
背 景 多数の「スピン」とそれらの「相互作用」という二種類の変数を有する系の解析においては,相互作用の方は固定されておりスピンだけが 変化するモデルを考える場合が多い.   (例:連想記憶モデル) 「スピン」よりもゆっくりと「相互作用」も変化するモデル(パーシャルアニーリング)の性質は興味深い.
第4回 信号表現とエリアシング.
センサーネットワークでも 「More is different」
NTTコミュニケーション科学基礎研究所 村山 立人
サウンドファイルの紹介 wave, aiff, MP3 参考: 御池鮎樹著,2004. 裏口からのDTM. 工学社.
音・音楽の設計と表現Ⅱ キーワード : サンプリング(標本化)、周波数、量子化 音は空気を伝わる波 → 音をデジタル(0と1の数値)にする。
暗号技術 ~暗号技術の基本原理~ (1週目) 情報工学科  04A1004 石川 真悟.
岡村耕二 ビット誤りと訂正 岡村耕二 情報ネットワーク.
ディジタル信号処理 Digital Signal Processing
様々な情報源(4章).
9.通信路符号化手法1 (誤り検出と誤り訂正の原理)
音声のディジタル化 Copyright(C)2004 Tsutomu Ohara All rights reserved.
情報A 第15回授業 04情報のディジタル化 対応ファイル:12exp15.xls
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
アナログとデジタル.
第2回 標本化と量子化.
音声のディジタル化 Copyright(C)2004 Tsutomu Ohara All rights reserved.
富山大学 公開講座 2008 「QRコードを作ろう!」 ~ ハミング距離 ~.
確率と統計 確率編- 平成20年10月29日(木).
第3回 標本化定理.
情報生命科学特別講義III (3)たたみ込みとハッシュに 基づくマッチング
線形符号(10章).
岡村耕二 ビット誤りと訂正演習 岡村耕二 情報ネットワーク.
2008年度 情報数理 ~ 授業紹介 ~.
2012年度 情報数理 ~ 授業紹介 ~.
2.2 伝送方式 アナログ伝送とデジタル伝送 ■アナログ回線でデジタルデータを転送する場合, デジタル to アナログ変換
第5章 伝送理論と伝送技術 5.1 電気通信設備の概要 5.2 アナログ伝送方式 5.3 ディジタル伝送方式 5.4 データ伝送方式
コンピュータと音 B3 入野仁志(irino).
Presentation transcript:

第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる 第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる 通信路符号化の意味を示せる 標本化定理を説明できる AD変換における量子化を説明できる 人間の五感による情報処理能力を推測できる

平均情報量 完全事象系(全ての要素の確率の和が1) E1, E2, E3, ・・・,En p1 , p2 , p3 , ・・・,pn E = i(Ei) = -log2 pi 事象の発生    E2 E1 E1 E3 E1 E2 E3 ・・・ En N個の事象 例: a big earthquake occurred ・・・ 事象Eiが発生した数:mi (N=Σmi) 事象Eiの情報量  :-mi log2 pi 平均情報量= 情報量の総和 発生した事象の数 :H(E)

H(E) = -Σpilog2pi [bit/事象] :完全事象系Eのエントロピー (平均情報量) -Σmi log2 pi N lim  mi N→∞ N = pi H(E) = -Σpilog2pi  [bit/事象]  :完全事象系Eのエントロピー                               (平均情報量) 英文(アルファベット+スペース:27文字) (1)出現確率が全て等しいなら 1 27 H0 = -27×  log2 = log227 = 4.75 bit (2)現実の出現確率を使うと     H1 = -Σpilog2pi  = 4.08 bit

例:コインを投げた時の事象 A1:表が出る、 A2:裏が出る p(A1) = p(A2) = 0.5のとき A = A1 A2 0.5 0.5 裏表対称なコイン H(A) = -0.5 log20.5 - 0.5 log20.5 = -log22-1 = 1 bit p(B1) = 0.75、 p(B2) = 0.25のとき B = B1 B2 0.75 0.25 裏表いびつなコイン H(B) = -0.75 log20.75 - 0.25 log20.25 = 0.811 bit 従って、      H(A)≧H(B) Aの方が予想がつき難い(不確かさが大きい)

無記憶二元情報源 E = E1 E2 p 1-p H(E) = -p log2p -(1-p)log2(1-p) 一般に E = E1 E2 ・・・・・・・・ En p1 p2 ・・・・・・・・ pn p1 = p2 = ・・・ = pn のとき、 H(E) = log2nで最大

通信のモデル ;Shannon 符号器 Encoder 送信 通信路 送信 復号器 Decoder 受信 受信 情報源 受信者 符号 符号 雑音源 Noise source 情報伝達の基本定理 ①通信路の容量 ②雑音の混入 ③通信路符号化定理   通信路の容量>情報発生量   ⇒雑音混入情報を100%復元できる

情報源符号化 符号器 記号 0 1 Vボルト 0ボルト 通信路 電気信号 情報 発生率 符号C1 符号C2 yes 0.3 0 1 記号 0 1 電気信号 Vボルト 0ボルト 通信路 情報 発生率 符号C1 符号C2 yes 0.3 0 1 no 0.2 1 10 Neutral 0.5 10 0 発生率の高い記号は短い符号にする 情報源を効率のよい符号に変換すること =1情報源記号当りの平均符号長を短くする(データ圧縮) 可逆符号:一意に復元可能

通信路符号化 0.9 雑音など 1 1 入力 0.1 出力 誤った情報 0.1 0.9 情報源符号系列 ACAABC 情報系列 1 1 入力 0.1 出力 誤った情報 0.1 0.9 情報源符号系列 ACAABC 情報系列 011001011 符号語系列 000111111000… 情報源 情報源符号器 通信路符号器 A⇒0 B⇒10 C⇒11 0⇒000 1⇒111

冗長化 情報源符号 通信路符号 受信 0 000 2つ又は3つ0ならば 0 1 111 2つ又は3つ1ならば 1 情報源符号 通信路符号 受信 0 000 2つ又は3つ0ならば 0 1 111 2つ又は3つ1ならば 1 情報源 情報系列 受信系列 復号情報 通信路 ACAABC⇒ 011001011 011101011 ACBBC 雑音 通信路符号化 000111111000000111000111111 000011111000100111001111101 0 1 1 0 0 1 0 1 1 A C A A B C 000,001,010,100=>0 0.93+3×0.92×0.1=0.972 誤り確率:0.1⇒0.028:信頼性の向上

標本化定理 アナログ情報:音、明るさ、温度、・・・⇒電圧 電圧 x(t) 時間 t t1 t2 t3 t4 t5 t6 t7 t8 x1 t2n a0 2 x(t)=   +Σ(ancos2πnft+bnsin2πnft) f = 1/T n=1 f: 基本周波数 w≧nfならば、Δt =1/2w =T/2nでサンプリングすれば、 x(t)を完全に再現できる。 1 2w :ナイキスト間隔

量子化 x1=5.0 x2=6.0 x3=5.5 x4=4.6 x5=4.7 x6=6.8 x7=6.9 x8=6.1 5 6 7 電圧 x(t) 時間 t t1 t2 t3 t4 t5 t6 t7 t8 x1 x2 x3 x4 x5 x6 x7 x8 8.0 6.0 4.0 2.0 0.0 量子化 A-D変換

D-A変換 電圧 x(t) x1 x2 x3 x4 x5 x6 x7 x8 t1 t2 t3 t4 t5 t6 t7 t8 時間 t 8.0 6.0 4.0 2.0 0.0 x1 x2 x3 x4 x5 x6 x7 x8 t1 t2 t3 t4 t5 t6 t7 t8 時間 t 歪⇒量子化雑音

人間の情報処理能力 デジタルカメラ 1点 3色 (1)目で見える能力 テレビ画面 600点 走査線(3色) 525本 1点の場合の数:10×3 画面全体の場合の数 (10×3)525×600 1画面の情報量  I = log2(10×3)525×600 = 525×600× log2(30) ≒ 1.5×106 bit 強さ 10 走査線 1秒間30コマ   4~5× 107 bit/s Windows:96d/i, Mac:72d/i

(2)目で見る能力 日本語を意識して読む: 10文字/s 文章: 漢字+ひらがな = 約3000個 1文字あたりの情報量   I = log23000 ≒ 12 bit/文字 10 [文字/s]× 12 [bit/文字] = 120 bit/s (3)聞こえる能力 FFT 耳の感度: 音の振幅30dB~90dB 周波数100Hz~10000Hz(会話) 10Hz~50000Hz(全身):ピーク5000Hz a [dB] = 20 log10(A/A0)、  A0 = 2×10-4dyn/cm2 60dB幅 ⇒  A/A0 = 1060/20=103 1秒間の音のサンプル:1~10000 Hz 1秒間の情報量:  log2100010000= 104log2103 ≒ 105 bit/s

演習 1.いろは48文字が独立で等確率で出現する場合の平均情報量   はいくらか。 2.1と6の目が出る確率がそれぞれ1/4、他の目の出る確率は   すべて1/8のサイコロの平均情報量はいくらか。 3.振幅を1024のレベルで区別し、0.1ms ごとにサンプリングした   音声波形1分間のデータは何ビットか。 4.カラーディスプレイの画面を横600点、縦400点に分けて1点の   3原色のレベルをそれぞれ8ビットで区別すると1画面当り何   バイトの情報になるか。また、1点では何色を区別できるか。 情報科学概論のトップへ 明治薬科大学のホームへ