第2回: 今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

2009/11/10 10 進数と r 進数を相互に変換できる コンピュータのための数を表現できる 2進数の補数を扱える コンピュータにおける負の数の表現を説明で きる コンピュータでの演算方法を説明できる 文字や記号の表現方法を示せる 第7回 今日の目標 § 2.2 数の表現と文字コード.
統計学入門2 関係を探る方法 講義のまとめ. 今日の話 変数間の関係を探る クロス集計表の検定:独立性の検定 散布図、相関係数 講義のまとめ と キーワード 「統計学入門」後の関連講義・実習 社会調査士.
情報基礎  講義番号: X61029 科目区分:教養教育科目  講義番号: X61029 科目区分:教養教育科目 対象年次:1 - 4 対象年次:1 - 4  講義番号: G75029 科目区分:共通教育科目 対象年次: 5 ~ 対象年次: 5 ~  必修  クラス指定 工(応化)  講義の内容.
プログラミング言語論 第10回(演習) 情報工学科 木村昌臣   篠埜 功.
データの圧縮.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
『基礎理論』 (C)Copyright, Toshiomi KOBAYASHI,
基本情報技術概論 I 演習(第5回) 埼玉大学 理工学研究科 堀山 貴史
情報理論学習のためのE-learningシステムの構築
情報処理の基礎 私たちとコンピュータの扱うデータの違い 明治学院大学 法学部消費情報環境法学科 鶴貝 達政
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
第11回 整列 ~ バケットソート,基数ソート,ヒープソート~
統計解析 第8回 第7章 2項分布.
前回の練習問題 無記憶・非定常な情報源を一つ例示せよ 時刻 t に t 枚のコインを投げるとき,表が出る枚数 以下のマルコフ情報源について,
Reed-Solomon 符号と擬似ランダム性
今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 科学的に扱う情報を確率の概念で説明できる
§3.3 プログラミング 第10回 今日の目標 高級言語のプログラムを実行するまでの過程を示せる インタープリタの仕組みを説明できる
統計解析 第8回 第7章 2項分布.
人工知能概論 第6章 確率とベイズ理論の基礎.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
10.通信路符号化手法2 (誤り検出と誤り訂正符号)
情 報 A ー ディジタル化のしくみ ー.
二分探索木によるサーチ.
Handel-Cを用いた ちょっとレトロ な 「よけゲー」 の設計
第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる
情報基礎 講義番号:X61029 科目区分:教養教育科目 対象年次:1-4 必修 クラス指定 工(応化) 講義の内容
Linux リテラシ 2006 第4回 ネットワーク CIS RAT.
2. 論理ゲート と ブール代数 五島 正裕.
計算の理論 II NP完全 月曜5校時 大月美佳 平成17年1月17日 佐賀大学理工学部知能情報システム学科.
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
NTTコミュニケーション科学基礎研究所 村山 立人
東京工科大学 コンピュータサイエンス学部 亀田弘之
第5回 今日の目標 §1.6 論理演算と論理回路 ブール代数の形式が使える 命題と論理関数の関係を示せる
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
7.4 Two General Settings D3 杉原堅也.
情報量.
【第二講義】1次元非線形写像の不変集合とエントロピー
Basic Tools B4  八田 直樹.
複数の相関のある情報源に対するベイズ符号化について
第4回 コンピューティングの要素と構成 平成22年5月10日(月)
確率と統計 -確率2回目- 平成23年10月27日.
予測に用いる数学 2004/05/07 ide.
Extractor D3 川原 純.
計算の理論 II 言語とクラス 月曜4校時 大月美佳.
(昨年度のオープンコースウェア) 10/17 組み合わせと確率 10/24 確率変数と確率分布 10/31 代表的な確率分布
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
千葉大学とJSPS北京研究連絡センターとの共同シンポジウム
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
様々な情報源(4章).
アルゴリズム論 (第12回) 佐々木研(情報システム構築学講座) 講師 山田敬三
15.cons と種々のデータ構造.
経営学研究科 M1年 学籍番号 speedster
第2回 標本化と量子化.
富山大学 公開講座 2008 「QRコードを作ろう!」 ~ ハミング距離 ~.
人工知能特論II 第8回 二宮 崇.
情報工学概論 (アルゴリズムとデータ構造)
労働市場 国際班.
計算の理論 I -数学的概念と記法- 月曜3校時 大月 美佳.
7.8 Kim-Vu Polynomial Concentration
栗原正純 UEC Tokyo 電気通信大学 情報通信工学科 2007/5/2(修正2008/08/21)
確率と統計 確率編- 平成20年10月29日(木).
確率と統計 確率編- 平成19年10月25日(木) 確率と統計2007.
ユビキタス社会を支える トランスメディア実現のための 情報記述に関する研究
線形符号(10章).
情報処理Ⅱ 第2回 2004年10月12日(火).
岡村耕二 ビット誤りと訂正演習 岡村耕二 情報ネットワーク.
シミュレーション論Ⅱ 第2回 モデル化の手法.
2008年度 情報数理 ~ 授業紹介 ~.
2012年度 情報数理 ~ 授業紹介 ~.
Presentation transcript:

第2回: 今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 第2回: 今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 科学的に扱う情報を確率の概念で説明できる 情報量を数式で示し、その単位を記述できる 情報量の計算ができる

§1.4 情報理論 情報理論創始者 情報伝達の効率化、高信頼化のための符号化理論 Claude E.Shannon(1916~2001、米) §1.4 情報理論 情報理論創始者 Claude E.Shannon(1916~2001、米) “The Mathematical Theory of Communication” University of Illinois Press, 1949 ○情報の定量化 ○通信のモデル   情報源符号化と通信路符号化の概念 Publication Norbert Wiener (1894~1964、米) “Cybernetics or Control and Communication in the Animal and the Machine” The M.I.T. Press and John Wiley & Sons, Inc., 1948 ○システム理論   情報、伝送、制御 情報伝達の効率化、高信頼化のための符号化理論

情報とは 情報を計るには ⇒ 情報とは何か? 事象(事件) ・猛暑日、連続記録更新 ・介護労働者の離職率17%で最高 ⇒ 情報とは何か? 事象(事件) ・猛暑日、連続記録更新 ・介護労働者の離職率17%で最高 ・国内観測史上最大のM9.0を記録 ・ ・明日は快晴 人への知らせ 情報 知らせる手段 ・喋る(声) ・絵 ・文字 記号 晴    曇    雨 情報=事象を写し取った記号そのもの

ニュースバリュー ・かえるが蛇を飲み込んだ ・犬が猿の赤ちゃんを育てた ・バイク追突、宙舞って車屋根に着地 まれな事象 (確率が小さい) ・福島原発汚染水/拡散防止策は国の責任 ・中国、国交正常化40周年式典を中止 尖閣で対抗措置か ・大相撲秋場所 日馬富士、横綱昇進文句なし  人の主観 ニュースバリューの要因=確率的要因+非確率的要因

完全事象系 事象 のカードを引く 1 確率 4 互いに素な事象 : E1, E2, E3, ・・・,En 対応する確率  :  pi =P(Ei),  Σ pi = 1 ⇒集合{E1, E2, E3, ・・・,En}を完全事象系という E = E1, E2, E3, ・・・,En p1 , p2 , p3 , ・・・,pn a b c ・・・ z _ , . pa pb pc ・・・ pz p_ p, p. 英文 情報

1 2 3 4 5 6 7 8 9 10

アルファベット出現確率がキー配列に反映されているか? 1 2E 3T 4A 5O 6I 7N 8S 9R 10H

単純マルコフ過程:P(Xt=‘H’|Xt-1=‘T’)=pTH 疑似英文 マルコフ情報源 = 文脈依存型情報源  文脈自由型情報源 単純マルコフ過程:P(Xt=‘H’|Xt-1=‘T’)=pTH 疑似英文 二重マルコフ過程:P(Xt=‘E’|Xt-2=‘T’, Xt-1=‘H’)=pTHE

独立な事象 A = B = p = 1/4 p = 1/6 1 4 6 =   ・ p ∩ = p ・p 1 24 =

情報量 i(E):事象E関する情報量 条件(1) i(E)≧0 (2) i(E∩F)=i(E)+i(F)    (3) p(E)=1/2 のとき、i(E)=1 yes no 1/2 1/2 E = 情報の単位 条件を満たす関数 i(E) = -log2p(E)    [bit] (ビット=Binary digit(unit)) (1)0 ≦ p(E) ≦ 1 (2)p(E ∩ F) = p(E)・p(F) (3)-log2(1/2) = 1

例:“コインをn回投げてn回とも表が出る”事象E 1 2 n p(E)= p(1回目表)・p(2回目表)・・・p(n回目表) = i(E)= -log2  = n [bit] 1 2 n 例:中が見えない8つの箱の1つにダイヤが入っている 状態  0 1 2 3 4 5 6 7 ダイヤの箱を当てる確率: P(アタリ)=1/8 情報量: i(アタリ)= -log2 = -log2 = 3[bit] 1 8 1 3 2

状態  0 1 2 3 4 5 6 7 答: 1回目 2 3 no no no no no yes no yes no no yes yes yes no no yes no yes yes yes no yes yes yes 状態 1 2 3 4 5 6 7 質問:半分に分けて右に 入っていますか? 状態数8 ⇒ 2進数3桁で表現 0から999の状態 ⇒ log21000 = log101000/log102 = 9.966≒10 bit 2進数10桁 2進数16桁 216=65536

■ 演習 (1)128本のくじがある。その1本が当たりくじであるとき、    あたりくじを教えてもらって得られる情報量はいくらか。 (2)2進数12桁で表される数はいくらか。 (3)明日は雨の降る確率が75%という予報である、神様に    “明日は晴れ”と教えてもらったときの情報量はいくらか。 情報科学概論のトップへ 明治薬科大学のホームへ