複数の相関のある情報源に対するベイズ符号化について

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

効率的に計算可能な 加法的誤りの訂正可能性 安永 憲司 九州先端科学技術研究所 SITA 2012 @ 別府湾ロイヤルホテル
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
A Simple Constant Time Enumeration Algorithm for Free Trees 中野 眞一 宇野 毅明 群馬大学 情報学研究所 2003 年 9 月 19 日 アルゴリズム研究会.
人工知能特論 8.教師あり学習と教師なし学習
形態素周辺確率を用いた 分かち書きの一般化とその応用
セキュアネットワーク符号化構成法に関する研究
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」(クラスC)
符号化のための重み付きジョイントバイラテラルフィルタを用いた 奥行き画像超解像
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」第4回
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
時空間データからのオブジェクトベース知識発見
今日の目標 情報理論の概略を説明できる 情報とは何かを説明できる ニュースバリューの要因を示せる 科学的に扱う情報を確率の概念で説明できる
ベイズ的ロジスティックモデル に関する研究
Semantics with Applications
PSOLA法を用いた極低ビットレート音声符号化に関する検討
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
安永憲司 大阪大学 大学院情報科学研究科 2005年12月7日 大阪市立大学文化交流センター
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
情報エレクトロニクス学科共通科目・2年次・第1学期〔必修科目〕 講義「情報理論」
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
東京工業大学 機械制御システム専攻 山北 昌毅
高次元データにおける幾つかの検定統計量の漸近分布について
非侵襲脳活動計測(fMRI)と(MEG)情報統合とその応用
第3回: 今日の目標 平均情報量を説明し、計算できる シャノンの通信モデルを説明できる 情報源符号化の条件を示せる
サポートベクターマシン によるパターン認識
相関分析.
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
決定木とランダムフォレスト 和田 俊和.
領域ベースの隠れ変数を用いた画像領域分割
タップ長が一般化された 適応フィルタの統計力学
NTTコミュニケーション科学基礎研究所 村山 立人
教師なしデータ 学習データ  X1, X2, …, Xn   真の情報源 テストデータ  X  .
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
統計力学と情報処理 ---自由エネルギーの生み出す新しい情報処理技術--- 2003年8月14日後半
訓練データとテストデータが 異なる分布に従う場合の学習
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
様々な情報源(4章).
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
確率を手なづける秘伝の計算技法 ~古くて新しい確率・統計モデルのパラダイム~ その2:ベイジアンネットと確率推論の数理
ベイズ・アプローチによる グラフィカル・テスト理論
盗聴・改ざんに対して耐性を持つ ネットワーク符号化について
ガウシアン確率伝搬法の 近似精度に対する理論解析
不完全な定点観測から 真の不正ホストの分布が分かるか?
Hoffman符号 2011/05/23.
コードクローン分類の詳細化に基づく 集約パターンの提案と評価
コーディングパターンの あいまい検索の提案と実装
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
第16章 動的計画法 アルゴリズムイントロダクション.
京大院情報学研究科 Graduate School of Informatics, Kyoto University
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
藤本翔太1, 狩野裕1, Muni.S.Srivastava2 1大阪大学基礎工学研究科
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
ベイズ音声合成における 事前分布とモデル構造の話者間共有
ポッツスピン型隠れ変数による画像領域分割
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
統計力学と情報処理 ---自由エネルギーの生み出す新しい情報処理技術--- 2003年8月14日前半
分枝カット法に基づいた線形符号の復号法に関する一考察
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
Detecting Software Modularity Violations
Presentation transcript:

複数の相関のある情報源に対するベイズ符号化について *須子 統太 堀井 俊佑 松嶋 敏泰 平澤 茂一 早稲田大学

背景 無歪み情報源符号化 可変長符号化 パラメトリックな情報源モデルに対するユニバーサル 符号化 ⇒符号化確率を計算して算術符号化 ベイズ符号 i.i.d.情報源[Clarke 90] 文脈木情報源[Matsushima 95][Gotoh 98] 補助情報付き情報源[Matsushima 05] etc.

研究目的 本研究の目的 複数の相関のある情報源(Multiple Correlated 情報源) 相関構造を考慮したベイズ符号化法 Sources encoder decoder channel … 相関構造を考慮したベイズ符号化法 符号長の漸近評価

従来研究:i.i.d.情報源に対するベイズ符号 :未知パラメータベクトル 事前分布     は既知と仮定 ベイズ符号化確率 [Matsushima 91] ブロック符号化 逐次符号化 ※符号化確率は一致することが知られている

従来研究:i.i.d.情報源に対するベイズ符号 符号化確率の計算 自然共役事前分布を仮定することで解析的に解ける 平均符号長 定理[Clarke 90] :   中の記号  の頻度 :ハイパーパラメータ(既知) 平均冗長度 : パラメータサイズ

従来研究:文脈木情報源に対するベイズ符号 過去に出現した系列に依存して次のシンボルの出現確率が 変わる マルコフ情報源の一般化 確率モデル ⇒考え得る最大の木の深さ d に対して,モデルの数が指数的 に増える 未知 図.文脈木情報源モデル m の例

従来研究:文脈木情報源に対するベイズ符号 ベイズ符号化確率(逐次符号化確率) 計算アルゴリズム [Matsushima95]で効率的な計算アルゴリズムが提案 計算量 O(nd) 平均符号長 定理[Gotoh 98] : 真のモデルのパラメータサイズ

従来研究:補助情報のあるベイズ符号 補助情報のある情報源 確率モデル channel Sources encoder decoder 補助情報源系列

従来研究:補助情報のあるベイズ符号 ベイズ符号化確率(逐次符号化確率) 平均符号長 定理[Matsushima 05] : パラメータサイズ

MC(Multiple Correlated)情報源 Sources encoder decoder channel …

MC(Multiple Correlated)情報源 拡大情報源のi.i.d.系列と見なした場合のベイズ符号 その場合の平均符号長([Clarke90]の結果より) 平均冗長度 相関構造を利用して冗長度を削減する方法を提案

提案符号化法のアイディア 例 K=3で以下の相関構造が既知だとする ⇒   の出現確率は    にしか依存しない パラメータ数2

提案符号化法のアイディア 符号化の例 Step-1: を符号化. Step-2: を補助情報と見なし を符号化.

提案符号化法のアイディア 平均符号長⇒[Clarke90]の結果を適用可能 Step-1: を符号化.

提案符号化法のアイディア 提案符号化の総平均符号長 拡大情報源のi.i.d.系列と見なした場合の平均符号長 ⇒相関構造を利用することで冗長度を削減できる

提案符号化法(相関構造既知の場合) 任意の に対し, の相関構造が既知の場合( は未知) [Scheme A] を順番に符号化 任意の         に対し,               の相関構造が既知の場合(   は未知) [Scheme A]            を順番に符号化     を符号化する場合,            を補助情 報として用い以下の符号化確率で符号化する

提案符号化法(相関構造既知の場合) 任意の         に対し,               の相関構造が既知の場合(   は未知)    の平均符号長 パラメータサイズ 総平均符号長

相関構造のクラス               の相関構造の取り得るクラス       の例

k に対して指数的にモデルの数が増えてしまう 相関構造のクラス k に対して指数的にモデルの数が増えてしまう

相関構造のクラスの制約 完全木の完全部分木で表わされるモデルのクラス 文脈木情報源と本質的に等価なモデルクラスを仮定 ・・・ ・・・ ・・・

提案符号化法(相関構造未知の場合) 任意の に対し, の相関構造が未知の場合( も未知) [Scheme B] を順番に符号化 任意の         に対し,               の相関構造が未知の場合(   も未知) [Scheme B]            を順番に符号化     を符号化する場合,            を補助情 報として用い以下の符号化確率で符号化する. (計算は[Matsushima 95]と等価なアルゴリズム※予稿参照)

提案符号化法(相関構造未知の場合) 任意の に対し, の相関構造が未知の場合( も未知) の平均符号長 総平均符号長 任意の         に対し,               の相関構造が未知の場合(   も未知)    の平均符号長 真の相関構造のパラメータサイズ 総平均符号長

まとめ 複数の相関のある情報源に対するベイズ符 号化法について示した 漸近的な平均符号長を示した [Scheme A]:相関構造が既知 [Scheme B]:相関構造が未知 漸近的な平均符号長を示した [Scheme A]と[Scheme B]が一致

Reference [Clarke 90]B.S. Clarke and A.R. Brron, “Information-theoretic asymptotics of Bayes methods,” IEEE Trans. Inf. Theory, vol.IT-36, no.3, pp.453–471, May 1990. [Matsushima 91] T. Matsushima, H. Inazumi and S. Hirasawa, “A Class of Distortionless Codes Designed by Bayes Decision Theory,” IEEE Trans. Inf. Theory, vol.37, No.5, pp. 1288–1293, 1991. [Matsushima 95] T. Matsushima and S. Hirasawa, “A Bayes coding algorithm for FSMX sources,” In Proc. Int. Symp. of Inf. Theory, pp.388, 1995. [Gotoh 98] M. Gotoh, T. Matsushima, S.Hirasawa, “A generalization of B.S.Clarke and A. R. Barron’s asymptotics of Bayes codes for FSMX sources,” IEICE Trans. fundamentals, vol.E81-A, no.10, pp.2123–2132, 1998. [Matsushima 05] T. Matsushima and S. Hirasawa, “Bayes Universal Coding Algorithm for Side Information Context Tree," In Proc. Int. Symp. of Inf. Theory, pp.2345-2348, 2005.