情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

Maxent model への挑戦 - 驚きとドキドキ感の理論 - 大野ゆかり Phillips et al. (2006) Maximum entropy modeling of species geographic distributions. Ecological Modeling 190:
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
1. 補間多項式 n 次の多項式 とは、単項式 の 線形結合の事である。 Definitions: ( 区間, 連続関数, abscissas (データ点、格子点、差分点), 多項 式 ) Theorem. (補間多項式の存在と一意性) 各 i = 0, …, n について、 をみたす、次数が高々 n.
Probabilistic Method 7.7
      ベクトル空間   実数体 体:数の集合で四則がその中で行えるもの 例)有理数全体、実数全体、複素数全体 R:実数体     C:複素数体  ベクトル空間
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
数理統計学(第四回) 分散の性質と重要な法則
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
Pattern Recognition and Machine Learning 1.5 決定理論
統計解析 第9回 第9章 正規分布、第11章 理論分布.
Bassモデルにおける 最尤法を用いたパラメータ推定
AllReduce アルゴリズムによる QR 分解の精度について
Reed-Solomon 符号と擬似ランダム性
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
11.確率モデル 確率・・・不確実性の経済学や金融やファイナンス で重要 密度関数がある場合に期待値を取る計算を中心に、紹介.
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
多変数関数の積分(6/3~24) 重積分(2重積分) 第6章(§5は除く) 重積分の定義 「連続関数は積分可能」
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
統計数理 石川顕一 10/17 組み合わせと確率 10/24 確率変数と確率分布 10/31 代表的な確率分布
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
k 個のミスマッチを許した点集合マッチング・アルゴリズム
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
正規分布における ベーテ近似の解析解と数値解 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
7.4 Two General Settings D3 杉原堅也.
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
Basic Tools B4  八田 直樹.
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
Extractor D3 川原 純.
様々な情報源(4章).
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
サポートベクターマシン Support Vector Machine SVM
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
人工知能特論II 第8回 二宮 崇.
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
7.8 Kim-Vu Polynomial Concentration
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
一般ボルツマンマシンにおける平均場近似自由エネルギーの漸近的挙動
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日 ノンパラメトリックバウンドについて 情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日

発表の流れ 経験過程の一般論 ドンスカークラスの十分条件 凸コスト最小化におけるノンパラメトリックバウンド Tsybakovの低雑音条件

経験過程の理論 (一様大数の法則, 一様中心極限定理)

大数の法則 a.s. 中心極限定理 分布収束 正規分布

d個の関数 大数の法則 多変量中心極限定理 多変量 正規分布 1 2 3 ‥ d

無限(個)の関数 一様大数の法則 一様中心極限定理   上 上の分布 として分布収束 ガウシアンプロセス

例:一様大数の法則 対数尤度関数

例:一様中心極限定理 経験累積分布関数 :真のCDF :経験CDF 一様分布 経験過程 (Kolmogorov-Smirnov検定)

以降,一様中心極限定理が成り立つ 関数族を考える. ※ 一様中心極限定理 → 一様大数の法則 (P-)ドンスカークラス   関数族を考える.  ※ 一様中心極限定理 → 一様大数の法則 (P-)ドンスカークラス 一様中心極限定理が成り立つ関数集合

ドンスカーの必要十分条件 1.有限個の元を任意に持ってきて, その経験過程がある正規分布に収束する. 2.有限個の元でF をうまく近似できる    その経験過程がある正規分布に収束する. 2.有限個の元でF をうまく近似できる   (漸近等連続性⇔漸近タイト) 有限個の元を 増やしてゆくと 間が連続的に つながる θ1 θ2 θ3 θ4 ‥ θk

2.の十分条件 準備:関数集合の複雑さ 関数集合: ε-カバリングナンバー ε-ブラケッティングナンバー と出来るような最小のK :ノルムd によるε-ボールで  を覆うのに必要な最小のボールの個数 ε-ブラケッティングナンバー と出来るような最小のK

2.の十分条件 関数集合: 一様エントロピー条件 有限離散確率測度 の中でsupとる または Dudley積分という

カバリングナンバーの例 d 次元,有界 VC次元 V,有界 それのconvex hull

カバリング/ ブラケッティングナンバーの例 ガウスカーネルにより生成されるRKHSの単位球(d次元,コンパクト集合上) [Steinwart, Scovel: A.S. 2005] ソボレフ空間の単位球:α階連続微分可能なd次元実数空間上の関数 次元が高いほど複雑,滑らかなほど単純

一様なバウンド 関数集合Fの部分集合で二乗ノルムがδ以下の集合 ブラケットでも似たような不等式が成り立つ の場合

Dudley積分について ※ カバリングナンバーは関数集合 の複雑さを表す. 関数集合F を有限個の元で 近似するのに必要な個数を ※ カバリングナンバーは関数集合  の複雑さを表す. 関数集合F を有限個の元で 近似するのに必要な個数を 表している. 積分は解像度を上げてゆく ことに対応. 同じε-ボールの中に 入っている元は高々 2εの距離にある.

Dudley積分の雰囲気をつかむ Hoeffdingの不等式 →一様カバリングナンバー :独立で期待値0の確率変数 s.t. Bernsteinの不等式 →ブラケッティングナンバー :独立で期待値0の確率変数 s.t. ただし,

Maximal-Inequality1 Hoeffdingの不等式に対するMaximal-Ineq. Maximal Inequality 有限個の関数集合:どれも期待値0 Maximal Inequality これを,解像度を細かくしていって 積分(チェイニング)したのがDudley積分

Maximal-Inequality2 Bernsteinの不等式に対するMaximal-Ineq. Maximal Inequality 有限個の関数集合:どれも期待値0 Maximal Inequality

バウンドを出してみる

設定 凸コスト最小化:正則化項なし ロス関数lの条件: リプシッツ連続 Modulus of convexity

:最適解 関数集合 の条件 一様有界 多項式複雑さ とすると リプシッツ連続性より Modulus of convexity

≦ 0 Talagrand’s Concentration Inequality 一様バウンド

Tsybakovの低雑音条件

Tsybakovの低雑音条件 Tsybakovの低雑音条件 (Noise Exponent α) としておく :入力変数の空間 :出力変数の空間 :X,Y上の確率分布 Tsybakovの低雑音条件 (Noise Exponent α) としておく [Tsybakov: 2004, A.S.]

二値判別・経験誤差最小化 :モデルFの複雑さはρ (0≦ ρ ≦ 1) :真の解はモデルに含まれている N個のサンプル 用いる判別機の集合(モデル) 経験リスク 真のリスク (誤り確率) 経験リスク最小化 真の最適解 :モデルFの複雑さはρ (0≦ ρ ≦ 1) :真の解はモデルに含まれている

低雑音条件における汎化誤差 Tsybakovの低雑音条件のもとでは より速い しかし 経験リスク最小化元の真のリスク 経験過程の理論 ≦0 経験過程の理論 しかし Tsybakovの低雑音条件のもとでは Fast Learning Rate より速い [Tsybakov: 2004, A.S.]

論理の概要 Tsybakovの低雑音条件 :リスクが低いなら,真との距離も近い 一様なバウンド ならば すると高い確率で の最適性 一様バウンド (cf:Talagrand’s Concentration Inequality) から同じ論理を繰り返すと 不動点

これらを別々に扱ってはいけない. 近いものは似た振る舞いをする.

終了