第3章 線形回帰モデル 修士1年 山田 孝太郎.

Slides:



Advertisements
Similar presentations
1 小暮研究会2 第1章ベイジアンアルゴリズ ム 2値選択 ベルヌーイ試行 尤度原理 同一性 交換可能性 尤度についてのまとめ 環境情報学部3年 渡邊洋一.
Advertisements

『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
データ分析入門(12) 第12章 単回帰分析 廣野元久.
コンピュータビジョン特論 第8回対象追跡 2006年11月22日 加藤丈和.
【MedR】第7回 東京大学医学系研究科 特任助教 倉橋一成.
時系列の予測 時系列:観測値を時刻の順に並べたものの集合
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
ウェーブレットによる 信号処理と画像処理 宮崎大輔 2004年11月24日(水) PBVセミナー.
Pattern Recognition and Machine Learning 1.5 決定理論
Bassモデルにおける 最尤法を用いたパラメータ推定
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
回帰分析.
ベイズ的ロジスティックモデル に関する研究
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率モデルによる 画像処理技術入門 --- ベイズ統計と確率的画像処理 ---
第12章 連続潜在変数 修士 1年 村下 昇平.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
3. 線形回帰および識別 クラシックな機械学習の入門 by 中川裕志(東京大学) 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
第4章 線形識別モデル 修士2年 松村草也.
東京工業大学 機械制御システム専攻 山北 昌毅
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
 統計学講義 第11回     相関係数、回帰直線    決定係数.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第9章 混合モデルとEM 修士2年 北川直樹.
技術コンサルタント 高須 知二 Tomoji TAKASU
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
パターン認識と機械学習 第1章:序論(前半)
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
第14章 モデルの結合 修士2年 山川佳洋.
顧客維持に関するモデル.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
部分的最小二乗回帰 Partial Least Squares Regression PLS
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
ベイジアンネットワーク概説 Loopy Belief Propagation 茨城大学工学部 佐々木稔
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
ベイズ最適化 Bayesian Optimization BO
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
サポートベクターマシン Support Vector Machine SVM
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
ベイズ音声合成における 事前分布とモデル構造の話者間共有
JNNS-DEX-SMI-玉川 公開講座 「交換モンテカルロ法とその応用」
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
実験計画法 Design of Experiments (DoE)
パターン認識特論 カーネル主成分分析 和田俊和.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

第3章 線形回帰モデル 修士1年 山田 孝太郎

内容 線形基底関数モデル バイアス-バリアンス分解 ベイズ線形回帰 ベイズモデル比較 エビデンス近似

はじめに 回帰とは? D次元の入力ベクトル(観測値)とそれに対応する訓練データ集合から,新しい観測値に対応する目標値を予測するもの 線形回帰モデル 基底関数の線形結合を回帰式とするもの

1.線形基底関数モデル 一般形:基底関数の線形結合 B 基底関数 基底関数の例 :ガウス基底関数 :シグモイド基底関数

1.1 最尤推定と最少二乗法 tを関数とガウスノイズの和であらわすと つまり,tは次の分布に従う 入力と目標値が与えられたときの尤度関数

1.1 最尤推定と最少二乗法 尤度関数の対数をとって最小化する =0とおいてwについてとくと, ムーア・ペンローズの擬似逆行列

1.2 最小二乗法の幾何学 幾何学的に考える ⇒Yはtの線形部分空間Sへの正射影 二乗和誤差 はtとyの「距離の二乗」 1.2 最小二乗法の幾何学 幾何学的に考える 二乗和誤差 はtとyの「距離の二乗」 例)2つのベクトルで張られる線形部分空間 最尤推定解wMLを求めることは, 線形部分空間Sにあるベクトルの中で, 最もtと近いベクトルを求めること. ⇒Yはtの線形部分空間Sへの正射影

1.4 正則化最小二乗法 過学習を防ぐため,誤差関数 に正則化項を加えた を最小化する. 正則化項の例 単純形: 一般形: 1.4 正則化最小二乗法 過学習を防ぐため,誤差関数 に正則化項を加えた 例)様々なqに対する正則化項の等高線表示 を最小化する. 正則化項の例 単純形: 一般形: q=1のときlasso

1.4 正則化最小二乗法 の最小化は を,制約条件 の下で最小化するのと等価 例)2次元の場合 ω1, ω2 に関する楕円の式 q=2のとき 1.4 正則化最小二乗法 の最小化は を,制約条件 の下で最小化するのと等価 q=2のとき q=1のとき ※疎な解が得られる 例)2次元の場合 ω1, ω2 に関する楕円の式

2.バイアス-バリアンス分解 損失関数の予測値(条件付き期待値) 期待二乗損失 データ集合の取り方を考慮 この項を最小化したいが…データは有限個 データ集合の取り方を考慮

2.バイアス-バリアンス分解 期待値を取ると バイアス: 回帰関数とすべてのデータ集合の取り方に関する予測値の平均からのずれ (バイアス)2 バリアンス バイアス: 回帰関数とすべてのデータ集合の取り方に関する予測値の平均からのずれ バリアンス: 個々のデータ集合に対する解が特定のデータ集合の選び方に関する期待値の周りでの変動の度合い

2.バイアス-バリアンス分解 もとの損失関数に戻すと バイアスとバリアンスをバランスよく小さくすることが必要

2.バイアス-バリアンス分解 例) サンプル25点からなる100種類のデータ集合 25個のガウス関数をフィット バイアス大,バリアンス小 バイアス小,バリアンス大

3.ベイズ線形回帰 最尤推定 ベイズ線形回帰 モデルの複雑さはデータサイズに依存 正則化項で調整 過学習の可能性 パラメータを確率変数として扱う

3.1 パラメータの分布 尤度関数 の指数部分はwの2次関数 ⇒事前分布はガウス分布 事後分布

3.1 パラメータの分布 事前分布を とすると,事後分布は次のように単純になる

3.1 パラメータの分布 例)線形基底関数モデル 関数 を復元する. 初期値を適当に(復元する関数周辺で)取り出す 3.1 パラメータの分布 例)線形基底関数モデル 関数 を復元する. 初期値を適当に(復元する関数周辺で)取り出す 初期値から尤度関数を求める 尤度関数と事前分布をかけて,パラメータの事後分布を求める パラメータの事後分布から適当に取り出し,関数を推定する. データ点を再度取り出す 2~5を繰り返す

3.1 パラメータの分布 事前分布 尤度関数 事後分布 × = × = ・・・ × = ・・・

3.2 予測分布 予測分布:tを予測したい 結局 Wに関する不確かさ データに含まれる ノイズ

3.2 予測分布 例)ガウス基底関数結合モデルの へのあてはめ N=1 N=25 N=2 N=4 ガウス予測 分布の平均 +-標準偏差 例)ガウス基底関数結合モデルの    へのあてはめ N=1 N=25 N=2 N=4 ガウス予測 分布の平均 +-標準偏差 wの事後分布から選んでプロットしたy(x, w)

3.3 等価カーネル 訓練データの目標値だけから予測する 線形基底関数モデルに対して 事後分布の平均解を導入 3.3 等価カーネル 訓練データの目標値だけから予測する 線形基底関数モデルに対して 事後分布の平均解を導入 つまり,訓練データの目標値tnの線形結合 B 平滑化行列または等価カーネル

3.3 等価カーネル ガウス基底関数に対するk(x,x’)をプロット x’ x ⇒xに近いx’を大きく重みづけ

3.4 ベイズモデル比較 モデルエビデンス ベイズ因子 データ集合 上のモデル集合 からモデル選択をベイズ的に行う 3.4 ベイズモデル比較 データ集合 上のモデル集合 からモデル選択をベイズ的に行う モデルエビデンス モデルでデータがどれぐらい説明できているかを表す. ベイズ因子

3.4 ベイズモデル比較 モデルエビデンスは確率の加法・乗法定理により 3.4 ベイズモデル比較 モデルエビデンスは確率の加法・乗法定理により となる. ⇒パラメータを事前分布から適当にサンプリングしたときにデータ集合 が生成される確率

3.4 ベイズモデル比較 例)パラメータ1つのモデル 事後分布:最頻値付近で尖って,幅 事前確率:平坦で,幅 対数をとると B B 3.4 ベイズモデル比較 例)パラメータ1つのモデル 事後分布:最頻値付近で尖って,幅 事前確率:平坦で,幅 対数をとると B B データへの フィッティング度 ペナルティ項

3.4 ベイズモデル比較 3つのモデルの比較. 複雑さは の順で大きくなる 生成できるデータ集合の範囲が狭く,データにフィットできない. 3.4 ベイズモデル比較 3つのモデルの比較. 複雑さは      の順で大きくなる 生成できるデータ集合の範囲が狭く,データにフィットできない. 得られるデータは広範囲だが,割り当てられる確率は低い

3.5 エビデンス近似 パラメータwの分布を決める超パラメータα,βについても事前分布を考える 周辺尤度関数を最大化することが目標 B B

5.1 エビデンス関数の評価 周辺尤度関数をwに関する積分で表現 これまでの結果より B ←平方完成

5.2 エビデンス関数の最大化 周辺尤度の対数をとると B これを最大化するα,βの値は B