数理統計学(第七回) 線形模型とは? 浜田知久馬 数理統計学第7回.

Slides:



Advertisements
Similar presentations
Mathematica による固有値計算の高速化 Eigenvalue calculation speed by Mathematica 情報工学部 06A2055 平塚翔太.
Advertisements

土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
統計学 第3回 西山. 第2回のまとめ 確率分布=決まっている分布の 形 期待値とは平均計算 平均=合計 ÷ 個数から卒業! 平均=割合 × 値の合計 同じ平均値でも 同じ分散や標準偏差でも.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
エクセルと SPSS による データ分析の方法 社会調査法・実習 資料. 仮説の分析に使う代表的なモデ ル 1 クロス表 2 t検定(平均値の差の検定) 3 相関係数.
0章 数学基礎.
主成分分析 主成分分析は 多くの変数の中を軸を取り直すことで より低い次元で表現できるようにする。 データがばらついている方向ほど
データ解析
数理統計学(第ニ回) 期待値と分散 浜田知久馬 数理統計学第2回.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
数理統計学(第四回) 分散の性質と重要な法則
数理統計学(第五回) 統計的推測とは? 浜田知久馬 数理統計学第5回.
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第2章 単純回帰分析 ー 計量経済学 ー.
Bassモデルにおける 最尤法を用いたパラメータ推定
統計的仮説検定の考え方 (1)母集団におけるパラメータに仮説を設定する → 帰無仮説 (2)仮説を前提とした時の、標本統計量の分布を考える
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
回帰分析.
数理統計学  第8回 第2章のエクササイズ 西山.
第3章 重回帰分析 ー 計量経済学 ー.
数理統計学  第8回 西山.
第3章 重回帰分析 ー 計量経済学 ー.
第7回 二項分布(続き)、幾何分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
第 七 回 双対問題とその解法 山梨大学.
第4日目第2時限の学習目標 検査(テスト)の信頼性について学ぶ。 (1)検査得点の構成について知る。 (2)検査の信頼性の定義を知る。
誤差の二乗和の一次導関数 偏微分.
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
母集団と標本:基本概念 母集団パラメーターと標本統計量 標本比率の標本分布
相関分析.
データ解析 静岡大学工学部 安藤和敏
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
正規分布確率密度関数.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
「R入門」  5.7 行列に対する諸機能  10月23日 (木) 発表者 大城亜里沙.
独立成分分析 (ICA:Independent Component Analysis )
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
標本分散の標本分布 標本分散の統計量   の定義    の性質 分布表の使い方    分布の信頼区間 
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
変換されても変換されない頑固ベクトル どうしたら頑固になれるか 頑固なベクトルは何に使える?
パターン認識特論 担当:和田 俊和 部屋 A513 主成分分析
部分的最小二乗回帰 Partial Least Squares Regression PLS
母分散の信頼区間 F分布 母分散の比の信頼区間
プロセスデータ解析学5 -主成分分析- 担当:長谷部伸治     金 尚弘.
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
第3章 線形回帰モデル 修士1年 山田 孝太郎.
経営学研究科 M1年 学籍番号 speedster
データ解析 静岡大学工学部 安藤和敏
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
回帰分析(Regression Analysis)
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
1.基本概念 2.母集団比率の区間推定 3.小標本の区間推定 4.標本の大きさの決定
行列 一次変換,とくに直交変換.
パターン認識特論 カーネル主成分分析 和田俊和.
第3章 統計的推定 (その2) 統計学 2006年度 <修正・補足版>.
第4日目第2時限の学習目標 検査(テスト)の信頼性について学ぶ。 (1)検査得点の構成について知る。 (2)検査の信頼性の定義を知る。
高校数学の知識から、 人工知能・機械学習・データ解析へ つなげる、 必要最低限の教科書
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

数理統計学(第七回) 線形模型とは? 浜田知久馬 数理統計学第7回

例:上皿天秤での重量測定 重さ(α,β)が未知の二つの物体AとBがあるとする. 計3回の重量測定 A単独 Y1 B単独 Y2   AとB一緒に   Y3 これらの測定値と  α, βの関係は? 数理統計学第7回

例の問題の定式化 次のモデルを想定する. Y1 =α+ U1 Y2 = b + U2 Y3 =α+ b+U3 仮定より ただし,U1, U2, U3 は互いに独立で,  E[Ui]= 0, V[Ui]= s2 をみたす確率変数 と仮定する. 仮定より  E[Y1]= α, E[Y2] = b, E[Y3] =α+ b  V[Y1] = s2 ,V[Y2] = s2 , V[Y3] = s2 数理統計学第7回

最良な推定量の求め方 推定量を線形推定量に限定すると αの推定量として という形のものを使うことになる. 不偏性:E[t(Y)] =α t(Y) = c1 Y1 + c2 Y2 + c3 Y3 という形のものを使うことになる. 不偏性:E[t(Y)] =α 分散最小性:V[t(Y)] が最小 数理統計学第7回

期待値についての公式 E[c1Y1 + c2 Y2] = c1E[Y1] + c2E[ Y2] 期待値は線形演算である. c1, c2 を定数, Y1, Y2 を確率変数とすると,次式が成り立つ.これを「期待値の線形性」という. E[c1Y1 + c2 Y2] = c1E[Y1] + c2E[ Y2]   期待値の線形性より次の式も導ける. E[c1Y1 + …+ cn Yn]= c1E[Y1]+ …+ cnE[Yn] 数理統計学第7回

線形性と不偏性の条件 不偏性:E[t(Y)] = α 左辺=c1E[Y1] + c2E[Y2] + c3E[Y3] c1 a+ c2 b + c3 (α+ b)    = (c1 + c3 )α+ (c2 + c3) b これが恒等的に αに等しいためには?       c1+ c3 = 1, c2 + c3 = 0 数理統計学第7回

分散についての公式 V[T]= c12V[Y1]+ c22V[Y2]+ … + cn2V[Yn] これを分散の加法性(加成性)という. 標本 (Y1, Y2, … , Yn) が互いに独立な確率変数であり,統計量 T がその線形式,すなわち, T = c1Y1 + c2Y2 + … + cnYn であるとき,次の公式が成り立つ. V[T]= c12V[Y1]+ c22V[Y2]+ … + cn2V[Yn] これを分散の加法性(加成性)という. 数理統計学第7回

不偏性のもとでの分散最小 不偏性=>c1 + c3 = 1, c2 + c3 = 0 (条件) 分散: V[t(Y)] = V[c1 Y1 + c2 Y2 + c3 Y3 ]  = c12 V[Y1] + c22 V[Y2] + c32 V[Y3}  = c12 s2 + c22 s2 + c32 s2  = (c12 + c22 + c32) s2  これを最小にするには? 数理統計学第7回

力づくの解答 V[t(Y)] =(c12 + c22 + c32) s2 c1 + c3 = 1, c2 + c3 = 0 =(1-2c3+c32 +c32 + c32)s2 =(1-2c3+3c32)s2 =[3(c3 -1/3) 2 +1-1/3]s2 c3= 1/3(c1=2/3,c2=-1/3)⇒V[t(Y)]最小 数理統計学第7回

Lagrange の未定乗数法 p 次元ベクトル x について,等式制約:g(x) = 0 の下で,ある目的関数:f(x) の最大(小)値を求める問題の一つの解法に,ラグランジュの未定乗数法がある. を解くと,この連立方程式の解の中に求める解がある.  数理統計学第7回

ラグランジュの未定乗数法 c1=2/3, c2=-1/3, c3=1/3 Q = c12 + c22 + c32 - l (c1 + c3 - 1) - m (c2 + c3 ) とおき,微分して 0 とおくことで, 2c1 - l = 0, 2c2 - m =0, 2c3 -l - m = 0 c1 + c3 = l/2 + l/2 + m/2 = 1 c2 + c3 = m/2 + l/2 + m/2 = 0     => l = 4/3,m=-2/3 c1=2/3, c2=-1/3, c3=1/3  t(Y) = (2/3) Y1 + (1/3) (Y3 - Y2) 数理統計学第7回

t(Y) = (2/3) Y1 + (1/3) (Y3 - Y2)の意味 自然なαの推定量 T2= Y1 , T3=Y3 - Y2 V[T2]= s2 , V[T3]=2s2 T2,T3の重みつき平均WMを考える. WM=(w2T2+w3T3)/(w2+w3) w2:w3を2:1とすると WM= (2/3) Y1 + (1/3) (Y3 - Y2) = t(Y) 数理統計学第7回

本当に分散が最小? T = 2/3Y1 -1/3Y2 +1/3Y3 E[T]=2/3α-1/3β+1/3(α+β)=α V[T]= (4/9+ 1/9+1/9) s2 =6/9s2 =2/3s2 自然なαの推定量として, T2= Y1を考える. E[T2]=αなので, T2は不偏推定量となるが, V[T2]= s2>V[T]=2/3s2   と分散はV[T]より大きくなる. 数理統計学第7回

演習問題1 βの最良線形不偏推定量を求めよ. 1)不偏性を満たすための条件は. 2)分散が最小になるように係数を決定せよ 3)そのときの分散の大きさを評価せよ. 数理統計学第7回

まとめ:重量推定の例 線形で不偏な推定量の中で,分散が最小なものはどのような推定量か? 線形性の条件は t(Y) = c1 Y1 + c2 Y2 +c3 Y3 不偏性の条件は  c1+ c3 = 1,  c2 + c3 = 0 これと分散最小性から,   c1 = 2/3, c2 = -1/3, c3 = 1/3 => t(Y) = (2/3) Y1 + (1/3) (Y3 - Y2) 数理統計学第7回

不偏推定量の中で分散最小なもの => 最良不偏推定量 線形でかつ不偏な推定量の中で分散が最小なもの => 最良線形不偏推定量 不偏推定量の中で分散最小なもの      => 最良不偏推定量 線形でかつ不偏な推定量の中で分散が最小なもの => 最良線形不偏推定量 最良線形不偏推定量を求めるのは厄介 もっと一般的に簡単に求める方法はないのか? 線形模型の場合,ある条件の下で, 最良線形不偏推定量は最小二乗法で求められる. 数理統計学第7回

最小二乗法とは 観測変数とその期待値の差の二乗和を 最小とする母数の値を,母数の真の値と断 定する母数推定法 最小二乗法とは  観測変数とその期待値の差の二乗和を  最小とする母数の値を,母数の真の値と断 定する母数推定法 線形模型の場合, Q = Σ(Yi - XiTb)2  の b に関する最小値は,Y の関数となる.この関数を b の推定量とする方法   => 最小二乗推定量 数理統計学第7回

最小二乗法の模式図 数理統計学第7回

記号表記 Yi      XiT       b XiTb Y1   [1  0]    α   α Y2   [0  1]    β    β Y3    [1  1]        α+β  数理統計学第7回

最小二乗推定量の計算 Q = (Y1 -α)2 + (Y2 - b)2 + (Y3 -α -b)2 Q を最小にする α,βをa, bとおくと, Q をα,βで偏微分して 0 とおくことで,次の連立方程式の解として求められる. - 2(Y1 - a) - 2(Y3 - a - b) = 0 - 2(Y2 - b) - 2(Y3 - a - b ) = 0 a = [2Y1 + (Y3 -Y2)] /3 b = [2Y2 + (Y3 -Y1)] /3 数理統計学第7回

最小二乗法の良さを示す定理 定理1 (線形推定論の基本定理)  線形模型で誤差の3条件が成り立つとき,未知母数の最小二乗推定量は最良線形不偏推定量である. 定理2 (正規推定論の基本定理)  線形模型で誤差の4条件が成り立つとき,未知母数の最小二乗推定量は最良不偏推定量である. 数理統計学第7回

誤差の4条件 条件1:独立性 => 誤差は独立 独立の定義に第4回で説明 条件2:不偏性 => 誤差の期待値が 0 条件1:独立性 => 誤差は独立      独立の定義に第4回で説明 条件2:不偏性 => 誤差の期待値が 0 E[Ui] = 0 ; i = 1, 2, …, n 条件3:等分散性 => 誤差の大きさは同じ V[Ui] = s2 ; i = 1, 2, …, n 条件4:正規性:誤差の分布は正規分布 数理統計学第7回

記号表記 Y      X         b Xb 3×1   3×2   2×1   3×1 数理統計学第7回

最小二乗法を行列表現すると? Q = (Y - Xb) T(Y - Xb)) 数理統計学第7回

単回帰分析の場合 Q=Σ(yiーxiβ)2 dQ/dβ=ー2Σxi(yiーxiβ)=0より Σxi(yiーxib)=0 数理統計学第7回

補足説明 スカラーをベクトルで微分 => ベクトルの各要素で微分してベクトルと同じ形の行列にしたもの Q=bTa ⇒ dQ/db=a   => ベクトルの各要素で微分してベクトルと同じ形の行列にしたもの Q=bTa  ⇒  dQ/db=a   Q=bTb ⇒  dQ/db=2b   Q=bTCb ⇒  dQ/db=2Cb   (Cは対称行列) 最小二乗法で解を求めるための方程式を正規方程式 normal equation という. 正規方程式の解が最小二乗推定量である.  数理統計学第7回

スカラーをベクトルで微分 要素が3つの場合 Q=bTa=b1a1+ b2a2 + b3a3 dQ/db1= a1 dQ/db2= a2 dQ/db3= a3 dQ/db=[ a1 a2  a3] Q=bTb=b12+ b22+ b32 dQ/db1=2b1 dQ/db2=2b2 dQ/db3=2b3 dQ/db=[2b1 2b2 2b3] =2[b1 b2 b3] 数理統計学第7回

行列について参考にすべきこと 1.1×1 の行列,つまりスカラーは転置   しても変わらない.3T=3 2.横ベクトル ・ 行列 ・ 縦ベクトル   = スカラー    ⇒ cT V[Y] d = dT V[Y] c 3.(AB)T = BTAT 4.XTX は対称行列,   すなわち (XTX)T = XTX 数理統計学第7回

Qの微分 Q = (Y - Xb) T(Y - Xb)) = Y TY - (Xb) TY -Y T Xb+(Xb) TXb = Y TY - bTXTY - Y TXb +bTXTXb (Y TXb )T = bTXTY なので Q = Y TY -2bTXTY +bTXTXb dQ/db= -2XTY +2XTXb b=(X TX)-1X TY 数理統計学第7回

行列の計算 X TX= 1 0 1 1 0 = 2 1       0 1 1  0 1 1 2 1 1 (X TX)-1= 1 2 -1  = 2/3 –1/3 2×2-1×1 -1 2 –1/3 2/3 X TY= 1 0 1 Y1 = Y1+Y3       0 1 1  Y2 Y2+Y3 Y3 数理統計学第7回

行列の計算(続き) (X TX)-1 X TY= 2/3 –1/3 Y1+Y3 –1/3 2/3 Y2+Y3 数理統計学第7回

ガウスマルコフの定理: 線形推定論の基本定理 線形模型で誤差の3条件が成り立つとき,未知母数の最小二乗推定量は最良線形不偏推定量である. 証明は? 最小二乗推定量が線形不偏であることは証明が容易.分散最小性の証明は少し面倒 数理統計学第7回

誤差の条件の行列表現 線形モデル,Y = X b + U において, U1, U2, …, Un が互いに独立,不偏,等分散であれば, =>E[U]=0    V[U]= s2 I (I はn×n単位行列) =>Y1, Y2, …Yn は独立,等分散 =>E[Y] = Xb, V[Y]=s2 I 数理統計学第7回

線形性 b=(X T X )-1 X T Y p×n n×p p×n n×1 bはY1, Y2, …, Ynの線型結合で表現できる. 先の例では b= 2/3Y1-1/3Y2 +1/3Y3  -1/3Y1+2/3Y2 +1/3Y3 数理統計学第7回

不偏性 E[Y] = Xb b=(X TX)-1 XT Y E[b] = E[(X TX)-1 XT Y ] = (X TX)-1 XT E[Y] = (X TX)-1 XT X b = b 数理統計学第7回

定理1の特別な場合として,b が1次元の場合の証明を行う. Y  = X       b + U n×1  n×1 1×1   n×1とかく 最小二乗推定量を b = (XTX)-1 XTYとかく 任意の線形不偏推定量を bu= dTY とすると, E[bu ] = dTE[Y] = dTXb 不偏性より,dTX = I (単位行列,今は1) 数理統計学第7回

共分散の計算 p=3の場合 Z1=α1X1+α2X2+α3X3=αTx Z2=β1X1+β2X2+β3X3=βTx Cov[Z1,Z2]=αT Vβ =α1β1V[X1]+ α1β2Cov[X1,X2]+ α1β3Cov[X1,X3] +α2β1Cov[X2,X1]+ α2β2V[X2]+α2β3Cov[X2,X3] +α3β1Cov[X3,X1]+ α3β2Cov[X3,X2]+α3β3V[X3] Cov[Z1,Z1]=V [Z1] =αT Vα Cov[Z2,Z2]=V [Z2] =βT Vβ 数理統計学第7回

共分散の行列表現 Cov[Z1,Z2]=αT Vβ α1 α2 α3 β1 β2 β3 X1,X2,X3が独立なときは α1 α2 α3   V[X1]    Cov[X1, X2]  Cov[X1, X3]    Cov[X2, X1]   V[X2]     Cov[X2, X3] Cov[X3, X1] Cov[X3, X2]   V[X3] β1 β2 β3 X1,X2,X3が独立なときは Cov[Z1,Z2]=α1β1V[X1]+α2β2V[X2]+α3β3V[X3] 数理統計学第7回

最小二乗推定量の分散 V[b]= V[(X TX)-1 XT Y ] YT=[Y1,Y2,・・・,Yn] Y:n行のベクトル aT=[a1,a2,・・・, an]  a:n行のベクトル YT=[Y1,Y2,・・・,Yn] Y:n行のベクトル V:分散・共分散行列(n×n)  Z=aTY  のとき V[Z]=aT V[Y] a a= [(X TX)-1 XT ] T =X (X TX)-1 とおくと V[b]=(X TX)-1 XT V[Y] X (X TX)-1 と 仮定よりV[Y]= s2 I    Iはn×nの単位行列 V[b]= s2 (X TX)-1 XT X (X TX)-1 = s2 (X TX)-1 数理統計学第7回

V[b]=(X TX)-1 XT V[Y] X (X TX)-1 σ2   σ2     σ2 σ2 X X TX (X TX)-1 (X TX)-1 数理統計学第7回

ガウスマルコフの定理の証明 V[bu] = V[bu- b + b] = V[bu - b] + V[b]+ 2 Cov[bu- b, b] = Cov [dTY - (XTX)-1XTY, (XTX)-1XTY ] = Cov [(dT- (XTX)-1XT) Y, (XTX)-1XTY ] = (dT - (XTX)-1XT) V[Y] X (XTX)-1 = (dTX - (XTX)-1XTX) (XTX)-1 s2 I = (I - I) (XTX)-1 s2 = 0 ゆえに V[bu] = V[bu- b] +V[b]≧V[b] 数理統計学第7回

共分散の計算 Z1=α1X1+α2X2+ ・・・+αpXp=αTx Z2=β1X1+β2X2+ ・・・+βpXp=βTx のとき Cov[Z1,Z2]= Cov[αTx, βTx] =ΣαiβjCov[Xi,Xj] =αT Vβ b= (X TX)-1 XTY =[X(X TX)-1 ]T Y bu -b=[dーX(X TX)-1 ]T Y 数理統計学第7回

先の例での確認 αの最小二乗推定量:b= 2/3Y1-1/3Y2 +1/3Y3 自然なαの不偏推定量:bu =Y1 Cov[bu- b, b] = Cov[1/3Y1+1/3Y2 -1/3Y3 , 2/3Y1-1/3Y2 +1/3Y3 ] = 1/3 2/3V[Y1]-1/3 1/3V[Y2] -1/3 1/3V[Y3] = (2/9-1/9-1/9) s2= 0 bu- bとbは無相関⇒bu- bはbに対して情報を持たない. 数理統計学第7回

まとめ 誤差の3条件(独立性,不偏性,等分散性) が成り立てば,最小2乗推定量に一致 分散最小性の証明:ガウスマルコフの定理 最良線形不偏推定量 t(Y) = c1 Y1 + c2 Y2 + c3 Y3 不偏性:E[t(Y)] =真値 分散最小性:V[t(Y)] が最小 誤差の3条件(独立性,不偏性,等分散性) が成り立てば,最小2乗推定量に一致 分散最小性の証明:ガウスマルコフの定理 数理統計学第7回

演習問題 Y1, Y2, …, Yn が互いに独立で E[Yi] = m, V[Yi] = s2 を満たす確率変数のとき, 問3: m の線形不偏推定量(c1Y1+c2Y2+ … + cnYn)はどのような条件を満たさなければならないか. 問4:その中で分散が最小なもの,つまり最良線    形不偏推定量は? 数理統計学第7回