最小自乗法.

Slides:



Advertisements
Similar presentations
2016 年度 計量経済学 講義内容 担当者: 河田 正樹
Advertisements

第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
EXCELで学ぶマーケティング統計 第4章 経営学研究科 M1  真島 健.
データ分析入門(12) 第12章 単回帰分析 廣野元久.
寺尾 敦 青山学院大学社会情報学部 社会統計 第13回 重回帰分析(第11章後半) 寺尾 敦 青山学院大学社会情報学部
第4章 回帰分析の諸問題(1) ー 計量経済学 ー.
時系列の予測 時系列:観測値を時刻の順に並べたものの集合
  個人投資家向け株式分析   と予測システム A1グループ  劉 チュン.
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
第3章 2変量データの記述 統計学基礎 2010年度.
重回帰分析入門 経済データ解析 2009年度.
回帰分析 重回帰(1).
プログラミング論 数値積分
相関係数 植物生態学研究室木村 一也.
得点と打率・長打率・出塁率らの関係 政治経済学部経済学科 ●年●組 ●● ●●.
数個、数十個のデータ点から その特徴をつかむ
第2章 単純回帰分析 ー 計量経済学 ー.
3 一次関数 1章 一次関数とグラフ §3 一次関数の式を求めること          (3時間).
重回帰分析入門 経済データ解析 2011年度.
初歩的情報リテラシーと アンケート集計のためのExcel・SPSS講座
回帰分析.
IT入門B2 ー 連立一次方程式 ー.
寺尾 敦 青山学院大学社会情報学部 社会統計 第12回 重回帰分析(第11章前半) 寺尾 敦 青山学院大学社会情報学部
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
第5章 回帰分析入門 統計学 2006年度.
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
数値解析シラバス C言語環境と数値解析の概要(1回) 方程式の根(1回) 連立一次方程式(2回) 補間と近似(2回) 数値積分(1回)
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
頻度論とベイジアンの比較 慶應義塾大学 SFC 小暮研究会 梶田幸作
【小暮研究会2】 「ベイズのアルゴリズム」:序章 【1,2:計量経済分析と統計分析】 【 3:ベイズ定理】
相関分析.
データ解析 静岡大学工学部 安藤和敏
市場規模の予測.
 統計学講義 第11回     相関係数、回帰直線    決定係数.
4章までのまとめ ー 計量経済学 ー.
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
数値積分.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
市場規模の予測.
PADのテンプレート 処理、連接 x0 ← x x ← x0+ u(x0) err ← |x - x0| 判断(選択) x2 ← x3
PADのテンプレート 処理、連接 x0 ← x x ← x0+ u(x0) err ← |x - x0| 判断(選択) x2 ← x3
部分的最小二乗回帰 Partial Least Squares Regression PLS
Rを使用したデータ解析・グラフ描き.
第3章補足2 多変量データの記述 統計学基礎 2010年度.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
Cプログラミング演習資料.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
データ解析 静岡大学工学部 安藤和敏
サポートベクターマシン Support Vector Machine SVM
IF文 START もしも宝くじが当たったら 就職活動する 就職活動しない YES END NO.
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
回帰分析(Regression Analysis)
データ解析 静岡大学工学部 安藤和敏
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
重回帰分析入門 経済データ解析 2008年度.
実験計画法 Design of Experiments (DoE)
重回帰分析入門 (第5章補足) 統計学 2007年度.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
回帰分析入門 経済データ解析 2011年度.
ヒープソート.
プログラミング入門2 第6回 関数 情報工学科 篠埜 功.
3 一次関数 1章 一次関数とグラフ §4 方程式とグラフ         (3時間).
7.2 回帰曲線 身長と体重…関係がありそう? ??? 身長と体重の関係をグラフで観察する.
PADのテンプレート 処理、連接 x0 ← x x ← x0+ u(x0) err ← |x - x0| 判断(選択) x2 ← x3
5.2 グレゴリー・ニュートン(Gregory-Newton)の補間式 (1)導入
Presentation transcript:

最小自乗法

回帰分析 説明変数と目的変数の関係のモデルを推定する統計的手法 説明変数が2つ以上ある場合には,重回帰分析と言う ある変量(説明変数)とその変量に対する望みの結果(目的変数)の値がいくつか与えられる 説明変数が2つ以上ある場合には,重回帰分析と言う

回帰分析 y ^ y=ax+b x 説明変数( x )と目的変数( y )の関係の実測値がいくつか与えられたとする(下図) x に対する y の予測値 y は,y = ax + b で与えられる この直線の最適な係数 a, b を求めることによって,変数 x と y の関係が予測する 係数 a, b を回帰係数と呼ぶ x y 実測値 y=ax+b ^

最小自乗法 回帰係数を求める手法 実測値 yi と予測値 yi (=axi+b) の差(残差)の自乗和を最小にするような回帰係数 a,b を求める 実測値のデータの個数:N xi: i 番目の x の実測値 (i = 1・・・N) yi: xi に対する y の実測値とする (i = 1・・・N) a: 直線の傾き b: 切片 ^

最小自乗法 5月の売上は? 月 売上 Y=3X+120 売上Y 1月 実測値 110 2月 150 3月 120 4月 130 5月 ?  ? 月X

最小自乗法 Y y=a+bx+誤差 誤差の自乗和(図の正方形の和)を最小にするようにして未知係数aとbを求めるので最小自乗法と呼ぶ X

最小自乗法 残差の自乗和: Q Q = Σ(yi - yi)2 = Σ(yi - (axi+b))2 (0) N ^ i=1 N i=1

最小自乗法 Qを最小とする a, b は, = 0 かつ = 0 を満たす = -2Σ(yi - (axi+b)) = 0 - (2) = -2Σxi(yi - (axi+b)) = 0 - (1) = -2Σ(yi - (axi+b)) = 0 - (2)  (1)式を整理すると Σxi(yi - (axi + b)) = 0 Σxiyi - Σ(axixi + bxi)) = 0 Σxiyi - aΣxixi = bΣxi - (3) ρQ ρa ρQ ρb ρQ N ρa i=1 ρQ N ρb i=1 N i=1 N N i=1 i=1 N N N i=1 i=1 i=1

最小自乗法 Σyi – aΣxi – Nb = 0 Σyi – aΣxi = Nb b = 1/N (Σyi – aΣxi) - (4) 前ページ(2)式を整理すると Σyi –Σaxi –Σb = 0 Σyi – aΣxi – Nb = 0 Σyi – aΣxi = Nb b = 1/N (Σyi – aΣxi) - (4) N N N i=1 i=1 i=1 N N i=1 i=1 N N i=1 i=1 N N i=1 i=1

a(ΣxiΣxi-NΣxixi) = ΣxiΣyi-NΣxiyi (4)式を(3)式に代入して N N 1 N N N Σxiyi-aΣxixi= Σxi (Σyi-aΣxi) N i=1 i=1 i=1 i=1 i=1 N N N N N N NΣxiyi-aNΣxixi = Σxi ΣxiΣyi-aΣxi i=1 i=1 i=1 i=1 i=1 i=1 N N N N N N a(ΣxiΣxi-NΣxixi) = ΣxiΣyi-NΣxiyi i=1 i=1 i=1 i=1 i=1 i=1 N N N ΣxiΣyi-NΣxiyi a = i=1 i=1 i=1 (5) N N N ΣxiΣxi-NΣxixi i=1 i=1 i=1 以上のようにして,回帰係数を決定 この時のa,bが予測値と実測値の差の自乗を最小にするような,予測値の式の係数

#include<stdio.h> main() { FILE *infile; int i, n; double a, b, x, y, x_sum, y_sum, xy_sum, xx_sum; if ((infile=fopen("input.dat","r"))==NULL) { printf("can't open file \n"); exit; } n=0; xy_sum=0; x_sum=0; y_sum=0; xx_sum=0; while( fscanf(infile, "%lf%lf\n", &x, &y) != EOF ) { xy_sum=xy_sum+x*y; /* x*y の和 */ x_sum=x_sum+x; /* x の和 */ y_sum=y_sum+y; /* y の和 */ xx_sum=xx_sum+x*x; /* x*x の和 */ n=n+1; /* データの数 n */ a=(x_sum*y_sum-n*xy_sum) / (x_sum*x_sum-n*xx_sum); b=(y_sum-a*x_sum)/n; printf("y = ax + b\n"); printf("a = %lf\nb = %lf\n", a, b); fclose(infile);