最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.

Slides:



Advertisements
Similar presentations
統計解析第 11 回 第 15 章 有意性検定. 今日学ぶこと 仮説の設定 – 帰無仮説、対立仮説 検定 – 棄却域、有意水準 – 片側検定、両側検定 過誤 – 第 1 種の過誤、第 2 種の過誤、検出力.
Advertisements

Lesson 9. 頻度と分布 §D. 正規分布. 正規分布 Normal Distribution 最もよく使われる連続確率分布 釣り鐘形の曲線 -∽から+ ∽までの値を取る 平均 mean =中央値 median =最頻値 mode 曲線より下の面積は1に等しい.
土木計画学 第3回:10月19日 調査データの統計処理と分析2 担当:榊原 弘之. 標本調査において,母集団の平均や分散などを直接知ることは できない. 母集団の平均値(母平均) 母集団の分散(母分散) 母集団中のある値の比率(母比率) p Sample 標本平均 標本分散(不偏分散) 標本中の比率.
統計学 西山. 平均と分散の標本分布 指定した値は μ = 170 、 σ 2 = 10 2 、データ数は 5 個で反復 不偏性 母分散に対して バイアスを含む 正規分布カイ二乗分布.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
数理統計学(第ニ回) 期待値と分散 浜田知久馬 数理統計学第2回.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
一般化線形モデル(GLM) generalized linear Models
経済統計学 第2回 4/24 Business Statistics
数理統計学(第五回) 統計的推測とは? 浜田知久馬 数理統計学第5回.
統計解析 第7回 第6章 離散確率分布.
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
統計解析 第8回 第7章 2項分布.
統計学 11/13(月) 担当:鈴木智也.
統計解析 第9回 第9章 正規分布、第11章 理論分布.
Bassモデルにおける 最尤法を用いたパラメータ推定
統計的仮説検定の考え方 (1)母集団におけるパラメータに仮説を設定する → 帰無仮説 (2)仮説を前提とした時の、標本統計量の分布を考える
放射線の計算や測定における統計誤差 「平均の誤差」とその応用(1H) 2項分布、ポアソン分布、ガウス分布(1H) 最小二乗法(1H)
ベイズ的ロジスティックモデル に関する研究
第2章補足Ⅱ 2項分布と正規分布についての補足
統計解析 第8回 第7章 2項分布.
統計学 11/19(月) 担当:鈴木智也.
3章 Analysing averages and frequencies (前半 p )
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
統計解析 第10回 12章 標本抽出、13章 標本分布.
統計学 11/08(木) 鈴木智也.
計測工学 -測定の誤差と精度2- 計測工学 2009年5月17日 Ⅰ限目.
最尤推定によるロジスティック回帰 対数尤度関数の最大化.
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
ガウス過程による回帰 Gaussian Process Regression GPR
母集団と標本:基本概念 母集団パラメーターと標本統計量 標本比率の標本分布
応用数理工学特論 期末発表 西口健太郎 渡邉崇充
相関分析.
第9章 混合モデルとEM 修士2年 北川直樹.
応用統計学の内容 推測統計学(inferential statistics)   連続型の確率分布   標本分布   統計推定   統計的検定.
正規分布確率密度関数.
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
標本分散の標本分布 標本分散の統計量   の定義    の性質 分布表の使い方    分布の信頼区間 
超幾何分布とポアソン分布 超幾何分布 ポアソン分布.
主成分分析 Principal Component Analysis PCA
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
部分的最小二乗回帰 Partial Least Squares Regression PLS
早稲田大学大学院商学研究科 2014年12月10日 大塚忠義
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
Stepwise (ステップワイズ) 法による 説明変数 (入力変数・記述子・ 特徴量) の選択
経営学研究科 M1年 学籍番号 speedster
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
リッジ回帰(Ridge Regression, RR) Least Absolute Shrinkage and Selection Operator (LASSO) Elastic Net (EN) 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
実験計画法 Design of Experiments (DoE)
Locally-Weighted Partial Least Squares LWPLS 局所PLS
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
統計現象 高嶋 隆一 6/26/2019.
転移学習 Transfer learning
混合ガウスモデル Gaussian Mixture Model GMM
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌

最尤推定・最尤法とは? データが与えられたときに、そのデータが従う確率分布のパラメータを 求める方法 データが与えられたときに、そのデータが従う確率分布のパラメータを 求める方法 尤度関数 (もっともらしさをあらわす関数) を最大化する (微分して 0 とする)

コインの表が出る確率は? あるコインを 100 回投げたら、60回表が出た コインの表が出る確率 θ を最尤推定により求めてみる ここでは、θ がパラメータ θ の確率で表が出るコインを100回投げて、60回表が出る確率 L は L を尤度関数と呼ぶ

尤度関数を最大にする θ を求める 尤度関数 L を最大にする θ = 一番もっともらしい θ L を最大にする θ と、L の対数を最大にする θ は同じ L の対数のほうが扱いやすいため、対数に変換する

θ で微分して 0 log L(θ) が最大値を取る log L(θ) が極大値を取る log L(θ) を θ で微分したものが 0

二項分布 結果が2通り A or B しかないときに (コインの表・裏など)、 n 回 行ったとき A になった回数の確率分布 A になる確率を θ とすると、A が k 回おこる確率は、 θ がわからない ( θ がパラメータの) とき、尤度関数 L(θ) は

正規分布 (ガウス分布, Gaussian distribution) データが、平均値付近に一番固まっていて、ばらつきのある確率分布 平均:μ 分散:σ2

正規分布 補足 適当に μ と σ を決めて、上の式にいろいろ x を代入して N を計算すると、 前ページの青い線が得られる 頭の は、確率なので にするためのもの

最尤推定でパラメータを求める データ x(1), x(2), …, x(m) が得られたときに、これらが正規分布に従うとして パラメータ μ, σ2 を最尤推定により求める m はサンプル数 θ = ( μ, σ2 ) 正規分布で、たとえばデータ x(1) になる確率は、 N に x(1) を代入して得られた値 正規分布で、データ x(1), x(2), …, x(m) になる確率 L (尤度関数) は、 N にそれぞれ代入して、すべてかけ合わせたもの (確率のかけ算)

尤度関数を最大にする μ, σ2 を求める 尤度関数 L(μ, σ2) は L を最大にする μ, σ2 と、L の対数を最大にする μ, σ2 は同じ L の対数のほうが扱いやすいため、対数に変換する

対数尤度関数

μ で偏微分して 0 L(μ, σ2) が最大値を取る L(μ, σ2) が極大値を取る L(μ, σ2) を μ で偏微分したものが 0

μ を求める これは、いわゆるサンプルの平均値

σ2 で偏微分して 0 L(μ, σ2) が最大値を取る L(μ, σ2) が極大値を取る

σ2 を求める これは、いわゆるサンプルの分散 (一般的には m ではなく m-1 で割りますが、これは、真の分散は サンプルから計算される分散の期待値に等しく、サンプルの分散を 計算するときはサンプルの平均を用いているため小さく見積もられる ことに由来します。具体的な計算は複雑になるため省きます。)

変数の標準化を考える 標準化 (オートスケーリング) サンプルから平均値を引き、 サンプルを標準偏差 (分散の平方根) で割る操作 実は標準化は、各変数のデータ分布を正規分布と仮定して、 最尤推定により求められた平均値・分散を利用して行っていた

最尤推定 まとめ 与えられたデータ・情報から、それが起こる確率 (尤度関数) L(θ) を 求める θ は (複数の) パラメータ 尤度関数の対数 log L(θ) を計算する log L(θ) を θ で微分して 0 とし、 θ を求める 微分できれば、どんな分布でも与えられたデータからパラメータの 値を計算できる!