予測に用いる数学 2004/05/07 ide.

Slides:



Advertisements
Similar presentations
中学校段階での 相関関係の指導 宮崎大学教育文化学部 藤井良宜. 概要 現在の学習指導要領における統計の扱い これまでの相関関係の指導 相関関係の指導のポイント 相関関係.
Advertisements

2016 年度 計量経済学 講義内容 担当者: 河田 正樹
陰関数定理と比較静学 モデルの連立方程式体系で表されるとき パラメータが変化したとき 如何に変数が変化するか 至るところに出てくる.
エクセルと SPSS による データ分析の方法 社会調査法・実習 資料. 仮説の分析に使う代表的なモデ ル 1 クロス表 2 t検定(平均値の差の検定) 3 相関係数.
0章 数学基礎.
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
『基礎理論』 (C)Copyright, Toshiomi KOBAYASHI,
データ分析入門(12) 第12章 単回帰分析 廣野元久.
多変量解析 -重回帰分析- 発表者:時田 陽一 発表日:11月20日.
重回帰分析入門 経済データ解析 2009年度.
実証分析の手順 経済データ解析 2011年度.
重回帰分析入門 経済データ解析 2011年度.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
回帰分析.
ベイズ的ロジスティックモデル に関する研究
情報数理Ⅱ 平成27年9月30日 森田 彦.
第3章 重回帰分析 ー 計量経済学 ー.
第3章 重回帰分析 ー 計量経済学 ー.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
数理論理学 第1回 茨城大学工学部情報工学科 佐々木 稔.
統計学 11/08(木) 鈴木智也.
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの      数学的基礎 3.5 情報量基準を用いた構造学習 岩崎唯史.
誤差の二乗和の一次導関数 偏微分.
脳活動に関するデータ データの種類 データの特徴 脳波・脳磁図・fMRI画像 脳活動とパフォーマンスの関係はきわめて冗長。
第6章 カーネル法 修士2年 藤井 敬士.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
相関分析.
データ解析 静岡大学工学部 安藤和敏
4章までのまとめ ー 計量経済学 ー.
奈良女子大集中講義 バイオインフォマティクス (9) 相互作用推定
タップ長が一般化された 適応フィルタの統計力学
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
T2統計量・Q統計量 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
Basic Tools B4  八田 直樹.
独立成分分析 (ICA:Independent Component Analysis )
Introduction to Soft Computing (第11回目)
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
主成分分析 Principal Component Analysis PCA
Extractor D3 川原 純.
Data Clustering: A Review
統計解析 第1回 条件付き独立性と確率的グラフィカルモデル 本講義の全体像
様々な情報源(4章).
部分的最小二乗回帰 Partial Least Squares Regression PLS
第3章補足2 多変量データの記述 統計学基礎 2010年度.
不完全な定点観測から 真の不正ホストの分布が分かるか?
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
経営学研究科 M1年 学籍番号 speedster
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
データ解析 静岡大学工学部 安藤和敏
最小二乗法による線形重回帰分析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
重回帰分析入門 経済データ解析 2008年度.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
ベイジアンネットワーク概説 第3章 ベイジアンネットワークモデルの 数学的基礎 3.1 ベイジアンネットワークモデルの概要
情報数理Ⅱ 平成28年9月21日 森田 彦.
重回帰分析入門 (第5章補足) 統計学 2007年度.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
回帰分析入門 経済データ解析 2011年度.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
シミュレーション論Ⅱ 第2回 モデル化の手法.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

予測に用いる数学 2004/05/07 ide

発表の流れ 予測に用いる数学の紹介 数学を使うと便利なこと 各分野の紹介と応用例 matsuからのリクエスト 使えるようになるには?? 紹介した分野それぞれについて

予測 in ユビキタス 人の▲▲に合わせた●● in ▲▲ 移動 意図 in ●● 機器制御 アプリケーション移送

予測手法 確率的アプローチ 論理的アプローチ 複雑系への対応 結果の確率的表現(A…80%,b…20%) 因果関係(原因/結果)を元に予測 厳密な結果(true or false)

確率的な予測に用いる数学 微分 時間的変化からの予測 行列 多次元空間間の予測 統計 履歴の情報量圧縮

論理的な予測に用いる数学 論理学 命題論理 述語論理 情報理論 確率 bitと対数 情報量(エントロピー)

数学って・・・? 概念をモデル化 使えるようになるには?? →それぞれの分野が扱う概念を理解 数式は厳密性を備える 頭の中を整理・考えを人に伝える 使えるようになるには?? 概念から数式を生み出せるように 数式から概念を理解できるように →それぞれの分野が扱う概念を理解

各分野の紹介 微分 行列 統計 論理 情報理論

微分の基礎 微分=『変化』 連続した値に対して有効 微分を用いた予測 ex.雲が多くなってきたから雨が降りそう ある変数tに対してt +Δtを予測 t -Δtやt -2Δtの値を参考にする

微分の応用例 不完全なデータの補完(最小2乗法) ex.既存のデータ(Point)を元に 全体像(Line)を作成する

行列の基礎 行列=『多次元への対応』 結果が複数の次元となる場合 ex.写像計算(ある物体の影の計算) t –Δt,s-Δs,・・・のn次元変数から 結果となるm次元の答えを得るのに用いる

行列の応用例 意味空間上の距離

統計の基礎 多数のデータを代表する値を算出 平均,分散,偏差 複数の変数をまとめて次元を縮小する 相関が同じ変数の発見

統計の応用例 重回帰分析 重回帰分析による予測 多数の変数から一つの結果を予測 データの集合(履歴等)から相関を算出 相関を係数とした式を作成 式に現在の値を代入

論理学の基礎 命題論理 述語論理 論理記号¬,∧,∨,⇒,⇔の利用 ∀,∃の利用 一階と多階 ∃xP(x)と∃P∀xP(x) 述語に付けられるか付けられないか

情報理論の基礎1 情報量(単位:bit ) I=-logP(A)で表される 珍しい出来事の方が情報量が多い ex.ミッチーがオミクロンにいるかいないか?

情報理論の基礎2 Aが起きる確率 確率の性質 P(A)と表記 独立性 条件付き確率 さいころの例 ー中学入試問題より さいころの例 ー中学入試問題より 条件付き確率 道を行く人が傘を持っている確率と朝の天気予報 P(B|A)…Aが起きた場合,Bの起きる確率

情報理論の基礎3 エントロピー 情報の複雑性 2つの選択肢が50%ずつの時は高い 90%10%と偏りが出るにつれ,低くなる

情報理論の基礎4 相互情報量 P(A)からP(A|B)になったとき エントロピーの変化

予測への応用 Aによって変化するBの確率 ideがSFCにいる確率:70% ideがSFCにいない確率:30%

情報理論と関わる学習 決定木学習 ベイジアンネットワーク 木を構築する際,相互情報量を 事前確率・事後確率をネットワークで表現 柔らかい論理関係を表現したともいえる

学習アルゴリズムの分類 確率的予測 ベイジアンネットワーク 中間 ニューラルネットワーク 論理的予測 決定木学習