人工知能概論 第11回学習と認識(2) パターン認識

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
Building text features for object image classification
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
11章 ボリュームレンダリングを学ぶ 本来は目に見えない内部情報をレンダリングし可視化する技術
ニューラルネットのモデル選択 村田研究室 4年  1G06Q117-5 園田 翔.
画像処理論.
Pattern Recognition and Machine Learning 1.5 決定理論
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
人工知能概論 第10回 学習と認識(1) クラスタリング
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
Bias2 - Variance - Noise 分解
回帰分析.
雑音重み推定と音声 GMMを用いた雑音除去
人工知能概論 第6章 確率とベイズ理論の基礎.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
確率・統計輪講資料 6-5 適合度と独立性の検定 6-6 最小2乗法と相関係数の推定・検定 M1 西澤.
第4章 線形識別モデル 修士2年 松村草也.
ガウス過程による回帰 Gaussian Process Regression GPR
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
決定木とランダムフォレスト 和田 俊和.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
P3-12 教師が真の教師のまわりをまわる場合のオンライン学習 三好 誠司(P)(神戸高専) 岡田 真人(東大,理研,さきがけ)
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
教師がコミティマシンの場合の アンサンブル学習
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
第5章 特徴の評価とベイズ誤り確率 5.5 ベイズ誤り確率の推定法 [1] 誤識別率の偏りと分散 [2] ベイズ誤り確率の上限および下限
訓練データとテストデータが 異なる分布に従う場合の学習
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
主成分分析 Principal Component Analysis PCA
Data Clustering: A Review
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
データの型 量的データ 質的データ 数字で表現されるデータ 身長、年収、得点 カテゴリで表現されるデータ 性別、職種、学歴
SIFTとGraph Cutsを用いた 物体認識及びセグメンテーション
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
教師がコミティマシンの場合の アンサンブル学習
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
回帰分析(Regression Analysis)
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

人工知能概論 第11回学習と認識(2) パターン認識 立命館大学 情報理工学部 知能情報学科 谷口忠大

Information このスライドは「イラストで学ぶ人工知能概論」を講義で活用したり,勉強会で利用したりするために提供されているスライドです.

STORY 学習と認識(2) ホイールダック2号はクラスタリングによって,目で見た物体をいくつかのグループに分けることに成功した.これで,新しい物体を見たときにもその物体がどのグループに属するかがわかるだろう.そうすれば,ホイールダック2号は目の前にあるものが何かわかるに違いない.例えば,目の前の対象が宝箱なのかゴールなのかがわかるに違いない. しかし,ホイールダック2号は宝箱を五つほど開けたところで気づいた.「どうやら,宝箱には財宝が入っているものと,罠が入っているものがあるらしい.」その2種類はどうも宝箱の見た目が少し違うようなのだが,他のゴールや普通の道に比べると,よく似ていたために,教師なし学習のクラスタリングの結果としては,同じクラスタになっていた. これではホイールダック2号にとっては区別がつかない.しかし,この「財宝が入っていた」宝箱の画像と「罠が入っていた」宝箱の画像を集めれば,その違いを学習することができるのではないだろうか.

仮定 学習と認識(2) ホイールダック2号は適切な画像特徴量を有限次元ベクトルで取得できるものとする. 仮定 学習と認識(2) ホイールダック2号は適切な画像特徴量を有限次元ベクトルで取得できるものとする. ホイールダック2号は分類のための教師信号を認識することができるものとする.

Contents 11.1 機械学習の基礎 11.2 パターン認識 11.3 回帰問題 11.4 分類問題

11.1.1 機械学習の分類 内部モデル学習 時系列データ学習 回帰問題 強化学習 最適化問題 Genetic Algorithm クラスタリング 低次元化 データマイニング

11.1.5 機械学習の共通問題 結局は関数fの最適化 訓練データ(training data)とテストデータ(test data) 学習器は結局は入力から出力への変換を学習する数学的存在としてモデル化される. より具体的に言うと,学習器は何らかの関数f を持ち,これを関数f の内部パラメータθ を変化させることで学習する. このθ はニューラルネットワークの結合重みであったり,強化学習器のQ 値であったりする. 訓練データ(training data)とテストデータ(test data) 機械学習においては学習用データとテスト用データを区別することが重要である.特に教師あり学習では学習用データに対しては教師信号として「答え」が与えられるため,正しい「答え」を出力できるようになるのは当たり前である. 学習用データで学習した学習器が,テスト用データに対して正しい答えを返せるようになるのが大切である.

演習11-1 機械学習の分類 以下の機械学習はそれぞれ「教師あり学習」「教師なし学習」「強化学習」のいずれにあたるか? 問題を解くと得点だけがしめされて,「後のことは自分で考えなさい!」と言われる試験 問題を解くとそれぞれの解答が示されて「後のことは自分で考えなさい!」と言われる試験 100人のマンガのキャラの絵を見せられて「キャラの類似性にもとづいて10グループにわけよ」と言われる課題 カピバラの写真10枚を「これがカピバラだ」と見せられた後に,デグーの写真10枚を「これがデグーだ」と見せられる.その後にどちらかの写真を見せられて,それが何かを当てる課題. 自分一人でペットボトルに入れるビー玉の数を変えては,風呂に投げ入れ,沈むかどうかを判定し,何個入れれば風呂の水に沈むかというルールを学習すること. 100件のワンルーム不動産の物件に対して,駅からの距離,床面積,風呂トイレの有無,賃料を収集し,駅からの距離,床面積,風呂トイレの有無から賃料を予測出来るようにするタスク.

Contents 11.1 機械学習の基礎 11.2 パターン認識 11.3 回帰問題 11.4 分類問題

11.2.1 パターン認識と応用 パターン認識とは画像や音声などデータに対して行う情報処理で,観測されたデータを予め定められた複数の概念のうちの一つに対応させる処理である.この概念はクラスと呼ばれる. 文字認識(character recognition) 画像データを認識して文字の種類を認識する タッチペン入力の書き文字認識など 音声認識(speech recognition) 人間の声を認識して文字列として解釈する. モバイルデバイスでの音声情報検索など 画像認識 カメラ画像に写った物体が何の物体であるか認識する一般物体認識,表情認識などがある.

これらは「違う」という外部知識が存在する クラスタリングとパターン認識の違い 画像の異なり具合を基準にしてクラスの境界を引くよりも,外部的な知識である「ルール」に基いて,その違いを見分けるようにクラスの学習を行う これらは「違う」という外部知識が存在する クラス1 クラスター1 クラス4 クラス2 クラスター2 似てる けどナー クラス3 クラスター3 クラスタリング パターン認識

11.2.2 回帰問題と分類問題 目的 問題の分類 入力ベクトルxに対して正しい出力ベクトルyを出力出来るようになること. 分類問題 (classification) 入力ベクトルに対して正事例であるか負事例であるかの二値{1,0}の値を返すことで分類を行う.(多値のものもあり) 学習データとしては正負のラベルの付けられたデータセットを用いる. 回帰問題 (regression) 入力ベクトルに対して通常実数値の値を返し,未知入力に対する出力の予測を行う. 学習データとしては(x,y)の値の組が渡される.

11.2.2 回帰問題(regression) 回帰問題 回帰問題は入力ベクトルに対して実数値の値を返す連続的な関数関係を学習する問題である.学習後は未知入力に対する出力値の予測を行う.学習データとしては入力ベクトルx と出力ベクトル(もしくは出力値)y の組み合わせ(x,y) の集合が学習器に渡される. 様々な(x, y) 上の点が与えられた時に未知の入力,たとえば,?マークの位置の入力に対する出力y を答えるのが回帰問題である. 回帰問題 Y ? X 結局は y=f(x) を与える関数 f の推定問題となる場合が多い

11.2.3 分類問題(classification) 分類問題は入力ベクトルに対して正事例(true)か負事例(false)かを返す法則を学習する問題である. もしくは,有限個のクラスのどれに属するかを学習する問題. 様々な(x, y) 上の点が与えられた時に未知の入力,たとえば,?マークの位置の入力に対する出力y を答えるのが分類問題である. Y 正事例 ? X 負事例 x2 2D x1 結局はy=f(x) を与える関数 f の推定問題となる場合が多い

主要な手法 回帰問題 分類問題 線形回帰 一般線形モデル ニューラルネットワーク カーネル回帰 ガウス過程回帰(GP) その他 パーセプトロン ニューラルネットワーク SVM(サポートベクターマシン) ランダムフォレスト 混合ガウス分布 ナイーブベイズフィルタ その他

演習11-2 教師あり学習の分類 以下の学習はそれぞれ「分類問題」「回帰問題」のいずれにあたるか? カピバラの写真10枚を「これがカピバラだ」と見せられた後に,デグーの写真10枚を「これがデグーだ」と見せられる.その後にどちらかの写真を見せられて,それが何かを当てる課題. 自分一人でペットボトルに入れるビー玉の数を変えては,風呂に投げ入れ,沈むかどうかを判定し,何個入れれば風呂の水に沈むかというルールを学習すること. 100件のワンルーム不動産の物件に対して,駅からの距離,床面積,風呂トイレの有無,賃料を収集し,駅からの距離,床面積,風呂トイレの有無から賃料を予測出来るようにするタスク. 初速度をV [m/s]して弾丸を射出し,その落下点x[m]を多数計測することで V-xの関係を学習し一般法則を導き出そうとすること.

Contents 11.1 機械学習の基礎 11.2 パターン認識 11.3 回帰問題 11.4 分類問題

11.3.1 予測誤差最小化による学習 回帰問題を解くための最も基本的な方法は,入力x と出力y の関係がy = f(x; θ) という関係にあると考え,予測誤差を最小化するように学習器の最適なパラメータθ∗ を求める方法である.

最小二乗法 与えられたデータに対して近似誤差が最小になるように関数f(x)のパラメータを調整する. 最小二乗法 再急降下法(勾配法) 誤差が徐々に小さくなるように,誤差の偏微分を計算して逆方向にパラメータを修正 Y Y=f(x)=ax 最小化 パラメータ X

最急降下法(勾配法) 誤差が徐々に小さくなるように,誤差の偏微分を計算して逆方向にパラメータを修正 具体的には勾配(gradient)を計算し,その逆方向に更新する. 多変数の場合,下記のようになる,

一変数線形関数については一般形を解いてみよう! 線形回帰:最小二乗法(狭義) 最小二乗法 f(x)が線形関数の場合は解析的に(閉形式で)解ける 一変数線形関数については一般形を解いてみよう!

演習11-3 最小二乗法 xとyは本質的には線形関係を持っている(y=ax+b).しかし,xに対するyの値を計測する時に必ず誤差が生じる. (x,y)=(1,2),(2,4),(3,5),(4,7)の観測が得られた際に,最小二乗法にもとづいて a, b を求めよ.

11.3.3 一般線形モデル 線形回帰では,線形な関数,つまりグラフにプロットしたときに直線や平面になる関数関係しかモデル化できない. 線形回帰の枠組みをそのまま拡張し,非線形関数に対応する簡便な方法として一般線形モデルが存在する.

11.3.4 ニューラルネットワーク 人の脳で行われている情報処理を模倣した情報処理モデルである. 回帰問題にも分類問題にも用いることができる. BP法(勾配法の効率的計算方法)によって学習する.

Contents 11.1 機械学習の基礎 11.2 パターン認識 11.3 回帰問題 11.4 分類問題

11.4.1 識別モデルと生成モデル 識別モデル 生成モデル 正事例と負事例を区別するための境界線を訓練データから直接的に求めようとする. 分類対象となるデータがどのような確率モデルから生成されたかをモデル化し,そのモデルに基づいて分類を行う.

複雑な分離面も表現可能.汎化性能が大変高い!便利! 11.4.2 サポートベクトルマシン SVM は線形分類器であるパーセプトロンにカーネル法(kernel method)を組み合わせることによって実現される 複雑な分離面も表現可能.汎化性能が大変高い!便利! 識別モデル

11.4.3 ナイーブベイズモデル ナイーブベイズモデル(naive Bayes model) は生成モデルに基づき分類を行うために用いられる最も単純なモデルの一つである. 生成モデル

スパムメールの ナイーブベイズフィルタ メールがスパムメールかどうかを判定する分類問題を考える. 問:メールに「お得」「女子高生」が含まれていたときのスパムメール確率はいくらか? スパムフィルタが つくれます! 訓練データから 学習可能!

問11-4 スパムフィルタ 「お世話」「女子高生」がメールに含まれて,「お得」が含まれていなかった場合,届いたメールがスパムメールである確率をナイーブベイズモデルに基づき計算せよ.(他の条件は教科書の例と等しいとする)

ホイールダック2号の学習 訓練データセット ☓ ◯ 入力信号 教師信号 ☓ ◯ ◯? テストデータセット

まとめ 機械学習の分類法について学んだ. パターン認識とその応用事例について概要を学んだ. 回帰問題と分類問題の区別について学んだ. 線形回帰および一般線形モデルにおける最小二乗法について学んだ. ニューラルネットワークとその学習方法について簡単に学んだ. 識別モデルと生成モデルの区別について学んだ. ナイーブベイズモデルについてスパムメールフィルタの事例を交えて学んだ.