人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.

Slides:



Advertisements
Similar presentations
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
Advertisements

情報・知能工学系 山本一公 プログラミング演習Ⅱ 第3回 配列(1) 情報・知能工学系 山本一公
人工知能特論 8.教師あり学習と教師なし学習
オンライン学習 Prediction Learning and Games Ch2
「わかりやすいパターン認識」 第1章:パターン認識とは
人工知能特論 6.機械学習概論とバージョン空間法
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
計算の理論 II NP完全 月曜4校時 大月美佳.
アルゴリズムイントロダクション第5章( ) 確率論的解析
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
コンピュータ将棋におけるカーネル法を用いた静的評価関数の学習
ブロック線図によるシミュレーション ブロック線図の作成と編集 ブロック線図の保存と読込み ブロック線図の印刷 グラフの印刷
データ構造と アルゴリズム 知能情報学部 新田直也.
3次元剛体運動の理論と シミュレーション技法
第4章 線形識別モデル 修士2年 松村草也.
回帰モデル・クラス分類モデルを 評価・比較するための モデルの検証 Model validation
ガウス過程による回帰 Gaussian Process Regression GPR
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第25章 単一始点最短路 3節 Bellman-Fordのアルゴリズム
人工知能特論 7.決定木の学習 北陸先端科学技術大学院大学 鶴岡 慶雅.
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
第5章:特徴の評価とベイズ誤り確率 5・3:ベイズ誤り確率とは
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第7章 疎な解を持つカーネルマシン 修士2年 山川佳洋.
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
可視面・不可視面の判定方法と隠れ面(不可視面)の消去法について述べる.
Data Clustering: A Review
部分的最小二乗回帰 Partial Least Squares Regression PLS
CGと形状モデリング 授業資料 1,2限: 大竹豊(東京大学) 3,4限: 俵 丈展(理化学研究所)
Number of random matrices
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
線形判別分析 Linear Discriminant Analysis LDA
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
ベイズ最適化 Bayesian Optimization BO
サポートベクターマシン Support Vector Machine SVM
自己組織化マップ Self-Organizing Map SOM
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
Max Cut and the Smallest Eigenvalue 論文紹介
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
人工知能特論II 第8回 二宮 崇.
パターン認識特論 ADA Boosting.
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
パターン認識特論 ADA Boosting.
モデルの微分による非線形モデルの解釈 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
パターン認識特論 カーネル主成分分析 和田俊和.
わかりやすいパターン認識 第6章 特徴空間の変換 6.5 KL展開の適用法 〔1〕 KL展開と線形判別法 〔2〕 KL展開と学習パターン数
バイオインフォマティクスII 遺伝子発現データの AdaBoostによる判別
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年8月1日 3.2 競合学習
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
各種荷重を受ける 中空押出形成材の構造最適化
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅

今日の講義内容 特徴空間 分離平面 パーセプトロン(Perceptron) 平均化パーセプトロン(Averaged Perceptron) パーセプトロンの収束定理 平均化パーセプトロン(Averaged Perceptron) 講義資料 http://www.jaist.ac.jp/~tsuruoka/lectures/

特徴空間 事例を特徴空間中における点で表現

特徴空間 事例を特徴空間中における点で表現 正例 負例 <Outlook = sunny, Temperature = cool, Humidity = normal> 負例 <Outlook = rain, Temperature = high, Humidity = high>

分離平面 学習とは、学習データを利用して、正例・負例をうまく分離する平面を見つけること

パーセプトロン学習 学習データが線形分離可能であれば、学習データを正しく分離する平面を見つけられる

線形モデル 線形モデルによる2値分類 : サンプル : 特徴ベクトル : 重みベクトル バイアス要素 : サンプル : 特徴ベクトル : 重みベクトル バイアス要素 重みベクトルと特徴ベクトルの内積をとって、それがゼロ以上 であれば +1 (正例と判定)、そうでなければ -1 (負例と判定) を返す関数

パーセプトロン学習アルゴリズム 重みベクトルを要素0で初期化 学習データからランダムにサンプルを選択 分類が間違っていたら以下の式で重みベクトルを更新 正例の場合 負例の場合 すべてのサンプルを正しく分類できるまで 2に戻り繰り返す

学習例 OR の学習 学習データ 負例 正例 正例 正例

Step 1 x1 不正解!

Step 2 x4 不正解!

Step 3 x2 正解!

Step 4 x3 正解!

Step 5 x1 不正解!

分離平面 最終的な重みベクトル r 1 分離平面 q 1 入力(特徴ベクトルの2番目、3番目の要素)を それぞれ q, r とすると

なぜうまく学習できるのか? 正例の分類に失敗した場合 この部分の値が小さすぎた として重みベクトルを更新すると もともとの値 必ず正 少なくとも同じサンプルに関しては間違いにくくなっている

パーセプトロンの収束定理 正例と負例が線形分離可能であるならば、前述のアルゴリズムにより、それらを分離する超平面を有限のステップで見つけられることが保証されている。 データが線形分離可能でないならば、パーセプトロン学習は収束しない 線形分離可能である場合でも、ステップ数が非常に大きくなることがある

収束定理の証明(1) 学習データ 学習データを正しく分類する単位重みベクトルを u とする 特徴ベクトルの大きさの最大値を D とする ・・・式(1) すべての学習サンプルをγ の余裕(マージン)をもって分類できている ・・・式(2)

収束定理の証明(2) k 回目の更新時の重みベクトルを とする u と k+1 回目の更新時の重みベクトルとの内積を考えると ・・・式(3) 分類を間違えたのだから 式(1)より ・・・式(4) 1回の更新につき少なくとも  だけ増えるので

収束定理の証明(3) k+1 回目の更新時の重みベクトルの大きさを考える ・・・式(5) 式(3)より 式(2)より 1回の更新あたり最大でも   しか増えないので ・・・式(5)

収束定理の証明(4) 式(5)より 結局 更新回数 k は有限であることがわかる u は単位ベクトルなのでベクトル の大きさを大きくすることはない 式(4)より 更新回数 k は有限であることがわかる

PlayTennis の学習 特徴ベクトル パーセプトロンで学習 239ステップで収束 バイナリの特徴量で11次元 学習された重みベクトル 239ステップで収束  Bias Outlook = Sunny -3 Outlook = Overcast 5 Outlook = Rain -2 Temperature = Hot Temperature = Mild 3 Temperature = Cool Humidity = High -4 Humidity = Normal 4 Wind = Strong Wind = Weak

平均化パーセプトロン (Averaged Perceptron) 実用的で高性能な機械学習アルゴリズム Perceptron 学習アルゴリズムを少しだけ変形 最後の重みベクトルをそのまま使うのではなく、重みベクトルを全ステップにわたって平均したものを使う ステップ数は、validation set の精度を観察して決めることが多い

パーセプトロン学習の利点と欠点 特徴間に依存関係があってもかまわない(特徴どうしが条件付独立でなくてもよい) 実装が簡単 Naive Bayes モデルの場合、新たな特徴を追加すると、たとえその特徴が有用な特徴であっても性能が落ちることが多い 実装が簡単 学習のための計算コストが小さい 確率値は出力されない