人工知能特論 6.機械学習概論とバージョン空間法

Slides:



Advertisements
Similar presentations
区間グラフにおける区間表現からMPQ-treeを効率よく構成するアルゴリズム
Advertisements

人工知能特論 8.教師あり学習と教師なし学習
「わかりやすいパターン認識」 第1章:パターン認識とは
整数計画法を用いたフレーズ対応最適化による翻訳システムの改良
XHTML構文検証手法における スクリプト要素の静的解析アルゴリズム
データ構造と アルゴリズム 第十二回 知能情報学部 知能情報学科 新田直也.
コンパイラ 2011年10月17日
画像処理論.
情報学類 吉田光男 アドバイザー教官: 山本幹雄 先生
データ構造とアルゴリズム論 第6章 探索のアルゴリズム
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
How to Become a Supply Chain Analyst with Free
Bias2 - Variance - Noise 分解
1.自然言語処理システム 2.単語と形態素 3.文節と係り受け
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
情報数理Ⅱ 平成27年9月30日 森田 彦.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
コンパイラ 2012年10月15日
リファクタリングのための 変更波及解析を利用した テスト支援ツールの提案
日本語解析済みコーパス管理ツール 「茶器」
DMLA 小町守 半教師あり学習 チュートリアル.
シミュレーション演習 G. 総合演習 (Mathematica演習) システム創成情報工学科
人工知能特論2007 東京工科大学 亀田弘之.
サポートベクターマシン によるパターン認識
2009/10/16 いろいろなデータ構造 第3講: 平成21年10月16日 (金) 4限 E252教室 コンピュータアルゴリズム.
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
コードクローンに含まれるメソッド呼び出しの 変更度合の分析
コードクローンに含まれるメソッド呼び出しの 変更度合の調査
人工知能特論 7.決定木の学習 北陸先端科学技術大学院大学 鶴岡 慶雅.
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
決定木とランダムフォレスト 和田 俊和.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
7.4 Two General Settings D3 杉原堅也.
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
岩村雅一 知能情報工学演習I 第13回(後半第7回) 岩村雅一
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
Data Clustering: A Review
平成20年10月5日(月) 東京工科大学 コンピュータサイエンス学部 亀田弘之
知能情報システム特論 Introduction
Nightmare at Test Time: Robust Learning by Feature Deletion
Data Clustering: A Review
東京工科大学 コンピュータサイエンス学部 亀田弘之
知識表現 知識の表現形式 宣言的表現 手続き的表現 プロダクション・ルール フレーム 意味ネットワーク.
サポートベクターマシン Support Vector Machine SVM
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
人工知能特論II 第8回 二宮 崇.
東京工科大学 コンピュータサイエンス学部 亀田弘之
クローン検出ツールを用いた ソフトウェアシステムの類似度調査
香川大学工学部 富永浩之 知識工学1 第1-1章 人工知能と知識工学 香川大学工学部 富永浩之
決定木-III Occam’s razor(オッカムの剃刀) Minimum Description Length (最小記述長) 枝刈り
構造方程式ゼミナール 2012年11月14日-11月21日 構造方程式モデルの作成.
東京工科大学 コンピュータサイエンス学部 亀田弘之
情報数理Ⅱ 平成28年9月21日 森田 彦.
ICML読む会資料 (鹿島担当) 教師ナシ の 構造→構造 マッピング 読んだ論文: Discriminative Unsupervised Learning of Structured Predictors Linli Xu (U. Waterloo) , … , Dale Schuurmans.
情報処理Ⅱ 2007年12月3日(月) その1.
コンパイラ 2012年10月11日
ソフトウェア工学 知能情報学部 新田直也.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
Normalized Web Distanceを用いた音声認識の誤り訂正法 301-4in
1.2 言語処理の諸観点 (1)言語処理の利用分野
アップデート.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

人工知能特論 6.機械学習概論とバージョン空間法 北陸先端科学技術大学院大学 鶴岡 慶雅

今日の講義内容 機械学習概論 バージョン空間法 http://www.jaist.ac.jp/~tsuruoka/lectures/ 機械学習って何? 機械学習の応用例 バージョン空間法 仮説の表現、バージョン空間 Find-S アルゴリズム Candidate-Elimination アルゴリズム http://www.jaist.ac.jp/~tsuruoka/lectures/

機械学習の応用分野 画像・音声の認識 品詞タグ付け、構文解析、語義曖昧性解消 スパムメールの検出 サーバーへの不正アクセスの検出 クレジットカードの不正利用の検出 車の自動運転 ゲームのAI etc.

手書き文字の認識 Christopher M. Bishop, Pattern Recognition and Machine Learning, 2006

デモ GENIA tagger 英語用の言語処理ツール Tokenization 品詞タグ付け 原型の出力 浅い構文解析 固有表現認識 http://www-tsujii.is.s.u-tokyo.ac.jp/GENIA/tagger/

機械学習の種類 教師あり学習(supervised learning) 教師なし学習(unsupervised learning) 個々の事例に「正解」ラベルが与えられている 正解となるべく同じ動作をするように学習 教師なし学習(unsupervised learning) 正解ラベルが与えられていない データ間の関係を学習(クラスタリングなど) 強化学習(reinforcement learning) 自動的に試行錯誤して経験から学ぶ

教師無し学習の例 検索エンジン + クラスタリング http://clusty.com

強化学習の例 ヘリコプター、ロボットの自動操縦 Inverted autonomous helicopter flight via reinforcement learning, Andrew Y. Ng, Adam Coates, Mark Diel, Varun Ganapathi, Jamie Schulte, Ben Tse, Eric Berger and Eric Liang. In International Symposium on Experimental Robotics, 2004 Quadruped Robot Obstacle Negotiation via Reinforcement Learning, Honglak Lee, Yirong Shen, Chih-Han Yu, Gurjeet Singh, and Andrew Y. Ng. In Proceedings of the IEEE International Conference on Robotics and Automation , 2006

機械学習(machine learning)とは? 機械が学ぶ? 言語を学ぶ? 数学を学ぶ?? 現在の機械学習技術でやっていること 分類、回帰等を目的としたパラーメータの最適化 要素技術 確率、統計、アルゴリズム、数値計算

なぜ機械学習が必要か? システムの動作を決めるルールを手で書けばよいのでは? 参考 ルールの数が爆発的に増える 整合性を保つことが難しい 品詞タグ付け器、将棋の評価関数などのパラメータ数は、数十万~数億

バージョン空間法 Chapter 2 of Mitchell, T., Machine Learning (1997) 概念の学習 学習データ 仮説の表現 Find-S アルゴリズム バージョン空間 Candidate-Elimination アルゴリズム

学習データと概念 学習データ 学習したい概念 Days on which my friend Aldo enjoys his favorite water sports 属性(attributes) No. Sky AirTemp Humidity Wind Water Forecast EnjoySport 1 Sunny Warm Normal Strong Same Yes 2 High 3 Rainy Cold Change No 4 Cool

仮説(hypothesis) 仮説の表現 General と Specific h1 = <Sunny, ?, ?, Strong, ?, ?> 天気が晴れで風が強い日 (他の属性はどうでもよい) h2 = <Sunny, ?, ?, ?, ?, ?> 天気が晴れの日 General と Specific h1 は h2 よりも specific (h2 は h1 よりも general)

Find-S アルゴリズム 仮説 h を最も specific な仮説で初期化 全ての正例 x に対して、以下の処理を行う 仮説hを出力する 個々の属性に関する制約 ai に対して以下の処理を行う もし x が制約を満足しているならば何もしない そうでなければ制約 ai を、x が満足するように最小限緩める 仮説hを出力する

例 h0 = <0, 0, 0, 0, 0, 0> x1 = <Sunny, Warm, Normal, Strong, Warm, Same>, yes h1 = <Sunny, Warm, Normal, Strong, Warm, Same> x2 = <Sunny, Warm, High, Strong, Warm, Same>, yes h2 = <Sunny, Warm, ?, Strong, Warm, Same> x3 = <Rainy, Cold, High, Strong, Warm, Change>, no h3 = <Sunny, Warm, ?, Strong, Warm, Same> x4 = <Sunny, Warm, High, Strong, Cool, Change>, yes h4 = <Sunny, Warm, ?, Strong, ?, ?>

Find-S アルゴリズムの問題点 出力された仮説が本当に学習したい概念かどうかわからない 学習データに矛盾があっても検出されない 他にも学習データを説明する仮説があるかもしれない もっと general な仮説でもいいかもしれない 学習データに矛盾があっても検出されない

バージョン空間 定義 仮説空間 H 学習データ D バージョン空間: 学習データと矛盾しない仮説の集合

LIST-THEN-ELIMINATEアルゴリズム 個々の学習事例 d に対して d と整合的でない仮説をバージョン空間からすべて削除 バージョン空間に含まれるすべての仮説を出力

バージョン空間 Specific boundary と General boundary S: { <Sunny, Warm, ?, Strong, ?, ?> } <Sunny, ?, ?, Strong, ?, ?> <Sunny, Warm, ?, ?, ?, ?> <?, Warm, ?, Strong, ?, ?> G: { <Sunny, ?, ?, ?, ?, ?>, <?, Warm, ?, ?, ?, ?> } 仮説を羅列することなく S と G だけでバージョン空間を表現できる!

Candidate-Elimination アルゴリズム 初期化 G: 最も general な仮説の集合 S: 最も specific な仮説の集合 個々の学習事例 d に対して以下の処理を行う d が正例の場合 G から d と整合的でない仮説をすべて削除 S に含まれる d と整合的でない個々の仮説 s に対して S から s を削除 S に s より最小限 generalな仮説 h をすべて追加 ただし h は d と整合的であり、G に h より general な仮説が存在しなければならない S から冗長な仮説を削除 d が負例の場合 省略(正例の場合と反対の手続きを行えばよい)

例 最初の学習事例 <Sunny, Warm, Normal, Strong, Warm, Same>, yes S0: { <0, 0, 0, 0, 0, 0> } S1: { <Sunny, Warm, Normal, Strong, Warm, Same> } G0, G1: { <?, ?, ?, ?, ?, ?> }

例 2番目の学習事例 <Sunny, Warm, High, Strong, Warm, Same>, yes S1: { <Sunny, Warm, Normal, Strong, Warm, Same> } S2: { <Sunny, Warm, ?, Strong, Warm, Same> } G0, G1 , G2 : { <?, ?, ?, ?, ?, ?> }

例 3番目の学習事例 <Rainy, Cold, High, Strong, Warm, Change>, no S2,S3 :{ <Sunny, Warm, ?, Strong, Warm, Same> } G3: { <Sunny, ?, ?, ?, ?, ?> <?, Warm, ?, ?, ?, ?> <?, ?, ?, ?, ?, Same> } G2 : { <?, ?, ?, ?, ?, ?> }

例 4番目の学習事例 <Sunny, Warm, High, Strong, Cool, Change>, yes S3 :{ <Sunny, Warm, ?, Strong, Warm, Same> } S4 :{ <Sunny, Warm, ?, Strong, ?, ?> } G4: { <Sunny, ?, ?, ?, ?, ?> <?, Warm, ?, ?, ?, ?> } G3: { <Sunny, ?, ?, ?, ?, ?> <?, Warm, ?, ?, ?, ?> <?, ?, ?, ?, ?, Same> }

最終的なバージョン空間 S4 :{ <Sunny, Warm, ?, Strong, ?, ?> } <Sunny, ?, ?, Strong, ?, ?> <Sunny, Warm, ?, ?, ?, ?> <?, Warm, ?, Strong, ?, ?> G4: { <Sunny, ?, ?, ?, ?, ?> <?, Warm, ?, ?, ?, ?> }