東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之

Slides:



Advertisements
Similar presentations
北海道大学 Hokkaido University 1 情報理論 講義資料 2016/06/22 情報エレクトロニクス学科共通科目・2年次・第 1 学期〔必修 科目〕 講義「情報理論」第 5 回 第 3 章 情報源のモデル [ 後半 ] 3.5 情報源のエントロピー.
Advertisements

Advanced Data Analysis 先進的データ分析法 2015 (2) 平成 27 年前期第1クウォータ科目 東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当:亀田弘之.
プログラミング言語論 第3回 BNF 記法について(演習付き) 篠埜 功. 構文の記述 プログラミング言語の構文はどのように定式化できるか? 例1 : for ループの中に for ループが書ける。 for (i=0; i
5.制御構造と配列 場合分け( If Then Else , Select Case ) 繰返し( Do While ) 繰返しその2( For Next )
第 5 章 2 次元モデル Chapter 5 2-dimensional model. Contents 1.2 次元モデル 2-dimensional model 2. 弱形式 Weak form 3.FEM 近似 FEM approximation 4. まとめ Summary.
一階述語論理 (first-order predicate logic) 一階述語論理入門 構文論(論理式の文 法) 意味論(論理式の解 釈) 認知システム論 知識と推論(4) 知識と論理でを組み合わせて問題を解決する.
Example 8 種類のチーズの塩分量 : m = 325 Q 3 = 340 m Q 1 = Q3Q3Q3Q3 Q1Q1Q1Q1.
先進的データ分析法 Advanced Data Analysis 東京工科大学大学院 バイオニクス・情報メディア学専 攻科 担当: 亀田 弘之.
白井 良明 立命館大学情報理工学部 知能情報学科
人工知能特論2011 No.4 東京工科大学大学院 担当教員:亀田弘之.
人工知能特論2007 No.4 東京工科大学大学院 担当教員:亀田弘之.
人工知能特論 8.教師あり学習と教師なし学習
人工知能特論 6.機械学習概論とバージョン空間法
Lispとは ゲーム理論 minimaxアルゴリズム αβアルゴリズム ソースコードの一部
Object Group ANalizer Graduate School of Information Science and Technology, Osaka University OGAN visualizes representative interactions between a pair.
Bias2 - Variance - Noise 分解
人工知能特論2011 資料No.6 東京工科大学大学院 担当教員 亀田弘之.
東京工科大学 コンピュータサイエンス学部 亀田弘之
Natural Semantics 実行過程の、最初と最後の状態(state)の関係を考える。
PSOLA法を用いた極低ビットレート音声符号化に関する検討
Who Is Ready to Survive the Next Big Earthquake?
東京工科大学 コンピュータサイエンス学部 亀田弘之
二分探索木によるサーチ.
クラス分類問題 (Classification)
Cisco Catalyst 2960L Loop Detection のご紹介 2018 年 1 月.
アーランの即時式モデル.
人工知能特論2009.
東京工科大学 コンピュータサイエンス学部 亀田弘之
実例で学ぶプログラミング VBAを用いて簡単なゲームを作ろう 徳山 豪 東北大学情報科学研究科 システム情報科学専攻 情報システム評価学分野.
New accessory hardware Global Platform Division
Tenki てんき weather.
プログラミング言語論 第3回 BNF記法について(演習付き)
本時の目標 「簡単なプログラム言語の意味を理解し、マクロ機能を使って簡単なプログラムを作ることができる。」
人工知能特論 7.決定木の学習 北陸先端科学技術大学院大学 鶴岡 慶雅.
東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
人工知能特論2011 平成24年1月13日(金) 東京工科大学大学院 亀田 弘之.
決定木とランダムフォレスト 和田 俊和.
L3. Search for Decisions in Games
電気・機械・情報概論 VBAプログラミング 第2回 2018年7月2日
情報リテラシー2014 part 5/5 (亀田担当分最終回)
地域情報学演習 VBAプログラミング 第3回 2017年10月24日
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
平成28年6月3日(金) 東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
複数の相関のある情報源に対するベイズ符号化について
Where is Wumpus Propositional logic (cont…) Reasoning where is wumpus
Some Generalization of Lorentzian BLG Model
逐次プログラムの正当性(2) 帰納的アサーション法(フロイド法)
予測に用いる数学 2004/05/07 ide.
Exchange Server 2010 Outlook 階層型アドレス帳 活用術 展開 ~ トラブルシュートまで
情報基礎Ⅱ (第11回) 月曜4限 担当:北川 晃.
平成27年4月20日(月)第2日目 担当教員:亀田弘之
決定木 Decision Tree DT 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
決定木による知識の獲得 認知システム論 知識と推論(4) 学習と帰納推論 決定木 ID3アルゴリズム 性能評価と応用
様々な情報源(4章).
知能情報システム特論 Introduction
平成29年6月3&9日(金) 東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之
決定木.
決定木-II 学習目標 1.○与えられた事例集合から,指定された属性選択基準に基づいて決定木を生成 できる 利得 利得比
東京工科大学 コンピュータサイエンス学部 亀田弘之
先進的データ分析法 Advanced Data Analysis
IF文 START もしも宝くじが当たったら 就職活動する 就職活動しない YES END NO.
第6回レポート解説 条件1 条件2 条件3 月の入力 月、日、曜日の表示 日の入力 曜日の入力
Conflict of Interest disclosure slide A potential conflict of interest exists when there is involvement between the speaker/presenter with any for-profit.
情報工学Ⅱ (第9回) 月曜4限 担当:北川 晃.
東京工科大学 コンピュータサイエンス学部 亀田弘之
東京工科大学 コンピュータサイエンス学部 亀田弘之
決定木-III Occam’s razor(オッカムの剃刀) Minimum Description Length (最小記述長) 枝刈り
Jan 2015 Speaker: Kazuhiro Inaba
場合分け(If Then Else,Select Case) 繰返し(Do While) 繰返しその2(For Next)
6.5 アダマール(Hadamard)変換 (1)アダマール変換とは
Presentation transcript:

東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之 先進的データ分析法2015 東京工科大学大学院 バイオニクス・情報メディア学専攻科 担当: 亀田 弘之

Decision Tree for PlayTennis Outlook Sunny Rain Overcast Humidity Wind Yes High Normal Strong Weak No Yes No Yes

Training Examples Day Outlook 天候 Temperature 温度 Humidity 湿度 Wind 風 Play Tennis D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 D14 Sunny Overcast Rain Hot Mild Cool High Normal Weak Strong No Yes

Top-down Induction of Decision Tree Main loop: A ← the best decision attribute for next node Assign A as decision attribute for node For each value of A, create new descendant of node Sort training examples to leaf nodes If training examples perfectly classified, then HALT, else iterate over new leaf nodes.

Which attribute is the best? [29+, 35-] A1=? A2=? [29+, 35-] F T F T [21+, 5-] [8+, 30-] [18+, 33-] [11+, 2-]

Entropy S is a sample of training examples p+ is the proportion of positive examples in S p- is the proportion of negative examples in S Entropy measures the impurity of S

Entropy(エントロピー)

Interpretation of Entropy Entropy(S)とは…2つのグループ(各生起確率がp+とp-)を符号化するのに必要なビット数(情報量) その理由は… P+ P-

Information Theory(情報理論) 生起確率pのメッセージに対する最適符号長符号(optimal length code)は、      で与えられる。 したがって、それぞれ確率p+とp-で生起する2つの組に対する平均符号長は、   で与えられる。これはEntropyの公式そのものである。

Entropyの本当の定義 無記憶情報源Sから、シンボルs1, s2, s3, …, snがそれぞれp1, p2, p3, … ,pn の生起確率で出現するとき、この無記憶情報源Sのエントロピーは以下の式で定義される。

Information Gain(情報利得) Gain(S,A): 「もともと(S)のエントロピー」と「Aに着目する分類後のエントロピー」の差。 これを情報利得と呼ぶ。 (注)A: attribute(属性)

Which attribute is the best? [29+, 35-] A1=? A2=? [29+, 35-] F T F T [21+, 5-] [8+, 30-] [18+, 33-] [11+, 2-]

Which is the best? - Selecting the next attribute - [9+, 5-], E=0.940 Humidity Wind strong high normal weak [3+, 4-], E=0.985 [6+, 1-], E=0.592 [6+, 2-], E=0.811 [3+, 3-], E=1.00 Gain(S,Humidity)=0.151 Gain(S,Wind)=0.048

Training Examples Day Outlook 天候 Temperature 温度 Humidity 湿度 Wind 風 Play Tennis D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 D14 Sunny Overcast Rain Hot Mild Cool High Normal Weak Strong No Yes

分類前のエントロピー ・Yes 9 S[9+, 5-] ・No 5

Outlookに着目する場合 Sunny [2+, 3-] Overcast [4+, 0-] Rain [3+, 2-]

Temperatureに着目する場合 Hot [2+, 2-] Mild [4+, 2-] Cool [3+, 1-]

Humidityに着目する場合 High [3+, 4-] Normal [6+, 1-]

Windに着目する場合 Weak [6+, 2-] Strong [3+, 3-]

情報利得を計算すると… 自分で計算してみてください。 どの場合の情報利得が一番大きいですか?

Decision Tree for PlayTennis Outlook Sunny Rain Overcast Humidity Wind Yes High Normal Strong Weak No Yes No Yes

決定木まとめ 決定木は分類器 決定木が例から学習出来る 過学習(overfiting)回避の工夫が必要 => 枝刈り(pruning) 決定木学習は命題論理の命題学習に相当 =>述語論理への拡張が必要 =>帰納的論理プログラミング (ILP; Inductive Logic Programming)