Presentation is loading. Please wait.

Presentation is loading. Please wait.

知能情報工学 1 2016年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較.

Similar presentations


Presentation on theme: "知能情報工学 1 2016年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較."— Presentation transcript:

1 知能情報工学 1 2016年4月26日 吉川雅博 第3回第3回 k最近傍法

2 プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較 学習

3 AD変換 3 アナログ信号 一定区間で区切って サンプルをとる 標本化(サンプリング) サンプリング周波数 データを何段階の 数値で表現するか 量子化 量子化ビット 音楽CD 44.1kHz 音声認識 16kHz 音楽CD 16bit (65536段階)

4 前処理部 4 音声・・スペクトルサブトラクションによるノイズ除去 画像・・平均値フィルタやメディアンフィルタによるノイズ除去 対象の特徴に合わせて適切に処理する必要がある

5 特徴抽出 5 特徴抽出は識別に役立つ情報を取り出す処理 音声認識:個人の声の性質や声の大きさ 文字認識:文字の大きさや色 識別には無意味 識別に必要な特徴のみを取り出す

6 特徴ベクトル 6

7 学習(プロトタイプの決定) 7 プロトタイプは学習データから決定する

8 プロトタイプによるNN法 8

9 NN法の定式化(1) 9

10 NN法の定式化(2) 10

11 NN法と識別境界 11 プロトタイプ 識別境界 NN法は2点のプロトタイプを結ぶ直線の 垂直2等分線(識別境界)を求めるのと同じ

12 演習3 12 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

13 演習3-解答 13

14 演習3-解答 14

15 k最近傍法(k-NN法)(1) 15 プロトタイプによるNN法はプロトタイプを学習データから決める → パーセプトロンなどで学習が必要 学習を行わずすべての学習データをプロトタイプとして扱う k最近傍法(k-NN法) プロトタイプを決定する学習を行わないのもアリ 各クラスのプロトタイプ

16 最も近い3個のうち が2個, が1個 → に決定 k最近傍法(k-NN法)(2) 16 ①すべての学習データとの距離を計算 ②最も近い学習データのクラスに決定 1-NN法 k-NN法 ①すべての学習データとの距離を計算 ②最も近い学習データk個の中で多数決を行う ③投票数の多いクラスに決定 3-NNの場合

17 kの値による識別境界の変化 17 k = 1k = 30

18 演習4 18 12345 1 2 3 4 5 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

19 演習4-解答 19 12345 1 2 3 4 5

20 演習5 20 12345 1 2 3 4 5 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

21 演習5-解答 21 12345 1 2 3 4 5

22 k-NNの長所・短所 22 長所 ・学習が不要 ・実装が簡単な割に高い識別率(ベンチマークとして利用) 短所 ・すべての学習データとの距離計算が必要(処理時間長い) ・コンピュータに大きな記憶領域(メモリ)が必要 ・kの値は実験的に求める必要性あり

23 K-NNのコード 23 function predictLabelVote = KNN_(testData,trainData,trainLabel,K) fprintf('Process is running.\n'); trainData = trainData'; trainLabel = trainLabel'; testData = testData'; trainLabelNumber = length(trainLabel); % 学習データラベルの総数 classType = unique(trainLabel); % クラスの種類を抽出 testDataNumber = size(testData,2); % テストデータのサンプル総数 predictLabel = zeros(testDataNumber,1); % テストデータラベル作成 predictLabelVote = zeros(testDataNumber,1); % 同票決戦 distSum = ones(testDataNumber,length(classType)).*1000; % 同票決戦の集計用 for n = 1:testDataNumber % 学習サンプルとテストサンプル間のユークリッド距離計算 distance = sum((trainData-testData(:,n)*ones(1,trainLabelNumber)).^2); % ソートを行ない,ソート前のインデクスを保存 [sortDistance preIndex] = sort(distance); % classType を横軸としたヒストグラムを作成する( K 個のラベルで投票) voteResult = hist(trainLabel(preIndex(1:K)),classType); % 最も多く識別されたクラスに決定 [maxVote bestClass] = max(voteResult); predictLabel(n) = classType(bestClass); % 同票決戦処理なしの結果 % 同票決戦の処理(距離の合計が小さい方に決定) voteIndex = (voteResult==maxVote); for m = 1:length(voteIndex) if voteIndex(m)==1 q = trainLabel(preIndex(1:K))==m-1; distSum(n,m) = sum(sortDistance(q)); end [unused bestbestClass] = min(distSum(n,:)); predictLabelVote(n) = classType(bestbestClass); % 同票決戦後の結果 end


Download ppt "知能情報工学 1 2016年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較."

Similar presentations


Ads by Google