知能情報工学 1 2016年4月26日 吉川雅博 第3回第3回 k最近傍法. プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較.

Slides:



Advertisements
Similar presentations
画像処理・実習 第十四回:パターン認識 東海大学 情報理工学部 情報メディア学科 濱本和彦. 今回の内容 5. パターン認識 5.1 マッチングの原理 5.2 テンプレートマッチング 実習 相互相関とテンプレートマッチング.
Advertisements

はじめてのパターン認識 第1章 第4グループ 平田翔暉. パターン認識 パターン認識 o 観測されたパターンを、あらかじめ定められ たクラスに分類すること クラス o 硬貨: 1 円玉、 5 円玉、 10 円玉、 50 円玉、 100 円玉、 500 円玉 o アルファベット: 26 種類 o 数字:
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
静脈画像を鍵とする暗号化手 法に関する研究 大山研究室 安藤のぞみ. 研究の背景、目的 近年、バイオメトリクス認証が注目されて いる 静脈は身体内部の情報 → 偽造に強い 環境に左右されることが少ない 利用者の心理的抵抗が軽減される オープンなネットワークへのバイオメトリ クス認証の適用 : Double.
復習. 外来誘導雑音の対策 ~ モーター等 スイッチング電源 オートバイ・自動車・携帯電話 ①発生源のシールド ②計測回路のシールド ③ツイストペアケーブル.
第9回放送授業.
第1節 コンピュータにおける 情報のあらわし方
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
ロボットビジョン(ロボットの視覚能力)のための デジタル画像処理
「わかりやすいパターン認識」 第1章:パターン認識とは
画像処理工学 2012年2月2日 担当教員 北川 輝彦.
第1章 第1節 情報のディジタル化のしくみ 4 音の表現 5 画像の表現
第1章 場合の数と確率 第1節 場合の数  3  順列 (第1回).
第1章 第1節 情報のディジタル化のしくみ 4 音の表現 5 画像の表現
アナログとディジタル 五感 視覚、聴覚、味覚、臭覚、触覚 埼玉県立越ヶ谷高等学校・情報科.
経営情報 #1 デジタル表現 / 2003 (春) 安田豊 1.
芦田尚美*,髙田雅美*,木目沢司†,城和貴* *奈良女子大学大学院 †国立国会図書館
マルチメディア情報の ディジタル表現と処理
ランダムプロジェクションを用いた 音声特徴量変換
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
画像の拡大と縮小.
デジタル信号処理④
情 報 A ー ディジタル化のしくみ ー.
表紙 MATLAB 応用講習会(A) 情報アシスタント M1 山本幸司.
ー 第1日目 ー 確率過程について 抵抗の熱雑音の測定実験
画像のディジタル化 1 A/D変換器 光強度のアナログ情報をディジタル信号に変換する 標本化:sampling
果物識別 マハラノビス距離を求める.
音信号表現 音声波形のデジタル化(PCM) サンプリング、標本化定理、量子化 ソースフィルタモデル
授業展開#3 アナログとデジタル.
画像処理 基礎.
コンピュータビジョン 第1回.
画像情報特論 (5) - ディジタル圧縮 (2) 音声・オーディオ圧縮 電子情報通信学科 甲藤二郎
動画ファイル形式 コンピュータでは、文字や画像、動画、音声といった様々な種類の情報を扱うことができるが、記憶装置に記録されるデータそのものは0と1の情報でしかない。動画ファイルの形式としてはMPEGやAVIです。
決定木とランダムフォレスト 和田 俊和.
P4 通信システム P4.1 ディジタルフィルタの設計とその応用 P4.2 伝送線路のFDTD解析 P4.2 H4.1 P4.1 H4.1
第4回 信号表現とエリアシング.
第11回   ディジタル画像(2) ディジタル画像処理(2)
モデルの適用範囲 モデルの適用領域 Applicability Domain (AD)
2008年度 情報数理 ~ 様々なデジタル情報 ~.
画像処理工学 2013年1月23日 担当教員 北川 輝彦.
5. 音声からの特徴抽出 5.1 特徴抽出の手順 5.2 音声信号のディジタル化 5.3 人の聴覚をまねて -スペクトル分析 5.4 もうひと工夫 -ケプストラム分析 5.5 雑音の除去.
音楽をつくろう! 1.MIDI音楽の仕組みを理解しよう.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第二回 演習課題
高度情報演習1C 実践 画像処理プログラミング 第二回 演習課題
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
コードクローン検出ツールを用いた ソースコード分析システムの試作と プログラミング演習への適用
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
音・音楽の設計と表現Ⅱ キーワード : サンプリング(標本化)、周波数、量子化 音は空気を伝わる波 → 音をデジタル(0と1の数値)にする。
確率と統計 メディア学部2008年後期 No.3 平成20年10月16日(木).
Data Clustering: A Review
2012年度 情報数理 ~ 様々なデジタル情報(1) ~.
複数特徴量の重み付け統合による一般物体認識
1-P-25 3次キュムラントバイスペクトラム特徴とReal AdaBoostによる音声区間検出
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
音声のディジタル化 Copyright(C)2004 Tsutomu Ohara All rights reserved.
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
Number of random matrices
情報A 第15回授業 04情報のディジタル化 対応ファイル:12exp15.xls
2010年度 情報数理 ~ 様々なデジタル情報(1) ~.
アナログとデジタル.
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
第2回 標本化と量子化.
音声のディジタル化 Copyright(C)2004 Tsutomu Ohara All rights reserved.
バイラテラルフィルタによる実雑音下音声認識 のための音声特徴量抽出
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
イラストで学ぶ 音声認識 荒木雅弘 著 講談社 2015.
2019年度 情報数理特論B ~ 様々なデジタル情報(1) ~.
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
ランダムプロジェクションを用いた音響モデルの線形変換
コンピュータと音 B3 入野仁志(irino).
Presentation transcript:

知能情報工学 年4月26日 吉川雅博 第3回第3回 k最近傍法

プロトタイプによるNN法の流れ 2 AD変換前処理部特徴抽出部識別部 ・標本化 ・量子化 ・ノイズ除去 ・正規化 識別辞書 (プロトタイプ) 音声や画像 (アナログ信号) 識別 結果 識別が容易な 特徴を抽出 プロトタイプと比較 学習

AD変換 3 アナログ信号 一定区間で区切って サンプルをとる 標本化(サンプリング) サンプリング周波数 データを何段階の 数値で表現するか 量子化 量子化ビット 音楽CD 44.1kHz 音声認識 16kHz 音楽CD 16bit (65536段階)

前処理部 4 音声・・スペクトルサブトラクションによるノイズ除去 画像・・平均値フィルタやメディアンフィルタによるノイズ除去 対象の特徴に合わせて適切に処理する必要がある

特徴抽出 5 特徴抽出は識別に役立つ情報を取り出す処理 音声認識:個人の声の性質や声の大きさ 文字認識:文字の大きさや色 識別には無意味 識別に必要な特徴のみを取り出す

特徴ベクトル 6

学習(プロトタイプの決定) 7 プロトタイプは学習データから決定する

プロトタイプによるNN法 8

NN法の定式化(1) 9

NN法の定式化(2) 10

NN法と識別境界 11 プロトタイプ 識別境界 NN法は2点のプロトタイプを結ぶ直線の 垂直2等分線(識別境界)を求めるのと同じ

演習3 12 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

演習3-解答 13

演習3-解答 14

k最近傍法(k-NN法)(1) 15 プロトタイプによるNN法はプロトタイプを学習データから決める → パーセプトロンなどで学習が必要 学習を行わずすべての学習データをプロトタイプとして扱う k最近傍法(k-NN法) プロトタイプを決定する学習を行わないのもアリ 各クラスのプロトタイプ

最も近い3個のうち が2個, が1個 → に決定 k最近傍法(k-NN法)(2) 16 ①すべての学習データとの距離を計算 ②最も近い学習データのクラスに決定 1-NN法 k-NN法 ①すべての学習データとの距離を計算 ②最も近い学習データk個の中で多数決を行う ③投票数の多いクラスに決定 3-NNの場合

kの値による識別境界の変化 17 k = 1k = 30

演習 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

演習4-解答

演習 ※荒木雅弘「フリーソフトでつくる音声認識システム」より

演習5-解答

k-NNの長所・短所 22 長所 ・学習が不要 ・実装が簡単な割に高い識別率(ベンチマークとして利用) 短所 ・すべての学習データとの距離計算が必要(処理時間長い) ・コンピュータに大きな記憶領域(メモリ)が必要 ・kの値は実験的に求める必要性あり

K-NNのコード 23 function predictLabelVote = KNN_(testData,trainData,trainLabel,K) fprintf('Process is running.\n'); trainData = trainData'; trainLabel = trainLabel'; testData = testData'; trainLabelNumber = length(trainLabel); % 学習データラベルの総数 classType = unique(trainLabel); % クラスの種類を抽出 testDataNumber = size(testData,2); % テストデータのサンプル総数 predictLabel = zeros(testDataNumber,1); % テストデータラベル作成 predictLabelVote = zeros(testDataNumber,1); % 同票決戦 distSum = ones(testDataNumber,length(classType)).*1000; % 同票決戦の集計用 for n = 1:testDataNumber % 学習サンプルとテストサンプル間のユークリッド距離計算 distance = sum((trainData-testData(:,n)*ones(1,trainLabelNumber)).^2); % ソートを行ない,ソート前のインデクスを保存 [sortDistance preIndex] = sort(distance); % classType を横軸としたヒストグラムを作成する( K 個のラベルで投票) voteResult = hist(trainLabel(preIndex(1:K)),classType); % 最も多く識別されたクラスに決定 [maxVote bestClass] = max(voteResult); predictLabel(n) = classType(bestClass); % 同票決戦処理なしの結果 % 同票決戦の処理(距離の合計が小さい方に決定) voteIndex = (voteResult==maxVote); for m = 1:length(voteIndex) if voteIndex(m)==1 q = trainLabel(preIndex(1:K))==m-1; distSum(n,m) = sum(sortDistance(q)); end [unused bestbestClass] = min(distSum(n,:)); predictLabelVote(n) = classType(bestbestClass); % 同票決戦後の結果 end