Chapter 7. Content-Addressable Memory

Slides:



Advertisements
Similar presentations
『わかりやすいパターン認 識』 第 5 章 特徴の評価とベイズ誤り確率 5.4 ベイズ誤り確率と最近傍決定則 発表日: 5 月 23 日(金) 発表者:時田 陽一.
Advertisements

統計学 第3回 西山. 第2回のまとめ 確率分布=決まっている分布の 形 期待値とは平均計算 平均=合計 ÷ 個数から卒業! 平均=割合 × 値の合計 同じ平均値でも 同じ分散や標準偏差でも.
放射線の計算や測定における統計誤 差 「平均の誤差」とその応用( 1H) 2 項分布、ポアソン分布、ガウス分布 ( 1H ) 最小二乗法( 1H )
Wilcoxon の順位和検定 理論生態学研究室 山田 歩. 使用場面 2 標本 離散型分布 連続型分布(母集団が正規分布でない時など 効果的) ただパラメトリックな手法が使える条件がそ ろっている時に、ノンパラメトリックな手法 を用いると検出力(対立仮説が正しいときに 帰無仮説を棄却できる確率)が低下するとい.
Determining Optical Flow. はじめに オプティカルフローとは画像内の明る さのパターンの動きの見かけの速さの 分布 オプティカルフローは物体の動きの よって変化するため、オプティカルフ ローより速度に関する情報を得ること ができる.
●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
第1回 確率変数、確率分布 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
「わかりやすいパターン認識」 第1章:パターン認識とは
数理統計学(第四回) 分散の性質と重要な法則
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
時系列の予測 時系列:観測値を時刻の順に並べたものの集合
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
ISDASインターネット分散観測: ワームの平均寿命はいくらか?
統計解析 第9回 第9章 正規分布、第11章 理論分布.
アルゴリズムイントロダクション第5章( ) 確率論的解析
11.確率モデル 確率・・・不確実性の経済学や金融やファイナンス で重要 密度関数がある場合に期待値を取る計算を中心に、紹介.
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
P,Q比が変更可能なScaLAPACKの コスト見積もり関数の開発
第2章補足Ⅱ 2項分布と正規分布についての補足
数理統計学  第8回 第2章のエクササイズ 西山.
ランダムプロジェクションを用いた 音声特徴量変換
統計学 11/08(木) 鈴木智也.
ー 第1日目 ー 確率過程について 抵抗の熱雑音の測定実験
第6章 カーネル法 修士2年 藤井 敬士.
相関分析.
数理統計学 第4回 西山.
第3回 確率変数の平均 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
 統計学講義 第11回     相関係数、回帰直線    決定係数.
独立成分分析 1.問題は何か:例:解法:全体の見通し 2007/10/17 名雪 勲.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
正規分布確率密度関数.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
確率論の基礎 「ロジスティクス工学」 第3章 鞭効果 第4章 確率的在庫モデル 補助資料
情報理工学系研究科 数理情報学専攻 数理第四研究室 博士三年 指導教員: 駒木 文保 准教授 鈴木 大慈 2008年8月14日
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
第6章 特徴空間の変換 6.1 特徴選択と特徴空間の変換 6.2 特徴量の正規化 平成15年5月23日(金) 発表者 藤井 丈明
Basic Tools B4  八田 直樹.
1.標本平均の特性値 2.母分散既知の標本平均の分布 3.大数法則と中心極限定理
Introduction to Soft Computing (第11回目)
超幾何分布とポアソン分布 超幾何分布 ポアソン分布.
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
予測に用いる数学 2004/05/07 ide.
主成分分析 Principal Component Analysis PCA
(昨年度のオープンコースウェア) 10/17 組み合わせと確率 10/24 確率変数と確率分布 10/31 代表的な確率分布
Data Clustering: A Review
Black Litterman Modelによる最適化
様々な情報源(4章).
部分的最小二乗回帰 Partial Least Squares Regression PLS
早稲田大学大学院商学研究科 2014年12月10日 大塚忠義
Number of random matrices
ウィルスって どの位感染しているのかな? 菊池研究室  小堀智弘.
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
最尤推定・最尤法 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
HMM音声合成における 変分ベイズ法に基づく線形回帰
保守請負時を対象とした 労力見積のためのメトリクスの提案
ガウス分布における ベーテ近似の理論解析 東京工業大学総合理工学研究科 知能システム科学専攻 渡辺研究室    西山 悠, 渡辺澄夫.
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
精密工学科プログラミング基礎 第7回資料 (11/27実施)
数理統計学  第6回 西山.
プログラミング論 相関
第3章 統計的推定 (その2) 統計学 2006年度 <修正・補足版>.
精密工学科プログラミング基礎Ⅱ 第2回資料 今回の授業で習得してほしいこと: 配列の使い方 (今回は1次元,次回は2次元をやります.)
ランダムプロジェクションを用いた音響モデルの線形変換
Presentation transcript:

Chapter 7. Content-Addressable Memory 知的ロボティクス Chapter 7. Content-Addressable Memory 知的計測クラスタ 聴覚メディア研究室 傳田 遊亀

Chapter 7. 7.1 INTRODUCTION 7.2 HOPFIELD MEMORIES 7.3 KANERVA MEMORIES 7.2.1 Stability 7.2.2 Lyapunov Stability Example: CAM for a Small Phone Book 7.3 KANERVA MEMORIES 7.3.1 Implementation 7.3.2 Performance of Kanerva Memories 7.3.3 Implementation of Kanerva Memories 7.4 RADIAL BASIS FUNCTIONS 7.5 KALMAN FILTERING

7.1 INTRODUCTION CAM(Content-Addressble Memory) データの情報の一部から関連した情報を連想して探す Hopfield memories (Autoassociative) Kanerva memories (Heteroassociative)

7.1 INTRODUCTION 抽象化されたneuron(unit)がmemory bitを表現 Unitは-1 or 1の離散状態を取る Weightは0~1の実数

7.2 HOPFIELD MEMORIES Autoassociative memories Weightを のように対称になるように制限することでweightの決定が比較的容易 2層型ネットワーク ある時刻の出力は次の状態の入力になる Attractors(安定した平衡点)だけが存在する W X h

7.2 HOPFIELD MEMORIES Hebbian Rule Weightのupdate rule Q個のパターン に適したweightを決定する Weightのupdate rule

7.2.1 Stability Weightの対称性から状態ベクトルはhypercube(n次元の立方体)の頂点の状態のみを取る

7.2.1 Stability Hopfield memoriesがある状態ベクトル で安定 パターンの各成分が1 or-1に等確率で分布・独立である場合noise成分の分散は独立項の分散の和

7.2.1 Stability Noise成分の分散は の二項分布 Bit error rateはNから∞までの積分で求められる Unit数が減るとBit error rateは低下

7.2.1 Stability 平均と標準偏差の比 は SNR(Signal to Noise Ratio)とみなせる Bit errorの起きる確率 N=1000, Q=100の場合 CAMの記憶容量は非常に小さい

7.2.2 Lyapunov Stability Lyapunov関数V(x)を用いてシステムの安定性を調べる V(x)が単調減少する場合CAMは常にlocal minimaになる V(x)をシステムのエネルギーとみなせる

Exmaple: CAM for a Small Phone Book 各エントリー25文字の電話帳 1文字/5bit, ±1 で符号化 ex.) a・・・(-1,-1,-1,-1,1),b・・・(-1,-1,-1,1,-1) 各エントリーは125次元のベクトルで表現 John Stewart Denker 8128 Lawrence David Jackel 7773 Richard Edwin Howard 5952 Wayne P. Hubbard 7707 Brian W. Straughn 3126 John Henry Scofield 8109

Exmaple: CAM for a Small Phone Book Memoryパターンに近い状態で始まった場合 Vは単調減少 格納パターンに十分近づく Time    Energy   CAM state 0.0 john s 0.2 -0.0784 john sdewirubneoimv 8109 0.4 -0.8426 john sdewirtbnenimv 8129 0.6 -0.8451 0.8 -0.8581 john sdewirt nenkmv 8128 1.0 -0.9099 john sdewart denker 1.2 -0.9824 john stewart denker

Exmaple: CAM for a Small Phone Book Memoryパターンから遠い状態で始まった場合 Vは単調減少するがattractorは偽のlocal minimaになる Time    Energy   CAM state 0.0 garbage 0.2 -0.00244 garbagee lafj naabd 5173 0.4 -0.6280 garbaged derjd naabd 7173 0.6 -0.6904 garbaged derjd nadbd 0.8 gasbafed derjd nadbd 1.0 -0.7595 gasbafed derjd naabd 1.2 -0.7709 fasjebad derjd naabd 1.4 -0.8276 1.6 -0.8282 fasjeb d derjd naabd

7.3 KANERVAMEMORIES Heteroassociative Q個のメモリ(n bit/memory)がアドレス空間(     )に無相関に分布 M個のペア(x, y), x・・・アドレス, y ・・・データ ベクトルを格納するためにはxのHamming距離Dの全ベクトルdにyを加える ベクトルを修正するためにはdの総和を閾値処理する

7.3 KANERVAMEMORIES 単一のベクトルのみを処理する場合は正確にベクトルを修正できる 一般的には複数のベクトルを扱う必要がある 総和をとることで影響が出る可能性がある データの各成分が±1の範囲でランダムに分布すると仮定 他のベクトルの要素は打ち消しあう 入力ベクトルが主な成分を占める

7.3 KANERVAMEMORIES Conventional computer memory 密なアドレス空間(ex. 20 bit)を持ち全てのアドレス(  )を使用

7.3 KANERVAMEMORIES 疎なアドレス空間(ex. 1000 bit)を持つ     ものアドレスを確保することは物理的に不可能

7.3.1 Implementation M×N(M << アドレスス空間)のアドレス行列AとM×Nデータ行列C xから距離D内のベクトルをセレクトベクトルsを用いて表す 実際に使用するベクトルの割合をpとすると使用されるベクトル数はpMになる

7.3.1 Implementation ベクトルを格納することでデータを得られる Kanerva memoriesは3層ネットワークで表現できる A X d C h Y

7.3.2 Performance of Kanerva Memories 第一項の期待値・・・                 ベクトルをランダムに選んだ場合のnoise成分                

7.3.2 Performance of Kanerva Memories 第1項の期待値・・・pM 第2項の期待値・・・pM 合計確率はポアソン分布でモデル化可能

7.3.2 Performance of Kanerva Memories 合計の各要素が独立であると仮定した場合正規分布で近似できる Error rate・・・ Example of a Kanerva Memory Q=100,p=0.1,M=10,000

7.3.3 Implementation of Kanerva Memories Content-addressable性 16×16 = 256次元のベクトル

7.3.3 Implementation of Kanerva Memories Heteroassociative性

7.4 RADIAL BASIS FUNCTIONS Kanerva memoriesではアドレス空間を大きく取ることでerror rateを下げることが可能 データがアドレスの関数として表現可能 内挿によって関数近似を行う Radial basis functionsを使用

7.5 KALMAN FILTERING Kanerva memoriesの拡張 Noiseの影響を抑える コストを最小化する