Introduction to Neural Networks

Slides:



Advertisements
Similar presentations
Maxent model への挑戦 - 驚きとドキドキ感の理論 - 大野ゆかり Phillips et al. (2006) Maximum entropy modeling of species geographic distributions. Ecological Modeling 190:
Advertisements

Ex7. Search for Vacuum Problem
Chapter 7. Content-Addressable Memory
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
Solid State Transformer (SST)
時空間データからのオブジェクトベース知識発見
Object Group ANalizer Graduate School of Information Science and Technology, Osaka University OGAN visualizes representative interactions between a pair.
雑音重み推定と音声 GMMを用いた雑音除去
異種センサを用いた人の行動検知 研究概要 研究の独自性 isi担当 高汐グループ成果 スライド到着待ち yasu担当.
SP0 check.
ランダムプロジェクションを用いた 音声特徴量変換
Tohoku University Kyo Tsukada
Licensing information
まずはじめに、二次元電気泳動によって得られたタンパク質に酵素処理を行い、ペプチドを解離する。
非侵襲脳活動計測(fMRI)と(MEG)情報統合とその応用
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
線形フィルタと畳み込み積分 マスクによる画像のフィルタリング 1.入力画像中の関心の画素のまわりの画素値
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
京大岡山 3.8m 望遠鏡 分割鏡制御に用いる アクチュエータの特性評価
P4-21 ネットワーク上の経路に対する 回帰問題について
画像認識レポート課題 ガイダンス.
Deep Learningを用いたタンパク質のコンタクト残基予測
決定木とランダムフォレスト 和田 俊和.
5 テスト技術 5.1 テストとは LISのテスト 故障診断 fault diagnosis 故障解析 fault analysis
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
Vector 4 = [Vector 3, packet_size]
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
人工知能を動かしてみる(Keras を用いたニューラルネットワークの定義,コンパイル,学習,評価,予測)
卒業論文 重力波のデータ解析における 分散処理の必要性
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
Introduction to Soft Computing (第11回目)
予測に用いる数学 2004/05/07 ide.
Data Clustering: A Review
1-Q-9 SVMとCARTの組み合わせによる AdaBoostを用いた音声区間検出
Ex7. Search for Vacuum Problem
Introduction to Neural Networks
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
Chapter5-2 その他の話題 15k1015 関根修斗.
Number of random matrices
研究背景と目的 局面対による学習の高速化 学習器の説明 今後 大規模な強化学習技術の実証と応用 一方で、 強化学習手法の台頭
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
法数学のための 機械学習の基礎 京大(医) 統計遺伝学分野 山田 亮 2017/04/15.
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
遺伝的交叉を用いた 並列シミュレーテッドアニーリングによる タンパク質立体構造予測
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
ETPB: Extraction of Context from Pedestrians' Behavior
時間連続性を考慮した 動画からの人物の姿勢推定
音響伝達特性モデルを用いた シングルチャネル音源位置推定の検討 2-P-34 高島遼一,住田雄司,滝口哲也,有木康雄 (神戸大) 研究の背景
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
Molecular Devices Japan
自己縮小画像と混合ガウス分布モデルを用いた超解像
CSP係数の識別に基づく話者の 頭部方向の推定
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
外れ値検出 Outlier Detection 外れサンプル検出 Outlier Sample Detection
Presentation transcript:

Introduction to Neural Networks 適応システム理論 ガイダンス Introduction to Neural Networks Kenji Nakayama Kanazawa University, JAPAN

PPTファイルの入手方法 http://leo. ec. t. kanazawa-u. ac PPTファイルの入手方法 http://leo.ec.t.kanazawa-u.ac.jp/~nakayama/ Education 授業科目 Lecture Subjects 適応システム理論 平成20年度 ガイダンスPPTファイル

Neural Networks Network Structures Multi-layer Network  Recurrent Network Learning Algorithms  Supervised Learning  Unsupervised Learning Functions  Pattern Mapping and Classification  Estimation and Prediction  Associative Memory  Optimization and Minimization

Multi-Layer Neural Networks

Artificial Neuron Model

Activation (Nonlinear) Function of Neuron Active Inactive Space Separation

Pattern Classification by Single Neuron

Linearly Inseparable Problem

Two Layer Neural Network

Pattern Classification by Two-Layer NN - Region Separation by Hidden Units-

Pattern Classification by Two-Layer NN - Class Separation by Output Unit -

Learning of Connection Weights in Single-Layer NN Gradient Method is minimized

Learning of Connection Weights in Multi-Layer NN - Error Back Propagation Algorithm - Gradient Method Chain Rule in Derivative

Learning Process (Initial State) u=0

Learning Process (Middle State) u=0

Learning Process (Middle State) u=0

Learning Process (Convergence) u=0

Training and Testing for Pattern Classification

Prediction of Fog Occurrence Application 1 Prediction of Fog Occurrence

Number of Fog Occurrence Fog is observed every 30 minutes

Neural Network for Prediction

Weather Data ・Temperature ・Atmospheric Pressure ・Humidity ・Force of Wind ・Direction of Wind ・Cloud Condition ・Past Fog Occurrence  ・・・・・ 20 kinds of weather data are used

Connection Weights from Input to Hidden Unit

Connection Weights from Hidden to Output Fog will occur Fog won’t occur

FFT of Connection Weights Used for Predicting Fog Input→Hidden Unit #6 Input→Hidden Unit #10

FFT of Connection Weights for Predicting No Fog Input→Hidden Unit #3 Input→Hidden Unit #14

Prediction Accuracy of Fog and No Fog

Nonlinear Time Series Prediction Application 2 Nonlinear Time Series Prediction

Examples of Nonlinear Time Series Sunspot Lake Level Chaotic Series

Nonlinear Predictor Combining NN and Linear Filter

Prediction Accuracy by Several Methods

Prediction of Machine Deformation Application 3 Prediction of Machine Deformation

Numerically Controlled Cutting Machine Cutting Tool Objective

Deformation of Cutting by Temperature Change

Machine Temperature Change in Time

Deviation of Cutting by Temperature Change Tolerance

Mean Squared Error Reduction by Learning NN

Prediction of Deformation Using NN Tolerance

応用4 ニューラルネットワークによる タンパク質二次構造予測 応用4 ニューラルネットワークによる タンパク質二次構造予測

タンパク質はアミノ酸配列が立体的に 折り畳まれることによって生じる 立体構造がタンパク質の機能性を決定 IJCNN‘2002 R.Pollock,T.Lane,M.Watts 立体構造の中に部分的に存在する規則構造 タンパク質二次構造 タンパク質二次構造予測は タンパク質構造解析において非常に有用

データの操作 ・1個のアミノ酸の二次構造を予測するため 前後4個(計9個)のアミノ酸の情報を使用 ・1個のアミノ酸に22個の入力ユニット  前後4個(計9個)のアミノ酸の情報を使用 ・1個のアミノ酸に22個の入力ユニット  (各アミノ酸種20個、スペーサ1個、不変重み1個) ・入力ユニット22*9個、出力ユニット3個

従来法との比較 70

応用5 ニューラルネットワークによる ブレイン・コンピュータ・インターフェイス 応用5 ニューラルネットワークによる ブレイン・コンピュータ・インターフェイス

ブレイン・コンピュータ・インタフェイスとは 人間とコンピュータのインタフェースとして、現在、さまざまなものが使用されている 近年、脳波を解析して行う手法に注目 (ブレイン・コンピュータ・インタフェース:BCI) 重度の運動障害を抱える患者が機器を操作するのを助ける、といった応用が期待されている

BCIの処理の流れ ユーザがやりたいことを想像し、そのときの脳波を測定する ・メンタルタスク(想像する課題)を使用 脳波を解析し、ユーザの意図を推定する 推定結果に基づいて、機器を操作する ○○ したい 対応する タスクを 想像 脳波 特徴量 特徴抽出 脳波の測定 タスク 特徴分類 分類器 機器の操作 脳波の測定 特徴抽出 特徴分類 機器の操作

BCIの方式 特徴量  ・ 周波数スペクトル  ・ AR係数 分類方法  ・ ニューラルネットワーク  ・ 隠れマルコフモデル  ・ 線形分類

本研究で用いた手法 特徴量  フーリエ変換の振幅 分類方法  ニューラルネットワーク 脳波データ  コロラド州立大学が公開しているデータ

メンタルタスク 5種類のメンタルタスク: B : できるだけリラックス M: 掛け算を暗算で行う(49×78など) L : 手紙の文を考える  5種類のメンタルタスク: B : できるだけリラックス M: 掛け算を暗算で行う(49×78など) L : 手紙の文を考える R : 回転する3次元物体を想像する C : 数字を順番に書くことを想像する

脳波の測定 脳波を測定する電極の数は、7個 C3, C4, P3, P4, O1, O2, EOG(まばたき検出) 1回の測定は、 10 秒間 250Hzで、サンプリング →1チャネルあたり、2500サンプル

脳波のサンプル 250 Hz × 10 秒 = 2500 サンプル C3 C4 P3 P4 O1 O2 EOG 1チャネル分の脳波データ このような波形が、7チャネル分ある

特徴抽出 セグメント分割 フーリエ変換の振幅 サンプル数の低減 データの非線形正規化 セグメント 分割 フーリエ 変換振幅 サンプル 平均化 脳波 入力 データ

セグメント分割 セグメントごとに フーリエ変換 10 秒のデータを 0.5 秒のセグメントに分割 0.25 秒ごとに、分類結果を出す(上の↓) 0.5 秒 0.5 秒 0.5 秒 0.5 秒 ・・・ セグメントごとに フーリエ変換 ・・・

フーリエ変換の振幅 サンプル数125

サンプル数の低減 連続する複数サンプルで 平均することにより、サンプル数を低減 サンプル数125 サンプル数20

データの非線形正規化 データの分布を広げるために正規化を行う

7チャネル分並べたものが、入力データとなる(10×7=70サンプル) データの非線形正規化 振幅は、対称なので半分だけ用いる 正規化 7チャネル分並べたものが、入力データとなる(10×7=70サンプル)

ニューラルネットワークによる分類 隠れ層1層の2層形ネットワーク 学習:バックプロパゲーション 活性化関数:シグモイド関数 出力ユニット: 5種類のタスクに対応して、5個用いる 学習の際の目標出力は、  1:該当するタスクに対応する出力ユニット  0:その他の出力ユニット

ニューラルネットワークによる分類 最も大きな値を持つ出力ユニットに対応するタスクを分類結果とする 出力が全体的に小さい値のときは、 リジェクト(判定不能)とする ・・ 1 2 3 4 5 ・・ 1 2 3 4 5 0.3 0.9 0.1 0.0 0.2 0.1 0.2 0.0 分類結果は、タスク2 リジェクト(判定不能)

シミュレーション 5種類のメンタルタスクに対して、 10回ずつ測定を行ったので、合計50個のデータセットがある このうち、40個を学習に、残りの10個を テストに用いる テストに用いるデータを変えて、5回シミュレーションを行い、その平均値で、結果を評価する

シミュレーション 2人の被験者の脳波を用いて、それぞれ シミュレーションを行った 隠れ層のユニット数: 20 学習係数: 0.2 隠れ層のユニット数: 20 学習係数: 0.2 結合重みの初期値: ±0.2の範囲でランダム 学習回数: 5000 リジェクトのための閾値: 0.8

学習・テストデータに対する正答率 被験者1 被験者2

被験者1・2の正答率と誤答率 学習データ テストデータ 被験者 正 誤 比 1 99.7 0.1 0.99 79.7 10.5 0.88 2 95.5 0.8 45.5 33.7 0.57

被験者1の テストデータに対する正答・誤答表 B M L R C リジェクト 正答率 誤答率 326 11 12 2 39 83.6 6.4 18 328 8 9 27 84.1 9.0 23 258 14 34 59 66.2 18.7 1 26 4 31 8.5 33 7.4 B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く

被験者2の テストデータに対する正答・誤答表 B M L R C リジェクト 正答率 誤答率 217 40 29 14 8 82 55.6 23.3 65 106 31 44 45 99 27.2 47.4 48 23 223 16 49 57.2 30.3 155 83 39.7 39.0 21 10 205 62 52.6 31.5 B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く

脳磁計を用いたBCI

MEG(Magnetoencephalograph) 脳の電気的な活動に伴って生じる磁場(脳磁)をSQUID(超伝導量子干渉素子)を用いて検出 仰臥して計測→被験者の負担が小さい 空間解像度が高い(mm~) 時間解像度が高い(ms~) MEGとは脳の電気的な活動に伴って生じる磁場(脳磁)をSQUIDという特殊なセンサを用いて観測するものである 今回の脳磁計測システムは仰臥して計測することが可能であり、被験者の負担を極力抑えることができる また、従来からBCIでよく用いられてきた脳波(EEG)に比べ、空間解像度が高く(mm~)、脳内の限局的な活動を推定することができる 時間解像度も脳内の活動を観察するという意味で、医療機関などで用いられるMRIやCTなどよりも高い性能を有する

センサと頭部の対応付け 脳磁計のマーカ測定とMRI画像との位置合わせにより,チャネル位置を推定 MEGのマーカ測定とMRI画との位置合わせにより、頭部とセンサ位置の対応付けをとる これにより頭部のどの部分にセンサが位置しているかおおまかにわかる

チャネル選択 前頭葉・頭頂葉・側頭頂・後頭葉から2chずつ,合計8ch選択 各部位とセンサ位置の対応付けを決定し,各部位の中心・両半球のセンサを選択 具体的なチャネルの選択法について 大脳生理学的に大脳皮質の各部位を4つに分け、それぞれの部位から2チャネルずつ、合計8チャネル選択 前述のMRI画像との位置あわせから各部位との対応付けを決定し、経験的にチャネル選択 タスクによって活発に活動が計測される部位もあれば、ほとんど活動していない部位もあると考えられる そこで脳の各部位から代表して2chずつ選択することで全てのメンタルタスクをカバーする 初期状態として各部位(前頭葉・頭頂葉・側頭葉・後頭葉)の中心、左右両半球の対称位置にチャネルを選択する

メンタルタスク 4種類のメンタルタスクを用いる Baseline:何も考えずリラックス Multiplication:3桁×1桁の暗算(例:456×8) Sports:体を動かす様を想像 Rotation:回転する3次元物体を想像        (物体の形状は被験者に任意) 今回提案するメンタルタスクは以下の4種類とする まずは何も考えず安静閉眼状態 暗算課題を行っているとき 被験者が体を動かしている様をイメージしているとき 最後に被験者に具体的な3次元物体をイメージしてもらい、その物体が回転している様子をイメージする これらのメンタルタスクを選んだ理由として、できるだけ各タスクでイメージしていることがかぶらないようにタスクを選択した 例えば掛け算と体の動きのイメージでは脳の活発に働く部位が違うのではないかと考えられる

脳磁波形(時系列波形) 被験者1 リラックス trial1 時系列波形8チャネル分 →等磁場線図

チャネル位置の最適化 初期状態 最適化後

性能評価 5種類の特徴分類の平均値で正答率を評価 脳磁データ 4メンタルタスク×10 trial 学習データ ↓ 32セット 40セット ニューラルネットワークによる特徴分類の性能評価について説明する 今回は脳磁データを4つのメンタルタスクについて10 trial測定したので、合計で40セットのデータセットがある このうち学習に32セット、テストに8セットのデータを用いて特徴分類を行う この学習:テストのデータセットの組み合わせを5種類用意する これは1種類の学習:テストだけでは偶然そのデータセットのときに良好な分類性能が得られたかもしれず、複数の組み合わせを試す ことで、ある程度信頼のおける分類結果を得ることができる テストデータ 8セット 5種類の特徴分類の平均値で正答率を評価

各被験者の分類性能 分類性能/被験者 被験者1 被験者2 被験者3 初期状態 [%] 90.0/10.0 82.5/17.5 正答率/誤答率 分類性能/被験者 被験者1 被験者2 被験者3 初期状態 [%] 90.0/10.0 82.5/17.5 57.5/42.5 最適化後 [%] 97.5/2.5 85.0/15.0 72.5/27.5

Recurrent Neural Networks

Recurrent Neural Network

Hopfield Neural Network ・Symmetrical Connections ・No Self-loop ・One neuron randomly selected is updated. ・The energy function always decrease  or stay at the same value. ・Memory Capacity is about 15% of Neurons

Associative Memory (1) 4x4=16 Neuron RNN 6 Random Patterns {pi} are Stored Connection Weights ★Demonstration  Association from another random patterns

Traveling Salesman Problem Active Neuron Inactive Neuron (5×5 Neurons)

Associative Memory (2) ・Error Correction Learning with Hysteresis ・Adaptive Hysteresis Threshold for Association ・51 Alphabet Letters and 10 Digits are Stored in 16x16=256 Neuron RNN. 25% of Neurons

Association of ‘M’ from Its Noisy Pattern

Association of ‘M’ from Its Right Half Pattern

Association of ‘M’ from Its Upper Half Pattern

Competitive Learning

Lateral Inhibition Model

END OF THIS LECTURE THANK YOU