Download presentation
Presentation is loading. Please wait.
1
Introduction to Neural Networks
適応システム理論 ガイダンス Introduction to Neural Networks Kenji Nakayama Kanazawa University, JAPAN
2
PPTファイルの入手方法 http://leo. ec. t. kanazawa-u. ac
PPTファイルの入手方法 Education 授業科目 Lecture Subjects 適応システム理論 平成19年度 ガイダンスPPTファイル
3
Neural Networks Network Structures Multi-layer Network
Recurrent Network Learning Algorithms Supervised Learning Unsupervised Learning Functions Pattern Mapping and Classification Estimation and Prediction Associative Memory Optimization and Minimization
4
Multi-Layer Neural Networks
5
Artificial Neuron Model
6
Activation (Nonlinear) Function of Neuron
Active Inactive Space Separation
7
Pattern Classification by Single Neuron
8
Linearly Inseparable Problem
9
Two Layer Neural Network
10
Pattern Classification by Two-Layer NN - Region Separation by Hidden Units-
11
Pattern Classification by Two-Layer NN - Class Separation by Output Unit -
12
Learning of Connection Weights in Single-Layer NN
Gradient Method is minimized
13
Learning of Connection Weights in Multi-Layer NN - Error Back Propagation Algorithm -
Gradient Method Chain Rule in Derivative
14
Learning Process (Initial State)
u=0
15
Learning Process (Middle State)
u=0
16
Learning Process (Middle State)
u=0
17
Learning Process (Convergence)
u=0
18
Training and Testing for Pattern Classification
19
Prediction of Fog Occurrence
Application 1 Prediction of Fog Occurrence
20
Number of Fog Occurrence
Fog is observed every 30 minutes
21
Neural Network for Prediction
22
Weather Data ・Temperature ・Atmospheric Pressure ・Humidity
・Force of Wind ・Direction of Wind ・Cloud Condition ・Past Fog Occurrence ・・・・・ 20 kinds of weather data are used
23
Connection Weights from Input to Hidden Unit
24
Connection Weights from Hidden to Output
Fog will occur Fog won’t occur
25
FFT of Connection Weights Used for Predicting Fog
Input→Hidden Unit #6 Input→Hidden Unit #10
26
FFT of Connection Weights for Predicting No Fog
Input→Hidden Unit #3 Input→Hidden Unit #14
27
Prediction Accuracy of Fog and No Fog
28
Nonlinear Time Series Prediction
Application 2 Nonlinear Time Series Prediction
29
Examples of Nonlinear Time Series
Sunspot Lake Level Chaotic Series
30
Nonlinear Predictor Combining NN and Linear Filter
31
Prediction Accuracy by Several Methods
32
Prediction of Machine Deformation
Application 3 Prediction of Machine Deformation
33
Numerically Controlled Cutting Machine
Cutting Tool Objective
34
Machine Temperature Change in Time
35
Deformation of Cutting by Temperature Change
36
Deviation of Cutting by Temperature Change
Tolerance
37
Mean Squared Error Reduction by Learning NN
38
Prediction of Deformation Using NN
Tolerance
39
ニューラルネットワークによる タンパク質二次構造予測
40
タンパク質はアミノ酸配列が立体的に 折り畳まれることによって生じる 立体構造がタンパク質の機能性を決定
IJCNN‘2002 R.Pollock,T.Lane,M.Watts 立体構造の中に部分的に存在する規則構造 タンパク質二次構造 タンパク質二次構造予測は タンパク質構造解析において非常に有用
41
データの操作 ・1個のアミノ酸の二次構造を予測するため 前後4個(計9個)のアミノ酸の情報を使用 ・1個のアミノ酸に22個の入力ユニット
前後4個(計9個)のアミノ酸の情報を使用 ・1個のアミノ酸に22個の入力ユニット (各アミノ酸種20個、スペーサ1個、不変重み1個) ・入力ユニット22*9個、出力ユニット3個
42
従来法との比較 70
43
ニューラルネットワークによる ブレイン・コンピュータ・インターフェイス
44
研究背景 人間とコンピュータのインタフェースとして、現在、さまざまなものが使用されている
近年、脳波を解析して行う手法に注目 (ブレイン・コンピュータ・インタフェース:BCI) 重度の運動障害を抱える患者が機器を操作するのを助ける、といった応用が期待されている
45
BCIの処理の流れ ユーザがやりたいことを想像し、そのときの脳波を測定する ・メンタルタスク(想像する課題)を使用
脳波を解析し、ユーザの意図を推定する 推定結果に基づいて、機器を操作する ○○ したい 対応する タスクを 想像 脳波 特徴量 特徴抽出 脳波の測定 タスク 特徴分類 分類器 機器の操作 脳波の測定 特徴抽出 特徴分類 機器の操作
46
BCIの方式 (文献[3]) 特徴量 ・ 周波数スペクトル ・ AR係数
特徴量 ・ 周波数スペクトル ・ AR係数 分類方法 ・ ニューラルネットワーク ・ 隠れマルコフモデル ・ 線形分類
47
本研究で用いた手法 特徴量 フーリエ変換の振幅 分類方法 ニューラルネットワーク 脳波データ コロラド州立大学が公開しているデータ
48
脳波データ 用いられたメンタルタスクは、5種類 B : できるだけリラックス M: 掛け算を暗算で行う(49×78など)
L : 手紙の文を考える R : 回転する3次元物体を想像する C : 数字を順番に書くことを想像する 脳波から、そのときのタスクを推定する
49
脳波データ 脳波を測定する電極の数は、7個 C3, C4, P3, P4, O1, O2, EOG(まばたき検出)
1回の測定は、 10 秒間 250Hzで、サンプリング →1チャネルあたり、2500サンプル
50
脳波データセット 250 Hz × 10 秒 = 2500 サンプル C3 C4 P3 P4 O1 O2 EOG 1チャネル分の脳波データ
このような波形が、7チャネル分ある
51
特徴抽出 セグメント分割 フーリエ変換の振幅 サンプル数の低減 データの非線形正規化 セグメント 分割 フーリエ 変換振幅 サンプル 平均化
脳波 入力 データ
52
セグメント分割 セグメントごとに フーリエ変換 10 秒のデータを 0.5 秒のセグメントに分割
0.25 秒ごとに、分類結果を出す(上の↓) 0.5 秒 0.5 秒 0.5 秒 0.5 秒 ・・・ セグメントごとに フーリエ変換 ・・・
53
フーリエ変換の振幅 サンプル数125
54
サンプル数の低減 連続する複数サンプルで 平均することにより、サンプル数を低減 サンプル数125 サンプル数20
55
データの非線形正規化 データの分布を広げるために正規化を行う
56
7チャネル分並べたものが、入力データとなる(10×7=70サンプル)
データの非線形正規化 振幅は、対称なので半分だけ用いる 正規化 7チャネル分並べたものが、入力データとなる(10×7=70サンプル)
57
ニューラルネットワークによる分類 隠れ層1層の2層形ネットワーク 学習は、バックプロパゲーション法で行う 活性化関数は、シグモイド関数
出力ユニットは、 5種類のタスクに対応して、5個用いる 学習の際の目標出力は、 1:該当するタスクに対応する出力ユニット 0:その他の出力ユニット
58
ニューラルネットワークによる分類 最も大きな値を持つ出力ユニットに対応するタスクを分類結果とする
出力が全体的に小さい値のときは、 リジェクト(判定不能)とする ・・ 1 2 3 4 5 ・・ 1 2 3 4 5 0.3 0.9 0.1 0.0 0.2 0.1 0.2 0.0 分類結果は、タスク2 リジェクト(判定不能)
59
シミュレーション 5種類のメンタルタスクに対して、 10回ずつ測定を行ったので、合計50個のデータセットがある
このうち、40個を学習に、残りの10個を テストに用いる テストに用いるデータを変えて、5回シミュレーションを行い、その平均値で、結果を評価する
60
シミュレーションの条件 2人の被験者の脳波を用いて、それぞれ シミュレーションを行った 隠れ層のユニット数: 20 学習係数: 0.2
隠れ層のユニット数: 20 学習係数: 0.2 結合重みの初期値: ±0.2の範囲でランダム 学習回数: 5000 リジェクトのための閾値: 0.8
61
学習・テストデータに対する正答率 被験者1 被験者2
62
被験者1・2の正答率と誤答率 学習データ テストデータ 被験者 正 誤 比 1 99.7 0.1 0.99 79.7 10.5 0.88 2 95.5 0.8 45.5 33.7 0.57
63
被験者1の テストデータに対する正答・誤答表
B M L R C リジェクト 正答率 誤答率 326 11 12 2 39 83.6 6.4 18 328 8 9 27 84.1 9.0 23 258 14 34 59 66.2 18.7 1 26 4 31 8.5 33 7.4 B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く
64
被験者2の テストデータに対する正答・誤答表
B M L R C リジェクト 正答率 誤答率 217 40 29 14 8 82 55.6 23.3 65 106 31 44 45 99 27.2 47.4 48 23 223 16 49 57.2 30.3 155 83 39.7 39.0 21 10 205 62 52.6 31.5 B:リラックス M:掛け算 L:手紙の文 R:回転する物体 C:数字を書く
65
Recurrent Neural Networks
66
Recurrent Neural Network
67
Hopfield Neural Network
・Symmetrical Connections ・No Self-loop ・One neuron randomly selected is updated. ・The energy function always decrease or stay at the same value. ・Memory Capacity is about 15% of Neurons
68
Associative Memory (1) 4x4=16 Neuron RNN
6 Random Patterns {pi} are Stored Connection Weights ★Demonstration Association from another random patterns
69
Traveling Salesman Problem
Active Neuron Inactive Neuron (5×5 Neurons)
70
Associative Memory (2) (IJCNN’91, ICNN’94)
・Error Correction Learning with Hysteresis ・Adaptive Hysteresis Threshold for Association ・51 Alphabet Letters and 10 Digits are Stored in 16x16=256 Neuron RNN. 25% of Neurons
71
Association of ‘M’ from Its Noisy Pattern
72
Association of ‘M’ from Its Right Half Pattern
73
Association of ‘M’ from Its Upper Half Pattern
74
Competitive Learning
75
Lateral Inhibition Model
76
END OF THIS LECTURE THANK YOU
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.