Download presentation
Presentation is loading. Please wait.
1
先端論文紹介ゼミ 09/10/20 B4 石川 智昭
2
紹介論文 “A model for learning to segment temporal sequences,utilizing a mixture of RNN experts together with adaptive variance” (2008) Jun Namikawa,Jun Tani
3
ABSTRACT 時系列データを適切な部分時系列に分節する“mixture of RNN expertsモデル”の提案。
九つのリサージュ曲線を確率的に遷移するマルコフ過程をうまく学習することを示している。 時系列予測と生成の実際問題として、小型のヒューマノイドロボットの感覚運動フロー(sensory-motor flow)の学習に適用させる。
4
1.Introduction ニューラルネットワークを用いて時系列の分節を行う際には、リカレントニューラルネットワーク(RNNs)がよく用いられる。 RNNsは感覚運動のシーケンスパターン、文法のシンボル列、連続時間的空間パターンを学習できる。 Tani and Nolfiはmixture of expertsの考えを階層的にまとまったRNNsに適用する、感覚運動フローの階層的セグメンテーションを提案。
5
1.Introduction mixture of RNN expertsにはモジュールの数が増えると分節がうまくいかなくなるという問題がある。 提案手法では、モジュールの数が増えても安定性を失わずに分節を行う
6
2.Model Mixture of RNN expertsモデル :入力ベクトル :ニューロンの内部状態
:入力ベクトル :ニューロンの内部状態 :出力ベクトル :ニューロンの状態 (1) (2) (3) (4) (0 ≤ ε ≤ 1) :ゲートの値 ≥ 0 = 1 を満たす :モジュールの出力 , :モジュール のパラメータ
7
2.1. Learning method ゲート (5) 入力時系列 、パラメータ が与えられた時、モデルの出力が となる確率 (6)
入力時系列 、パラメータ が与えられた時、モデルの出力が となる確率 (6) (7) d:出力ベクトルの次元
8
2.1. Learning method パラメータを 、入力時系列をX、出力時系列を とするときの確率 (8)
(9) は次式で定義される事前分布である (10) これより、ゲートの時系列の変化を抑えることができる。
9
2.1. Learning method 最尤度Lによって最適なパラメータ を選択 慣性項つきの勾配法を用いる。モデルパラメータの更新式は、
(11) :学習ステップtにおけるパラメータ :学習係数 :慣性項の係数 (12) で与えられ、 各パラメータの偏微分方程式 は次式で与えられる。 If n = 1 If n = T otherwise (13) (14) (15) (16)
10
2.2. Feedback loop with time delay
時間遅れ による出力から入力へのフィードバックがある場合 学習後、モデルの出力が訓練データと完全に等しくなった場合、訓練データの代わりにモデルの出力を入力としたフィードバックを生成できる。 訓練データ が を満たしている
11
3.Numerical simulation 3.1.Learning 周期が32で9つのリサージュ曲線を遷移するマルコフ連鎖による訓練データ Fig.1. (a)Training data generated by Markov chain switching of 9 Lissajous curves.(b)Each Lissajous curve.The subscript of each figure denotes the index of each Lissajous curve.The transitions among curves are consonant with continuity of the orbit. (17) (18) フィードバックの時間遅れ 、 を満たす訓練データ
12
3.1.Learning 遷移確率R (19) 訓練データの長さ T = 10,000、学習は300,000ステップ行う。
事前分布の標準偏差を 、慣性項 、学習係数 とする。 と で初期化し、 要素(element of the matrices) とベクトル(the vectors) は-0.1から0.1の範囲でランダムに初期化し、初期状態 を-1から1の範囲でランダムに初期化する。
13
3.1.Learning 平均2乗誤差の定義 :訓練データ (20) :モデルの出力
Fig.2.Mean square error for each learning step.(a)Open-loop dynamics.(b)Closed-loop dynamics. Fig.3.The parameter σ under adaptive optimization.
14
3.1.Learning 時間 n にモジュール i が選択される確率 q(i,n) (21) (22) (23)
Fig.4.The number of elements in Q for each learning step.
15
3.1.Learning Fig.5.A snapshot of the training data,output and gate opening values at the end of learning.(a)The training data.(b)The casein which σ is optimized.(c)The case of constant σ.In (b) and (c),the upper figures display output of trained models for the closed-loop dynamics,and lower figures display gate opening values,where the number over a gate opening value denotes the current opening gate.
16
3.1.Learning Fig.6.Trajectories generated by trained models in the closed-loop dynamics.Here (a) and (b) display outputs of the trained model and the output of modules in the case of adaptive σ,respectively.(c) and (d) also display these outputs in the case of constant σ.Notice that the output of a module i is plotted if qmax(n) = i,namely,if gate i opens at time n.If gate i never opened,then drawing the module i is omitted.
17
3.2.Generalization Fig.7.The generalization error and |Q| after 100,000 learning steps for each value of the parameter N,the number of learning modules.(a)The generalization error for the closed-loop dynamics.(b)The number of elements in the set Q.In the case of RNN using BPTTT,the number of context neurons in the RNN is set to 10N,that is,the total number of context neurons in the mixture of RNN experts.For each parameter N,we computed the results for 10 samples with different initial conditions,training data and test data. Fig.8.(a)The generalization error for the closed-loop dynamics.(b)The number of elements in the set Q for the test data.For each parameter ς ,we computed the results for 10 samples up to 100,000 learning steps,where the number of learning modules is N = 16.
18
3.3.Practical application
Fig.9.Humanoid robot behavior. ①物に手を伸ばす ②上下に動かす ③左右に動かす ④前後に動かす ⑤左右の手で交互にふれる ⑥両手でふれる
19
3.3.Practical application
Fig.10.Mean square error for closed-loop dynamics for learning of humanoid robot tasks.(a)Learning for expert modules.(b)Learning for a gating network to generate gn in computation of closed-loop dynamics.
20
3.3.Practical application
Fig.11.Time series of motor vector and gate opening vector.Output yn and gate opening vector gn of trained model are computed in closed-loop dynamics.For each time series,only the initial state of the model differs.
21
4.Discussion 4.1.Segmentation of temporal time series caused by indeterminacy 観測データに不確定要素を伴う、リサージュ曲線を確率的に変化したり、ロボットの行動を任意で構成したりする学習は、mixture of RNN expertsモデルに非決定性選択の情報を用いてデータをうまく分節させる。 現在の課題はTani and Nolfiによって検討された分節手法で本質的な特徴を再現することである。
22
・時間発展規則に影響している複数の写像を動的に切り替わる切り替え写像システム ・多様な秩序状態を遷移するカオス的遍歴
4.2.Dynamic change of functions 動的システムを利用したシステムは他に、 ・時間発展規則に影響している複数の写像を動的に切り替わる切り替え写像システム ・多様な秩序状態を遷移するカオス的遍歴 ・1次元関数空間上の動的システムである関数ダイナミクス などがあり、これらのシステムは提案手法のモデルで学習できるかは、まだはっきりしていない。 モデルの学習の可能性を解明することは将来の研究テーマである。
23
5.Conclusion 従来法では学習できないデータでも、適切に分節を行うことができる。 提案手法がモデルの学習能力を向上させている。
従来法では学習できないデータでも、適切に分節を行うことができる。 提案手法がモデルの学習能力を向上させている。 ヒューマノイドロボットの実験を通して、提案手法の有用性を確認している。
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.