先端論文紹介ゼミ 09/10/20 B4 石川 智昭.

Slides:



Advertisements
Similar presentations
第 5 章 2 次元モデル Chapter 5 2-dimensional model. Contents 1.2 次元モデル 2-dimensional model 2. 弱形式 Weak form 3.FEM 近似 FEM approximation 4. まとめ Summary.
Advertisements

先端論文ゼミ -タイトル- Identification of homogeneous regions for regional frequency analysis using the self organizing map (自己組織化マップを使っている地域の頻度分析のための均一な地 方の識別)
英語勉強会.
2010年7月9日 統計数理研究所 オープンハウス 確率モデル推定パラメータ値を用いた市場木材価格の期間構造変化の探求 Searching for Structural Change in Market-Based Log Price with Regard to the Estimated Parameters.
先端論文紹介ゼミ Tracking control for nonholonomic mobile robots: Integrating the analog neural network into the backstepping technique 非ホロノミック移動ロボットのための追従制御:
多数の疑似システムを用いた システム同定の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
ベイズ基準によるHSMM音声合成の評価 ◎橋本佳,南角吉彦,徳田恵一 (名工大).
Tohoku University Kyo Tsukada
高次元データにおける幾つかの検定統計量の漸近分布について
ガウス過程による回帰 Gaussian Process Regression GPR
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
Kalman Filter Finite Element Method Applied to Dynamic Motion of Ground Yusuke KATO Department of Civil Engineering, Chuo University.
P4-21 ネットワーク上の経路に対する 回帰問題について
格子シミュレーションによる 非自明固定点の探索
Deep Learningを用いたタンパク質のコンタクト残基予測
Population Codingの 最近の話題から
量的表現 Quantitation.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
混合ガウスモデルによる回帰分析および 逆解析 Gaussian Mixture Regression GMR
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Online Decoding of Markov Models under Latency Constraints
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
強化学習 3回目の内容 RT.
訓練データとテストデータが 異なる分布に従う場合の学習
複数の相関のある情報源に対するベイズ符号化について
強化学習におけるマクロを用いた 行動系列の獲得
2009年12月4日 ○ 前田康成(北見工業大学) 吉田秀樹(北見工業大学) 鈴木正清(北見工業大学) 松嶋敏泰(早稲田大学)
Data Clustering: A Review
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
論文紹介 - Solving NP Complete Problems Using P Systems with Active Membranes 2004/10/20(Wed)
分子生物情報学(3) 確率モデル(隠れマルコフモデル)に 基づく配列解析
電機情報工学専門実験 6. 強化学習シミュレーション
Nightmare at Test Time: Robust Learning by Feature Deletion
Number of random matrices
生物情報ソフトウェア特論 (2)たたみ込みとハッシュに 基づくマッチング
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
第3章 線形回帰モデル 修士1年 山田 孝太郎.
法数学のための 機械学習の基礎 京大(医) 統計遺伝学分野 山田 亮 2017/04/15.
情報経済システム論:第13回 担当教員 黒田敏史 2019/5/7 情報経済システム論.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
確率的画像処理アルゴリズム入門 東北大学 大学院情報科学研究科 田中 和之
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
DS3 ~Down-Scaling Simulation System
多重ベータ混合モデルを用いた調波時間構造の モデル化による音声合成の検討
川崎浩司:沿岸域工学,コロナ社 第4章(pp.58-68)
東北大 情報科学 田中和之,吉池紀子 山口大 工 庄野逸 理化学研究所 岡田真人
HMM音声合成における 変分ベイズ法に基づく線形回帰
ベイズ基準による 隠れセミマルコフモデルに基づく音声合成
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
ETPB: Extraction of Context from Pedestrians' Behavior
人工知能特論II 第8回 二宮 崇.
Le Lu, Rene Vidal John Hopkins University (担当:猪口)
【第六講義】非線形微分方程式.
シミュレーション物理4 運動方程式の方法.
音響伝達特性モデルを用いた シングルチャネル音源位置推定の検討 2-P-34 高島遼一,住田雄司,滝口哲也,有木康雄 (神戸大) 研究の背景
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
多重関数を用いた調波時間スペクトル形状のモデル化による音声合成 1-P-4
自己縮小画像と混合ガウス分布モデルを用いた超解像
ガウシアングラフィカルモデルにおける一般化された確率伝搬法
ランダムプロジェクションを用いた音響モデルの線形変換
1.2 言語処理の諸観点 (1)言語処理の利用分野
Topic No. 0 Introduction Tropical Cyclone Ensemble Forecast
先端研究論文紹介ゼミ M1 石川智昭.
混合ガウスモデル Gaussian Mixture Model GMM
素子のばらつきが特性に与える影響を調べます。 ここでは,RCフィルタ回路の 抵抗の誤差1%,コンデンサの誤差5% とします。
Presentation transcript:

先端論文紹介ゼミ 09/10/20 B4 石川 智昭

紹介論文 “A model for learning to segment temporal sequences,utilizing a mixture of RNN experts together with adaptive variance” (2008) Jun Namikawa,Jun Tani

ABSTRACT 時系列データを適切な部分時系列に分節する“mixture of RNN expertsモデル”の提案。 九つのリサージュ曲線を確率的に遷移するマルコフ過程をうまく学習することを示している。 時系列予測と生成の実際問題として、小型のヒューマノイドロボットの感覚運動フロー(sensory-motor flow)の学習に適用させる。

1.Introduction ニューラルネットワークを用いて時系列の分節を行う際には、リカレントニューラルネットワーク(RNNs)がよく用いられる。 RNNsは感覚運動のシーケンスパターン、文法のシンボル列、連続時間的空間パターンを学習できる。 Tani and Nolfiはmixture of expertsの考えを階層的にまとまったRNNsに適用する、感覚運動フローの階層的セグメンテーションを提案。

1.Introduction mixture of RNN expertsにはモジュールの数が増えると分節がうまくいかなくなるという問題がある。 提案手法では、モジュールの数が増えても安定性を失わずに分節を行う

2.Model Mixture of RNN expertsモデル :入力ベクトル :ニューロンの内部状態 :入力ベクトル     :ニューロンの内部状態   :出力ベクトル     :ニューロンの状態 (1) (2) (3) (4) (0 ≤ ε ≤ 1) :ゲートの値 ≥ 0 = 1 を満たす :モジュールの出力 , :モジュール  のパラメータ

2.1. Learning method ゲート (5) 入力時系列 、パラメータ が与えられた時、モデルの出力が となる確率 (6) 入力時系列       、パラメータ    が与えられた時、モデルの出力が   となる確率         (6) (7) d:出力ベクトルの次元

2.1. Learning method パラメータを 、入力時系列をX、出力時系列を とするときの確率 (8) (9) は次式で定義される事前分布である (10) これより、ゲートの時系列の変化を抑えることができる。

2.1. Learning method 最尤度Lによって最適なパラメータ を選択 慣性項つきの勾配法を用いる。モデルパラメータの更新式は、 (11) :学習ステップtにおけるパラメータ :学習係数 :慣性項の係数 (12) で与えられ、 各パラメータの偏微分方程式       は次式で与えられる。 If n = 1 If n = T otherwise (13) (14) (15) (16)

2.2. Feedback loop with time delay 時間遅れ  による出力から入力へのフィードバックがある場合 学習後、モデルの出力が訓練データと完全に等しくなった場合、訓練データの代わりにモデルの出力を入力としたフィードバックを生成できる。 訓練データ        が       を満たしている

3.Numerical simulation 3.1.Learning 周期が32で9つのリサージュ曲線を遷移するマルコフ連鎖による訓練データ Fig.1. (a)Training data generated by Markov chain switching of 9 Lissajous curves.(b)Each Lissajous curve.The subscript of each figure denotes the index of each Lissajous curve.The transitions among curves are consonant with continuity of the orbit. (17) (18) フィードバックの時間遅れ  、      を満たす訓練データ

3.1.Learning 遷移確率R (19) 訓練データの長さ T = 10,000、学習は300,000ステップ行う。 事前分布の標準偏差を    、慣性項      、学習係数           とする。      と     で初期化し、 要素(element of the matrices)         とベクトル(the vectors)     は-0.1から0.1の範囲でランダムに初期化し、初期状態   を-1から1の範囲でランダムに初期化する。

3.1.Learning 平均2乗誤差の定義 :訓練データ (20) :モデルの出力 Fig.2.Mean square error for each learning step.(a)Open-loop dynamics.(b)Closed-loop dynamics. Fig.3.The parameter σ under adaptive optimization.

3.1.Learning 時間 n にモジュール i が選択される確率 q(i,n) (21) (22) (23) Fig.4.The number of elements in Q for each learning step.

3.1.Learning Fig.5.A snapshot of the training data,output and gate opening values at the end of learning.(a)The training data.(b)The casein which σ is optimized.(c)The case of constant σ.In (b) and (c),the upper figures display output of trained models for the closed-loop dynamics,and lower figures display gate opening values,where the number over a gate opening value denotes the current opening gate.

3.1.Learning Fig.6.Trajectories generated by trained models in the closed-loop dynamics.Here (a) and (b) display outputs of the trained model and the output of modules in the case of adaptive σ,respectively.(c) and (d) also display these outputs in the case of constant σ.Notice that the output of a module i is plotted if qmax(n) = i,namely,if gate i opens at time n.If gate i never opened,then drawing the module i is omitted.

3.2.Generalization Fig.7.The generalization error and |Q| after 100,000 learning steps for each value of the parameter N,the number of learning modules.(a)The generalization error for the closed-loop dynamics.(b)The number of elements in the set Q.In the case of RNN using BPTTT,the number of context neurons in the RNN is set to 10N,that is,the total number of context neurons in the mixture of RNN experts.For each parameter N,we computed the results for 10 samples with different initial conditions,training data and test data. Fig.8.(a)The generalization error for the closed-loop dynamics.(b)The number of elements in the set Q for the test data.For each parameter ς ,we computed the results for 10 samples up to 100,000 learning steps,where the number of learning modules is N = 16.

3.3.Practical application Fig.9.Humanoid robot behavior. ①物に手を伸ばす ②上下に動かす ③左右に動かす ④前後に動かす ⑤左右の手で交互にふれる ⑥両手でふれる

3.3.Practical application Fig.10.Mean square error for closed-loop dynamics for learning of humanoid robot tasks.(a)Learning for expert modules.(b)Learning for a gating network to generate gn in computation of closed-loop dynamics.

3.3.Practical application Fig.11.Time series of motor vector and gate opening vector.Output yn and gate opening vector gn of trained model are computed in closed-loop dynamics.For each time series,only the initial state of the model differs.

4.Discussion 4.1.Segmentation of temporal time series caused by indeterminacy   観測データに不確定要素を伴う、リサージュ曲線を確率的に変化したり、ロボットの行動を任意で構成したりする学習は、mixture of RNN expertsモデルに非決定性選択の情報を用いてデータをうまく分節させる。   現在の課題はTani and Nolfiによって検討された分節手法で本質的な特徴を再現することである。

・時間発展規則に影響している複数の写像を動的に切り替わる切り替え写像システム ・多様な秩序状態を遷移するカオス的遍歴 4.2.Dynamic change of functions   動的システムを利用したシステムは他に、   ・時間発展規則に影響している複数の写像を動的に切り替わる切り替え写像システム   ・多様な秩序状態を遷移するカオス的遍歴   ・1次元関数空間上の動的システムである関数ダイナミクス   などがあり、これらのシステムは提案手法のモデルで学習できるかは、まだはっきりしていない。   モデルの学習の可能性を解明することは将来の研究テーマである。

5.Conclusion 従来法では学習できないデータでも、適切に分節を行うことができる。 提案手法がモデルの学習能力を向上させている。   従来法では学習できないデータでも、適切に分節を行うことができる。   提案手法がモデルの学習能力を向上させている。   ヒューマノイドロボットの実験を通して、提案手法の有用性を確認している。