Deep Spatial Autoencoders for Visuomotor Learning 視覚運動学習のための深層空間

Slides:



Advertisements
Similar presentations
自動映像生成のための パーティクルフィルタによるボールの追 跡 2007 年 3 月 21 日 神戸大学大学院自然科学研究科 矢野 一樹.
Advertisements

点対応の外れ値除去の最適化によるカメラの動的校正手法の精度向上
HOG特徴に基づく 単眼画像からの人体3次元姿勢推定
静止背景における動物体の検出と追跡 陳 謙 2004年10月19日.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
情報理論学習のためのE-learningシステムの構築
Pose Tracking from Natural Features on Mobile Phones
THE CONTINUOUS IMPROVEMENT MODEL called ADEC
先端論文紹介ゼミ Tracking control for nonholonomic mobile robots: Integrating the analog neural network into the backstepping technique 非ホロノミック移動ロボットのための追従制御:
-心理的時間を共創するシステム- 三 宅 美 博 東京工業大学 大学院総合理工学研究科
The ball being captured inside the net
Object Group ANalizer Graduate School of Information Science and Technology, Osaka University OGAN visualizes representative interactions between a pair.
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
異種センサを用いた人の行動検知 研究概要 研究の独自性 isi担当 高汐グループ成果 スライド到着待ち yasu担当.
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第三回 演習課題 画像中からの物体抽出処理(色情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/08.
3次元剛体運動の理論と シミュレーション技法
「串刺し」研究アプローチの例 e-learning e-space 動画配信 システム SOI Smart Web ストリーミング技術
サポートベクターマシン によるパターン認識
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
ビデオデータベース.
決定木とランダムフォレスト 和田 俊和.
視点移動カメラにおけるカメラキャリブレーション
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
Songzhu Gao, Tetsuya Takiguchi, Yasuo Ariki (Kobe University) 
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第二回 演習課題
高度情報演習1C 実践 画像処理プログラミング 第二回 演習課題
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
1-R-19 発話に不自由のある聴覚障害者の発話音声認識の検討
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
Computer Graphics 第10回 レンダリング(4) マッピング
高度情報演習1A “テーマC” 実践 画像処理プログラミング 第六回 最終課題 画像処理による動物体自動抽出、モーションキャプチャ
中京大学 工学部 電気電子工学科 白井研究室 4年 T 為房直人
東京農業大学 東京情報大学 附属第一高等学校・中等部 附属第二高等学校 附属第三高等学校・中等部
予測に用いる数学 2004/05/07 ide.
UMLモデルを対象とした リファクタリング候補検出の試み
ロボットの協調動作の研究: マップ作成とマップ情報を利用した行動計画
Data Clustering: A Review
複数特徴量の重み付け統合による一般物体認識
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
一方向画像からの 3Dモデル生成 電気電子工学科 白井研究室 T215049 田原 大輝.
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
22 物理パラメータに陽に依存する補償器を用いた低剛性二慣性系の速度制御実験 高山誠 指導教員 小林泰秀
論文紹介: “Joint Embedding of Words and Labels for Text Classification”
Number of random matrices
SIFTとGraph Cutsを用いた 物体認識及びセグメンテーション
Wavelet係数の局所テクスチャ特徴量を用いたGraph Cutsによる画像セグメンテーション
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
わかりやすいパターン認識 第7章:部分空間法  7.1 部分空間法の基本  7.2 CLAFIC法                  6月13日(金)                  大城 亜里沙.
Introduction to Soft Computing
ブースティングとキーワードフィルタリング によるシステム要求検出
距離空間ピラミッドを用いた LLCによる3次元物体認識
設計情報の再利用を目的とした UML図の自動推薦ツール
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
ETPB: Extraction of Context from Pedestrians' Behavior
ポッツスピン型隠れ変数による画像領域分割
時間連続性を考慮した 動画からの人物の姿勢推定
ステレオカメラを用いた歩行者の行動解析.
エイリアス関係を考慮した Javaプログラム用静的スライシングツール
複雑度メトリクスを用いた JAVAプログラム品質特性の実験的評価
1-Q-12 Buried Markov Modelを用いた構音障害者の音声認識の検討
視覚補助のための物体検出 白井研究室 T 若松大仁
AAMと回帰分析による視線、顔方向同時推定
市松模様を使用した カメラキャリブレーション
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Presentation transcript:

Deep Spatial Autoencoders for Visuomotor Learning 視覚運動学習のための深層空間 オートエンコーダ Finn, Xin Yu Tan, Yan Duan, Trevor Darrel, Sergey Levine, Pieter Abbeel, “Deep Spatial Autoencoders for Visuomotor Learning”, IEEE International Conference on Robotics and Automation(ICRA), pp512-519, 2016 2016年7月31日 ロボティクス研究室 M1 川上蓮也

Abstract Reinforcement learning provides a powerful and flexible framework for automated acquisition of robotic motion skills. 強化学習はロボットの運動スキルを自動取得するための強力で柔軟なフレームワークを提供する. However, applying reinforcement learning requires a sufficiently detailed representation of the state, including the configuration of task-relevant objects. しかしながら,強化学習の適用にはタスクに関した物体の構造を含む十分な状態表現が必要となる.

Abstract We present an approach that automates state-space construction by learning a state representation directly from camera images. 私たちは,カメラ画像から直接得られる状態表現を学習することによる,状態空間の自動構成手法を提示する.

Abstract Our method uses a deep spatial autoencoder to acquire a set of feature points that describe the environment for the current task, such as the positions of objects, and then learns a motion skill with these feature points using an efficient reinforcement learning method based on local linear models. 私たちの手法では,現在のタスクにおける環境を表す 特徴点の集合を深層空間オートエンコーダーを使う ことで得る.この特徴点は例えば物体の位置などである. この処理後,得られた特徴点に対応した運動スキルを 局所線形モデルをベースにした強化学習によって学習する.

Abstract The resulting controller reacts continuously to the learned feature points, allowing the robot to dynamically manipulate objects in the world with closed-loop control. 出来上がったコントローラーは,閉ループ制御界で ロボットを動的に操作できるよう連続的に学習済み 特徴点と反応する.

Abstract We demonstrate our method with a PR2 robot on tasks that include pushing a free-standing toy block, picking up a bag of rice using a spatula, and hanging a loop of rope on a hook at various positions. 私たちは,この手法をPR2ロボットを使って実際に確認 する.この際用いるタスクとして,自立したブロックの 押し出し,ヘラを使った米俵の持ち上げ,様々な位置に あるフックに輪を引っ掛ける動作を行う.

Abstract In each task, our method automatically learns to track task-relevant objects and manipulate their configuration with the robot’s arm. それぞれのタスクにおいて,本手法では自動的にタスクに関した物体の追跡を行い,それらの形状をロボットアームで巧みに扱うことができた.

背景 強化学習において基礎的な課題は,タスクに応じた適切な 状態空間を定義することである 一般的にこれは手動で設計されている  状態空間を定義することである 一般的にこれは手動で設計されている →どのような特徴をどのように抽出するか(高コスト) →タスクに合わせた設計であるため,タスクが変わると  学習が上手くいかない この手動プロセスは同じ強化学習アルゴリズムを 複雑で未定義な環境下に適応させることを難しくしている

目的 もしロボットが自動的にタスクに対応した特徴量を 決定し,それらを用いて学習することが出来れば, より汎可性の高いシステムが最小限のコストで構築 できる。 →画像からタスクに応じた特徴量の自動取得

特徴量の自動取得 本研究ではCNNを用いたオートエンコーダによる 次元圧縮を用いて特徴量を求めている →CNNとは? →オートエンコーダとは?

CNN(Convolutional Neural Network)とは ニューラルネットワークに畳み込み層を導入したもの プーリング層と合わせて用いられることが多い

CNNの畳み込み層 概要 入力に対してフィルタを 畳み込み,特徴マップを 生成する層 CNNではこのフィルタの 係数を学習により最適化 する 利点 点ではなく領域ベースの 特徴抽出が可能 →移動不変性が高い

フィルタに対応した特徴マップ ぼかし処理 エッジ処理

CNNのプーリング層 概要 画像の圧縮を行う層 Max Poolingと呼ばれる各領域内の最大値をとる手法が多く使われている 利点 計算コストの削減 移動不変性をより確かに

CNNの概念 高レベルの概念は低レベルの特徴量の組合せで表現 できる 画素からエッジへ ↓ エッジから部品へ 部品から物体へ

CNN(Convolutional Neural Network)とは 低レベルの特徴を抽出 例.エッジ 高レベルの特徴を抽出 例.物体の一部 得られた特徴から クラス分類

オートエンコーダとは 出力データが入力データと等しくなるように学習したニューラルネットワーク 中間層の次元を入力層より落とすことで入力データの次元圧縮が行える →特徴の抽出

本研究における特徴量抽出手法 値より位置に 着目した 特徴量の抽出 活性化している →特徴的な 物体がある  物体がある 1.畳み込み層を3層通し,特徴マップを生成する 2.マップに対して正規化処理を行い,確率分布と見なす ことで活性化している点を確率的に選択する 3.各マップごとに選択された点の座標を特徴量とする

実験手法 以下の比較を行い,有効性を評価する (1).視覚情報を用いない強化学習によるタスク処理 (2).(1)に特徴量を加えた強化学習によるタスク処理

実験環境 使用するロボット:PR2 腕の自由度:7 使用するセンサ:PR2頭部搭載のKinect

タスクの詳細 Lego block Bag transfer Rice scoop Loop hook 初期状態からブロックを30cm左に動かすことで達成 Bag transfer スプーンを使ってバックをボールに入れることで達成 Rice scoop ヘラを使って小さい米俵を持ち上げ,ボールに入れるこ とで達成 Loop hook 輪っかを様々な位置にあるフックにかけることで達成

実験結果:各タスクの達成率 各タスクの達成率 特徴量を用いた 強化学習がすべてのタスクに対して 達成率が高いこと がわかる 各タスクの成功例と失敗例

実験結果:フック位置ごとの達成率 タスク[Loop hook]は0,8,16,24cmの位置にあるフック に対して輪っかを通すよう学習している 特徴量を用いた強化学習では,学習済みパターン以外の 4,12,20cmの位置にフックがある場合でもタスク達成率 が高いことがわかる フック位置ごとの達成率

実験の様子 本実験を紹介した動画は以下のリンク先で見ることが出来る

結論 CNNを用いたオートエンコーダによって抽出された特徴 を用いることで,強化学習におけるタスク達成率を改善 することが出来た 物体の位置に着目した特徴量を用いることで,目標物体 の位置が変わってもタスクを達成することができた 有効な特徴量を自動的に抽出することができたといえる