教示動作の視覚処理に基づく 物体の機能情報の抽出

Slides:



Advertisements
Similar presentations
高度情報演習 1A “ テーマC ” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 芝浦工業大学 工学部 情報工学科 青木 義満 2006/04/10.
Advertisements

自動映像生成のための パーティクルフィルタによるボールの追 跡 2007 年 3 月 21 日 神戸大学大学院自然科学研究科 矢野 一樹.
OWL-Sを用いたWebアプリケーションの検査と生成
HOG特徴に基づく 単眼画像からの人体3次元姿勢推定
No.5 No5 半導体機械カバー コメント 使用機能 一覧 従来課題 課題解決策 R部分のフランジと 斜めのフランジが 重なり合う部分の
班紹介 描画班一同.
The ball being captured inside the net
卒業論文のタイトルをここに (発表時間は5分です。 PPTスライドは10枚程度にまとめる事)
9月27日 パラボラミラーによる ミリ波ビーム絞り
ソシオン理論における 三者関係のシミュレーション
• Top-hat transformation(TH)による特徴抽出
No8液体混合ダクト No.8 コメント 使用機能 一覧 従来課題 課題解決策 パイプがある角度で 「 3次元への面配置」 連結しているが、
協調機械システム論 (04.11, 04,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
透視投影(中心射影)とは  ○ 3次元空間上の点を2次元平面へ投影する方法の一つ  ○ 投影方法   1.投影中心を定義する   2.投影平面を定義する
3次元剛体運動の理論と シミュレーション技法
製図の基礎 10回目 6/18 日本工業大学 製図の基礎.
MPIによる行列積計算 情報論理工学研究室 渡邉伊織 情報論理工学研究室 渡邉伊織です。
高度情報演習1C 実践 画像処理プログラミング
画像工学 2012年10月3日 担当教員 北川 輝彦.
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
3D散歩ゲーム 08A2043 谷口盛海 種田研究室.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
Leap Motionを用いた実世界指向 アプリランチャの設計と開発
ひび割れ面の摩擦接触を考慮した損傷モデル
ビデオデータベース.
ステレオカメラを用いた歩行者の行動解析.
ステレオカメラを用いた人の行動解析.
人間の教示動作の視覚処理に基づく物体機能の抽出
米山研究室紹介 -システム制御工学研究室-
広瀬啓吉 研究室 4.音声認識における適応手法の開発 1.劣条件下での複数音源分離 5.音声認識のための韻律的特徴の利用
卒業論文 重力波のデータ解析における 分散処理の必要性
OpenGLライブラリを用いた3次元フラクタルの描画
只見町 インターネット・エコミュージアムの「キーワード」検索の改善
社会シミュレーションのための モデル作成環境
コードクローン検出ツールを用いた ソースコード分析システムの試作と プログラミング演習への適用
中京大学 工学部 電気電子工学科 白井研究室 4年 T 為房直人
仮想コンテナターミナル構築による 荷役作業を考慮したレイアウト計画支援
内視鏡画像からの奥行き情報提示による 視覚支援システムの開発
動力学(Dynamics) 力と運動方程式 2008.6.10
ロボットの協調動作の研究: マップ作成とマップ情報を利用した行動計画
AIを用いたドローンの 新たな姿勢制御方法に関する研究
シナリオのアニメーション表示による 妥当性確認支援
VRML とJavaによる 3次元動作シミュレーションの実現
Thesis Supervisor: Katsushi Ikeuchi 池内克史
一方向画像からの 3Dモデル生成 電気電子工学科 白井研究室 T215049 田原 大輝.
建築模型制作支援のための ソフトウェア研究開発
ステレオカメラを用いた歩行者の行動解析 ステレオカメラを用いた歩行者の行動解析.
背景 課題 目的 手法 作業 期待 成果 有限体積法による汎用CFDにおける 流体構造連成解析ソルバーの計算効率の検証
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
抗力への振動付加による 高剛性とすべり感提示
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
Handel-Cを用いた パックマンの設計
ブースティングとキーワードフィルタリング によるシステム要求検出
設計情報の再利用を目的とした UML図の自動推薦ツール
「マイグレーションを支援する分散集合オブジェクト」
教示動作の視覚処理に基づく 物体の機能情報の抽出
プログラムの差分記述を 容易に行うための レイヤー機構付きIDEの提案
ステレオカメラを用いた歩行者の行動解析.
大阪工業大学 情報科学部 情報システム学科 学生番号 B02-014 伊藤 誠
自然言語処理2015 Natural Language Processing 2015
Y. Yamaji, T. Miyake, Y. Yoshiike, P. Ravindra S. De Silva ,M. Okada
ロボットから人に話しかける 判断モデルの構築
MPIを用いた並列処理計算 情報論理工学研究室 金久 英之
ビデオデータベースを用いた 流体画像に基づくアニメーション生成
ロボット工学 第14回 インピーダンス制御 福岡工業大学 工学部 知能機械工学科 木野 仁
力覚インタラクションのための 物理ベースモデリング
CSP係数の識別に基づく話者の 頭部方向の推定
自然言語処理2016 Natural Language Processing 2016
論理回路製作実験 発表ガイダンス 発表者氏名 秋田工業高等専門学校 電気・電子・情報系.
市松模様を使用した カメラキャリブレーション
Presentation transcript:

教示動作の視覚処理に基づく 物体の機能情報の抽出 A Sampling Process for Information of Objects Function Based on Motion Recognition by Vision 電気通信大学 情報システム学研究科 佐藤 啓宏 「教示動作の視覚処理に基づく物体の機能情報の抽出」 というタイトルで、電気通信大学の佐藤が発表します。

発表内容 はじめに 人の作業解析 物体の機能情報の抽出 3次元トラッキング まとめ まず、「はじめに」で研究の背景を説明します。 次に「人の作業解析」を行った内容と結論として得たアイデアを説明します。 「物体の機能情報の抽出」では、システムへの実装について話します。 「3次元トラッキング」では、ビジョンシステムについて簡単に紹介します。 最後に「まとめ」で、現在までの成果と今後の課題について述べます。

はじめに 1.研究の背景 ・人とロボットの協調作業 ・人まねロボット 2.従来の研究 視覚による人の動作認識に基づくロボットへの教示や人との協調作業は、ロボットに必要とされる重要な技術の1つであり、さまざまな研究が進められています。私達も、写真1のようなヒューマノイドロボットを開発し人とロボットの協調作業の研究を進めています。 従来の研究として、木村らは、物体や人の動作を認識しそれに基づくロボットの動作計画の組み立てを自動的に行う手法を提案し、人とロボットの協調作業を実現しています。 Fig1. CVL Robot (仮称) 2.従来の研究 ・人の教示動作の視覚による動作認識に基づきタスクモデルを自動構築 (H.Kimura、’99)

タスクモデルの枠組 Result obj(a).f(i)& obj(b).f(j) operated Preconditions State #1 ・・・・・・・ タスクモデル State obj(a).f(i){ & obj(b).f(j)}operated Attributes Frame for grasping. Point coincided. Axes aligned. ・・・・・・ Operation operate obj(a).f(i) {to obj(b).f(j)} スキルモデル 木村らは、ロボットが行う作業を「プリコンディション]と「リザルト」という概念を用いて、このようなタスクモデルで記述しました。 「プリコンディション」は「リザルト」が発生する前提条件を示し、「リザルト」は取り扱う2つの対象物の機能部の状態を示します。 「プリコンディション」の「ステート(状態)」は、具体的な物体の取り扱い(スキルモデル)で記されます。物体の「オペレーション」(操作)は、「アトリビュート(属性情報)」を用いて「ステート」(状態)が満たされると、呼びだされます。 Fig.2 Task Model

研究の目的 問題点の解決 物体を扱うために物体の機能をプログラミングしておく必要がある. 教示動作より、物体の機能情報を抽出する. その属性情報のことを、ここでは機能情報と呼びロボットが物体を扱うために必要な機能座標と操作を意味します。 タスクモデルの教示動作から自動構築することは実現しましたが、しかしながら、従来の研究ではロボットが物体を扱うにあたり、莫大な量の情報とプログラムを必要としていました。 そこで本研究では、人間が物体を取り扱う様子をロボットの視覚システムにより観察し、物体を取り扱うために必要な情報を、システムが自動的に抽出できる手法の開発を目標とします。 ・機能情報の定義 ロボットが物体を扱うために必要な座標情報と操作

人の作業解析 物体の機能を伴う動きは、平面や軸に拘束されることが多い. 動作の拘束面 物体の機能を伴う動きは、平面や軸に拘束されることが多い. 例.のこぎり、レンチ、きり、ドライバー、ハンマー、ナイフ、はさみ、など. まず私達は、のこぎりやレンチなどのハンドツールやはさみやペンなどの日常品を対象に15種類の物について、それぞれ異なる簡単なタスクを想定し観察しました。 図に示したのこぎりで板を切るといった、物体の機能をOperation(操作)している状態に注目すると、その動作は道具と対象物で構成されるような平面や軸で拘束されていることが多いと気づきます。例として、のこぎりだけでなく、レンチやきり、ドライバーやハンマー、ナイフ・はさみなどにも、そのような平面や軸を見つけることができます。 このような平面や軸のことを、ここでは動作の拘束面、拘束軸と呼ぶことにします。 (ハンドツールは、元々扱いやすいように規格化されているので、動きの要素が簡潔になっていますので、その様子が特に強く現れます。) Fig.3 作業の解析

動作の拘束面・拘束軸 動きの拘束面 動きの拘束軸 obj(a) obj(b) 拘束されない obj(b) obj(a) (II) (I) x Y z 動きの拘束面 動きの拘束軸 obj(a) obj(b) 締める 拘束されない obj(b) この図(I)は、レンチobj(a)でナットobj(b)を締めるといったタスクを想定して、一連の動作を模擬的に物体の重心の動きで示したものです。同様に、(II)は、ドライバーobj(a)でネジobj(b)を締めるといったタスクを想定したものです。 この図では、obj(b)は座標系に固定されていますので、obj(a)はobj(b)との相対位置の軌跡を描いていることになります。 レンチは、ナットに歯を噛ませて回転するという機能があります。回転の操作に注目して観察すると、図に示したような動きの拘束面を発見できます。また、ドライバーはネジを回すという機能があり、その操作に注目すると図のような拘束軸が発見できます。また、逆に何も規則だった動きがないように見えるところ見られます。あとで、それぞれの状態について考察します。 obj(a) (II) (I) Fig.4 動作の拘束面(I)・拘束軸(II)の概念

動作の拘束面によるタスク分割 動きの拘束面1 f(2) 動きの拘束面2 f(3) obj(b) 動きの拘束軸 f(1) obj(a) x Y z 動きの拘束面1 f(2) 動きの拘束面2 f(3) obj(b) ここで、同じ拘束軸・拘束面上での連続した動きは、同一の機能であると考えられます。このような動きの拘束軸・拘束面といったアイデアを導入すると、3次元空間の運動を2次元の運動の組み合わせとして分割して扱うことができ、タスクの解析が容易になります。 (この図は、その動きの拘束軸・拘束面の概念を示します。図中の赤○・黄○は、それぞれobj(a),obj(b)の重心位置を示し、その偏移を矢印で示しています。この図では、obj(b)は座標系に固定されていますので、obj(a)はobj(b)との相対座標で表されていると見ることができます。 obj(a)の軌跡は、拘束軸1に近似されるような動きでobj(b)に近づきます。次に、obj(b)の周りを拘束面1の上で周り、次に拘束面2上でまた円を描いていくといったように見ることができます。) 動きの拘束軸 f(1) obj(a) Fig.5 動作の拘束面・拘束軸によるタスクの分割

機能をともなう動作の検出 レンチ締め ハンマー のこぎり ドライバー 比較的簡単な幾何解析で対処できる. Fig.6 機能ごとの動作要素 拘束面 obj(a) obj(a) obj(a) obj(b) 拘束面 拘束面 obj(b) obj(b) 物体の各機能は、動作プリミティブ(要素)の知識ベースから比較的簡単な幾何解析で検出することができます。 多くの機能を伴う動きは、回転運動や並進運動で記述することができ、例えば、レンチ締めでは、obj(a)はobj(b)を中心に円弧を描く動作と記述できます。ハンマーでは、obj(a)はobj(b)に向かって円弧を描く往復運動を描きます。のこぎりは、obj(a)はobj(b)と結ばれる線の法線方向に往復運動をします。またドライバーは、obj(a)は拘束軸に沿った方向に回転運動をします。 検出した動作は、動作の拘束面と共に、物体の機能として記述することができます。 (とはいうものの、動きの意味を考慮すると軌跡は同じようでも、位置が重要なのか、エネルギーが重要なのかといったように分類でき、このように一概に軌跡だけで論じることはできない。) ドライバー obj(a) 比較的簡単な幾何解析で対処できる. 緩める 締める obj(b) Fig.6 機能ごとの動作要素 拘束軸

拘束されない動作 機能点への位置合わせ = Precondition 機能座標の検出 拘束された動きへ切り替わる時点の物体の位置関係 自由に動くことができる obj(b) 機能座標の検出  拘束された動きへ切り替わる時点の物体の位置関係 何の拘束もなく物体が動ける状態は、次の機能を発生するためのプリコンディションの状態だと考えられます。obj(a).f(i)の機能点の座標をobj(b).f(j)の機能点の座標に位置合わせすることが、プリコンディションを満たすための1つの状態となります。 この機能座標を検出することは、重要な問題となります。検出方法は、次の操作が行われる直前の位置関係を調べることで、機能座標を抽出できます。また経験的には、人間はそのような点を目で見て確認する事が多いので動作が一度静止する事が多く、止まった瞬間の点が、機能点であると記述できると思われます。 (人間の動きを観察しないと正確には、分類できない。 人間は、そのような点を目で見て確認する事が多いので、動作が一度静止する。 止まった瞬間の点が、機能点。 その静止点を機能点として、記述する。) obj(a) Fig.7 拘束されない動き

視覚処理適応への問題点 拘束軸・拘束面は、必ずしも重心の動きに現れない. 動きの速さやエネルギーが重要なのか、位置が重要なのか分からない. 接触状態の考慮 プリコンディションの状態でも拘束面、軸が検出されることがある

物体の機能情報の抽出 物体の3次元トラッキング 位置、姿勢、時間 前提条件 ・物体の幾何モデル ・2物体の関係を取り扱う 現在の進行具合  位置、姿勢、時間 前提条件 ・物体の幾何モデル ・2物体の関係を取り扱う 現在の進行具合 物体の相対位置の軌跡から平面のハフ変換 3次元トラッキングシステムを用いて観察した物体の重心位置と姿勢・時間をデータとする。また、前提条件として

3次元トラッキング トラッキングシステム  3次元テンプレートマッチング

トラッキング実験 Fig.レンチの回転運動のトラッキング結果

接触情態の抽出実験 Fig.ナットとレンチの接触状態の抽出

まとめ 動作の拘束面・拘束軸という概念を示し、視覚による機能情報の抽出方法についてのアイデアを示した。 動作の拘束面・拘束軸という概念を示し、3次元運動を2次元運動に落として扱うことで、視覚による機能情報の抽出ができるというアイデアを示しました。また同時に、プリコンディションの概念を拡張し、より一般的なタスクを記述できるようにタスクモデルを拡張しました。 ロボットにタスクを実装する際には、動作の拘束面を考慮することで、アテンションポイント(観察点)を決めることができ、ステレオカメラを用いずとも物体の動きの観察が容易にできます。 今後の発展として、物体の幾何形状と動作要素の関係を調べることで、物体の機能座標を割り出すことを考えている。

はじめに 1.従来の研究 ・人とロボットの協調作業 ・人まねロボット 2.問題点 ・物体を扱うために物体の機能をプログラミングしておく必要がある. 視覚による人の動作認識に基づくロボットへの教示や人との協調作業は、ロボットに必要とされる重要な技術の1つであり、さまざまな研究が進められています。私達も、写真のようなヒューマノイドロボットを開発し、物体や人の動作を認識しそれに基づくロボットの動作計画の組み立てを行う手法を提案し、人とロボットの協調作業を実現しています。 しかし、従来の研究ではロボットが物体を扱うにあたり莫大な量の情報とプログラムを必要としていました。そこで本研究では、人間が物体を取り扱う様子をロボットの視覚システムにより観察し、物体を取り扱うために必要な情報を、システムが機械的に抽出できる手法の開発を目標とします。 教示動作より、物体の機能を抽出する.

物体幾何モデルとの関係