複数タスクに対するロボットの行動学習 -タスクの重要度に基づく行動選択手法の提案-

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

複数タスクに対するロボットの行動学習 -タスクの重要度に基づく行動選択手法の提案- 情報電子工学系専攻 認知ロボティクス研究室 三浦 丈典 

自律ロボットと搭載されるタスク 自律ロボットは様々なタスクを遂行可能 複数のタスクを同時に与えられる可能性がある 周囲の状況や自身の状態から複数のタスクの優先関係を考え それぞれのタスクを遂行する必要がある

強化学習を複数のタスクを搭載されたロボットに適用することで, 強化学習による複数タスクの学習 強化学習はロボットの学習手法の一つ. 試行錯誤によって1つのタスク達成のための行動学習を行う.  ロボット 環境 行動 状態,報酬 行動学習 行動選択  強化学習 行動価値 強化学習を複数のタスクを搭載されたロボットに適用することで, 各タスクの達成のための行動学習が可能.

従来研究:複数タスクの強化学習 重み付き報酬関数を用いた手法 多目的最適化問題を適用した手法 重み付き報酬関数を用いた手法   各タスクの優先関係によって重みを設定.  各タスクの報酬に重みを付けて足し合わせることで1つの報酬関数に統合. 多目的最適化問題を適用した手法   各タスクの報酬関数を目的関数とし,どの行動を優先するか多目的最適化.   取ることのできる行動が解候補となり,その中からパレート最適解を導出.   人間に設定された各タスクの優先関係を基にして最終的な行動を決定.

従来研究の問題点 ロボットに搭載されるタスクの優先関係は事前に設定されている. タスク間の優先関係が変化しないことが前提. 実際の環境においては,各タスクの重要性は変化する可能性がある

ロボットの行動学習中にタスク間の優先関係が 変化した場合には再度,最適化する必要がある. 従来研究の問題点 各タスクの重要性が変化すればタスク間の優先関係が変化する 従来研究では ロボットの行動学習中にタスク間の優先関係が 変化した場合には再度,最適化する必要がある.

研究目的 複数のタスクが与えられるロボットにおいて, タスク間の優先関係が変化した場合でも  タスク間の優先関係が変化した場合でも  その変化に対応可能な行動学習・行動選択手法を提案する.

タスク毎の状況に合わせた重要性を算出し, アプローチ タスク毎の重要性に注目し行動選択を行う エネルギー獲得タスク 故障回避タスク 荷物運搬タスク エネルギーが少なくなれば      重要性 大 人間がどれだけタスクを実行して 欲しいかで重要性 変化 故障の危険が予測される 場合には 重要性 大 タスク毎の状況に合わせた重要性を算出し, 重要性に応じて取るべき行動を決定する

アプローチ 行動学習はタスク毎に別々の学習空間で行う. 各行動について複数の行動価値が存在する 各タスクの重要性を基に行動選択

提案手法:重要度の定義 -1~1の範囲で設定する あるタスクの重要性を表す指標 1に近づくほどタスク達成の重要性が高い   1に近づくほどタスク達成の重要性が高い   0に近づくほどタスク達成の重要性が低く,タスクは達成してもしなくても良い   -1に近づくほどタスク達成の重要性がなく,他のタスク達成を優先

提案手法:重要度の算出 センサによって取得した.状態Sに応じて重要度算出関数 で設定する. 関数 の引数に用いる状態は,タスクによって異なる  あるタスクの重要度は,ロボットのセンサ情報を基に算出する.   センサによって取得した.状態Sに応じて重要度算出関数   で設定する.    関数   の引数に用いる状態は,タスクによって異なる  エネルギー獲得タスク → エネルギー残量を引数  人間のためのタスク  → 人間とのインタラクションデータが引数   状態に応じて算出した重要度は加重平均式によって重要度 𝑝 𝑖 ′として更新する. (1) (2) 𝜃:0≤𝜃≤1の範囲の定数

提案手法概要 ロボット 行動選択部 行動学習部 タスク1の行動学習 タスク2の行動学習 タスク1の重要度 タスク2の重要度 タスク の 重要度に基づく行動選択 タスク1の行動学習 タスク毎に蓄積した 行動価値 タスク2の行動学習 タスク1の重要度 タスク2の重要度 タスク の 重要度 ・・・ ・・・ タスクNの行動学習 N 状態 環境 行動 タスク毎の報酬

行動学習部 各タスク別々の学習空間で学習し,行動価値を蓄積 タスク間での報酬値の範囲を統一するため報酬関数が   取る値の範囲を-1~1の範囲に正規化する 学習によって蓄積された行動価値は行動選択部に渡す

行動選択部 各タスクの重要度を算出. 各行動の行動価値と直面する状態での重要度を比較するためにタスク間行動価値空間を構成.  空間上に各タスクの重要度と直面する状態での行動を   プロットし,その2点間距離が最も近い行動を選択.

タスク間行動価値空間の構成 各行動価値が軸,交点は直面する状態において選択可能な行動 ※2タスクの場合の例 空間の範囲は-1~1 直面する状態𝑆における各行動の行動価値 ※2タスクの場合の例 空間の範囲は-1~1

重要度を基にした行動選択 各重要度 の交点 をプロット 重要度の交点と各行動の距離 を算出 (3) 各重要度  の交点  をプロット 重要度の交点と各行動の距離  を算出 (3) ユークリッド距離  が最も短い行動を最終的な行動とする (※ただし,一定確率でランダム行動を行なう)

行動選択の流れ 行動 各タスクの行動学習 直面する状態における各タスクの重要度の算出 タスク間行動価値空間の構成 各タスクの重要度と各行動の行動価値から行動選択

シミュレーション実験 実験目的 提案手法を適用したロボットに対して2つのタスクを与え,各タスクの重要度に応じた行動選択が可能であることを示す.

実験概要 実験環境内にゴールとエネルギー充電ポイントを設置 ロボットにゴールへの到達とエネルギーの獲得の2つの競合するタスクを設定 各タスクの重要度が変化した場合に,その変化に応じて行動選択が可能であるか検証

実験環境 5×5のグリッドワールド ロボットの行動 ・ エネルギー残量とマスの位置を認識可能 ・ エネルギー残量が0になった場合には, ・ エネルギー残量とマスの位置を認識可能 ・ エネルギー残量が0になった場合には,   100まで回復しスタート位置へ戻る ・ 壁にぶつかった場合にはその場に静止

実験設定 タスク1: エネルギーの獲得 タスク2: ゴール位置への到達 ロボットの一回の行動で獲得するエネルギー変位量が多いほど高報酬 タスク1: エネルギーの獲得  ロボットの一回の行動で獲得するエネルギー変位量が多いほど高報酬 タスク2: ゴール位置への到達  ロボットがゴールへ到達した場合に報酬を与える (4) (5) ロボットがゴールした時にはスタート位置に戻る. 学習に用いる状態はロボットの現在の位置

各タスクの重要度の設定 タスク1:エネルギーの獲得 タスク2:ゴール位置への到達 ロボットのゴール到達に応じて人間がインタラクションとして  ロボットのゴール到達に応じて人間がインタラクションとして  -1~1の範囲で数値を与える (6) (7)

人間が与える  の変化 ゴール到達タスクに対する重要度の変化させる ゴール到達タスクの重要性を高く 行動回数1~10000回 :ロボットがゴールした時, 𝑟 ℎ =1 重要性を低く 行動回数10001~20000回:ロボットがゴールした時, 𝑟 ℎ =0.3 他のタスクを優先 行動回数20001~30000回:ロボットがゴールした時, 𝑟 ℎ =−1

強化学習:行動学習手法 各タスクの学習には,Q学習を適用する 𝑄 𝑠 𝑡 , 𝑎 𝑡 ←𝑄 𝑠 𝑡 , 𝑎 𝑡 +𝛼 𝑟 𝑡+1 −𝛾 max 𝑎 𝑄 𝑠 𝑡+1 ,𝑎 −𝑄( 𝑠 𝑡 , 𝑎 𝑡 ) 𝑄( 𝑠 𝑡 , 𝑎 𝑡 ) : ある状態 𝑠 𝑡 において行動 𝑎 𝑡 を取ったときの行動価値 𝑟 𝑡+1 : 新たに獲得した報酬 𝛼 : 学習率 (0<𝛼≤1) 𝛾 : 割引率 (0<𝛾≤1)

実験パラメータ 行動回数 30000回 初期行動価値 0.0 学習率α 0.1 割引率γ 0.9 ランダム行動の確率 0.05 初期エネルギー残量 100 最大エネルギー残量 最低エネルギー残量 充電ポイントでのエネルギー変位 +3.0 移動時のエネルギー変位 -0.25 静止時のエネルギー変位 -0.05 θ 0.5 μ δ -0.13 σ 10 δ’ 5 σ’

実験結果 ロボットの行動回数に対するエネルギー残量とゴール回数の推移

実験結果 ロボットの行動回数に対する各タスクの重要度の推移

考察 ゴール到達タスクの重要度が高く,エネルギー獲得 タスクの重要度が低い場合. ゴール到達タスクの重要度が低く,エネルギー獲得   タスクの重要度が低い場合.       エネルギー残量に関わらずゴール位置へ向かっている.       ゴールへの到達を達成するための行動を優先. ゴール到達タスクの重要度が低く,エネルギー獲得   タスクの重要度が高い場合.       ゴールへはあまり向かわず,エネルギー80で維持.       エネルギー獲得を達成するための行動を優先. 行動学習中でのタスク間の優先関係の変化に対応できている

まとめ 複数タスク下での行動選択について各タスクの重要性に注目. 各タスクの行動学習を別々に行い,重要度に基づく行動選択を行う手法を提案. 各タスクの重要度に応じた自律的な行動決定が可能であることを確認した.

今後の課題 3つ以上のタスクでのシミュレーション実験 新たなタスクを追加・削除した場合の検証 実ロボットへの適用

ご清聴ありがとうございました.

重要度の変化に対する実験結果2 行動回数に対するゴール回数とエネルギー残量の推移

重要度の変化に対する実験結果2 行動回数に対する各重要度の推移

重要度の変化に対する実験結果2 行動回数に対するゴール回数とエネルギー残量の推移

重要度の変化に対する実験結果2 行動回数に対する各重要度の推移