Presentation is loading. Please wait.

Presentation is loading. Please wait.

様々なシミュレーション手法(3) 強化学習/カオスとフラクタル

Similar presentations


Presentation on theme: "様々なシミュレーション手法(3) 強化学習/カオスとフラクタル"— Presentation transcript:

1 様々なシミュレーション手法(3) 強化学習/カオスとフラクタル
シミュレーション論 Ⅱ 第12回 様々なシミュレーション手法(3) 強化学習/カオスとフラクタル

2 強化学習 強化学習:試行錯誤をくりかえして、よりよい行動方針を獲得する手法
状態と行動をセットにして記述し、うまくいった場合に「報酬」、失敗した場合に「罰」を与えることでよりよい行動を獲得するようになる 教師データが不要なため、未知の環境への応用が可能 ロボットの行動獲得などによく利用される

3 強化学習のしくみ 強化学習では学習をおこなう「主体」と「環境」がある 主体は環境の状態を観測し、行動を選択する
行動選択の結果として、環境から「報酬」または「罰」を得る(報酬は毎回与えられるとは限らず、特定の状況でのみ与えられる場合もある) 例)ロボットの行動 左右と後ろが壁である環境 ロボットは周囲の状況を観察し、進む方向を決定する 無事進行できた場合→報酬 壁にぶつかった場合→罰 これを繰り返すことで、環境に応じた行動を選択できるようになる

4 Q-learning 強化学習の代表的アルゴリズム Q値と呼ばれる「環境と行動の組み合わせ」の評価値を逐次修正してゆき、最適な行動を探す方法

5 Q-learning (2) Q-learningは行動により状態が変わった後の「仮定の行動」を用いて評価をおこなうもので、Off-Policyの方式と言われる これに対し、On-Policyと呼ばれるものは厳密に「自分が行動した結果」に基づいて評価をおこなうものである 代表的手法としてprofit sharing など(報酬を得た時点から過去の行動にさかのぼって報酬を与える方式) 強化学習には様々な方式があり、それぞれに特徴がある 状況や問題に応じて使い分ける

6 行動選択の方式 Q値から行動を決定する方法には以下のようなものがある
ε-greedy εの確率でランダム、それ以外は最大の重みを持つルールを選択 ルーレット選択 Q(s,a)に比例した割合で行動選択 ボルツマン選択 exp(Q(s,a)/T)に比例した割合で行動選択、ただしTは時間とともに0に近付く ただし s は環境の状態、a は行動

7 ごく単純な強化学習のモデル 壁に囲まれた通路を歩いて、ゴールを目指すモデルを考えよう
計算式が複雑になるのでQ-leaning等の定式化は用いず、ごく簡単なモデルで強化学習のイメージをつかんでみよう

8 単純な強化学習のモデル(2) 行動する主体(エージェント)の行動について以下のように仮定する 上下左右の1マス分を観察できる
1回につき1マス移動できる 無事に進めたら報酬、壁にぶつかったら罰を与えられる ゴールに近づいたら報酬、ゴールから離れたら罰を与えられる

9 単純な強化学習のモデル(3) 行動する主体(エージェント)にとっての環境は「観察できる範囲に壁があるか、ないか」で表される
観察できる範囲は上下左右の4マス また、エージェントは移動した位置がゴールに近づいたか離れたかを知ることが出来る 観察できる範囲

10 単純な強化学習のモデル(4) 先ほどの通路の例では、エージェントが観察できる状況は以下の4種類 ①左右と下が壁、上は空き
②左右が壁、上下は空き ③左と上が壁、右と下は空き ④上下が壁、左右は空き 簡単にするためエージェントは常に上を向いていると仮定する ゴールに到達したら終了

11 単純な強化学習のモデル(5) エージェントの行動は上下左右いずれかに1マス移動 先ほどの状態に応じてそれぞれ上下左右なので、
4×4=16のパターンが考えられる 以下の状態をそれぞれ状態1~4として、それぞれ行動との組み合わせを作成し、評価値を与える 左右と下が壁、上は空き  (状態1) 左右が壁、上下は空き   (状態2) 左と上が壁、右と下は空き (状態3) 上下が壁、左右は空き   (状態4)

12 単純な強化学習のモデル(6) 状態+行動の組み合わせは以下のようになる 初期状態での各行動の評価値を5としておく

13 単純な強化学習のモデル(7) 報酬と罰: エージェントが壁にぶつからずに進んだら+1、さらにゴールに近づいたら+1、ゴールから離れたらー1、壁にぶつかったら-1を評価値に加える 行動選択は「その状況において最も評価値の高いもの」を選ぶこととし、同じ評価値のものが複数ある場合はランダムに1つを選ぶ (greedy playと言われる方法) ゴールに到達したら終了とし、「評価値をキープしたまま」、再度スタート地点から繰り返す

14 実行例(1) スタート地点では(状態1) 行動の評価値は全て5なので、ランダムに行動を選択し「右」を実行したとする
壁にぶつかったので、(状態1-右)の組み合わせの評価値をー1とする 位置は変化しなかったので、同じ位置から次の行動を選択する

15 実行例(2) 位置は変化しなかったので、同じ位置(状態1)から次の行動を選択する
評価値は上・下・左が5で最大なので、この中からランダムに選ぶ 「上」が選択されたとすると1マス進めるので評価値に+1となる さらにゴールに近づいているので、評価値に+1となる

16 実行例(3) 位置が1マス動いたので、(状態2)になる このときの行動の評価値はすべて5なので、ランダムに1つ行動を選択する
「左」が実行されたとすると壁にぶつかるので(状態2-左)の評価値をー1とし、位置はそのまま

17 実行例(4) 以上の作業をくりかえし、評価値を変更しながら進めていく ゴールに到達したら終了とし、またスタート地点から繰り返す
この作業を繰り返していくと、最終的にスムーズにゴールへ向かっていく行動が獲得できる(=学習した)

18 手作業でのシミュレーション 先ほどの例題を手作業で試してみてください
ゴールに到達したらまたスタートからはじめ(評価値はそのまま)、またゴールしたらスタートへ、という形で3回ゴールするまでやってみてください 同じ評価値の行動がある場合には乱数表を使用して行動を決定してください(3つある場合は1~3の乱数表を使用)

19 実際の強化学習アルゴリズム 通常の強化学習アルゴリズムでは評価値の計算方法などがもっと複雑になるが、基本は同様
一定期間ごとに、遺伝的アルゴリズム等を用いて行動の取捨選択などもおこなう 強化学習では「試行錯誤」の繰り返しで行動主体が自律的に学習するため、教師データが不要 また、未知の環境に対しても対応できる可能性が大きい 学習プロセスは生物や人間の行動パターンの再現などにも利用できるのではないか?

20 カオス 1960年代、ローレンツにより発見 対流問題に関する3変数の微分方程式があるパラメータ領域において不規則な挙動をしめす リーとヨーク
「カオス」と命名 3周期の周期点があればカオスが存在する リーとヨークの定理

21 カオスの定義 カオスの厳密な定義は研究者によって異なる カオスの必要条件
時間の経過とともに変化する決定論的なシステムにおいて、初期値に敏感に反応する非周期振動 (伊藤俊秀、草薙信照「コンピュータシミュレーション」オーム社 より引用) カオスの必要条件 非周期である 何らかのリターンマップによって記述できる リャプノフ指数が正である

22 ロジスティック曲線 ロジスティック曲線:人口増加や製品の普及率などの記述に使用される曲線で、以下のような関数(ロジスティック関数で表される)
ロジスティック曲線の例

23 ロジスティック曲線のカオス性 ロジスティック関数を差分方程式であらわすと以下のようになる
このとき a の値によって xnの値が大きく変化する

24 ロジスティック曲線のカオス性(2) a の値によって xnが以下のように変化することがわかっている 0≦a≦1 ・・・ 0に収束
1<a≦2 ・・・ 1ー1/ a に収束 2≦a<3 ・・・ 振動しながら1ー1/ aに収束 3≦a≦3.569… ・・・ 2k 個の周期点で振動 3.569… ≦a<4 ・・・ カオス性を示し、非周期で振動

25 様々なロジスティック曲線の挙動

26 製品普及シミュレーションでの曲線の変化 以前に紹介した製品普及シミュレーションでも同様の変化が観察されている
現実にもこのような挙動は多く観察される

27 初期値とカオス カオスの特徴のひとつに「初期値に敏感に反応する」というものがある
先ほどの例は全て初期値( x0 )= 0.01の場合であるが、わずかに変えるだけで挙動が大きく異なる

28 (参考)リターンマップ リターンマップを用いるとロジスティック関数の挙動の違いが分かりやすい a = 4, x0 = 0.01

29 (参考)リャプノフ指数 リャプノフ指数:初期値が変化したときにその後の挙動がいかに変化するかを示す指数
カオスであるかどうかを判断する指標のひとつとされる この数値が正であることがカオスである条件のひとつとされている

30 フラクタル フラクタルの厳密な定義は非常に難しいが、直感的には「図形の部分と全体が自己相似」になっているものなどが挙げられる
例)海岸線の形状、木の枝、血管の形状など

31 フラクタル研究の歴史 始まりは、イギリスの気象学者ルイス・フライ・リチャードソンの国境線に関する検討である。国境を接するスペインとポルトガルは、国境線の長さとしてそれぞれ987kmと1214kmと別の値を主張していた。リチャードソンは、国境線の長さは用いる地図の縮尺によって変化し、縮尺と国境線の長さがそれぞれ対数を取ると直線状に相関することを発見した。この様な特徴をフラクタルと名付けて一般化したのがマンデルブローである。 マンデルブローによるフラクタルの定義:「ハウスドルフ次元が位相次元を厳密に上回るような集合」  (以上Wikipediaより引用)

32 フラクタル図形 自然界に存在するもののほかに、人工的なフラクタル図形が数多く考案されている
セルオートマトンの練習問題であらわれたシェルピンスキー・ガスケットも代表的なフラクタル図形である

33 コッホ曲線 コッホ曲線:代表的なフラクタル図形 直線を3等分して中央に正三角形の2辺を描く
→この操作を繰り返すと、全体と部分が相似になる図形が    描かれる

34 さまざまなフラクタル図形

35 フラクタルの応用 CGや図形の描画 破壊の進展や強度の測定 山岳や海岸線の描画 CGによる芸術作品 岩石の強度診断
・・・岩石に圧力がかかった際のクラック(ひび割れ)の進展をフラクタル次元を用いて計測し、破壊の様子と強度を測定する フラクタル次元:フラクタル図形の複雑さを示す指標             いくつかの計算法が提案されている             例)相似次元、ディバイダ、ボックスカウント法など

36 第11回のレポート オリジナルのフラクタル図形を考えて描画せよ コッホ曲線やシェルピンスキー・ガスケットなどを参考にするとよい
自分で考えたものであれば既に提案されているものであったとしても問題ない


Download ppt "様々なシミュレーション手法(3) 強化学習/カオスとフラクタル"

Similar presentations


Ads by Google