サンクションの進化モデル 大浦宏邦 (帝京大学).

Slides:



Advertisements
Similar presentations
配偶者選択による グッピー (Poecilia reticulata) の カラーパターンの進化 :野外集団を用いた研究 生物多様性進化分野 A1BM3035 吉田 卓司.
Advertisements

●母集団と標本 母集団 標本 母数 母平均、母分散 無作為抽出 標本データの分析(記述統計学) 母集団における状態の推測(推測統計学)
Probabilistic Method 7.7
数理統計学(第ニ回) 期待値と分散 浜田知久馬 数理統計学第2回.
心理検査の持ち帰り実施が 結果に及ぼす影響について
所属集団を変更できる 社会的ジレンマ実験(1) その意義と実験手続き
数理統計学(第四回) 分散の性質と重要な法則
det(tA)=Σ sgn(σ)aσ(1)1aσ(2)2・・・aσ(n)n
確率・統計Ⅰ 第12回 統計学の基礎1 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
所属集団の変更可能な SDゲームにおける 協力行動の規定因
配偶者選択による グッピー(Poecilia reticulata)の カラーパターンの進化 :野外集団を用いた研究
確率・統計Ⅰ 第11回 i.i.d.の和と大数の法則 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
小林盾(シカゴ大学) 大浦宏邦(帝京大学) 谷口尚子(帝京大学,ミシガン大学) 2004年11月21日 日本社会学会 熊本大学
分布の非正規性を利用した行動遺伝モデル開発
シミュレーション論 Ⅱ 第12回 強化学習.
社会心理学のStudy -集団を媒介とする適応- (仮)
プロモーションのモデル.
10.Private Strategies in Games with Imperfect Public Monitoring
政策決定のプロセス 政策過程論 公共選択 ゲームの理論.
第5回 人間関係の中で生きるということ 社会心理学.
母集団と標本調査の関係 母集団 標本抽出 標本 推定 標本調査   (誤差あり)査 全数調査   (誤差なし)査.
集団における適応 知識構造論講座 下嶋研究室          M1 関本 和弘.
© Yukiko Abe 2014 All rights reserved
コンパイラ(9) 情報工学科5年 担当 河田 進.
退出可能な 社会的ジレンマ実験 小林盾(シカゴ大学) 大浦宏邦(帝京大学) 石原英樹(立教大学) 2003年10月12
協力のU字カーブ 小林盾(シカゴ大学) 大浦宏邦(帝京大学) 2004年3月28日 数理社会学会 東京都立大学
第Ⅱ部 協力ゲームの理論 第9章 シャープレイ値.
母集団と標本:基本概念 母集団パラメーターと標本統計量 標本比率の標本分布
学習の流れ 本時のねらい 「2次方程式を利用して、いろいろな問題を解決しましょう。」 ↓ 課題の提示 カレンダー 図形での活用場面4
13.1 パス解析 (1) 標準偏回帰係数 変数の標準化.
ボンドの効果 ―法と経済学による分析― 桑名謹三 法政大学政策科学研究所
シミュレーション論 Ⅱ 第12回 様々なシミュレーション手法(3) 強化学習.
 統計学講義 第11回     相関係数、回帰直線    決定係数.
6.大人数クラスの運営法 ゲーム理論 出席の取り方 まわし方(4通り) →出席表を2回まわす 1回目10:50~ 2回目11:20~
確率・統計Ⅰ 第3回 確率変数の独立性 / 確率変数の平均 ここです! 確率論とは 確率変数、確率分布 確率変数の独立性 / 確率変数の平均
第9章 混合モデルとEM 修士2年 北川直樹.
正規分布確率密度関数.
「三角形の面積の変化の様子を一次関数としてとらえることができる。」
間接互恵性の成立 ー進化シミュレーションを用いた選別的利他戦略の検討ー
平成18年度 構造有機化学 講義スライド テーマ:炭素陽イオン 奥野 恒久.
本時のねらい 「三角形の1辺に平行な直線が他の2辺と交わるとき、それぞれの交点は、その2辺を等しい比に分けることを理解する。」
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
配偶者選択による グッピー(Poecilia reticulata)の カラーパターンの進化 :野外集団を用いた研究
古代の難問と曲線 (3時間目) 筑波大学大学院 教育研究科 1年                 石井寿一.
日程計画 (scheduling) 大規模なプロジェクトの日程を計画し、その進行を管理する手法。
計測工学 -誤差、演習問題 計測工学(第6回) 2009年5月26日 Ⅱ限目.
所属集団の変更できる社会的ジレンマ実験について2
シグナルとしての企業の債務 担当  岩永 剛 2005/7/11.
電機情報工学専門実験 6. 強化学習シミュレーション
ベイズ・アプローチによる グラフィカル・テスト理論
疫学概論 情報の要約 Lesson 3. 情報の要約 (率、比、割合) S.Harano,MD,PhD,MPH.
中点連結定理 本時の目標 「中点連結定理を理解する。」
進化ゲームと微分方程式 第15章 n種の群集の安定性
ベイズ最適化 Bayesian Optimization BO
母集団と標本抽出の関係 母集団 標本 母平均μ サイズn 母分散σ2 平均m 母標準偏差σ 分散s2 母比率p 標準偏差s : 比率p :
クロスバリデーションを用いた ベイズ基準によるHMM音声合成
遺伝アルゴリズムによる NQueen解法 ~問題特性に着目した突然変異方法の改善~
第5回 確率変数の共分散 確率・統計Ⅰ ここです! 確率変数と確率分布 確率変数の同時分布、独立性 確率変数の平均 確率変数の分散
HMM音声合成における 変分ベイズ法に基づく線形回帰
配偶者選択による グッピー(Poecilia reticulata)の カラーパターンの進化 :野外集団を用いた研究
本時の目標 同じパターンの式の展開を乗法の公式としてまとめ、その公式を使って式の展開ができるようにする。
確率と統計2007(最終回) 平成20年1月17日(木) 東京工科大学 亀田弘之.
表紙 分散遺伝的アルゴリズムのための 新しい交叉法.
1.基本概念 2.母集団比率の区間推定 3.小標本の区間推定 4.標本の大きさの決定
契約法の経済分析 麻生良文.
第Ⅰ部 非協力ゲームの理論 第6章 情報の価値 2008/07/01(火) ゲーム理論合宿 M2 渡辺美穂.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
混合ガウスモデル Gaussian Mixture Model GMM
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

サンクションの進化モデル 大浦宏邦 (帝京大学)

問題の所在 サンクションには通常コストがかかるのに、なぜサンクションが存在しているのか 1次サンクションは普遍的なのに2次以上のサンクションが珍しいのはなぜか。  → 1次が必要なら2次以上も必要では?     2次が不要なら1次も不要では?

先行研究 余りない 国家が提供してくれるから? サンクションなしの回避研究が多い Henrich and Boyd(2001)   国家が提供してくれるから?   サンクションなしの回避研究が多い Henrich and Boyd(2001)   高次サンクションになるとコスト低なので   若干の同調傾向があれば維持される   (J.theor.Biol.208:79-89)

実験的研究 Fehrら(2002) Nature 415:137-140 資源提供とサンクション提供を交互に繰り返す   資源提供とサンクション提供を交互に繰り返す   サンクションにはコストが必要   試行ごとに被験者の組み合わせを変更   同じ相手とは二度と対戦しない  → 高い確率で非提供者に罰を与えた    <利他的なサンクション>と命名    非協力者に対する怒りが至近要因

「非協力者に対する怒り」という心理メカニズムが存在しているらしい 2次サンクションがなくても1次サンクションは提供される → Boydモデルは不適切 Gintis(2000)のアイディア J.T.B. 206:169-179   2次ジレンマ以上の淘汰圧はいずれにせよ   小さいので、わずかな群淘汰圧があれば   1次サンクションは維持されるのでは?  → きちんとモデルを立てて検討

モデルの構成 舞台設定 資源とサンクションの交互提供 サンクションの学習モデル ロス・エレブ型試行錯誤学習を仮定 サンクションの進化モデル   資源とサンクションの交互提供 サンクションの学習モデル   ロス・エレブ型試行錯誤学習を仮定 サンクションの進化モデル   離合集散群淘汰を仮定 Priceの共分散法による解釈   1次サンクションで必要十分な理由

舞台設定 n人の資源提供ゲーム(n≧3) 元手はb円。提供すると2倍の額が均等配分。 C(k)=2kb/n 資源提供ゲーム後、ランダムに一人選んだ他のプレーヤーに罰を与える機会がある 罰を与えるコストc。罰を受けたプレーヤーは2cの損失をこうむる。

学習ダイナミクス ロス・エレブ型試行錯誤学習を想定 集団中 i 番目のプレーヤーが資源提供をする確率をxi、罰を与える確率をyiとする 資源提供の学習と罰の学習は独立と仮定    E[Δxi]=xi(1-xi)(u11i-u12i)/分母       E[Δyi]=yi(1-yi)(u21i-u22i)/分母   u11、u12は資源提供有無時の利得  u21、u22は罰提供有無時の利得

資源提供の利得 xiの平均をx、yiの平均をyとする → n人のうち平均してnx人が資源提供 罰による利得損失の期待値は2cy    資源提供者の利得 =2nxb/n=2xb    資源非提供者の利得=2xb+b-2cy   よって u11i-u12i=2cy-b なので   E[Δxi]=xi(1-xi)(2cy-b)/分母

サンクションの利得 非提供行動を目撃する確率は(1-x) → 与罰予定者が実際に罰を与える確率は(1-x) 非提供行動を目撃する確率は(1-x) → 与罰予定者が実際に罰を与える確率は(1-x) 負担コストの期待値は(1-x)cなので      u21i-u22i=-(1-x)c   以上より、学習ダイナミクスは    E[Δxi]=xi(1-xi)(2cy-b)/分母   (式1)    E[Δyi]=-cyi(1-yi)(1-x)/分母   (式2)

ダイナミクスの軌道 yiは常に減少 (x=1のとき定常) xi は y>b/2cで増加 y<b/2cで減少 →x=1、y> b/2cが リャプノフ安定  x=0、y=0が 漸近安定 漸近安定 リャプノフ安定 x y b/2c

学習モデルの結論 サンクションのない状態は漸近安定 この状態になると回復困難 サンクションがある状態はリャプノフ安定    この状態になると回復困難 サンクションがある状態はリャプノフ安定    サンクションのお陰で非提供者がいない   → サンクションの費用が不要   → 2次ジレンマが顕在化しない  ★ ただし、摂動に弱いので、非提供者が     繰り返し現れると、漸近安定点に遷移

サンクションの進化モデル サンクション傾向が遺伝的に継承されると仮定 学習ダイナミクスの初期値として定式化    サンクション傾向大 → yi(0)大    サンクション傾向小 → yi(0)小 たとえば    xi(0)=0.5、yi(0)=0.9 をAタイプ    xi(0)=0.5、yi(0)=0.1 をBタイプ  として、Aタイプが進化できるかどうか考える

A,B混在時の学習ダイナミクス Aの割合をpとする p≧0.6のときはリャプノフ安定 p≦ 0.5のときは漸近安定に収束 y p=1 x y p=0.8 p=0.6 p=1 p=0.4 p=0.2 Aの割合をpとする p≧0.6のときはリャプノフ安定 p≦ 0.5のときは漸近安定に収束

p=0.6のときのダイナミクス 収束時、 Aタイプは y=0.71 Bタイプは y=0.03 ★Aタイプの方が摂動時に不利(罰のコスト大)  Aタイプは   y=0.71  Bタイプは   y=0.03 ★Aタイプの方が摂動時に不利(罰のコスト大) x y Aタイプ Bタイプ

収束時の利得 p≦0.5のとき 漸近安定状態に収束 ua=10 、 ub=10 p≧0.6のとき リャプノフ安定状態に収束 p≦0.5のとき  漸近安定状態に収束    ua=10 、 ub=10 p≧0.6のとき  リャプノフ安定状態に収束    Aタイプの方がサンクション実施確率が高い     → Bタイプより、εだけ利得が低いとする    ua=20-ε 、 ub=20  ★ 単一集団モデルでは、Aタイプの方が不利

集団が複数の場合 5人グループが6つあると仮定 Aタイプの人数はそれぞれ0人~5人とする。 Aタイプの平均利得 A人数 1 2 3 4 5 B人数 A利得 10 20-ε B利得 20 漸近安定に収束 リャプノフ安定に収束 Aタイプの平均利得  (10×0+10×1+10×2+(20-ε)×3+(20-ε)×4+(20-ε)×5)/15=18-0.8ε

Bタイプの平均利得  (10×5+10×4+10×3+20×2+20×1+20×0)/15 =12   これより ε<7.5のとき   Aタイプの平均利得>Bタイプの平均利得 ★ Aタイプのシェアが一様分布しているときには、Aが有利になりうる

離合集散のある場合 集団が時々離合集散すると仮定 新しい集団がランダムに創設される → Aの人数は二項分布する   → Aの人数は二項分布する 全体集団におけるAシェアを p   集団人数=5人、ε=2として、各タイプの   平均利得を数値的に計算。

数値計算の結果 p=0.67付近以下でAタイプの利得がBタイプを上回る 遺伝的ダイナミクスを考えると、p=0.67付近で多形安定 平均利得

サンクションのない離合集散モデル 常に非提供の利得が提供を上回る サンクションがない場合は、離合集散程度の群淘汰圧では協力は進化できない 平均利得 p 非提供 提供

Priceの共分散法 i 番目の集団の サイズ si 戦略Aのシェア fi 平均適応度 πi とする 全体集団の

次期の集団サイズ  si'=siπi 次期の全体サイズ  s'=Σsiπi=sπ 次期の全体Aシェア f'=Σsi' fi' / s'                =Σsiπi fi' /sπ                =Σqiπi fi' /π Aシェアの変化  Δf=f'-f  とすると      πΔf=πf'-πf         =Σqiπi(fi+Δfi)-Σπqifi         =Σqi(πi-π)fi+ΣqiπiΔfi          =Cov(πi、fi)+E(πiΔfi)               

なぜならば    Cov(πi、fi)=Σqi(πi-π)(fi-f) かつ    Σqi(πi-π) =Σqiπi-Σqiπ=0 したがって    πΔf=Cov(πi、fi)+E(πiΔfi)        =r(πi、fi)σ(πi)σ(fi)+E(πiΔfi)           集団間淘汰     集団内淘汰 ★ 利他的戦略の場合 r(πi、fi)>0、Δfi<0   なので、σ(fi)が十分大きいことが進化の条件

サンクションの意味 戦略Aがサンクション戦略の場合 1) πΔf=r(πi、fi)σ(πi)σ(fi)+E(πiΔfi)  ★ サンクションは集団内淘汰の足を止めつつ協力のエンジンを駆動させることで、協力と共進化できる。