オンライン学習 Prediction Learning and Games Ch2

Slides:



Advertisements
Similar presentations
厚生基準. 「厚生経済学」 “Welfare Economics” 前半のテーマ ピグーの主著名 ピグーの本はいろんなことが書いてある 教科書的な議論は、市場の失敗とその補 正のみを扱う.
Advertisements

1. 補間多項式 n 次の多項式 とは、単項式 の 線形結合の事である。 Definitions: ( 区間, 連続関数, abscissas (データ点、格子点、差分点), 多項 式 ) Theorem. (補間多項式の存在と一意性) 各 i = 0, …, n について、 をみたす、次数が高々 n.
ネットワーク理論講義補助資料 Text. 組合せ最適化とアルゴリズム 4.5 節 主・双対法 pp
補章 時系列モデル入門 ー 計量経済学 ー.
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
© Yukiko Abe 2014 All rights reserved
Pattern Recognition and Machine Learning 1.5 決定理論
スペクトル法による数値計算の原理 -一次元線形・非線形移流問題の場合-
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
大数の法則 平均 m の母集団から n 個のデータ xi をサンプリングする n 個のデータの平均 <x>
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
論理式の表現を数学的に取り扱いやすくするために代数学の助けを借りる.
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
初級ミクロ経済学 -ゲーム理論入門- 2014年12月15日 古川徹也 2014年12月15日 初級ミクロ経済学.
電気基礎実験 <<グラフ処理>>
4.2 連立非線形方程式 (1)繰返し法による方法
(ラプラス変換の復習) 教科書には相当する章はない
電気回路Ⅱ 演習 特別編(数学) 三角関数 オイラーの公式 微分積分 微分方程式 付録 三角関数関連の公式
5.5 The Linear Arboricity of Graphs (グラフの線形樹化数)
計算量理論輪講 岩間研究室 照山順一.
東京工業大学 機械制御システム専攻 山北 昌毅
補章 時系列モデル入門 ー 計量経済学 ー.
第6章 カーネル法 修士2年 藤井 敬士.
発表日:平成15年4月25日 担当者:時田 陽一 担当箇所:第3章 誤差評価に基づく学習 3.1 Widrow-Hoffの学習規則
© Yukiko Abe 2014 All rights reserved
情報学研究科 通信情報システム専攻 小野寺研究室 M1 奥村 佳弘
IBISML2010 秘密の忠告からのオンライン予測 筑波大学 コンピュータサイエンス専攻 科学技術振興機構 さきがけ 佐久間 淳.
第4章 組合せ論理回路 (4) Quine McCluskeyの方法.
第25章 単一始点最短路 3節 Bellman-Fordのアルゴリズム
決定木とランダムフォレスト 和田 俊和.
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
第14章 モデルの結合 修士2年 山川佳洋.
独立成分分析 5 アルゴリズムの安定性と効率 2007/10/24   名雪 勲.
カオス水車のシミュレーションと その現象解析
6. ラプラス変換.
ルンゲクッタ法 となる微分方程式の解を数値的に解く方法.
§ , How Bad Is Selfish Routing?
電気回路学Ⅱ コミュニケーションネットワークコース 5セメ 山田 博仁.
25. Randomized Algorithms
Selfish Routing and the Price of Anarchy 4.3
計算量理論輪講 chap5-3 M1 高井唯史.
多変量解析 ~主成分分析~ 1.主成分解析とは 2.適用例と解析の目的 3.解析の流れ 4.変数が2個の場合の主成分分析
Additive Combinatrics 7
中級ミクロ経済(2004) 授業予定.
© Yukiko Abe 2015 All rights reserved
速度ポテンシャルと 流線関数を ベクトルで理解する方法
2016年度 有限幾何学 中間試験 問1 次のグラフを描け.(描けない場合は理由を述べよ) 各20点
14. The Basic Method M1 太田圭亮 14.3 Spaces of polynomials
4. システムの安定性.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
A Note on Asymmetric Power Index for Voting Games
第3章 線形回帰モデル 修士1年 山田 孝太郎.
サポートベクターマシン Support Vector Machine SVM
22・3 積分形速度式 ◎ 速度式: 微分方程式 ⇒ 濃度を時間の関数として得るためには積分が必要
第16章 動的計画法 アルゴリズムイントロダクション.
Selfish Routing 4章前半 岡本 和也.
22・3 積分形速度式 ◎ 速度式: 微分方程式 ⇒ 濃度を時間の関数として得るためには積分が必要
Max Cut and the Smallest Eigenvalue 論文紹介
解析学 ー第9〜10回ー 2019/5/12.
``Exponentiated Gradient Algorithms for Log-Linear Structured Prediction’’ A.Globerson, T.Y.Koo, X.Carreras, M.Collins を読んで 渡辺一帆(東大・新領域)
d b c e a f 年度 有限幾何学 中間試験 問1 次の用語の定義をそれぞれ述べよ.
数値解析 第6章.
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
問2 次の問に答えよ. (ただし,握手補題,オイラーの定理,Oreの定理 は授業で紹介したものとする) (1) 握手補題を書け.
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
グラフの帯域幅連続多重彩色 を求めるアルゴリズム (Bandwidth Consective Multicolorings of Graphs) 西関研究室 西川和秀.
混合ガウスモデル Gaussian Mixture Model GMM
Presentation transcript:

オンライン学習 Prediction Learning and Games Ch2 オンライン学習 Prediction Learning and Games Ch2. Prediction with Expert Advice

専門家の助言による予測

roundとは オンライン学習における1個のデータからの        推論1回分のこと Cf. epoch とは、全データに対するroundを一回りすること このような状況における予測者の目標はroundあたりの regretをゼロにすること

予測者=専門家の予測を平均 時刻tにおける専門家の予測の重み付き平均

そこで、Ri,t-1の増加関数を、非負、凸、増加関数  の微分  を用い、         とする よって Lemma2.1

Regret vectorの記法 時刻tのinstantaneous regret vector: 時刻Tまでの累積regret vector: potential function: 重み付き平均予測者:

Potential functionを用いた定理 Blackwell条件:Lemma2.1のΦによる表現 定理2.1: 予測者がpotential function             に対してBlackwell条件を満たしているとき

この項はBlackwell条件より≤0 なので 定理2.1の証明 この項はBlackwell条件より≤0 なので

ΨがConcaveなのでこの項  ≤0 だから

定理2.1の利用 Regret: Ri,nの上限を与える これに定理2.1を組み合わせれば

定理2.1の利用: 多項式重み平均予測者

Corolloary 2.1 損失関数lは凸(convex)で[0,1]区間の値をとり、最小値=0。このとき Proof.

=N

定理2.1の利用 指数重み平均予測者

Corolloary 2.2 損失関数lは凸(convex)で[0,1]区間の値をとり、最小値=0。η>0に対して Proof.

指数重み平均予測者の最適上限:定理2.2 最適上限は以下の式であり、3.7節でこれを改善することができないことが示される。 定理2.2は、以下の補題を使えば比較的簡単に証明できる。 Lemma2.2

ηの時間依存性を除く 定理2.3 Lemma 2.3

最も優秀=最少損失のexpertが知られている場合 半数以上が損失=0のexpertなら、多数決で半数ずつ損失≠0のexpertを排除していくことによってlogN回で収束する。 もう少し一般化すると 定理2.4

Colloary 2.4

損失の微分を用いる予測者 指数重み予測の重みwi,t-1の定義中に現れる累積損失を累積損失の勾配(微分)に置き換える

損失の微分を用いる予測者 指数重み予測の重みwi,t-1の定義中に現れる累積損失を累積損失の勾配(微分)に置き換える

スケール変換 損失関数がM倍されているので当然

payoff(利得)の最大化

Regretが減衰する場合 「現在の損失のほうが過去の損失より大切」というのはreasonable この考え方での累積損失を分析する

定理2.7 平均減衰累積regretの下限

定理2.8平均減衰累積regretの上限(多項式重みの予測者の場合)