卒業研究 ニューラルネットワーク 12162062 藤森祐太.

Slides:



Advertisements
Similar presentations
ゲームプログラミング講習 第2章 関数の使い方
Advertisements

サービス管理責任者等研修テキスト 分野別講義    「アセスメントと        支援提供の基本姿勢」 <児童発達支援管理責任者> 平成27年10月1日.
ヒトの思考プロセスの解明を目的とするワーキングメモリの研究
第27講 オームの法則 電気抵抗の役割について知る オームの法則を使えるようにする 抵抗の温度変化を理解する 教科書P.223~226
コラッツ予想の変形について 東邦大学 理学部 情報科 白柳研究室 山中 陽子.
コンパイラ 第3回 字句解析 ― 決定性有限オートマトンの導出 ―
第5章 家計に関する統計 ー 経済統計 ー.
公共財 公共経済論 II no.3 麻生良文.
VTX alignment D2 浅野秀光 2011年12月15日  放射線研ミーティング.
冷却フランシウム原子を用いた 電子の永久電気双極子能率探索のための ルビジウム磁力計の研究
生命情報学 (8) スケールフリーネットワーク
前半戦 「史上最強」風 札上げクイズ.

認知症を理解し 環境の重要性について考える
フッ化ナトリウムによる洗口 2010・9・13 宮崎市郡東諸県郡薬剤師会 学校薬剤師  日高 華代子.
食品の安全性に関わる社会システム:総括 健康弱者 ハイリスク集団 HACCP (食肉処理場・食品工場) 農場でのQAP 一般的衛生管理
規制改革とは? ○規制改革の目的は、経済の活性化と雇用の創出によって、   活力ある経済社会の実現を図ることにあります。
地域保健対策検討会 に関する私見(保健所のあり方)
公共政策大学院 鈴木一人 第8回 専門化する政治 公共政策大学院 鈴木一人
医薬品ネット販売規制について 2012年5月31日 ケンコーコム株式会社.
平成26年8月27日(水) 大阪府 健康医療部 薬務課 医療機器グループ
平成26年度 呼吸器学会からの提案結果 (オレンジ色の部分が承認された提案) 新規提案 既収載の変更 免疫組織化学染色、免疫細胞化学染色
エナジードリンクの危険性 2015年6月23日 経営学部市場戦略学科MR3195稲沢珠依.
自動吸引は 在宅を変えるか 大分協和病院 院長         山本 真.
毎月レポート ビジネスの情報 (2016年7月号).
医療の歴史と将来 医療と医薬品産業 個人的経験 3. 「これからの医療を考える」 (1)医薬品の研究開発 -タクロリムスの歴史-
社会福祉調査論 第4講 2.社会調査の概要 11月2日.
2015年12月28日-2016年3月28日 掲載分.
2010度 民事訴訟法講義 補論 関西大学法学部教授 栗田 隆.
腫瘍学概論 埼玉医科大学国際医療センター 包括的がんセンター 緩和医療科/緩和ケアチーム 奈良林 至
“企業リスクへの考え方に変化を求められています。 トータルなリスクマネジメント・サービスをプロデュースします。“
情報漏えい 経済情報学科 E  西村 諭 E  釣 洋平.
金融班(ミクロ).
第11回 2009年12月16日 今日の資料=A4・4枚+解答用紙 期末試験:2月3日(水)N2教室
【ABL用語集】(あいうえお順) No 用語 解説 12 公正市場価格 13 債権 14 指名債権 15 事業収益資産 16 集合動産 17
基礎理論(3) 情報の非対称性と逆選択 公共政策論II No.3 麻生良文.
浜中 健児 昭和42年3月27日生まれ 東京都在住 株式会社ピー・アール・エフ 代表取締役 (学歴) 高 校:千葉県立東葛飾高校 卒業
COPYRIGHT(C) 2011 KYUSHU UNIVERSITY. ALL RIGHTS RESERVED
Blosxom による CMS 構築と SEO テクニック
記入例 JAWS DAYS 2015 – JOB BOARD 会社名 採用職種 営業職/技術職/その他( ) 仕事内容 待遇 募集数
ネットビジネスの 企業と特性 MR1127 まさ.
Future Technology活用による業務改革
ネットビジネス論(杉浦) 第8回 ネットビジネスと情報技術.
g741001 長谷川 嵩 g740796 迫村 光秋 g741000 西田 健太郎 g741147 小井出 真聡
自然独占 公共経済論 II no.5 麻生良文.
Autonomic Resource Provisioning for Cloud-Based Software
Webショップにおける webデザイン 12/6 08A1022 甲斐 広大.
物理的な位置情報を活用した仮想クラウドの構築
ハイブリッドクラウドを実現させるポイントと SCSKのOSSへの取組み
寺尾 敦 青山学院大学社会情報学部 第12回 情報デザイン(4) 情報の構造化と表現 寺尾 敦 青山学院大学社会情報学部
【1−1.開発計画 – 設計・開発計画】 システム開発計画にはシステム開発を効率的、効果的に実行する根拠(人員と経験、開発手順、開発・導入するシステム・アプリケーション・サービス等)を記述すること。 システム開発の開始から終了までの全体スケジュールを記載すること。 アプリケーション機能配置、ソフトウェア、インフラ構成、ネットワーク構成について概要を示すこと。
6 日本のコーポレート・ガバナンス 2008年度「企業論」 川端 望.
急成長する中国ソフトウェア産業 中国ソフトウェアと情報サービス産業の規模 総売上高は5年間で約5.3倍の成長
米国ユタ州LDS病院胸部心臓外科フェローの経験
公益社団法人日本青年会議所 関東地区埼玉ブロック協議会 JCの情熱(おもい)育成委員会 2011年度第1回全体委員会
次世代大学教育研究会のこれまでの活動 2005年度次世代大学教育研究大会 明治大学駿河台校舎リバティタワー9階1096教室
子どもの本の情報 大阪府内の協力書店の情報 こちらをクリック 大阪府内の公立図書館・図書室の情報
第2回産業調査 小島浩道.
〈起点〉を示す格助詞「を」と「から」の選択について
広東省民弁本科高校日語専業骨幹教師研修会 ①日本語の格助詞の使い分け ②動詞の自他受身の選択について   -日本語教育と中日カルチャーショックの観点から- 名古屋大学 杉村 泰.
■5Ahバッテリー使用報告 事例紹介/東【その1】 ■iphon4S(晴れの昼間/AM8-PM3) ◆約1時間で68%⇒100%
『ワタシが!!』『地域の仲間で!!』 市民が始める自然エネルギー!!
ポイントカードの未来形を形にした「MUJI Passport」
SAP NetWeaver を支える Microsoft テクノロジーの全貌 (Appendix)
ガイダンス(内業) 測量学実習 第1回.
Python超入門 久保 幹雄 東京海洋大学.
熱力学の基礎 丸山 茂夫 東京大学大学院 工学系研究科 機械工学専攻
京都民医連中央病院 CHDF学習推進委員会
資料2-④ ④下水道.
Accessによる SQLの操作 ~実際にテーブルを操作してみよう!~.
Presentation transcript:

卒業研究 ニューラルネットワーク 12162062 藤森祐太

目次 ニューラルネットについて パーセプトロン 誤差逆伝播法 畳み込みニューラルネット

ニューラルネットワーク ニューラルネットワークとは、人間の脳神経系の働きを模倣して数 式で表現したもの 回帰、クラス分類などの問題に活用できる 今回の研究ではクラス分類を行う

単純パーセプトロン 順伝播型ニューラルネットワークのひとつ(単一方向に情報が流れ る) 入力層と出力層のみからなる単純なニューラルネットワーク 動物の神経細胞は、樹状突起という部位で他の細胞から複数の入 力を受け取り、入力が一定値以上に達すると信号を出力するとされ ており、それをモデル化したもの

計算式 𝑥 1 , 𝑥 2 , …,𝑥 𝑛 は入力信号、 𝑤 1 , 𝑤 2 ,…, 𝑤 𝑛 は重み、 bはバイアス値とする u = 𝑤 1 𝑥 1 + 𝑤 2 𝑥 2 +… + 𝑤 𝑛 𝑥 𝑛 + b out = f(u ) (fは活性化関数) 活性関数にはステップ関数 (下図の場合は f(u)=1(u >= 0), 0( u< 0))や ロジスティック関数(f u = 1 1 + 𝑒 −𝑢 ) などが使われている

計算の例 入力値 : [ 𝑥 1 , 𝑥 2 , 𝑥 3 , 𝑥 4 ] 重み : [ 𝑤 11 , 𝑤 12 , 𝑤 13 , 𝑤 14 , 𝑤 21 , 𝑤 22 , 𝑤 23 , 𝑤 24 , 𝑤 31 , 𝑤 32 , 𝑤 33 , 𝑤 34 ] バイアス : [ 𝑏 1 , 𝑏 2 , 𝑏 3 , 𝑏 4 ] 𝑢 1 = 𝑤 11 𝑥 1 + 𝑤 12 𝑥 2 + 𝑤 13 𝑥 3 + 𝑤 14 𝑥 4 + 𝑏 1 𝑢 2 = 𝑤 21 𝑥 1 + 𝑤 22 𝑥 2 + 𝑤 23 𝑥 3 + 𝑤 24 𝑥 4 + 𝑏 2 𝑢 3 = 𝑤 31 𝑥 1 + 𝑤 32 𝑥 2 + 𝑤 33 𝑥 3 + 𝑤 34 𝑥 4 + 𝑏 3 f : 活性化関数 出力値 : out 𝑖 (i=1,2,3) 𝑜𝑢𝑡 1 =𝑓(𝑢1), 𝑜𝑢𝑡 2 =𝑓(𝑢2), 𝑜𝑢𝑡 3 =𝑓(𝑢3)

単純パーセプトロンの使用例 青と緑の点を分離する直線を求める 最初に重み(直線の傾き)を適当に設定し、訓練データとして入力信  最初に重み(直線の傾き)を適当に設定し、訓練データとして入力信 号(x座標、y座標)と教師信号(ラベル値:緑を1、青を-1)がセットに なっているデータを使い学習を重ねて重みを更新していく どのように学習し重みを更新するか?

勾配降下法 勾配降下法とはある誤差関数E out 𝑖 , 𝑦 𝑖 が与えられていて、その関数を最小 化するように重み 𝑤 𝑖 を変更していく方法( out 𝑖 は出力値、 𝑦 𝑖 は教師信号) 重みの更新はデータ数分行う 𝜕𝐸 𝜕 𝑤 𝑖 を求めてそれに学習係数𝜇をかけた𝜇 𝜕𝐸 𝜕 𝑤 𝑖 をもとの重み 𝑤 𝑖 から引く 𝑤 𝑖 = 𝑤 𝑖 −𝜇 𝜕𝐸 𝜕 𝑤 𝑖 誤差関数には 2乗誤差関数:1/2 𝑗 ( 𝑦 𝑗 − 𝑜𝑢𝑡 𝑗 ) 2 交差エントロピー誤差関数:− 𝑗 𝑦 𝑗 log⁡( 𝑜𝑢𝑡 𝑗 ) ヒンジ損失関数:max⁡(0,− 𝑦 𝑗 𝑥 𝑗 𝑤 𝑗 ) などがある

確率的勾配降下法 勾配降下法だと最小値ではなく局所的に極小値をとる点に収束して しまう可能性がある また全てのデータを使って学習するとかなりの計算時間が必要となる 場合がある これらの問題点を解決する方法として 確率的勾配降下法という方法がある 学習するときに全データを使うのでは なく、1つのデータを選ぶ

排他的論理和 排他的論理和(XOR)は右上図のように定められるもの プロットすると右下図のようになるので線形分離 は出来ないつまり、単純パーセプトロンでは分類 不可能 ⇒よって分類するには他の手法が必要

誤差逆伝播法(バックプロパゲーション) 単純パーセプトロンでは出来ないものに対応(非線形の分類にも対 応)するために、入力層と出力層の間に中間層を持つパーセプトロ ンを使う 中間層以前の層の重みの更新をどのようにして行うかが問題 そこで学習方法として誤差逆伝播法(バックプロパゲーション)を使う

誤差逆伝播法(バックプロパゲーション) 第1層、第2層、・・・第n層、・・・、第N層からなっているとする 誤差関数Eを二乗誤差関数、出力層の活性化関数をロジスティック 関数とする 𝑤 𝑗𝑖 𝑛 を第n層のj番目のユニットと結合している第n-1層のi番目のユ ニットにかかってくる重みとする out 𝑗 𝑛 を第𝑛層の𝑗番目の出力値とする 学習係数を𝜇とする 求めたいのは 𝜕𝐸 𝜕 𝑤 𝑗𝑖 𝑛

バックプロパゲーションのアルゴリズム 手順 1, 既に説明した順伝播型ニューラルネットワークの計算方法で、入力層から バックプロパゲーションのアルゴリズム  手順 1, 既に説明した順伝播型ニューラルネットワークの計算方法で、入力層から 出力層への計算を行い、 𝑜𝑢𝑡 𝑗 𝑁 までを求める 2, 出力層の出力 𝑜𝑢𝑡 𝑗 𝑁 と与えられたデータの目標出力 𝑦 𝑗 の誤差から 𝛿 𝑗 𝑁 を計算する 3, 今回の場合は、 𝛿 𝑗 𝑁 =( 𝑜𝑢𝑡 𝑗 𝑁 − 𝑦 𝑗 ) 𝑜𝑢𝑡 𝑗 𝑁 (1− 𝑜𝑢𝑡 𝑗 𝑁 )となる 4, 出力層以前の層は、 𝛿 𝑗 𝑛 =𝑓′( 𝑢 𝑗 𝑛 ) 𝑘 𝛿 𝑘 𝑛+1 𝑤 𝑘𝑗 𝑛+1 と計算される 5, 𝛿を出力層から入力層の向きに伝播させていく(逆伝播) 6, 𝑤 𝑗𝑖 𝑛 = 𝑤 𝑗𝑖 𝑛 −𝜇 𝛿 𝑗 𝑛 𝑜𝑢𝑡 𝑗 𝑛−1 と計算して重みを更新する ( 𝜕𝐸 𝜕 𝑤 𝑗𝑖 𝑛 = 𝛿 𝑗 𝑛 𝑜𝑢𝑡 𝑗 𝑛−1 ) 以上の手順を繰り返し行い、重みを更新していく

アイリスデータの分類 ソフトマックス関数 𝑓= exp( 𝑢 𝑘 ) 𝑗=1 𝐾 exp⁡(𝑢 𝑗 ) 確率値を出力する 学習回数 10 100 1000 5000 10000 ロジスティック 30.8~61.7 33.3~68.3 85.8~95.0 97.5 95.8 ソフトマックス 33.3~45.0 31.7~67.5 65~87.5 96.7 94.2

畳み込みニューラルネットワーク 畳み込みニューラルネットワーク(コンボリューショナルニューラル ネットワーク:CNN)とは、畳み込み層とプーリング層という特殊な層 を含んだニューラルネットワーク 動物の視覚野をモデルにしたもので、主に画像処理に利用される 今まで説明したニューラルネットワークとは違い、隣接層のユニット が全結合しているのではなく、特定のユニットとのみ結合している

畳み込み層(convolution) 畳み込み層では画像に対してフィルターを設定して画像とフィルター 間で積和計算を行う 下図の場合は 77*0.01+80*0.08+82*0.01+83*0.08+78*0.62+80*0.08+87*0.01+82*0. 08+81*0.01 = 79 というように計算する フィルターの数値は同じものを使う(重み共有) フィルターを複数使う場合は同じ処理をフィルター数行う

プーリング層(pooling) プーリング層ではフィルターを設定してそのフィルターの内部に含ま れる画素に特定の処理を行う 最大プーリング(max pooling)ではフィルター内の画素の中の数字で 一番大きい数値を出力する ステップ数を設定して何個おきにフィルターを適用するかき決める。 下図の場合はステップ数は2である

畳み込みニューラルネットワークの手順 1 畳み込み層 フィルターの数値をベクトルとしたものをhとする 畳み込みニューラルネットワークの手順 1 畳み込み層 フィルターの数値をベクトルとしたものをhとする 入力信号に対してフィルターの処理をおこなうところには適切なフィ ルターの数字をそれ以外は0としたベクトルを作る これをフィルターが移動するたびに作成する。 以上の処理でできたベクトルを合わせたものが畳み込み層の重み となる 入力信号が100でフィルターが9の場合は91個の0が格納された64 個のベクトルを合わせたものが重みとなる

畳み込みニューラルネットワークの手順 2 プーリング層(最大プーリング層) 畳み込みニューラルネットワークの手順 2 プーリング層(最大プーリング層) 入力信号に対して出力する数字、つまりフィルター内の最大の数値 の場所に1をそれ以外を0にしたベクトルを作る 畳み込み層と同様にこれもフィルターが移動するたびに作成し、そ れらを合わせたものがプーリング層の重みとなる 入力信号が16でフィルターが4でステップ数が2の場合は、大きさが 16でその要素のうち高々1つが1のベクトルを4つまとめたものが重 みとなる

畳み込みニューラルネットワークの手順 3 全結合のニューラルネットワークの時と同様に誤差逆伝播法によっ て学習して、各層の重みを更新する 畳み込みニューラルネットワークの手順 3 全結合のニューラルネットワークの時と同様に誤差逆伝播法によっ て学習して、各層の重みを更新する 畳み込み層の重み更新のために少し準備をする 準備 h(フィルターの数値を並べたベクトル)と内積をとると畳み込み層の ユニットiと畳み込み層の次の層のユニットjの間の重み 𝑤 𝑗𝑖 を与える ベクトル 𝑡 𝑗𝑖 を作る 𝑡 𝑗𝑖 の成分を 𝑡 𝑗𝑖𝑟 とし、rを固定したときに 𝑡 𝑗𝑖r を(j,i)成分に持つ行列を T r とする

畳み込みニューラルネットワークの手順 4 全結合のニューラルネットワークのときと同じように重みの修正量を 計算する(前のスライドの 𝛿 𝑗 𝑛 ) (𝜕h) r = i,j ( T r °𝜕w) j,i  ただし𝜕w= 𝛿 𝑗 𝑛 𝑜𝑢𝑡 𝑗 𝑛−1 ° は行列の成分ごとの積を表すものとする 実際に結合しているのはフィルターと重なっている部分のみであり、 また重みを共有しているのでフィルターの数値1つに対して複数の 誤差修正量が出てくるので、それらを全てまとめるという処理を行っ ている

畳み込みニューラルネットワークの手順 5 プーリング層は与えられた入力信号の一部分の最大値を返す層な ので、重みの更新はなく、誤差修正量(前のスライドの 𝛿 𝑗 𝑛 )を入力層 の方へと伝える処理のみを行う 𝛿 𝑗 𝑛 =𝑓′( 𝑢 𝑗 𝑛 ) 𝑘 𝛿 𝑘 𝑛+1 𝑤 𝑘𝑗 𝑛+1 の計算のみを行う

digitsの分類 3層                   畳み込み                     3層で3を9と間違えたものの内77%が                     畳み込みニューラルネットワークだと                     正しく3だと分類された

課題 ニューラルネットワークはパラメータによって精度に差がでるので、 ある程度の試行を重ねて適切なパラメータを設定する必要がある。 畳み込みニューラルネットワークはかなりの計算時間を要するため、 実験を行うためには計算時間の短縮が必須。 計算時間短縮のために並列化やGPUを使うといったことが必要に なってくる。 計算時間短縮のためにアルゴリズムを見直す必要がある。

参考文献 書籍 深層学習 岡谷貴之 ウェブページ 村上研究室ニューラルネットワーク-画像処理・理解研究室 深層学習 岡谷貴之 ウェブページ 村上研究室ニューラルネットワーク-画像処理・理解研究室 http://ipr20.cs.ehime-u.ac.jp/column/neural/ 機械学習プロフェッショナルシリーズ輪読会スライドまとめ http://qiita.com/kenmatsu4/items/24524640d518c1765684