ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp.

Slides:



Advertisements
Similar presentations
画像処理 05A1027 後藤航太. 研究課題は openLDAP についてでしたが 今回から画像処理に変更しました。 変更した理由 自分が持っていたイメージと実際の openLDAP が違ったので変更を決 めま した。 画像処理に興味を持ったので これからは画像処理を研究課題として やっていきます。
Advertisements

HBSP モデル上での 行列積を求めるアルゴリ ム 情報論理工学 吉岡健太.
FPGA 株式会社アプライド・マーケティング 大越 章司
到着時刻と燃料消費量を同時に最適化する船速・航路計画
2014年4月11日 電子制御設計製図Ⅰ 第二回 担当教員: 北川輝彦.
CPUとGPUの 性能比較 -行列計算およびN体問題を用いて-
Chapter11-4(前半) 加藤健.
「わかりやすいパターン認識」 第1章:パターン認識とは
ニューラルネットワークの 工学的応用に関する研究 2006年9月 中間報告
LZ圧縮回路の設計とハード・ソフト 最適分割の検討 電子情報デザイン学科 高性能計算研究室 4回生 中山 和也 2009/2/27.
3DCG技法についての 調査報告 ○○県立○○高等学校 1年は組 グループ0.
Deep learningによる 読唇システム
先端論文紹介ゼミ Tracking control for nonholonomic mobile robots: Integrating the analog neural network into the backstepping technique 非ホロノミック移動ロボットのための追従制御:
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
テープ(メモリ)と状態で何をするか決める
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
ARM 株式会社アプライド・マーケティング 大越 章司
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
画像工学 2011年10月6日 担当教員 北川 輝彦.
CSP記述によるモデル設計と ツールによる検証
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
演算/メモリ性能バランスを考慮した マルチコア向けオンチップメモリ貸与法
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
画像工学 2012年10月3日 担当教員 北川 輝彦.
高速剰余算アルゴリズムとそのハードウェア実装についての研究
MPIを用いた最適な分散処理 情報論理工学研究室 角 仁志
3D散歩ゲーム 08A2043 谷口盛海 種田研究室.
1.コンピュータと情報処理 p.18 第1章第1節 2.コンピュータの動作のしくみ CPUと論理回路
#6 性能向上、ブレイクスルー、集中と分散 Yutaka Yasuda.
アップデート 株式会社アプライド・マーケティング 大越 章司
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
アップデート 株式会社アプライド・マーケティング 大越 章司
第14章 モデルの結合 修士2年 山川佳洋.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
FPGA 株式会社アプライド・マーケティング 大越 章司
説明可能なAI(Explainable AI)
ARM 株式会社アプライド・マーケティング 大越 章司
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
Data Clustering: A Review
AIを用いたドローンの 新たな姿勢制御方法に関する研究
暗号技術 ~暗号技術の基本原理~ (1週目) 情報工学科  04A1004 石川 真悟.
Webコミュニティ概念を用いた Webマイニングについての研究 A study on Web Mining Based on Web Communities 清水 洋志.
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
アップデート 株式会社アプライド・マーケティング 大越 章司
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
Nightmare at Test Time: Robust Learning by Feature Deletion
背景 課題 目的 手法 作業 期待 成果 有限体積法による汎用CFDにおける 流体構造連成解析ソルバーの計算効率の検証
量子コンピュータ 株式会社アプライド・マーケティング 大越 章司
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
ARM、IoT、AI 株式会社アプライド・マーケティング 大越 章司
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
明星大学 情報学科 2012年度前期     情報技術Ⅰ   第1回
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
Introduction to Soft Computing
手書き文字の自動認識アプリケーション 15K1013 坂本 倖輝
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
FPGA 株式会社アプライド・マーケティング 大越 章司
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
説明可能なAI(Explainable AI:XAI)
ARM 株式会社アプライド・マーケティング 大越 章司
明星大学 情報学科 2014年度前期     情報技術Ⅰ   第1回
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
アップデート.
プログラミング入門 -「計算」に注目して考える-
Presentation transcript:

ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp

「現時点において世の中には本物のAIと呼べるものは存在しない」 しかし、そういったAI万能のイメージに異を唱える論調も出てきました。ガートナーも2016年12月に『人工知能 (AI) に関する10の「よくある誤解」』を発表しました。 https://www.gartner.co.jp/press/html/pr20161222-01.html この中にもあるように、これらのことはAI研究者の間では常識といっていいものでした。「よくわからないもの」を恐れるのは、未開人が飛行機を恐れるのと根本はあまり変わりません。 AIの真の姿を知れば、恐れるべきこと、恐れなくて良いことがわかるでしょう。 「現時点において世の中には本物のAIと呼べるものは存在しない」

今日は、AIの基本的な仕組みであるニューラルネットワークが、どのような仕組みで動いているかをご紹介しましょう。 ニューラルネットワークとその発展形であるディープニューラルネットワークは、現在でも進化を続けていますが、基本的な仕組みはあまり変わっていません。 それは、生物の脳の仕組みを模倣したモデルを使うもので 多くの研究者は、現在の仕組みの延長線上には、人間を置き換えるようなAIは生まれないと考えています。しかし、それでも大きなブレークスルーであることは確実で、適用分野は多岐にわたります。ニューラルネットワークの仕組みを知ることで、その可能性を限界を知ることができ、過度に恐れることも、侮ることも無く、有効な利用法を考えることができます。 #もちろん、AI研究はものすごい速度で進んでおり、ニューラルネットワークに代わるテクノロジーが何時出てくるかはわかりませんし、今現在、どこかでそのような研究がされている可能性も十分あります。AIの進化に警鐘を鳴らす人は、こちらの進化を心配しているということもできます。 ニューラルネットワークの仕組み 3

画像認識=画像の分類 分類器 人工知能の活用例として、古くから一定の実績を残し、今も研究が盛んな分野に、画像認識があります。 画像を認識するということはどういうことかというと、あるソフトウェアに特定の画像を読み込ませたときに、それを分類して出力を返す、ということになります。 そこで、このようなものは「分類器」と呼ばれます。画像の中から特定の部位を抜き出すソフトウェアは「検出器」などと呼ばれます。 読み込む画像が単純で、種類も少なければ、分類器を作るのは簡単です。この図のように、常に2種類の画像しか入力されないことがわかっていれば、AIなど必要無く、あらかじめ用意した画像データと等しいかどうかを判断するだけで十分でしょう。 しかし、複雑なイメージや、○×でも大きさや位置が違うものを分類しようとすると、この方法では対応できません。そこで、ルールベースなど様々な方法が考えられましたが、その中でも早くから取り組まれていたのが、生物の脳の働きを模倣するという方法です。

人間の脳を模倣したニューラルネットワーク 人間の神経細胞 (ニューロン) 脳の学習 刺激1 刺激2 同じ刺激を繰り返し与えることでニューロンの回路を形成する ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン NNの学習 人間の脳のメカニズムはまだまだ謎が多いのですが、脳が多数のニューロンの集まりであることは早くからわかっていました。 脳に刺激(視覚や聴覚など)を与えると、ニューロンが刺激されて他のニューロンに信号を伝えます。同じ刺激を繰り返し与えると、同じ経路で信号が伝わるようになります。これが学習による記憶のメカニズムと考えられています。 これをコンピュータ上でシミュレートしようとしたのがニューラルネットワークです。ニューロンとそれらの繋がりをモデル化し、接続に重みを付けることで、回路として機能させようとするものです。 ニューラルネットワークの歴史は古く、1943年に最初のモデルが考案されたといわれています。現在のニューラルネットワークの原型は1958年に発表されたパーセプトロンです。これは、生物の(画像)認知のメカニズムを参考にしており、画像認識や音声認識などに向いているとされています。 刺激1 望みの結果を得られるよう、接続の重み付けと関数を調整し、最適化する 刺激2

3x3=9ピクセルを入力とするパーセプトロン パーセプトロンの仕組みを極々単純化してご説明しましょう。 画像を認識させるためには、画像をピクセルに分解してそれらをニューラルネットワークに読み込ませます。ニューラルネットワークが入力に応じた出力を返すことができれば良いわけです。 ここでは、単純化のために先ほどの○×を3x3の9ピクセルに分割します。各々のピクセルは白~黒の4段階の濃淡を持つことにすると、入力は9個の連続したデータになります。これを読み込ませて、○か×かに分類するニューラルネットワークを考えます。入力が9で、出力が2です。 学習していないニューラルネットワークでは、ニューロン間の接続は全て均一です。このネットワークにデータを読み込ませても、意味のある結果は出てきません。 そこで接続に重みを付けるわけですが、このくらいのネットワークであれば、人間が考えることが可能です。双方のデータの特徴を見てみると、○の場合、2,4,6,8番目のピクセルが濃いグレーになっており、×では真ん中のピクセルが黒です。この部分に注目すれば、うまく分類できそうです。 そこで、2,4,6,8番目のピクセルに入力(=濃いグレー)があったときに、そのニューロンの出力が○を示すニューロンにより強い信号を伝達するよう、接続の重みを調整します。 一方で、5番目のピクセルに入力があったときには、×を示すニューロンへの接続を強くします。 http://hokuts.com/2015/12/04/ml3-mlp/ このとき、ニューラルネットワークは入力データが○か×かということなどは全く関係ないことに注目して下さい。ただただ入力データを重み付けに従って処理しているだけで、その結果に意味を見出し、喜んだり落ち込んだりしているのは人間なのです。

ニューラルネットワークを進化させたディープニューラルネットワーク 人間の神経細胞(ニューロン) ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン 隠れ層 3層ニューラルネットワークの隠れ層を増やし、より複雑な問題を解けるようにしたのがディープニューラルネットワーク しかし、人間の脳をシミュレートして、考えるコンピュータを作ろうとするニューラルネットワークは、一時期研究が停滞していました。そもそも人間の脳のメカニズムそのものが、現在でもまだ完全に解明されたわけでは無いのです。しかしここ数年、このアプローチが改めて注目を集めています。ニューラルネットワークを進化させた、ディープラーニングが発表されたためです。 単純パーセプトロンでは複雑な問題をうまく扱えないことはすぐにわかり、間に「中間層」を入れて複雑な問題に対処できるようにした多層パーセプトロンが考案されましたが、接続の数が多くなり、計算量も増え、重み付けの調整が人間の手には負えない状況になります。ニューラルネットワークに大量のデータを与え、自分で重み付けを調整(=学習)させる機械学習の研究もこの頃始まっています。 1979年、中間層をさらに増やした階層型神経回路モデルが日本の研究者(福島邦彦のネオコグニトロン)によって考案されましたが、さらに計算量が膨大になること、多階層時の機械学習がうまく進まないなどの問題があり、実用化に至りませんでした。これが後に見直され、新しいアルゴリズムが考案されるなどして、現在のディープニューラルネットワークに繋がりました。 http://itpro.nikkeibp.co.jp/atcl/column/14/090100053/091800010/?ST=bigdata&P=5 ディープニューラルネットワーク 層を増やせば良いことは早くから知られていたが、コンピューティングパワーなどの問題で実現できなかった

計算量が膨大 多層ニューラルネットワーク 手書き文字認識のサンプル 元画像を28x28に分割 =784ピクセル 出力は0~9の10個ですが、中間層を入れると、ものすごい数の接続を処理しなければならないことがわかります。(図では入力がかなり省略されています) http://nnadl-ja.github.io/nnadl_site_ja/chap1.html 中間層を増やすと、どんどん接続数が増え、計算量が幾何級数的に増えていくのがおわかり頂けると思います。ディープニューラルネットワークは計算負荷が膨大なのです。 重みを微調整してデータを入力し、望みの結果が得られなければ、さらに重みを調整してデータを入力・・といったことを延々と繰り返す必要があります。 これを人間が行うのは不可能です。ニューラルネットワークにデータを読み込ませ、自分で学習させる機械学習が必要になったのはこういった理由からです。 クラウドやGPUが使われるようになって、計算能力は飛躍的に向上していますが、それでも到底追いつきません。そこで学習を効率化させるために、様々なアルゴリズムや手法が用いられています。バックプロパゲーション、スパースコーディング、コンボリューショナルニューラルネットワークなどはその成果ですが、ニューロン間の重みを調整するという基本的な仕組みは変わっていません。 中間層が2層以上の ディープニューラル ネットワーク

φ Σ 各ニューロンでの計算 重み付け 出力 された入力 入力の総和 評価関数 ニューラルネットワークの学習 ニューラルネットワークは、計算量は膨大になりますが、計算そのものはそれほど複雑ではありません。 各ニューロンの中でどのような計算が行われているかを図示したものです。基本的には重み付けされた入力を足し算し、評価関数を適用する、という単純なものです。 入力の重みも、ゼロイチの2段階からせいぜい10段階くらいといわれています。ここを増やすと組み合わせ数が爆発的に増えるので、あまり増やせません。 評価関数は様々なものがあり、どれを使うかは目的やデータによって変わります。どれがうまく適合するかを探るのも研究の一部です。 http://qiita.com/Ugo-Nama/items/04814a13c9ea84978a4c つまり、ニューラルネットワークの計算は、とにかく沢山のプロセッサで並列処理するしかなく、ただ計算自体は非常に単純、という特性を持っているということです。 評価関数 logistic, softmax hyperbolic tangent ReLU など ニューラルネットワークの学習 適切な評価関数の選定と重み付けの調整

GPUは何故ディープラーニングに使われるのか 1チップに3,000個以上の演算器 クラウドによって大量のサーバーを並列処理させることが可能になり、サーバーに搭載されているCPU自身もマルチコア化されて、従来よりも並列処理環境が安価に実現できるようになっていますが、それでも処理能力はまったく足りません。そこで注目されたのが、GPUです。 http://videocardz.net/nvidia-tesla-p100/ GPUは3次元グラフィックスを高速化するための専用プロセッサですが、現在最大のものは1チップに3000個以上の演算器を集積してます。これは複雑な形状を持つ3次元モデルを高速に座標変換し、描画するために使われるものですが、これらの処理をプログラムし直すことでニューラルネットワーク処理に応用できることがわかったのです。 http://www.gdep.jp/page/view/248

加速するハードウェア化 ニューロシナプティック 非ノイマン型 コンピュータチップ プログラム可能な100万個のニューロンと プログラム可能な2億5600万個のシナプス GoogleのAIチップ「TPU (Tensor Processing Unit)」 すべきことがわかってきたら、ハードウェア化するのが高速化・省電力化には有効です。様々なニューラルネットワーク専用ハードウェアが発表されています。 http://japan.cnet.com/news/commentary/35052175/ http://markethack.net/archives/52011310.html http://itpro.nikkeibp.co.jp/atcl/column/15/061500148/051900060/ 現在、汎用CPUは64ビットが主流ですが、GoogleのTPUはあえて精度を8ビットに落とし、集積度を上げるアプローチをとっています。ニューラルネットワークの計算には精度は必要無く、数が勝負であることを見抜いたAI専用チップということができます。 8ビットプロセッサ ノイマン型であり、 IBMのアプローチとは違う 計算精度を落としてコンパクト化、高速化を実現