ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp.

Slides:



Advertisements
Similar presentations
HBSP モデル上での 行列積を求めるアルゴリ ム 情報論理工学 吉岡健太.
Advertisements

FPGA 株式会社アプライド・マーケティング 大越 章司
CPUとGPUの 性能比較 -行列計算およびN体問題を用いて-
Chapter11-4(前半) 加藤健.
「わかりやすいパターン認識」 第1章:パターン認識とは
ニューラルネットワークの 工学的応用に関する研究 2006年9月 中間報告
LZ圧縮回路の設計とハード・ソフト 最適分割の検討 電子情報デザイン学科 高性能計算研究室 4回生 中山 和也 2009/2/27.
Deep learningによる 読唇システム
先端論文紹介ゼミ Tracking control for nonholonomic mobile robots: Integrating the analog neural network into the backstepping technique 非ホロノミック移動ロボットのための追従制御:
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
ARM 株式会社アプライド・マーケティング 大越 章司
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
情報科学科 ネットワークシステムコース 西関研究室.
画像工学 2011年10月6日 担当教員 北川 輝彦.
CSP記述によるモデル設計と ツールによる検証
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
演算/メモリ性能バランスを考慮した マルチコア向けオンチップメモリ貸与法
ドローン(UAV)とPhotoScanを用いた 3次元データの作成・活用及び業務 対策セミナー アンケート集計
理論試験速報 理論問題部会長 鈴木 亨 先生 (筑波大学附属高等学校) にインタビュー.
MPIによる行列積計算 情報論理工学研究室 渡邉伊織 情報論理工学研究室 渡邉伊織です。
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
画像工学 2012年10月3日 担当教員 北川 輝彦.
高速剰余算アルゴリズムとそのハードウェア実装についての研究
MPIを用いた最適な分散処理 情報論理工学研究室 角 仁志
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
3D散歩ゲーム 08A2043 谷口盛海 種田研究室.
1.コンピュータと情報処理 p.18 第1章第1節 2.コンピュータの動作のしくみ CPUと論理回路
#6 性能向上、ブレイクスルー、集中と分散 Yutaka Yasuda.
アップデート 株式会社アプライド・マーケティング 大越 章司
米山研究室紹介 -システム制御工学研究室-
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
ARMとIoT 株式会社アプライド・マーケティング 大越 章司
アップデート 株式会社アプライド・マーケティング 大越 章司
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
予測モデルの構築を簡単にすばやく! お客様の業務に AI 活用を支援 今だけ 機械学習最適モデリング ソリューション (ナレコム AI)
FPGA 株式会社アプライド・マーケティング 大越 章司
説明可能なAI(Explainable AI)
ARM 株式会社アプライド・マーケティング 大越 章司
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
コンピューターの歴史 発表者 髙橋 一希 竹原 仰 山崎 翼 芳賀沼 舜 1E17M E17M E17M073ー8
Data Clustering: A Review
AIを用いたドローンの 新たな姿勢制御方法に関する研究
暗号技術 ~暗号技術の基本原理~ (1週目) 情報工学科  04A1004 石川 真悟.
Webコミュニティ概念を用いた Webマイニングについての研究 A study on Web Mining Based on Web Communities 清水 洋志.
ディジタル信号処理 Digital Signal Processing
アップデート 株式会社アプライド・マーケティング 大越 章司
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
アップデート 株式会社アプライド・マーケティング 大越 章司
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
量子コンピュータ 株式会社アプライド・マーケティング 大越 章司
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
ARM、IoT、AI 株式会社アプライド・マーケティング 大越 章司
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
明星大学 情報学科 2012年度前期     情報技術Ⅰ   第1回
記憶の仕組みを知って 記憶力を上げよう!.
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
Introduction to Soft Computing
手書き文字の自動認識アプリケーション 15K1013 坂本 倖輝
FPGA 株式会社アプライド・マーケティング 大越 章司
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
説明可能なAI(Explainable AI:XAI)
ARM 株式会社アプライド・マーケティング 大越 章司
明星大学 情報学科 2014年度前期     情報技術Ⅰ   第1回
アップデート.
プログラミング入門 -「計算」に注目して考える-
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp

「現時点において世の中には本物のAIと呼べるものは存在しない」 しかし、そういったAI万能のイメージに異を唱える論調も出てきました。ガートナーも2016年12月に『人工知能 (AI) に関する10の「よくある誤解」』を発表しました。 https://www.gartner.co.jp/press/html/pr20161222-01.html この中にもあるように、これらのことはAI研究者の間では常識といっていいものでした。「よくわからないもの」を恐れるのは、未開人が飛行機を恐れるのと根本はあまり変わりません。 AIの真の姿を知れば、恐れるべきこと、恐れなくて良いことがわかるでしょう。 「現時点において世の中には本物のAIと呼べるものは存在しない」

今日は、AIの基本的な仕組みであるニューラルネットワークが、どのような仕組みで動いているかをご紹介しましょう。 ニューラルネットワークとその発展形であるディープニューラルネットワークは、現在でも進化を続けていますが、基本的な仕組みはあまり変わっていません。 それは、生物の脳の仕組みを模倣したモデルを使うもので 多くの研究者は、現在の仕組みの延長線上には、人間を置き換えるようなAIは生まれないと考えています。しかし、それでも大きなブレークスルーであることは確実で、適用分野は多岐にわたります。ニューラルネットワークの仕組みを知ることで、その可能性を限界を知ることができ、過度に恐れることも、侮ることも無く、有効な利用法を考えることができます。 #もちろん、AI研究はものすごい速度で進んでおり、ニューラルネットワークに代わるテクノロジーが何時出てくるかはわかりませんし、今現在、どこかでそのような研究がされている可能性も十分あります。AIの進化に警鐘を鳴らす人は、こちらの進化を心配しているということもできます。 ニューラルネットワークの仕組み 3

人間の脳を模倣したニューラルネットワーク 人間の神経細胞 (ニューロン) 脳の学習 刺激1 刺激2 同じ刺激を繰り返し与えることでニューロンの回路を形成する ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン NNの学習 人間の脳のメカニズムはまだまだ謎が多いのですが、脳が多数のニューロン(神経細胞)の集まりであることは早くからわかっていました。 脳に刺激(視覚や聴覚など)を与えると、ニューロンが刺激されて他のニューロンに信号を伝えます。同じ刺激を繰り返し与えると、同じ経路で信号が伝わるようになります。これが学習による記憶のメカニズムと考えられています。 これをコンピュータ上でシミュレートしようとしたのがニューラルネットワークです。ニューロンとそれらの繋がりをモデル化し、接続に重みを付けることで、回路として機能させようとするものです。 ニューラルネットワークの歴史は古く、1943年に最初のモデルが考案されたといわれています。現在のニューラルネットワークの原型は1958年に発表されたパーセプトロンです。これは、生物の(画像)認知のメカニズムを参考にしており、画像認識や音声認識などに向いているとされています。 刺激1 望みの結果を得られるよう、接続の重み付けと関数を調整し、最適化する 刺激2

ニューラルネットワークを進化させたディープニューラルネットワーク 人間の神経細胞(ニューロン) ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン 隠れ層 3層ニューラルネットワークの隠れ層を増やし、より複雑な問題を解けるようにしたのがディープニューラルネットワーク しかし、人間の脳をシミュレートして、考えるコンピュータを作ろうとするニューラルネットワークは、一時期研究が停滞していました。そもそも人間の脳のメカニズムそのものが、現在でもまだ完全に解明されたわけでは無いのです。しかしここ数年、このアプローチが改めて注目を集めています。ニューラルネットワークを進化させた、ディープラーニングが発表されたためです。 単純パーセプトロンでは複雑な問題をうまく扱えないことはすぐにわかり、間に「中間層」を入れて複雑な問題に対処できるようにした多層パーセプトロンが考案されましたが、接続の数が多くなり、計算量も増え、重み付けの調整が人間の手には負えない状況になります。ニューラルネットワークに大量のデータを与え、自分で重み付けを調整(=学習)させる機械学習の研究もこの頃始まっています。 1979年、中間層をさらに増やした階層型神経回路モデルが日本の研究者(福島邦彦のネオコグニトロン)によって考案されましたが、さらに計算量が膨大になること、多階層時の機械学習がうまく進まないなどの問題があり、実用化に至りませんでした。これが後に見直され、新しいアルゴリズムが考案されるなどして、現在のディープニューラルネットワークに繋がりました。 http://itpro.nikkeibp.co.jp/atcl/column/14/090100053/091800010/?ST=bigdata&P=5 ディープニューラルネットワーク 層を増やせば良いことは早くから知られていたが、コンピューティングパワーなどの問題で実現できなかった

多層ニューラルネットワーク (DNN)

φ Σ 各ニューロンでの計算 重み付け 重み付け された入力 して出力 入力の総和 評価関数 ニューラルネットワークの学習 ニューラルネットワークは、計算量は膨大になりますが、計算そのものはそれほど複雑ではありません。 各ニューロンの中でどのような計算が行われているかを図示したものです。基本的には重み付けされた入力を足し算し、評価関数を適用する、という単純なものです。 入力の重みも、ゼロイチの2段階からせいぜい10段階くらいといわれています。ここを増やすと組み合わせ数が爆発的に増えるので、あまり増やせません。 評価関数は様々なものがあり、どれを使うかは目的やデータによって変わります。どれがうまく適合するかを探るのも研究の一部です。 http://qiita.com/Ugo-Nama/items/04814a13c9ea84978a4c つまり、ニューラルネットワークの計算は、とにかく沢山のプロセッサで並列処理するしかなく、ただ計算自体は非常に単純、という特性を持っているということです。 評価関数 logistic, softmax hyperbolic tangent ReLU など ニューラルネットワークの学習 適切な評価関数の選定と重み付けの調整

計算量が膨大 DNNによる画像認識 手書き文字認識のサンプル 元画像を28x28に分割 =784ピクセル 現実に画像認識を行う場合、大きなデータを扱わなければなりません。 これはネットにあったアラビア数字の手書き文字認識の事例ですが、1文字あたり28x28ピクセルに分割しています。これだけで、入力は784ピクセルになります。 出力は0~9の10個ですが、中間層を入れると、ものすごい数の接続を処理しなければならないことがわかります。(図では入力がかなり省略されています) http://nnadl-ja.github.io/nnadl_site_ja/chap1.html 中間層を増やすと、どんどん接続数が増え、計算量が幾何級数的に増えていくのがおわかり頂けると思います。ディープニューラルネットワークは計算負荷が膨大なのです。 重みを微調整してデータを入力し、望みの結果が得られなければ、さらに重みを調整してデータを入力・・といったことを延々と繰り返す必要があります。 これを人間が行うのは不可能です。ニューラルネットワークにデータを読み込ませ、自分で学習させる機械学習が必要になったのはこういった理由からです。 クラウドやGPUが使われるようになって、計算能力は飛躍的に向上していますが、それでも到底追いつきません。そこで学習を効率化させるために、様々なアルゴリズムや手法が用いられています。バックプロパゲーション、スパースコーディング、コンボリューショナルニューラルネットワークなどはその成果ですが、ニューロン間の重みを調整するという基本的な仕組みは変わっていません。 ただ、計算量が膨大になるのは学習の局面であって、できあがったDNNにデータを流し込んで結果を得るための処理はずっと少なくて済みます。画像認識用のDNNを自動車側に搭載、ということは十分可能なわけです。 中間層が2層以上の ディープニューラル ネットワーク 100x100の画像であれば、 入力は10,000!!

ニューラルネットワークの現状 仕組みは単純で、やっている計算も簡単 基本的な考え方・仕組みは60年前から変わっていない 計算量が膨大 (特に学習時) 何故その結果が出たのか、人間にはわからない (デバッグできない) なぜうまくいくのか、よくわかっていない

深層学習はなぜうまくいくのか? 機械学習のポイントは、プログラムした本人が思ってもみなかった出力が出るところ。そこが今までのプログラムと違うところ。 理論研究の方向性は2つ。なぜうまくいくのかわかっていない深層学習の原理の解明と、現在の深層学習では難しい難題解決である。 http://pc.watch.impress.co.jp/docs/column/ai_nyumon/1051781.html

GPUは何故ディープラーニングに使われるのか 1チップに3,000個以上の演算器 クラウドによって大量のサーバーを並列処理させることが可能になり、サーバーに搭載されているCPU自身もマルチコア化されて、従来よりも並列処理環境が安価に実現できるようになっていますが、それでも処理能力はまったく足りません。そこで注目されたのが、GPUです。 http://videocardz.net/nvidia-tesla-p100/ GPUは3次元グラフィックスを高速化するための専用プロセッサですが、現在最大のものは1チップに3000個以上の演算器を集積してます。これは複雑な形状を持つ3次元モデルを高速に座標変換し、描画するために使われるものですが、これらの処理をプログラムし直すことでニューラルネットワーク処理に応用できることがわかったのです。 http://www.gdep.jp/page/view/248

加速するハードウェア化 ニューロシナプティック 非ノイマン型 コンピュータチップ プログラム可能な100万個のニューロンと プログラム可能な2億5600万個のシナプス GoogleのAIチップ「TPU (Tensor Processing Unit)」 すべきことがわかってきたら、ハードウェア化するのが高速化・省電力化には有効です。様々なニューラルネットワーク専用ハードウェアが発表されています。 http://japan.cnet.com/news/commentary/35052175/ http://markethack.net/archives/52011310.html http://itpro.nikkeibp.co.jp/atcl/column/15/061500148/051900060/ 現在、汎用CPUは64ビット処理が主流ですが、GoogleのTPUはあえて精度を8ビットに落とし、集積度を上げるアプローチをとっています。ニューラルネットワークの計算には精度は必要無く、数が勝負であることを見抜いたAI専用チップということができます。TPUはDNNの学習では無く、推論に使われます。 8ビットプロセッサ ノイマン型であり、 IBMのアプローチとは違う 計算精度を落としてコンパクト化、高速化を実現