ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp.

Slides:



Advertisements
Similar presentations
FPGA 株式会社アプライド・マーケティング 大越 章司
Advertisements

情報処理演習 (9)グラフィックス システム科学領域 日浦 慎作.
CPUとGPUの 性能比較 -行列計算およびN体問題を用いて-
「わかりやすいパターン認識」 第1章:パターン認識とは
ニューラルネットワークの 工学的応用に関する研究 2006年9月 中間報告
第12回 順序回路の解析方法 瀬戸 順序回路から,以下を導き、解析を行えるようにする タイムチャート 状態遷移関数・出力関数 状態遷移表
Deep learningによる 読唇システム
「Self-Organizing Map 自己組織化マップ」 を説明するスライド
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
応用情報処理V 第1回 プログラミングとは何か 2004年9月27日.
ARM 株式会社アプライド・マーケティング 大越 章司
情報科学科 ネットワークシステムコース 西関研究室.
応用情報処理V 第1回 プログラミングとは何か 2003年9月29日.
画像工学 2011年10月6日 担当教員 北川 輝彦.
高山建志 五十嵐健夫 テクスチャ合成の新たな応用と展開 k 情報処理 vol.53 No.6 June 2012 pp
演算/メモリ性能バランスを考慮した マルチコア向けオンチップメモリ貸与法
理論試験速報 理論問題部会長 鈴木 亨 先生 (筑波大学附属高等学校) にインタビュー.
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
サポートベクターマシン によるパターン認識
情報通信システム(13) plala. or 情報通信システム(13) 年7月24日 火曜日  午後4時10分~5時40分 NTT-TX Corp. 加藤 洋一.
高速剰余算アルゴリズムとそのハードウェア実装についての研究
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
3D散歩ゲーム 08A2043 谷口盛海 種田研究室.
アップデート 株式会社アプライド・マーケティング 大越 章司
米山研究室紹介 -システム制御工学研究室-
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
Vector 4 = [Vector 3, packet_size]
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
人工知能を動かしてみる(Keras を用いたニューラルネットワークの定義,コンパイル,学習,評価,予測)
ARMとIoT 株式会社アプライド・マーケティング 大越 章司
アップデート 株式会社アプライド・マーケティング 大越 章司
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
1-R-19 発話に不自由のある聴覚障害者の発話音声認識の検討
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
予測モデルの構築を簡単にすばやく! お客様の業務に AI 活用を支援 今だけ 機械学習最適モデリング ソリューション (ナレコム AI)
FPGA 株式会社アプライド・マーケティング 大越 章司
説明可能なAI(Explainable AI)
ARM 株式会社アプライド・マーケティング 大越 章司
Data Clustering: A Review
AIを用いたドローンの 新たな姿勢制御方法に関する研究
ディジタル信号処理 Digital Signal Processing
アップデート 株式会社アプライド・マーケティング 大越 章司
15K1117 下窪 聖人 15K1013 坂本 倖輝 15K1112 黒川 晶太 15K1015 関根 修斗
ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
Nightmare at Test Time: Robust Learning by Feature Deletion
量子コンピュータ 株式会社アプライド・マーケティング 大越 章司
実空間における関連本アウェアネス 支援システム
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
ARM、IoT、AI 株式会社アプライド・マーケティング 大越 章司
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
明星大学 情報学科 2012年度前期     情報技術Ⅰ   第1回
記憶の仕組みを知って 記憶力を上げよう!.
Introduction to Soft Computing
手書き文字の自動認識アプリケーション 15K1013 坂本 倖輝
香川大学工学部 富永浩之 知識工学1 第1-1章 人工知能と知識工学 香川大学工学部 富永浩之
情報の授業 アプリ等を活用した勉強方法の改善(計画) ・R-PDCAサイクル ・アプリを活用した勉強方法の改善 計画書
FPGA 株式会社アプライド・マーケティング 大越 章司
誤差逆伝播法による ニューラルネットワーク (BackPropagation Neural Network, BPNN)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
ARM 株式会社アプライド・マーケティング 大越 章司
説明可能なAI(Explainable AI:XAI)
ニューラルネットワークの仕組み (Raspberry PI 演習で学ぶ) AI DATA VASSEL 資料
ARM 株式会社アプライド・マーケティング 大越 章司
明星大学 情報学科 2014年度前期     情報技術Ⅰ   第1回
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
アップデート.
プログラミング入門 -「計算」に注目して考える-
Presentation transcript:

ニューラルネットワークの仕組み 株式会社アプライド・マーケティング 大越 章司 shoji@appliedmarketing.co.jp

Googleが雇用支援 https://www.nikkei.com/article/DGXMZO22276260U7A011C1EA5000/

GoogleはAIを「宣伝しすぎ」? https://www.ft.com/content/3173f19e-5fbc-11e4-8c27-00144feabdc0#axzz3HyN035tx https://linq.career-tasu.jp/magazine/career-larry-page/ https://lrandcom.com/automation

「現時点において世の中には本物のAIと呼べるものは存在しない」 しかし、そういったAI万能のイメージに異を唱える論調も出てきました。ガートナーも2016年12月に『人工知能 (AI) に関する10の「よくある誤解」』を発表しました。 https://www.gartner.co.jp/press/html/pr20161222-01.html この中にもあるように、これらのことはAI研究者の間では常識といっていいものでした。「よくわからないもの」を恐れるのは、未開人が飛行機を恐れるのと根本はあまり変わりません。 AIの真の姿を知れば、恐れるべきこと、恐れなくて良いことがわかるでしょう。 「現時点において世の中には本物のAIと呼べるものは存在しない」

今日は、AIの基本的な仕組みであるニューラルネットワークが、どのような仕組みで動いているかをご紹介しましょう。 ニューラルネットワークとその発展形であるディープニューラルネットワークは、現在でも進化を続けていますが、基本的な仕組みはあまり変わっていません。 それは、生物の脳の仕組みを模倣したモデルを使うもので 多くの研究者は、現在の仕組みの延長線上には、人間を置き換えるようなAIは生まれないと考えています。しかし、それでも大きなブレークスルーであることは確実で、適用分野は多岐にわたります。ニューラルネットワークの仕組みを知ることで、その可能性を限界を知ることができ、過度に恐れることも、侮ることも無く、有効な利用法を考えることができます。 #もちろん、AI研究はものすごい速度で進んでおり、ニューラルネットワークに代わるテクノロジーが何時出てくるかはわかりませんし、今現在、どこかでそのような研究がされている可能性も十分あります。AIの進化に警鐘を鳴らす人は、こちらの進化を心配しているということもできます。 ニューラルネットワークの仕組み 5

人間の脳を模倣したニューラルネットワーク 人間の神経細胞 (ニューロン) 脳の学習 刺激1 刺激2 同じ刺激を繰り返し与えることでニューロンの回路を形成する ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン NNの学習 人間の脳のメカニズムはまだまだ謎が多いのですが、脳が多数のニューロン(神経細胞)の集まりであることは早くからわかっていました。 脳に刺激(視覚や聴覚など)を与えると、ニューロンが刺激されて他のニューロンに信号を伝えます。同じ刺激を繰り返し与えると、同じ経路で信号が伝わるようになります。これが学習による記憶のメカニズムと考えられています。 これをコンピュータ上でシミュレートしようとしたのがニューラルネットワークです。ニューロンとそれらの繋がりをモデル化し、接続に重みを付けることで、回路として機能させようとするものです。 ニューラルネットワークの歴史は古く、1943年に最初のモデルが考案されたといわれています。現在のニューラルネットワークの原型は1958年に発表されたパーセプトロンです。これは、生物の(画像)認知のメカニズムを参考にしており、画像認識や音声認識などに向いているとされています。 刺激1 望みの結果を得られるよう、接続の重み付けと関数を調整し、最適化する 刺激2

ニューラルネットワークを進化させたディープニューラルネットワーク 人間の神経細胞(ニューロン) ニューラルネットワーク (NN) 単純パーセプトロン 多層パーセプトロン 隠れ層 3層ニューラルネットワークの隠れ層を増やし、より複雑な問題を解けるようにしたのがディープニューラルネットワーク 人間の脳をシミュレートして、考えるコンピュータを作ろうとするニューラルネットワークは、一時期研究が停滞していました。そもそも人間の脳のメカニズムそのものが、現在でもまだ完全に解明されたわけでは無いのです。しかしここ数年、このアプローチが改めて注目を集めています。ニューラルネットワークを進化させた、ディープラーニングが発表されたためです。 単純パーセプトロンでは複雑な問題をうまく扱えないことはすぐにわかり、間に「中間層」を入れて複雑な問題に対処できるようにした多層パーセプトロンが考案されましたが、接続の数が多くなり、計算量も増え、重み付けの調整が人間の手には負えない状況になります。ニューラルネットワークに大量のデータを与え、自分で重み付けを調整(=学習)させる機械学習の研究もこの頃始まっています。 1979年、中間層をさらに増やした階層型神経回路モデルが日本の研究者(福島邦彦のネオコグニトロン)によって考案されましたが、さらに計算量が膨大になること、多階層時の機械学習がうまく進まないなどの問題があり、実用化に至りませんでした。これが後に見直され、新しいアルゴリズムが考案されるなどして、現在のディープニューラルネットワークに繋がりました。 http://itpro.nikkeibp.co.jp/atcl/column/14/090100053/091800010/?ST=bigdata&P=5 ディープニューラルネットワーク 層を増やせば良いことは早くから知られていたが、コンピューティングパワーなどの問題で実現できなかった

多層ニューラルネットワーク (DNN) この、隠れ層をどんどん増やすことで、精度が上がりますが、逆に計算は大変になります。階層を増やすと、答えが収束しないという問題も出てきます。 層の数やニューロンの数をどうするかも様々です。多ければ良いというものでもありませんし、計算負荷との兼ね合いも重要です。 http://s0sem0y.hatenablog.com/entry/2016/11/13/035443 http://www.madopro.net/entry/2016/08/17/214634

φ Σ 各ニューロンでの計算 重み付け 評価関数に された入力 従って出力 入力の総和 評価関数 ニューラルネットワークの学習 ニューラルネットワークは、計算量は膨大になりますが、計算そのものはそれほど複雑ではありません。 各ニューロンの中でどのような計算が行われているかを図示したものです。基本的には重み付けされた入力を足し算し、評価関数を適用し、一定の閾値を越えていればニューロンが発火し、次段へ出力する、という単純なものです。評価関数は様々なものがあり、どれを使うかは目的やデータによって変わります。どれがうまく適合するかを探るのも研究の一部です。 ニューロンが多くなり、中間層が増えると、接続数が爆発的に多くなります。これらを調整して最適なネットワークを作るのが学習ですが、それには莫大な計算が必要になります。 http://qiita.com/Ugo-Nama/items/04814a13c9ea84978a4c 評価関数 logistic, softmax hyperbolic tangent ReLU など ニューラルネットワークの学習 適切な評価関数の選定と重み付けの調整

猫と犬を見分けるDNN ニューラルネットワークの学習は、評価関数の選択、閾値の調整とニューロン間の接続の重みを変えることで行います。 例えば、猫の画像を読み込ませたときに、上のニューロンに出力が出るように重みを調節します。これは、重みを調整して画像を読み込ませ、結果が悪ければ調整をし直し、良ければ次の画像を読み込ませるという作業になり、膨大な計算を繰り返し行う必要があります。 様々な猫を読み込ませたときにも上のニューロンに出力がでれば、このネットワークは猫を識別できると言うことになります。 このネットワークは入力が4つですが、画像の場合、100ピクセルx100ピクセルの場合でも入力が10,000になります。計算量が増えるのもおわかり頂けるでしょう。

猫と犬を見分けるDNN 猫を識別できるようになったら、犬を読み込ませます。 犬の画像を読み込ませたときに下のニューロンに出力が出るよう調整します。これも繰り返し行います。 犬を識別できるようになったら、今度は猫と犬をランダムに読み込ませて、きちんと識別できるかどうかを見、できなければまた調整の必要があります。

計算量が膨大 DNNによる画像認識 手書き文字認識のサンプル 元画像を28x28に分割 =784ピクセル 現実に画像認識を行う場合、大きなデータを扱わなければなりません。 これはネットにあったアラビア数字の手書き文字認識の事例ですが、1文字あたり28x28ピクセルに分割しています。これだけで、入力は784ピクセルになります。 出力は0~9の10個ですが、中間層を入れると、ものすごい数の接続を処理しなければならないことがわかります。(図では入力がかなり省略されています) http://nnadl-ja.github.io/nnadl_site_ja/chap1.html 中間層を増やすと、どんどん接続数が増え、計算量が幾何級数的に増えていくのがおわかり頂けると思います。ディープニューラルネットワークは計算負荷が膨大なのです。 重みを微調整してデータを入力し、望みの結果が得られなければ、さらに重みを調整してデータを入力・・といったことを延々と繰り返す必要があります。 これを人間が行うのは不可能です。ニューラルネットワークにデータを読み込ませ、自分で学習させる機械学習が必要になったのはこういった理由からです。 クラウドやGPUが使われるようになって、計算能力は飛躍的に向上していますが、それでも到底追いつきません。そこで学習を効率化させるために、様々なアルゴリズムや手法が用いられています。バックプロパゲーション、スパースコーディング、コンボリューショナルニューラルネットワークなどはその成果ですが、ニューロン間の重みを調整するという基本的な仕組みは変わっていません。 ただ、計算量が膨大になるのは学習の局面であって、できあがったDNNにデータを流し込んで結果を得るための処理はずっと少なくて済みます。画像認識用のDNNを自動車側に搭載、ということは十分可能なわけです。 中間層が2層以上の ディープニューラル ネットワーク 100x100の画像であれば、 入力は10,000!!

GPUは何故ディープラーニングに使われるのか 1チップに3,000個以上の演算器 クラウドによって大量のサーバーを並列処理させることが可能になり、サーバーに搭載されているCPU自身もマルチコア化されて、従来よりも並列処理環境が安価に実現できるようになっていますが、それでも処理能力はまったく足りません。そこで注目されたのが、GPUです。 http://videocardz.net/nvidia-tesla-p100/ GPUは3次元グラフィックスを高速化するための専用プロセッサですが、現在最大のものは1チップに3000個以上の演算器を集積してます。これは複雑な形状を持つ3次元モデルを高速に座標変換し、描画するために使われるものですが、これらの処理をプログラムし直すことでニューラルネットワーク処理に応用できることがわかったのです。 http://www.gdep.jp/page/view/248

DNNの種類 主に 画像認識 主に 機械翻訳 音声認識 自然言語処理 CNN (Convolutional Neural Network): 畳み込みニューラルネットワーク 主に 画像認識 RNN (Recurrent Neural Network): 再帰型ニューラルネットワーク LSTM (Long Short-Term Memory): 長・短期記憶ユニット https://www.linkedin.com/pulse/cnn-rnn-giants-deep-learning-shamane-siriwardhana/ http://gagbot.net/machine-learning/ml4 主に 機械翻訳 音声認識 自然言語処理

DNN用プロセッサ サーバー向け(学習・推論) クライアント向け(推論中心) IBM TrueNorth ニューロモーフィングチップ Google TPU Google Cloud TPU Apple A11 (スマホ向け) Nvidia/AMD (GPU) Huawei Kirin (スマホ向け) Intel Nervana ARM DynamIQ

深層学習はなぜうまくいくのか? 機械学習のポイントは、プログラムした本人が思ってもみなかった出力が出るところ。そこが今までのプログラムと違うところ。 理論研究の方向性は2つ。なぜうまくいくのかわかっていない深層学習の原理の解明と、現在の深層学習では難しい難題解決である。 http://pc.watch.impress.co.jp/docs/column/ai_nyumon/1051781.html

https://japan.zdnet.com/article/35107528/

ニューラルネットワークの現状 仕組みは単純で、やっている計算も簡単 基本的な考え方・仕組みは60年前から変わっていない 計算量が膨大 (特に学習時) 何故その結果が出たのか、人間にはわからない (デバッグできない) アルゴリズムは安定してきたので、今後はHW化による 処理速度の向上が焦点