計算機科学概論(応用編) 人工知能のこれまでとこれから

Slides:



Advertisements
Similar presentations
組合せ最適化輪講 2.3 連結性 川原 純. 2.3 連結性 内容 – グラフ上の節点をすべてたどるアルゴリズム 計算機上でのグラフの表現 – 強連結成分を求めるアルゴリズム トポロジカル順序を求める方法も – k- 連結、 k- 辺連結について – 2- 連結グラフの耳分解について.
Advertisements

©2008 Ikuo Tahara探索 状態空間と探索木 基本的な探索アルゴリズム 横形探索と縦形探索 評価関数を利用した探索アルゴリズム 分岐限定法 山登り法 最良優先探索 A ( A* )アルゴリズム.
人工知能 ( Artificial Intelligence ) 状態空間表現と探索 State Space Representation and Search Lecture 2 田中美栄子.
1 線形代数学. 2 履修にあたって 電子情報システム学科 必修 2005 年度1セメスタ開講 担当 草苅良至 (電子情報システム学科) 教官室: G I 511 内線: 2095 質問等は上記のいずれかに行なうこと。 注意計算用のノートを準備すること。
「わかりやすいパターン認識」 第1章:パターン認識とは
近似アルゴリズム 第10章 終了時刻最小化スケジューリング
情報学類 吉田光男 アドバイザー教官: 山本幹雄 先生
    有限幾何学        第8回.
ファジィ論理と ファジィ構造モデリング 北海道工業大学 情報デザイン学科 三田村 保.
データ構造と アルゴリズム 理工学部 情報システム工学科 新田直也.
5.チューリングマシンと計算.
5.チューリングマシンと計算.
授業展開#11 コンピュータは 何ができるか、できないか.
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
人 工 知 能 第3回 探索法 (教科書21ページ~30ページ)
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
Bias2 - Variance - Noise 分解
人工知能特論2011 資料No.6 東京工科大学大学院 担当教員 亀田弘之.
15パズルの解法について 北海道情報大学 情報メディア学部 情報メディア学科 新井山ゼミ  大石 貴弘.
クロスワードゲームの 作り方を学ぼう/やってみよう ‐ボードゲームの動作機構‐
データ構造と アルゴリズム 第二回 知能情報学部 新田直也.
Semantics with Applications
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
データ構造と アルゴリズム 知能情報学部 新田直也.
協調機械システム論 (04.11, 04,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
第11講: 平成18年12月 8日 (金) 4限 E352教室 グラフ (1).
第4章 空間解析 2.ネットワーク分析 (3) ネットワーク構造分析
s a b f c e d 2016年度 有限幾何学 期末試験 問1:15点
人工知能特論2007 東京工科大学 亀田弘之.
プログラミング基礎a 第8回 プログラムの設計 アルゴリズムとデータ構造
データ構造とアルゴリズム論 第8章 再帰処理 平成15年12月2日 森田 彦.
パターン認識とニューラルネットワーク 栗田多喜夫 2018/11/8 早稲田大学大学院理工学研究科講義.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
第25章 単一始点最短路 3節 Bellman-Fordのアルゴリズム
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
佐藤のゲーム とその仲間たち (完全可解ゲームの話) 関西学院大学  川中 宣明 数理科学研究センター談話会    2011年6月29日.
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
モデルの逆解析 明治大学 理工学部 応用化学科 データ化学工学研究室 金子 弘昌.
只見町 インターネット・エコミュージアムの「キーワード」検索の改善
人工知能概論 第2回 探索(1) 状態空間モデル,基本的な探索
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
社会シミュレーションのための モデル作成環境
データ構造と アルゴリズム 第七回 知能情報学部 新田直也.
Data Clustering: A Review
プログラミング基礎a 第8回 プログラムの設計 アルゴリズムとデータ構造
計算機科学概論(応用編) 数理論理学を用いた自動証明
(1)序論 人工知能とは 歴史 方法論 人工知能の基礎 問題解決 探索 推論 知識.
知能情報システム特論 Introduction
東京工科大学 コンピュータサイエンス学部 亀田弘之
「データ学習アルゴリズム」 第3章 複雑な学習モデル 報告者 佐々木 稔 2003年6月25日 3.1 関数近似モデル
Introduction to Soft Computing
文法と言語 ー文脈自由文法とLR構文解析ー
5.チューリングマシンと計算.
Max Cut and the Smallest Eigenvalue 論文紹介
基本情報技術概論(第5回) 埼玉大学 理工学研究科 堀山 貴史
人工知能特論II 第8回 二宮 崇.
東京工科大学 コンピュータサイエンス学部 亀田弘之
香川大学工学部 富永浩之 知識工学1 第1-1章 人工知能と知識工学 香川大学工学部 富永浩之
2009/11/27 グラフ (1) 第9講: 平成21年11月27日 (金) 4限 E252教室 コンピュータアルゴリズム.
計算の理論 I -講義について+αー 月曜3校時 大月美佳 平成31年5月18日 佐賀大学理工学部知能情報システム学科.
4.プッシュダウンオートマトンと 文脈自由文法の等価性
計算の理論 I NFAとDFAの等価性 火曜3校時 大月 美佳 平成16年5月18日 佐賀大学理工学部知能情報システム学科.
コストのついたグラフの探索 分枝限定法 A*アルゴリズム.
計算の理論 I 反復補題 火曜3校時 大月 美佳 平成16年7月13日 佐賀大学知能情報システム学科.
コンパイラ 2012年10月11日
Q q 情報セキュリティ 第8回:2004年5月28日(金) の補足 q q.
情報数理Ⅱ 第10章 オートマトン 平成28年12月21日.
計算の理論 I -講義について+αー 火曜3校時 大月美佳 平成31年8月23日 佐賀大学理工学部知能情報システム学科.
Q q 情報セキュリティ 第7回:2005年5月27日(金) q q.
アルゴリズム ~すべてのプログラムの基礎~.
Presentation transcript:

計算機科学概論(応用編) 人工知能のこれまでとこれから 計算機科学概論(応用編) 人工知能のこれまでとこれから 山本章博 情報学研究科 知能情報学専攻     (工学部 情報学科)    

今日の内容 人工知能研究の誕生 探索を基本にした人工知能 3目並べ 迷路 神経回路シミュレーションと人工知能 これからの人工知能

人工知能とは(1) 用語“人工知能(artificial intelligence)” 1956年 ダートマス大学で 関連研究者が会議を開催 “人間の知能機能はいかに してコンピュータによって シミュレートできるか?” 言語理解 チェスなどのゲーム 神経回路(ニューラ ルネット),自己学習 前年:数学の定理証明プログラム 1956年当時のコンピュータの様子

人工知能とは(2) 原義:人間の知能機能をシミュレートするプログラムを造る コンピュータに人間とオセロを対戦させるようなプログラム コンピュータがことばを理解させるプログラムを造る ことばの理解をシミュレートことにより,逆にことばの理解プロセスをさぐる

探索を基本にした人工知能

ゲームの例: 3目並べ 正方形状に配置された9マスからなる盤に 2人のプレーヤーが交互に石(○と×)を置いていき,自分の石が縦,横,対角線のいずれか3個1列に並べることができれば勝ち.

状態空間表現(1) 石が置かれているマスの位置の集合の組 (W, B)で W , B Ì {1,2,…,9} W Ç B = Æ 3 4 5 6 7 8 9 石が置かれているマスの位置の集合の組 (W, B)で  W , B Ì {1,2,…,9} W Ç B = Æ を満たすもの 例 ({1, 6}, {5, 9}), ({1,6,7},{5,9}) 集合は状態空間表現の一手段 他にも表現方法は考えられる ○ × ○ ×

状態空間表現(2) “起こり得ない”状態もある. 例 ({1, 3, 4, 6}, {5, 9}) “起こる”とは何かを定義しておく必要がる 7 8 9 “起こり得ない”状態もある.  例 ({1, 3, 4, 6}, {5, 9}) ({1,6,7},{2, 3, 5,9}) “起こる”とは何かを定義しておく必要がる ○ × ○ ×

状態空間表現(3) 状態遷移 |W | = |B| ならば W に要素を1個追加 |W | > |B| ならば Bに要素を1個追加 1 2 3 4 5 6 7 8 9 状態空間表現(3) 状態遷移 |W | = |B| ならば W に要素を1個追加 |W | > |B| ならば    Bに要素を1個追加 (それ以外 W に要素を1個追加) ○ × ({1, 6}, {5, 9}) ○ × ○ × … ({1,6,7}, {5, 9}) ({1,3,6,7}, {5, 9})

状態空間表現(4) 初期状態 (Æ , Æ ) 終了状態 1 2 3 4 5 6 7 8 9 初期状態 (Æ , Æ ) 終了状態 W, Bのいずれか一方だけが, 下のFの要素をちょうど1つを含むとき(目標状態)または, W, Bの両方がFの要素を含まず W È B = {1,2,…,9}のとき F = {{1,2,3},{4,5,6},{7,8,9},    {1,4,7},{2,5,8}, {3,6,9}    {1,5,9},{3,5,7}} ○ × ○ ×

性質(1) 初期状態から状態遷移を繰り返すとき,ループは生じない 初期状態から状態遷移を繰り返すとき,到達する状態では必ず ループ: “千日手” 初期状態から状態遷移を繰り返すとき,到達する状態では必ず |W | = |B| または |W | = |B| + 1 “起こり得る状態”の定義 ○ ○ … …

性質(2) 初期状態から状態遷移を繰り返すとき,有限時間で必ず終了状態に到達する

MIN-MAX法(1) ○ 2 3 × 8 ○ 3 × 8 ○ 2 × 8 ○ 2 3 × ○ × 8 ○ 3 × ○ × 8 ○ 2 ×

MIN-MAX法(2) 0 -1 0 -1 0 1 ○ 2 3 × 8 ○ 3 × 8 ○ 2 × 8 ○ 2 3 × ○ × 8 ○ 3 0 -1 0 -1 0 1

MIN-MAX法(3) 子の 最小値 -1 -1 0 -1 0 -1 0 1 ○ 2 3 × 8 ○ 3 × 8 ○ 2 × 8 ○ 2 3 -1 ○ × 8 ○ 3 × ○ × 8 ○ 2 × ○ × 3 ○ 2 × 0 -1 0 -1 0 1

MIN-MAX法(3) 子の 最大値 子の 最小値 -1 -1 0 -1 0 -1 0 1 ○ 2 3 × 8 ○ 3 × 8 ○ 2 × ○ 3 × 8 ○ 2 × 8 ○ 2 3 × 子の 最小値 -1 -1 ○ × 8 ○ 3 × ○ × 8 ○ 2 × ○ × 3 ○ 2 × 0 -1 0 -1 0 1

迷路の例 エージェントが入口から出口まで通り抜ける ○

単純な状態空間と探索 状態: エージェントがいるマスの位置で表す 遷移:エージェントが 移動できるマス 初期状態から終了状態 への経路は存在する ループができてしまう 1 2 3 4 5 6 7 8 9 ○ ○    ○

ループの回避(1) 進んできた経路を記録する 次に進むべきマスの位置を記録する 失敗したら,後戻りする ○ ○    ○

ループの回避(2) 次に進むべきマスの位置の記録方法によって探索が変化する    ○ ○ ○       ○ ○    ○

深さ優先探索 次に進むべきマスを スタックに記録する スタック:対象の列で,後に入れた対象を先に取り出す 1 2 3 4 5 6 7 8 9 ○ 深さ優先探索 次に進むべきマスを スタックに記録する スタック:対象の列で,後に入れた対象を先に取り出す 進めるだけ先に進み,失敗したら,直近の分岐点からやりなおす ○ P={7, 4} S= 1,5 ○ ○ P={7, 4, 1} S= 5 P={7, 4, 1, 5} S= 2,6,8 ○ ○ ○ P={7,4,1,5,2} S= 6,8 P={7,4,1,5,2,6, 3,8} S= 9 P={7,4,1,5,2,6} S= 3,8

幅優先探索 次に進むべきマスをキュー (待ち行列,queue)に記録する キュー:対象の列で,先に入れた対象を先に取り出す 1 2 3 4 5 6 7 8 9 ○ 幅優先探索 次に進むべきマスをキュー (待ち行列,queue)に記録する キュー:対象の列で,先に入れた対象を先に取り出す 各状態に到達した時点で,すでに(最適な)経路が見つかっている ○ P={7, 4} Q= 1,5 ○ ○ P={7, 4, 1} Q= 5 P={7, 4, 1, 5} Q= 2,6,8 ○ ○ ○ P={7,4,1,5,2} Q= 6,8 P={7,4,1,5,2,6, 3,8} Q= 3,9 P={7,4,1,5,2,6} S= 8,3

神経回路のシミュレーション

人工知能を研究すること 異なるアプローチ 異なる目的 知的行為をシミュレートする 知能を持つ機械を実現する (人間の)知性の理解したい (人間より)大量に,速く,正確な実行 計算機科学の基礎

形式ニューロン 神経細胞(ニューロン) 形式ニューロン z = H(Sk=1n wk xk - q ) 樹状突起(dendrite)で刺激受け, 軸索終末(axon terminal)から他を刺激する 形式ニューロン z = H(Sk=1n wk xk - q ) ただし H(u) = 1 if u > 0  0 otherwise Wikipediaより x1 w1 x2 w2 w3 x3 q z … wn xn

Perceptron[Rosenblatt] 形式ニューロンを3層に組合せることにより,画像を学習識別させる S層は網膜に相当し,外部からの入力のみ S層-A層間の重みwiはランダムに設定し,固定する. 中野他:ニューロコンピュータの基礎

A B 学習方法(1) 画像を入力する(入力信号)と同時に, その画像が, 提示者の意図している性質を持っているか(yes)か持っていない(no)かも信号(教師信号)として与える 例 文字Aを意図している場合, 入力 教師信号 yes no A B

学習方法(2) Perceptronの出力と教師信号の組合せによって,過重 wi を変更する 変更方法によって学習過程が変わってくる 出力と教師信号一致していれば,何もしない. 一致いていなければ,過重 wi を一致する方向にrだけ変更する

パーセプトロンの分析 データを分離する線形識別関数 パーセプトロン学習アルゴリズム (視覚)神経を模倣した機構として考案 線形識別関数をデータから構成する 線形分離可能であれば,必ず求められる データを読み込むたびに識別が正確になっていくので“機械学習”の一種とみなされる 線形分離可能 線形分離不可能

パーセプトロン学習(1) 簡単のため, 2クラスの分類を考える 問題の定式化 Rnの有限部分集合 C, D ( CÇD = Æ)が与えられたとき,直線 px + c = 0 で以下を満たすものを求めよ xÎ C Þ (w, x) + c > 0 xÎ D Þ (w, x) + c < 0 定数項cも求めなければならないのだから, データ x を (x, 1) とみなして, 求める直線を (w, x) = 0 としておく.

パーセプトロン学習(2) 1.与えられたデータを x1, x2, …, xN とする. 2. w を適当な初期値設定する. 3. n = 1,2,…, N に対して順に以下を行う もし xn Î C かつ (w, xn) < 0 であれば    w を w + r x に置き換える xn Î D かつ (w, xn) > 0     w を w - r x に置き換える それ以外は何もしない 4. n = 1,2,…, N に対して xn Î C かつ (w, xn) < 0 またはxn Î D かつ (w, xn) > 0 を満たすものがなければ終了. そうでなけば3へもどる.

パーセプトロンの例

これまでの人工知能研究 これからの人工知能研究

人工知能とは “人工知能”の意味するところは,研究と技術の進展とともに変化している. 人工知能学会のホームページ “What’s AI” http://www.ai-gakkai.or.jp/jsai/whatsai/ “推論” と “学習”は人工知能研究の代表

日常化した”機械学習” かな漢字変換における“学習” かな(ローマ字)綴りを入力 ユーザは意図された漢字かどうかを示す信号を与える 変換システムの出力と教師信号が 一致していれば,何もしない. 一致いていなければ,漢字の優先度を変更する 1回目 あきひろ 彰浩 no n回目 あきひろ 章博

抽象化した学習のモデル 教師 学習機械 概念Hに関する 例示 推測 データ h1, h2, h3,… d1, d2, d3,…  推測 h1, h2, h3,… データ d1, d2, d3,… 学習機械 例からを仮説を導出する アルゴリズム

頻出アイテム集合 TID Transaction 1 {a, c, d} 2 {a, b, e, f} 3 {a, b, c, e} 4 C1 = {{a}, {b}, …, {f}} TID Transaction 1 {a, c, d} 2 {a, b, e, f} 3 {a, b, c, e} 4 {b, c} L1 = {{a},{b},{c},{e}} C2 = {{a, b}, {a, c}, {a, e}, {b, c}, {b, e}, {c, e}} L2 = {{a, b}, {a, c}, {a, e}, {b, c}, {b, e}} s = 0.5 C3 = {{a, b, c}, {a, b, e}} L3 = {{a, b, e}} C4 = Æ

数学の歩んだ道 有向線分 公理化(抽象化) ベクトル a+b = b+a a+ (b+c) = (a+b)+c  公理化(抽象化) ベクトル a+b = b+a a+ (b+c) = (a+b)+c k(a+b) = ka+kb …                  具体化 解析 f (q) = a sinq + b cos q + c

自然言語処理+機械学習 自然言語処理をより正確にするために機械学習を用いる 機械学習のデータとして自然言語処理の結果を利用する 文を単語(形態素)へ分解 構文の推定 機械学習のデータとして自然言語処理の結果を利用する 単語の共起関係分析   Web Intelligence へ

人工知能学事典(2005, 共立出版) ヒューマン・インタフェース 人工知能基礎, エージェント Webインテリジェンス ロボティクス 知識発見・データマイニング ソフトコンピューティング AI応用(人工知能の産業応用,ナレッジマネジメント,バイオロジー,教育支援,ゲーム) 人工知能基礎, 知の基礎科学(哲学, 心理学,認知科学,脳科学) 知識表現・論理・推論 知識モデリング 機械学習 進化・創発 自然言語処理 画像・音声メディア

人工知能学事典(2005, 共立出版) 相互 集合・社会 身体 ヒューマン・インタフェース 人工知能基礎, エージェント Webインテリジェンス ロボティクス 知識発見・データマイニング ソフトコンピューティング AI応用(人工知能の産業応用,ナレッジマネジメント,バイオロジー,教育支援,ゲーム) 人工知能基礎, 知の基礎科学(哲学, 心理学,認知科学,脳科学) 知識表現・論理・推論 知識モデリング 機械学習 進化・創発 自然言語処理 画像・音声メディア

“計算”も“人工知能”であった ダグラス・ホフスタッター: ゲーデル,エッシャー,バッハ-あるいは不思議の環-, 白揚社 D. R. Hofstadter: Goedel, Escher, Bach   -an Eternal Golden Braid-