1 再帰型神経回路網による 単語クラスタリングに関する研 究 兵藤 大輔 2002 / 2 / 18 北陸先端科学技術大学院大学 知識科学研究科 知識システム構築論講 座.

Slides:



Advertisements
Similar presentations
1 プリミティブ Web サービスの 入出力データに関する一考察 2005 年 3 月 21 日 松江工業高等専門学校 情報工学科 奈良先端科学技術大学院大学 情報科学研究科 越田高志 電子情報通信学会 2005年総合 大会.
Advertisements

1 安全性の高いセッション管理方 式 の Servlet への導入 東京工業大学 理学部 千葉研究室所属 99-2270-6 松沼 正浩.
音声翻訳における機械翻訳・音声合成の 性能評価および分析 ☆橋本佳 ,山岸順一 , William Byrne , Simon King ,徳田恵一 名工大 University of Edinburgh Cambridge University
和田俊和 資料保存場所 /2/26 文法と言語 ー正規表現とオートマトンー 和田俊和 資料保存場所
大規模コーパスから獲得した 名詞の出現パターンを用いた 事態名詞の項構造解析
白井ゼミ 豊田秀樹(2008)『データマイニング入門』 (東京図書)。4章
区間グラフにおける区間表現からMPQ-treeを効率よく構成するアルゴリズム
自然言語処理:第3回 1.前回の確認 2.構文解析 3.格文法.
最大エントロピーモデルに基づく形態素解析と辞書による影響
「わかりやすいパターン認識」 第1章:パターン認識とは
第12回 順序回路の解析方法 瀬戸 順序回路から,以下を導き、解析を行えるようにする タイムチャート 状態遷移関数・出力関数 状態遷移表
Deep learningによる 読唇システム
国内線で新千歳空港を利用している航空会社はどこですか?
言語体系とコンピュータ 第6回.
圧縮類似度を用いた方言の自動分類 ~ライス符号を用いた前処理~ ~連結クラスタリング法~ ~余弦類似度を用いた方言分類木の評価~
ソシオン理論における 三者関係のシミュレーション
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
上坂吉則 尾関和彦 文一総合出版 宮崎大輔2003年6月28日(土)
先端論文紹介ゼミ Role-based Context-specific Multiagent Q-learning
<研修資料>研修後の具体的な取組の事例紹介 <クラスの実態に合わせて個々の学級担任が取り組んだ例>
TextonBoost:Joint Appearance, Shape and Context Modeling for Multi-Class Object Recognition and Segmentation 伊原有仁.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
音韻論⑤ ----.
プログラム実行履歴を用いたトランザクションファンクション抽出手法
オントロジーを使用した プログラム開発支援システムの提案
協調機械システム論 ( ,本郷) 協調機械システム論 東京大学 人工物工学研究センター 淺間 一.
識別子の命名支援を目的とした動詞-目的語関係の辞書構築
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
6.2.4 辞書項目(1) 辞書項目にも、語に対するDAGを与える。
卒業研究中間発表 社会情報システム学講座 高橋義昭.
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
人工知能特論 9.パーセプトロン 北陸先端科学技術大学院大学 鶴岡 慶雅.
あらまし アンサンブル学習の大きな特徴として,多数決などで生徒を組み合わせることにより,単一の生徒では表現できない入出力関係を実現できることがあげられる.その意味で,教師が生徒のモデル空間内にない場合のアンサンブル学習の解析は非常に興味深い.そこで本研究では,教師がコミティマシンであり生徒が単純パーセプトロンである場合のアンサンブル学習を統計力学的なオンライン学習の枠組みで議論する.メトロポリス法により汎化誤差を計算した結果,ヘブ学習ではすべての生徒は教師中間層の中央に漸近すること,パーセプトロン学習では
雑音環境下における 非負値行列因子分解を用いた声質変換
確率的学習アルゴリズムを用いた有限状態オートマトンの抽出に関する研究
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
巡回冗長検査CRC32の ハード/ソフト最適分割の検討
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
12. 意味・意図の解析 12.1 意味表現とは 12.2 規則による意味解析処理 12.3 統計的な意味解析処理 12.4 スマートフォンでの音声サービス ニューラルネットワークによる意味解析.
2018/9/10 ACL読み会 名古屋大学大学院 M2 佐藤・松崎研 土居裕典.
Data Clustering: A Review
顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識
アルゴリズム論 (第12回) 佐々木研(情報システム構築学講座) 講師 山田敬三
知識科学研究科 知識システム構築論講座 林研究室 佛明 智
東京工科大学 コンピュータサイエンス学部 亀田弘之
JAVAバイトコードにおける データ依存解析手法の提案と実装
B03 量子論理回路の 最適化に関する研究 西野哲朗,垂井淳,太田和夫,國廣昇 電気通信大学 情報通信工学科.
文法と言語 ー文脈自由文法とLR構文解析ー
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
ブースティングとキーワードフィルタリング によるシステム要求検出
第9章 学習アルゴリズムとベイズ決定側 〔3〕最小2乗法とベイズ決定側 発表:2003年7月4日 時田 陽一
構造的類似性を持つ半構造化文書における頻度分析
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
ガイダンス 電子計算機 電気工学科 山本昌志 1E
保守請負時を対象とした 労力見積のためのメトリクスの提案
パターン認識 ークラスタリングとEMアルゴリズムー 担当:和田 俊和 部屋 A513
明示的文法知識が 正確な言語使用に結びつかないケース 浦野 研(北海学園大学)
クローン検出ツールを用いた ソフトウェアシステムの類似度調査
メソッドの同時更新履歴を用いたクラスの機能別分類法
呂 雷寧 RO, Rainei (上海財経大学 外語学院・ 常勤講師)
わかりやすいパターン認識 第3章 誤差評価に基づく学習 3.3 誤差逆伝播法.
制約付き非負行列因子分解を用いた 音声特徴抽出の検討
シソーラス情報を用いた童話文章登場人物の 感情情報読み取りシステム
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
確率的フィルタリングを用いた アンサンブル学習の統計力学 三好 誠司 岡田 真人 神 戸 高 専 東 大, 理 研
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
グラフ-ベクトル変換を用いたグラフ構造表現による一般物体認識
Normalized Web Distanceを用いた音声認識の誤り訂正法 301-4in
雑音環境下における Sparse Coding声質変換 3-P-49d
教師がコミティマシンの場合のアンサンブル学習 三好 誠司(神戸高専) 原 一之(都立高専) 岡田 真人(東大,理研,さきがけ)
Presentation transcript:

1 再帰型神経回路網による 単語クラスタリングに関する研 究 兵藤 大輔 2002 / 2 / 18 北陸先端科学技術大学院大学 知識科学研究科 知識システム構築論講 座

2 本発表の流れ 1. 研究背景( Elman[1990]) 2. 問題提起と目的提示 3. 実験手法 4. 実験、結果 5. まとめ

3 see move smell sleep exit think break chase like eat smash dog cat mouse dragon lion monster man girl woman boy plate glass bread cookie sandwich rock book car 自動詞 自/他動詞 他動詞 生物 動物 人 無生物 食物 こわれる物 Elman[1990] の単語クラスタ

4 SRN ( Simple Recurrent Neural Network ) Output Units Hidden Units Context UnitsInput Units weight ステップ前の隠れ層の状態を文脈層に保持し、 時系列処理を可能にする

5 Elman[1990] の語系列予測課題 文の中の次に続く単語の予測 課題 教師信号は次に入力する単語 (例) “dog” “chase” “cat” 入力 “dog” ・・・・出力 “chase” 入力 “chase” ・・・・出力 “cat”

6 SRN に語系列予測課題を与え、隠れ層 の 活性化パターンによる単語の階層的クラスタを 構築した上で、意味の近さの階層構造ができた と主張 見かけ上構文情報のみの例文から、 単語の意味のようなものを SRN が獲得した [Elman,1990] Elman の単語クラスタリング

7 しかし・・・・本当に “ 意味 ” を学習し たの? 隠れ層状態は単に前の単語(文脈層)情報 を反映している “ だけ ” とも考えられる – 反映しているのは事実( ○ ) – 意味的特徴の学習(?) 意味的な概念は獲得していない? – 学習によるものと、文脈情報を直接使っている ものとの、切り分けが明らかになっていない 目的 Elman の主張 [1990] の妥当性を検証す る

8 定義 意味的・・・人・動物・食物とするよ うな範疇 文法的・・・我々が品詞とする名詞・ 動詞のような範疇

9 Elman[1990] の検証方法 単語の並び(語系列)だけを反映するよ うな他の手法を使い、間接的に検証 RAAM ( Recursive Auto-Associative Memory) [Pollak,1990]

10 RAAM で検証する理由 問題・・・ データ幅が同一でないと、うまく階層 構造 クラスタが作れない RAAM は可変長データを同一長データとして 隠れ層の内部表現を得られる

11 Recursive Auto-Associative Memory STACK cat 出力層 入力層 隠れ層 文脈情報 本研究ではここでの重み更新な し エンコード部で作られる圧縮表現の使 用 エンコード 部 ((Nil,dog),chase)

12 (1) RAAM 隠れ層表現のクラスタリング RAAM の隠れ層表現から、 Elman の結果 と同一のクラスタができるか検証する RAAM は前の単語列を単純に反映しているので、こ の実験の評価が良ければ、 Elman の単語クラスタは 前の単語列を反映しただけ であるといえ る。

13 (2) SRN の学習の可能性 SRN の入力層と隠れ層の間(入力層 側)に、 文脈層の影響を受けない層を追加する Elman の単語クラスタの成立要因のほとんどが文脈 情報であると言えた。しかし入力層側での学習が 行われている(行われ得る)ことは否定できない。

14 文脈層と結合のない隠れ層 Output Units HiddenUnitsA Context Units Input Units weight 1.0 HiddenUnitsB Elman のクラスタが できるのなら意味的 なものを学習してい る。

15 実験手順 1. RAAM の隠れ層表現から Elman[1990] の ようなクラスタリングを行う ー文脈情報を直接使うだけで単語クラスタが できることを示す 2. SRN に文脈層と結合のない隠れ層を追加 し、学習後、その層で階層的な単語クラ スタが 得られるかを検証する -学習を行っても入力層側では単語クラスタが 構築できないことを示す

16 例文生成のための規則 NOUN-HUMman,woman NOUN-FOODcookie,sandwich VERB-TRANsee,chase VERB-EATeat CategoryExample NOUN-HUM VERB-TRAN NOUN-HUM NOUN-HUM VERB-EAT NOUN-FOOD NOUN-ANIM VERB-AGPAT NOUN-INANIM ルール (全 16 ルー ル) [Elman1990]

17 入力データ・・ Local coding (man) …00 ・・ 31bits (chase) …00 (cat) …00 例 (dog),(chase),(cat) … … ….00 (dog),(chase),(cat) (man),(break),(glass) 単純な 2 単語、 3 単語の文

18 クラスタリング 入力単語に対応する隠れ層表現で階層的な 木を作る。 1.個々の単語に対応する隠れ層表現 (全ての文脈における表現の平均)の決定 2.それぞれの単語の表現について他の全ての 単語の表現とのユークリッド距離を測る 3.この距離を使って階層的なクラスタの木を 作る

19 追実験 平方距離 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep 1-10 第1語、 第3語 11-17 第3語 18-26 第2語

20 RAAM による単語クラスタ 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

21 結果(1) 文脈情報を直接使うだけで、 Elman が示し たような単語クラスタができる RAAM の隠れ層表現から Elman の示したような 単語クラスタができた。

22 隠れ層 A の表現から Output Units HiddenUnitsA Context Units Input Units weight 1.0 Hidden Units B

23 隠れ層 A (文脈層と結合) の単語クラス タ 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

24 隠れ層 B の表現から Output Units HiddenUnitsA Context Units Input Units weight 1.0 Hidden Units B

25 文脈依存なし隠れ層 B の単語クラス タ 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

26 文脈の無い入力による 隠れ層 A の表現から Output Units HiddenUnitsA Context Units Input Units weight 1.0 Hidden Units B

27 文脈無し隠れ層 A (文脈層と結合) の単語クラ スタ 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

28 結果(2) 学習を行っても文脈情報がない入力側に は単語クラスタは構築できなかった 文脈依存の無い層では単語クラスタは 構築できなかった

29 まとめ 文脈情報を直接使うだけで構築できる – 重みの更新のない RAAM でも構築できた 学習を行っても入力層側には構築できな い – 文脈依存のない層や文脈の無い入力では構 築できなかった Elman の示した単語クラスタ は・・・・ Elman が示したクラスタは SRN が文法的・ 意味的なものを獲得したとする根拠を持た ない

30 今後の課題 文法規則のどこまでが統計的処理(文脈情 報のみ)で表現できるかを調べる。 さらに長い文において統計的処理だけで 単語クラスタを表現できるのかを調べる 文例だけから学習できる「意味」が何かを明らかにするた めに

31 END

32

33 特徴的な3つのクラスタ RAAM ( ユニット 150 ) boy,girl,man,woman, mouse,cat,dog,lion, dragon,monster book, rock, sandwich, cookie, bread, plate, glass see,break,smash, eat, chase,smell,think, sleep RAAM ( ユニット 10 ) boy,girl,man,woman, mouse,cat,dog,lion, dragon,monster book, rock, sandwich, bread, glass see,break,smash, eat, chase,smell,think, sleep, cookie, plate 隠れ層 A boy,girl,man,woman, mouse,cat,dog,lion, dragon,monster book, rock, sandwich, cookie, bread, plate, glass see,break,smash, eat, chase,smell,think, sleep 隠れ層 B ・・・特徴的なクラスタなし 入力に文脈を持たせない場合の隠れ層 A ・・・特徴的なクラスタなし

34 文例だけから学習できる「意味」が 何であるのかを明らかにする 子供は言葉の意味を事物との対応で学習 大きくなると過去学習した単語の意味の組合わ せで、具体的な言葉や抽象的な言葉を学習して いく 我々の使っている言葉の多くにもそれは言 えるのではないだろうか? 文例だけでもある程度まではうまくいくのではな いか

35 RAAM による単語クラスタ( ユニット 数10 ) 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

36 学習無し SRN の単語クラスタ 平方距離 1-10 第1語、 第3語 11-17 第3語 18-26 第2語 boy girl woman cat dog man mouse see monster dragon book lion rock cookie sandwich bread plate glass break eat smash chase move think smell sleep

37 Baker のパラドックス( 1979 ) 子供の言語獲得 – 「このような文は文法的でない」という情 報がないのに、過剰に生成される文法的で ない文をそぎ落としている。 否定証拠欠如問題、そぎ落とし問題。

38 X NIL RAAM 出力層 中間層 入力層 ( NIL,X) ( NIL,X) NIL X Y TOP STACK2 TOP STACK1 エンコー ダ デコー ダ

39 例文 dog chase cat TOP STACK2 TOP STACK1 dog NIL chase cat (NIL,dog) dog (NIL,dog) NIL chase (NIL,dog) cat ((NIL,dog),chase) chase ((NIL,dog),chase) (NIL,dog) cat ((NIL,dog),chase) (((NIL,dog),chase),cat) cat (((NIL,dog),chase),cat) ((NIL,dog),chase)

40 例文 dog chase cat TOP STACK2 TOP’ STACK1 STACK1’ dog NIL chase cat (NIL,dog) dog (NIL,dog) NIL chase (NIL,dog) cat ((NIL,dog),chase) chase ((NIL,dog),chase) (NIL,dog) cat ((NIL,dog),chase) (((NIL,dog),chase),cat) cat (((NIL,dog),chase),cat) ((NIL,dog),chase) エンコー ダ デコー ダ

41 RAAM の隠れ層表現 隠れ層ユニット数を N とすると 入力 “dog” “chase” “cat” 1.(NIL,dog) ・・・・ N 次 元ベクトル 2.((NIL,dog),chase) ・・・・ N 次元 ベクトル 3.(((NIL,dog),chase),cat) ・・・・ N 次元ベク トル データ幅をそろえることができる