小町守(NAIST) 森信介(京大)・徳永拓之(PFI) 第一回入力メソッドワークショップ

Slides:



Advertisements
Similar presentations
言語情報を利用したテキストマイニ ング 奈良先端科学技術大学院大学 情報科学研究科 工藤 拓 山本 薫 坪井 裕太 松本 裕治.
Advertisements

小町守( NAIST ) 森信介(京大)・徳永拓之( PFI ) 情報処理学会 夏のプログラミング・シンポジウム 2008 年 9 月 7 越後湯沢.
音声翻訳における機械翻訳・音声合成の 性能評価および分析 ☆橋本佳 ,山岸順一 , William Byrne , Simon King ,徳田恵一 名工大 University of Edinburgh Cambridge University
大規模コーパスから獲得した 名詞の出現パターンを用いた 事態名詞の項構造解析
東京工科大学 コンピュータサイエンス学部 亀田弘之
自然言語処理:第3回 1.前回の確認 2.構文解析 3.格文法.
テキストデータベースからの 構文構造のマイニング
最大エントロピーモデルに基づく形態素解析と辞書による影響
人工知能特論 8.教師あり学習と教師なし学習
形態素周辺確率を用いた 分かち書きの一般化とその応用
言語モデル(200億文のGoogle日本語Nグラムから計算)
言語体系とコンピュータ 第5回.
国内線で新千歳空港を利用している航空会社はどこですか?
知識情報演習Ⅲ(後半第1回) 辻 慶太(水)
情報学類 吉田光男 アドバイザー教官: 山本幹雄 先生
JavaによるCAI学習ソフトウェアの開発
Software Freedom Day2012 野首貴嗣
奈良先端科学技術大学院大学 情報科学研究科 松本裕治
情報爆発A01支援班 マイサーチエンジン開発環境支援グループ 中村聡史, 大島裕明, 田中克己, 喜連川優
実験 関数・記号付き文型パターンを用いた機械翻訳の試作と評価 石上真理子 水田理夫 徳久雅人 村上仁一 池原悟 (鳥取大) ◎評価方法1
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
ことばとコンピュータ 2007年度1学期 第3回.
OSC京都 2016 おーぷん万葉プロジェクト 京橋 ひよわ
テキストマイニング, データマイニングと 社会活動のトレース
部分形態素解析を用いた コーパスの品詞体系変換
4Y-4 印象に残りやすい日本語パスワードの合成法
まずオープンソース開発者に対する支援から!
状況の制約を用いることにより認識誤りを改善 同時に野球実況中継の構造化
共同ローカリゼーション フレームワーク 井上 謙次.
PSOLA法を用いた極低ビットレート音声符号化に関する検討
東京工科大学 コンピュータサイエンス学部 亀田弘之
図書館ツール発想日記 ~「東京大学内のサイトから関連学術用語のデータを得る」(仮称)システムへの寄り道思考経路~
形態素解析および係り受け解析・主語を判別
DixChange プロジェクト ~辞書共通化の試み~
日本大学 文理学部 情報システム解析学科 谷研究室 益田真太郎
Semi-Supervised QA with Generative Domain-Adaptive Nets
動詞の共起パターンを用いた 動作性名詞の述語項構造解析
1 2 ワークスタイルを変えるOffice変革 クラウド導入をサポートする Microsoft CSPプログラムのご案内
プログラム実行履歴を用いたトランザクションファンクション抽出手法
自然言語処理及び実習 第11回 形態素解析.
大規模データによる未知語処理を統合した頑健な統計的仮名漢字変換
Office IME 2010 を使う.
識別子の命名支援を目的とした動詞-目的語関係の辞書構築
定兼邦彦 今井浩 東京大学理学系研究科 情報科学専攻
ChaIME: 大規模コーパスを 用いた統計的仮名漢字変換
東京大学OPAC Plus “言選Web” -関連学術用語による日本語文献情報への 簡易ナビゲーションシステム-
只見町 インターネット・エコミュージアムの「キーワード」検索の改善
大規模データによる未知語処理を統合したスケーラブルな仮名漢字変換
12. 意味・意図の解析 12.1 意味表現とは 12.2 規則による意味解析処理 12.3 統計的な意味解析処理 12.4 スマートフォンでの音声サービス ニューラルネットワークによる意味解析.
形態素解析ドライバモデルの実装と コーパスの品詞体系変換への応用
音声認識・翻訳 Android アプリケーション制作
テキストマイニング, データマイニングと 社会活動のトレース
物体検出による視覚補助システム T215085 若松大仁 白井研究室.
実空間における関連本アウェアネス 支援システム
東京工科大学 コンピュータサイエンス学部 亀田弘之
「アルゴリズムとプログラム」 結果を統計的に正しく判断 三学期 第7回 袖高の生徒ってどうよ調査(3)
AdaBoostを用いた システムへの問い合わせと雑談の判別
ブースティングとキーワードフィルタリング によるシステム要求検出
構造的類似性を持つ半構造化文書における頻度分析
大規模コーパスに基づく同義語・多義語処理
欠陥検出を目的とした類似コード検索法 吉田則裕,石尾隆,松下誠,井上克郎 大阪大学 大学院情報科学研究科
ソフトウェア理解支援を目的とした 辞書の作成法
Webページタイプによるクラスタ リングを用いた検索支援システム
形態素解析と構文解析 金子邦彦.
情報数理Ⅱ 第10章 オートマトン 平成28年12月21日.
自然言語処理2016 Natural Language Processing 2016
mi-8. 自然言語処理 人工知能を演習で学ぶシリーズ(8)
Normalized Web Distanceを用いた音声認識の誤り訂正法 301-4in
 タイピング  情報教育の効果を高めるために 慶應義塾大学 環境情報学部教授 大岩 元.
Presentation transcript:

小町守(NAIST) 森信介(京大)・徳永拓之(PFI) 第一回入力メソッドワークショップ 2008年12月28日(日)@京都大学 統計的かな漢字変換 ChaIME 小町守(NAIST) 森信介(京大)・徳永拓之(PFI) 第一回入力メソッドワークショップ 2008年12月28日(日)@京都大学

自己紹介:小町守 奈良先端科学技術大学院大学 インターン(共同研究)先: 自然言語処理学講座(松本研)D2 ChaSen, MeCab, Namazu の研究室 インターン(共同研究)先: NTT(3年前-今年), Microsoft Research(去年), Yahoo! Japan 研究所(今年-来年) (少し前まで)Gentoo Linux 開発者、東大 Fink チーム開発者 Id:mamoruk 「生駒日記」

かな漢字変換開発の動機 Webの拡大→ユーザ入力文書増大 新しくなって本当に使いづらい・・・前に戻してもらいたいです。慣れれなのかな〜 新語や新表現の変換はストレスフル 新しくなって本当に使いづらい・・・前に戻してもらいたいです。慣れれなのかな〜 どぅゃら、風邪をひぃてしまぃました。 頭重ぃし、鼻水がズールズル… でも仕事休めなぃしー カラダだるぃしー もぅ嫌ャーッ!!! ねぇよ こどもやばす wwwwwwwwww 天丼ww おいおい かあいいww ちょww...

かな漢字変換開発の背景 Web データを処理したいがタグつきデータ・辞書がな い(特にフリーで使えるもの) NAIST-jdic (旧 IPADic) Google日本語Nグラム 辞書やコーパスに正しく情報(品詞・単語境界)振るの は(一般の人には)難しい (できるだけ)品詞情報を用いないで処理したい 自然言語処理における文節とIMEにおける文節の違い(eg. 東京特許許可局)

統計的かな漢字変換開発の目的 大規模コーパスの利用 統計的な理屈づけ 品詞情報を用いない頑健なかな漢字変換 できるだけ人手をかけないでメンテナンス Google 日本語 N グラム Webコーパス5億文 Wikipedia・etc… 統計的な理屈づけ 品詞情報を用いない頑健なかな漢字変換 Web に出現する全単語を用いる→凝った未知語処理はしな い

ヒューリスティックなかな漢字変換 ルールによる変換 N文節最長一致法 接続コスト最小法 Canna 要言語学(国語学)的知識 必ずしも精度よく変換できるとはかぎらない N文節最長一致法 (昔の)ATOK, VJE, Wnn など 要人手によるパラメータチューニング 接続コスト最小法 WXG, (少し前までの)MS-IME など 要人手による辞書チューニング

接続コスト最小法 コストが一番低いパスを選ぶ →コストは辞書に書いてある(人手) に ワニ は に わ 鶏 二 わ に 歯 二 羽 庭 煮 入力: にわにはにわにわとりがいる。 に ワニ は に わ 鶏 100 10 10 15 10 10 30 40 30 40 二 わ に 歯 二 羽 庭 100 10 10 30 10 25 10 20 20 煮 羽 二 葉 120 煮 輪 に 10 10 20 20 10 15 20 20 85 10 50 10 似 輪 煮 刃 庭 二 30 20 20 35 20 10 20 庭 90 似 埴輪 似 40 70 20 30 80 30 コストが一番低いパスを選ぶ →コストは辞書に書いてある(人手)

× 統計的かな漢字変換 かな漢字モデル 言語モデル 森ら(1998)の提案 P(x|y) の降順に変換可能文字列 (x1, x2, …) を提 示する x: 文, y: 入力 MS-IME 2007, ATOK 2008が統計的手法を採用 かな漢字モデル × 言語モデル によるランキング

統計的接続コスト最小法 かな漢字モデル 言語モデル 接続コスト最小法の自然な拡張になっている に ワニ は に わ 鶏 二 わ に 歯 二 100 10 10 15 10 10 30 40 30 40 二 わ に 歯 二 羽 庭 100 10 10 30 10 25 10 20 20 煮 羽 二 葉 120 煮 輪 に 10 10 20 20 10 15 20 20 85 10 50 10 似 輪 煮 刃 庭 二 30 20 20 35 20 10 20 庭 90 似 埴輪 似 40 70 20 30 80 30 接続コスト最小法の自然な拡張になっている

確率的言語モデル 我が輩 は 猫 である 文頭 文末 文を単語列 と見なすngram言語モデ ル(i<1は文頭、i=h+1は文末) 日本語っぽい単語列の確率は高く、 日本語っぽくない単語列の確率は低く 文を単語列          と見なすngram言語モデ ル(i<1は文頭、i=h+1は文末) Google 日本語Nグラムデータ(200億文)から表記 の1-2グラムを計算して使用 異なり1グラム数:250万 異なり2グラム数:8,000万 我が輩 は 猫 である 文頭 文末

確率的かな漢字モデル 確率は読みが振られたコーパスから最尤推定 毎日新聞95年分1年に MeCab で分かち書き・読 みを付与して使用 出現する単語の読みは なんだったか推定するモデル 確率は読みが振られたコーパスから最尤推定 毎日新聞95年分1年に MeCab で分かち書き・読 みを付与して使用 コーパス 中の頻度 かつあき こくめい 克明 小野克明さん(43) 克明なやりとりが判明

規則ベースと統計的手法の比較 規則ベース 統計的手法 なにをやっているのかはっきり分かる 柔軟な前処理・後処理 問題が簡単なときは規則ベースで書き尽くすこともできる アドホックなヒューリスティック(要言語学的直観) 「必殺パラメータ」 統計的手法 数学的モデルに基づいた理論的根拠 変換規則や辞書に当たる知識を自動で学習(人手不要) なにやっているのかよく分からない コーパスに激しく依存 変化の微調整が難しい

デモ http://cl.naist.jp/~mamoru-k/chaime/

サンプル変換 ChaIME ATOK 2007 Anthy 9100c AjaxIME 請求書の支払日時 請求書の市は来日時 請求書の支払い日時 請求書の支払いに知事 近く市場調査を行う。 知覚し冗長さを行う。 その後サイト内で その五歳都内で その後再都内で 去年に比べ高い水準だ。 去年に比べた海水順だ。 去年に比べたかい水準だ。 昼イチまでに書類作っといて。 昼一までに書類津くっといて。 昼一までに書類作っといて。 肥留市までに書類作っといて。 そんな話信じっこないよね。 そんな話心十個内よね。 そんなはな視診時っこないよね。 そんな話神事っ子ないよね。 初めっからもってけばいいのに。 恥メッカら持って毛羽いいのに。 恥メッカ羅持ってケバ飯野に。 始っから持ってけば良いのに。 熱々の肉まんにぱくついた。 熱々の肉まん二泊着いた。 あつあつの肉まん2泊付いた。 熱熱の肉まんにぱくついた。

関連ソフトウェア(1) Anthy http://anthy.sourceforge.jp/ HMM → MEMM による識別モデル(の亜種) 文節分割された読みつきコーパスから学習 表記の素性を用いていない 文法体系が難しい(文節・品詞の判断) Social IME http://social-ime.com/ 複数人による辞書共有機能 アルゴリズムは Anthy と同じ

関連ソフトウェア(2) AjaxIME http://ajaxime.chasen.org/ MeCab-skkserv による連文節かな漢字変換 読みが振られたコーパスから変換コストを推定 コーパスが小さい・素性がスパース Sumibi http://www.sumibi.org/ 単語分かち書きによるかな漢字変換 生コーパスから連接コストを推定(言語モデル) 辞書にない単語の変換ができない 連文節変換ではない

まとめ 統計に基づくかな漢字変換エンジンを開発している 統計的かな漢字変換は、規則ベースに比べ、 Google 日本語 N グラム・新聞記事を用いた実装・デモを公 開中 ソースコードは Google Code にある(動かすには Google 日本語 N グラムかそれに相当するデータが必要) 統計的かな漢字変換は、規則ベースに比べ、 数学的根拠がある 大規模なデータから辞書・パラメータを自動推定できる なにをやっているのかよく分からない コーパスに依存する(「コーパスの品格」) 細かい調整ができない

問題点 単語2グラムでは出現しない単語の組み合わせも大 量にある →Exchange アルゴリズムを用いて単語クラスタリ ング クラスタリングによる精度向上 →モデルサイズの圧縮にもつながる →Exchange アルゴリズムを用いて単語クラスタリ ング

Exchange アルゴリズム 単語を尤度最大になるクラスタに移動 アメリカ 600 300 太郎 ひよこ ロシア オオカミ うさぎ 単語 辞書 日本語 300 仏蘭西 次郎 キーボード まどか マウス 愛子 太郎 200 1000

Exchange アルゴリズム(2) それ以上クラスタの変動がなくなれば終了 アメリカ 仏蘭西 オオカミ ひよこ ロシア うさぎ 単語 辞書 日本語 キーボード 次郎 まどか マウス 愛子 太郎

Exchange アルゴリズムを Hadoop 単語辞書を分割して実行 アメリカ 仏蘭西 キーボード オオカミ ひよこ うさぎ 日本語 黒板 芋 単語 辞書 ロシア マウス まどか 次郎 愛子 太郎

今後の予定 クラスタ2グラムを動かす 変換ログを用いた変換候補のリランキング 1万語で1時間程度 O(反復回数*単語数*(2グラム数 + クラスタ数)) 変換ログを用いた変換候補のリランキング