Presentation is loading. Please wait.

Presentation is loading. Please wait.

第5回音声ドキュメント処理ワークショップ (2011/3/7)

Similar presentations


Presentation on theme: "第5回音声ドキュメント処理ワークショップ (2011/3/7)"— Presentation transcript:

1 第5回音声ドキュメント処理ワークショップ (2011/3/7)
Confusion Networkを用いた CRFによる音声認識誤り訂正 第5回音声ドキュメント処理ワークショップ (2011/3/7) 神戸大学工学部情報知能工学科 中谷良平,滝口哲也,有木康雄

2 研究背景 音声認識精度 ニュースなどの正しい書き言葉→およそ95% 学会講演音声などの自由な話し言葉→およそ80%
話し言葉でストレスのない音声認識を行うために、さらなる音声認識精度の向上が期待される

3 従来の音声認識 Acoustic Model Language Model Feature Extraction Search
Input speech

4 従来の音声認識の問題点 従来の音声認識では、言語モデルとして自然なbigram、trigramを学習する
例)「神戸/大学」、「研究/を/する」 問題点1   スムージングにより不自然なN-gramが発生してしまう 問題点2   N-gramが自然でも、文章として不自然な場合がある  例)     冷蔵庫の中に、目薬を入れてある。     冷たいものが食べたくなったからだ。

5 問題点の解決法 問題点1 : スムージングによる問題 問題点2 : N-gramではわからない不自然さ
⇒bi/trigramよりも広範囲の文脈情報(長距離文脈情報) を取り入れる

6 提案手法 長距離文脈情報を用いたCRFによる音声認識誤り訂正 自然/不自然なN-gramをCRFを用いて学習する
あらかじめ各単語には正誤ラベリングを行っておく 素性のひとつとして長距離文脈情報を追加することで、音声ドキュメントの話題を考慮する 誤りと識別された語をConfusion Networkを用いて訂正する

7 Confusion Network 誤り訂正を行うための仮説集合としてConfusion Networkを用いる
Word Latticeをクラスタリング、圧縮することで得られる またその過程で各リンクには信頼度が付与される CRFによる誤り検出を用いてConfusion Setから正解を探す

8 CRF (Conditional Random Field)(1/2)
誤り検出モデルに用いる 渡し は 神戸 から 来 た  E  C  C  C  C C 学習には単語列に正誤ラベルが貼られたものが必要 正誤それぞれの特徴を学習するために、多くの素性を自由に追加できる ⇒自然なN-gramとともに不自然なN-gramが学習可能

9 CRF (Conditional Random Field)(2/2)
入力 x について、ラベル y が付与される確率 fa : 素性関数 Z(x) : 分配関数 学習データ (xi , yi) について条件付確率の対数尤度  を最大にするように計算する

10 CRFの学習 正解部分,誤り部分を特徴づける素性の重みを学習 素性を柔軟に設計できる ⇒長距離文脈情報も素性として取り入れられる
特徴的な素性→重み大 例:「神戸/県」:明らかに誤りだとわかる     →誤り部分のみでよく出現 特徴的でない素性→重み小 例:「これ/は」:ここだけでは正解か誤りかを識別できない     →正解、誤りのどちらでも出現 素性を柔軟に設計できる   ⇒長距離文脈情報も素性として取り入れられる

11 長距離文脈情報 長距離文脈情報 周辺の認識結果単語を参照したときに、識別対象単語が不自然でないかという情報
音声 会話 大根 話者 対話 出現単語の自然さを意味スコアとして算出する bi/trigramよりも広範囲の文脈情報を考慮できる 動詞、形容詞、名詞に意味スコアを与える

12 意味スコアの算出 w wi 音声 会話 大根 話者 対話 周辺の単語の c(w) 内での類似度の平均を計算する
K 単語 w wi 音声 会話 大根 話者 対話 周辺の単語の c(w) 内での類似度の平均を計算する 正規化を行い、それを意味スコア SS(w) とする sim(w,c(w)) の計算には LSA (Latent Semantic Analysis) を用いる

13 LSA (Latent Semantic Analysis) (1/3)
巨大でスパース 文書\単語 打席 ホームラン 野菜 分母 ・・・ 二 打席 連続 ホームラン を 打っ た 1 肉 と 野菜 を バランス よく 食べる 分母 が 二 倍 に なる と LSA 次元圧縮 文書\トピック 野球 食事 数学 ・・・ 二 打席 連続 ホームラン を 打っ た 0.93 0.01 肉 と 野菜 を バランス よく 食べる 0.04 0.79 0.03 分母 が 二 倍 に なる と 0.05 0.71 出現頻度 次元圧縮により、関連性の強い単語は同一次元に圧縮される

14 LSA (Latent Semantic Analysis) (2/3)
N 個の文書から作る単語文書行列 W の要素 wij としてtf-idf を用いる tf : 単語の出現頻度 idf : 単語の逆出現頻度 nij : 文書 cj における単語 ri の出現頻度 | cj | : 文書 cj に含まれる単語の総数 dfi : 単語 ri が出現する文書の総数 idfi は単語 ri の単語重みと考えることができ、多くの文書で出現する単語では小さく、特定の文書でしか出現しない単語では大きくなる

15 LSA (Latent Semantic Analysis) (3/3)
語彙数を M とすると W は M×N のスパースな行列になる 特異値分解により、特異値の大きなものから R だけ用いて近似を行う c1・・・ cj・・・ cN v1T・・・ vjT・・・ vNT r1 ri rM W u1 ui uM U S V T R×R R×N M×N M×R 単語 ri と文書 cj の類似度は以下のように求める この値が 1 に近いほど類似度が高く、-1 に近いほど類似度が低くなる

16 提案手法の流れ 従来の音声認識器によりConfusion Networkを出力 長距離文脈情報としての意味スコアの付与
書き起こし文書を用いて正誤ラベリング CRFによる誤り検出モデルの学習 Confusion Network上での音声認識誤り訂正

17 提案手法の流れ 「私達は」 学習 従来の音声認識器によりConfusion Networkを出力 長距離文脈情報としての意味スコアの付与
書き起こし文書を用いて正誤ラベリング CRFによる誤り検出モデルの学習 Confusion Network上での音声認識誤り訂正 「私達は」 0.77 0.30 “私”:0.8 C “-”:0.9 C “価値”:0.5 E “は”:0.5 C 0.65 “達”:0.3 “が”:0.4 E C 0.01 0.01 E E “渡し”:0.2 “い”:0.1 “が”:0.2 “-”:0.1 E E 学習

18 音声認識誤り訂正(1/2) Confusion Networkの候補からCRFをもとに正解を探す 私 – 価値 は C C E C 訂正
“私”:0.8 “-”:0.9 “価値”:0.5 “は”:0.5 “達”:0.3 “が”:0.4 “渡し”:0.2 “い”:0.1 “が”:0.2 “-”:0.1 この最尤候補列に対して誤り検出を行う 私 – 価値 は C C E C 訂正

19 音声認識誤り訂正(2/2) Confusion Networkの候補からCRFをもとに正解を探す 私 – 達 は 訂正完了 C C C C
“私”:0.8 “-”:0.9 “価値”:0.5 “は”:0.5 “達”:0.3 “が”:0.4 “渡し”:0.2 “い”:0.1 “が”:0.2 “-”:0.1 「価値」を第二候補である「達」と置き換えて誤り検出を行う 私 – 達 は 訂正完了 C C C C

20 評価実験 比較対象 CN-best : 信頼度最大の単語列(ベースライン)
NonSemantic : 提案手法の素性として意味スコアを用いない場合 Proposed method : 提案手法 Oracle : Confusion Network上の正解単語を全て選んだ場合(上限)          

21 評価指標 単語誤り率(WER) 正解:「私 は 豊橋 に 行く」 SUB DEL INS 認識:「渡し 豊橋 に へ 行く」
正解:「私 は 豊橋 に 行く」 SUB DEL INS 認識:「渡し  豊橋 に へ 行く」 SUB : 置換誤り DEL : 削除誤り INS : 挿入誤り

22 実験条件(1/2) コーパス 音声認識器 日本語話し言葉コーパス(CSJ) 様々な講演音声を収録したコーパス Julius-4.1.4

23 実験条件(2/2) 誤り検出モデル 学習 評価 学習に用いた素性 CSJの150講演 CSJの13講演
表層単語unigram,bigram,trigram Confusion Network上の信頼度 意味スコア

24 実験結果 誤り種類別の評価と単語誤り率 意味スコアを用いない場合でも3.53ポイントの改善
置換誤り 削除誤り 挿入誤り 正解単語 WER Oracle 1,855 2,467 831 35,491 12.94 % CN-best 7,246 2,141 3,423 30,453 32.17 % NonSemantic 6,531 2,633 2,242 30,658 28.64 % Proposed method 6,451 2,631 2,253 30,740 28.46 % 意味スコアを用いない場合でも3.53ポイントの改善 意味スコアを追加した提案手法は3.71ポイントの改善

25 まとめ まとめ 今後の課題 Confusion Networkを用いてCRFによる誤り訂正を行った 素性として意味スコアを導入した
提案手法によって単語誤り率で3.71ポイント改善 意味スコアは主に削除誤りに有効 Oracleと比べて改善の余地が多く残っているのは削除誤り 今後の課題 誤り検出精度の改善 品詞情報の追加、パラメータ推定法の変更など 未知語検出手法への応用

26 ご清聴ありがとうございました

27 改善例(1/2) 不自然なN-gramの改善 正解文 実際 の 発話 に CN-best 実際 の あ 発話 に NonSemantic
Proposed method

28 改善例(2/2) 意味的に不自然な誤りの改善 イルカの特徴に関する講演で 正解文 イルカ の 頭部 表面 に CN-best
イルカ の 東部 表面 に NonSemantic Proposed method N-gramで改善できなかった誤りが周辺のトピックから訂正できた

29 Maximum likelihood words
提案手法の流れ Correct Recognition Result Learning Corresponding Confusion Network Speech Recognition Calculate Semantic Score Speech Data Labeling Learning of error tendency by CRF Latent Semantic Analysis Large Corpus Error Detection Model  Maximum likelihood words of Confusion Network Confusion Network Calculate Semantic Score Input Speech Speech Recognition Error Correction Confusion Network Recognition Result

30 従来の音声認識技術 私 価値 は 私 価値 が 渡し 価値 は 渡し 達 は 私 い が 入力音声:“私 達 は” 単語ラティス
N-best 単語ラティス  私 価値 は  私 価値 が   渡し 価値 は  渡し 達 は  私 い が “が” “価値” “は” “私” “が” “達” “い” “渡し”

31 従来手法 パーセプトロンアルゴリズムを用いた誤り訂正モデル
音声認識結果を仮説集合(N-bestなど)として出力し、対応する書き起こしデータと比較する 正解部分で現れやすいN-gram → α は正の方向へ 誤り部分で現れやすいN-gramを学習する → α は負の方向へ 学習した誤り訂正モデルを用いて誤認識を訂正する


Download ppt "第5回音声ドキュメント処理ワークショップ (2011/3/7)"

Similar presentations


Ads by Google