Confusion Networkを用いた CRFによる音声認識誤り訂正 第5回音声ドキュメント処理ワークショップ (2011/3/7) 神戸大学工学部情報知能工学科 中谷良平,滝口哲也,有木康雄 研究背景 音声認識精度 ニュースなどの正しい書き言葉→およそ95% 学会講演音声などの自由な話し言葉→およそ80% 話し言葉でストレスのない音声認識を行うために、さらなる音 声認識精度の向上が期待される www.***.com 従来の音声認識 P( X | w) P (w) Language Model Acoustic Model Input speech X Feature Extraction Search wˆ wˆ arg max P( X | w) P( w) w www.***.com 従来の音声認識の問題点 従来の音声認識では、言語モデルとして自然なbigram、 trigramを学習する 例)「神戸/大学」、「研究/を/する」 問題点1 スムージングにより不自然なN-gramが発生してしまう 問題点2 N-gramが自然でも、文章として不自然な場合がある 例) 冷蔵庫の中に、目薬を入れてある。 冷たいものが食べたくなったからだ。 www.***.com 問題点の解決法 問題点1 : スムージングによる問題 ⇒あらかじめ不自然なN-gramを学習しておく 問題点2 : N-gramではわからない不自然さ ⇒bi/trigramよりも広範囲の文脈情報(長距離文脈情報) を取り入れる www.***.com 提案手法 長距離文脈情報を用いたCRFによる音声認識誤り 訂正 自然/不自然なN-gramをCRFを用いて学習する あらかじめ各単語には正誤ラベリングを行っておく 素性のひとつとして長距離文脈情報を追加することで、音 声ドキュメントの話題を考慮する 誤りと識別された語をConfusion Networkを用いて訂正す る www.***.com Confusion Network 誤り訂正を行うための仮説集合としてConfusion Networkを用いる Word Latticeをクラスタリング、圧縮することで得られる またその過程で各リンクには信頼度が付与される CRFによる誤り検出を用いてConfusion Setから正解を探す www.***.com CRF (Conditional Random Field)(1/2) 誤り検出モデルに用いる 渡し は 神戸 から 来 た E C C C C C 学習には単語列に正誤ラベルが貼られたものが必要 正誤それぞれの特徴を学習するために、多くの素性を 自由に追加できる ⇒自然なN-gramとともに不自然なN-gramが学習可能 www.***.com CRF (Conditional Random Field)(2/2) 入力 x について、ラベル y が付与される確率 1 p ( y | x) exp a f a (y, x) Z ( x) a C y E fa : 素性関数 Z(x) : 分配関数 学習データ (xi , yi) について条件付確率の対数尤度 L log p(y i | xi ) i を最大にするように計算する www.***.com CRFの学習 正解部分,誤り部分を特徴づける素性の重みを学習 特徴的な素性→重み大 例:「神戸/県」:明らかに誤りだとわかる →誤り部分のみでよく出現 特徴的でない素性→重み小 例:「これ/は」:ここだけでは正解か誤りかを識別できない →正解、誤りのどちらでも出現 素性を柔軟に設計できる ⇒長距離文脈情報も素性として取り入れられる www.***.com 長距離文脈情報 長距離文脈情報 周辺の認識結果単語を参照したときに、識別対象単語が 不自然でないかという情報 音声 会話 大根 話者 対話 出現単語の自然さを意味スコアとして算出する bi/trigramよりも広範囲の文脈情報を考慮できる 動詞、形容詞、名詞に意味スコアを与える www.***.com 意味スコアの算出 周辺の単語集合 c(w) との類似度を求める K 単語 音声 会話 w wi 大根 話者 対話 c(w) SC(w) sim(w, c(w)) 周辺の単語の c(w) 内での類似度の平均を計算する 1 SCavg ( w) K SC(w ) i i 正規化を行い、それを意味スコア SS(w) とする SS(w) SC(w) SCavg (w) sim(w,c(w)) の計算には LSA (Latent Semantic Analysis) を用いる www.***.com LSA (Latent Semantic Analysis) (1/3) LSAは大量のテキストにおける単語の共起関係を統計的に 解析することで、学習データに直接の共起がない単語間の類 似度についても求めることができる 巨大でスパース 文書\単語 打席 ホームラン 肉 野菜 分母 二 ・・・ 二 打席 連続 ホームラン を 打っ た 1 1 0 0 0 1 ・・・ 肉 と 野菜 を バランス よく 食べる 0 0 1 1 0 0 ・・・ 分母 が 二 倍 に なる と 0 0 0 0 1 1 ・・・ 次元圧縮 LSA 文書\トピック 野球 食事 数学 ・・・ 二 打席 連続 ホームラン を 打っ た 0.93 0.01 0.01 ・・・ 肉 と 野菜 を バランス よく 食べる 0.04 0.79 0.03 ・・・ 分母 が 二 倍 に なる と 0.05 0.01 0.71 ・・・ 出現頻度 次元圧縮により、関連性の強い単語は同一次元に圧縮される www.***.com LSA (Latent Semantic Analysis) (2/3) N 個の文書から作る単語文 書行列 W の要素 wij として tf-idf を用いる wij tfij idfi tf ij nij cj idfi log N dfi tf : 単語の出現頻度 idf : 単語の逆出現頻度 nij : 文書 cj における単語 ri の出現頻度 | cj | : 文書 cj に含まれる単語の総数 dfi : 単語 ri が出現する文書の総数 idfi は単語 ri の単語重みと考えることができ、多くの文書で出現する単語 では小さく、特定の文書でしか出現しない単語では大きくなる www.***.com LSA (Latent Semantic Analysis) (3/3) 語彙数を M とすると W は M×N のスパースな行列になる 特異値分解により、特異値の大きなものから R だけ用いて近似を行う c1・・・ cj・・・ cN v1T・・・ vjT・・・ vNT r1 u1 ・ ・ ・ ri ・ ・ ・ ・ ・ ・ W u・ i U ・ ・ rM S VT R×R R ×N uM M×R M× N 単語 ri と文書 cj の類似度は以下のように求める sim(ri , c j ) ui SvTj ui S 1 / 2 v j S 1 / 2 この値が 1 に近いほど類似度が高く、-1 に近いほど類似度が低くなる www.***.com 提案手法の流れ 従来の音声認識器によりConfusion Networkを出力 長距離文脈情報としての意味スコアの付与 書き起こし文書を用いて正誤ラベリング CRFによる誤り検出モデルの学習 Confusion Network上での音声認識誤り訂正 www.***.com 提案手法の流れ 従来の音声認識器によりConfusion Networkを出力 長距離文脈情報としての意味スコアの付与 書き起こし文書を用いて正誤ラベリング CRFによる誤り検出モデルの学習 Confusion Network上での音声認識誤り訂正 「私達は」 0.77 “私”:0.8 C 0.01 “渡し”:0.2 E “-”:0.9 C 0.01 “い”:0.1 E 0.30 “価値”:0.5 E “は”:0.5 C 0.65 “達”:0.3 C “が”:0.4 E E “が”:0.2 E “-”:0.1 学習 www.***.com 音声認識誤り訂正(1/2) Confusion Networkの候補からCRFをもとに正解を探す “私”:0.8 “渡し”:0.2 “-”:0.9 “い”:0.1 “価値”:0.5 “は”:0.5 “達”:0.3 “が”:0.4 “が”:0.2 “-”:0.1 この最尤候補列に対して誤り検出を行う 私 – 価値 は C C E C 訂正 www.***.com 音声認識誤り訂正(2/2) Confusion Networkの候補からCRFをもとに正解を探す “私”:0.8 “渡し”:0.2 “-”:0.9 “い”:0.1 “価値”:0.5 “は”:0.5 “達”:0.3 “が”:0.4 “が”:0.2 “-”:0.1 「価値」を第二候補である「達」と置き換えて誤り検出を行う 私 – 達 は C C C C 訂正完了 www.***.com 評価実験 比較対象 CN-best : 信頼度最大の単語列(ベースライン) NonSemantic : 提案手法の素性として意味スコアを用いない場合 Proposed method : 提案手法 Oracle : Confusion Network上の正解単語を全て選んだ場合(上限) www.***.com 評価指標 単語誤り率(WER) 正解:「私 は 豊橋 に 行く」 SUB DEL 認識:「渡し WER INS 豊橋 に へ 行く」 SUB DEL SUB 全単語数 SUB : 置換誤り DEL : 削除誤り INS : 挿入誤り www.***.com 実験条件(1/2) コーパス 日本語話し言葉コーパス(CSJ) 様々な講演音声を収録したコーパス 音声認識器 Julius-4.1.4 音響モデル:CSJ講演音声953講演から学習 言語モデル:CSJ書き起こし文書2,596講演から学習 www.***.com 実験条件(2/2) 誤り検出モデル 学習 CSJの150講演 評価 CSJの13講演 学習に用いた素性 表層単語unigram,bigram,trigram Confusion Network上の信頼度 意味スコア www.***.com 実験結果 誤り種類別の評価と単語誤り率 置換誤り 削除誤り 挿入誤り 正解単語 WER Oracle 1,855 2,467 831 35,491 12.94 % CN-best 7,246 2,141 3,423 30,453 32.17 % NonSemantic 6,531 2,633 2,242 30,658 28.64 % Proposed method 6,451 2,631 2,253 30,740 28.46 % 意味スコアを用いない場合でも3.53ポイントの改善 意味スコアを追加した提案手法は3.71ポイントの改善 www.***.com まとめ まとめ Confusion Networkを用いてCRFによる誤り訂正を行った 素性として意味スコアを導入した 提案手法によって単語誤り率で3.71ポイント改善 意味スコアは主に削除誤りに有効 Oracleと比べて改善の余地が多く残っているのは削除誤り 今後の課題 誤り検出精度の改善 品詞情報の追加、パラメータ推定法の変更など 未知語検出手法への応用 www.***.com ご清聴ありがとうございました www.***.com 改善例(1/2) 不自然なN-gramの改善 正解文 CN-best 実際 の 発話 に 実際 の あ 発話 に NonSemantic 実際 の 発話 に Proposed method 実際 の 発話 に www.***.com 改善例(2/2) 意味的に不自然な誤りの改善 イルカの特徴に関する講演で 正解文 イルカ の 頭部 表面 に CN-best イルカ の 東部 表面 に NonSemantic イルカ の 東部 表面 に Proposed method イルカ の 頭部 表面 に N-gramで改善できなかった誤りが周辺のトピックから訂正 できた www.***.com 提案手法の流れ Correct Recognition Result Corresponding Speech Data Speech Recognition Confusion Network Speech Recognition Calculate Semantic Score Labeling Learning of error tendency by CRF Latent Semantic Analysis Large Corpus Input Speech Learning Confusion Network Calculate Semantic Score Error Detection Model Maximum likelihood words of Confusion Network Error Correction Confusion Network Recognition www.***.com Result 従来の音声認識技術 入力音声:“私 達 は” 単語ラティス N-best 1. 2. 3. 4. 5. 私 価値 は 私 価値 が 渡し 価値 は 渡し 達 は 私いが “が” “は” “価値” “私” “が” “達” “渡し” “い” www.***.com 従来手法 パーセプトロンアルゴリズムを用いた誤り訂正モデル w* arg max{ RecScore(a, wi ) (wi )} wi 音声認識結果を仮説集合(N-bestなど)として出力し、対応 する書き起こしデータと比較する 正解部分で現れやすいN-gram → α は正の方向へ 誤り部分で現れやすいN-gramを学習する → α は負の方向へ 学習した誤り訂正モデルを用いて誤認識を訂正する www.***.com
© Copyright 2024 ExpyDoc