フリーソフトでつくる音声認識システム(第2版) 第3章

264 Views

August 07, 23

スライド概要

profile-image

機械学習や音声認識に関する書籍を執筆しています。

シェア

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

3. パターンの特徴を調べよう デジタル信号 前処理部 特徴抽出部 特徴量の計算 特徴の標準化 特徴の選択 特徴ベクトル 識別部 あ 識別辞書 3.1 変動に強い特徴とは 3.2 特徴のスケールを揃える 3.3 特徴は多いほどよいか 荒木雅弘: 『フリーソフトでつくる 音声認識システム(第2版)』(森北 出版,2017年) スライドとJupyter notebook サポートページ

2.

3.1 変動に強い特徴とは 3.1.1 音声の場合 (1/6) 音素の違いとは 声帯振動の有無(パルス波 / 雑音) 母音:声道(口の開き具合・舌の位置など)の変形による共振周波数の違い 子音:声道や口唇の変化パターンの違い

3.

3.1.1 音声の場合 (2/6) 音声のスペクトル 音声波形中の一定時間を切り出し、フーリエ変換によって周波数成分に分解したもの 音編集ソフト Audacity で表示したスペクトル

4.

3.1.1 音声の場合 (3/6) 共振周波数はスペクトルのピークとして現れる 前 ⾆の最⾼点 2000 い 1500 え う あ 1000 お 500 後 200 狭 400 開⼝度 600 800 広 (b) ⽇本語⺟⾳識別のための特徴空間(男声)

5.

3.1.1 音声の場合 (4/6) 音声生成過程のモデル

6.

3.1.1 音声の場合 (5/6) 調音フィルタ特性 音声信号 H (スペクトル包絡)の取り出し S =G∗H ↓ フーリエ変換 スペクトル S = G ⋅ H ↓ 絶対値・メルフィルタ・対数化(人間の聴覚特性を反映) 対数スペクトル log ∣S∣2 = log ∣G∣2 + log ∣H∣2 ↓ 離散コサイン変換 ケプストラム DCT log ∣S∣2 = DCT log ∣G∣2 + DCT log ∣H∣2 音のスペクトルを信号とみなして周波数分析したもの 音源 G(スペクトルの調波構造)の成分が高周波域、調音フィルタ H の成分が低周波域に現れる

7.

3.1.1 音声の場合 (6/6) MFCC (Mel Frequency Cepstrum Coefficient) 離散コサイン変換結果の低次(12次まで)の係数をスペクトル包絡の情報とみなす

8.

3.1.2 画像の場合 (1/2) 画像の変動 明るさの変化,拡大・縮小,回転など SIFT特徴量 2枚の画像の対応抽出などに有効

9.

3.1.2 画像の場合 (2/2) Bag of Visual Words SIFT特徴量の似ているベクトルを単語と見なし、出現頻度を特徴として識別問題に適用

10.

(補足)自然言語処理の場合 Bag of Words 応用:文書分類 例)商品レビューを 肯定的/否定的 に分類する 文書を単語の多重集合(bag)とみなす 文例)「顔認証はヤバいぐらい便利」 形態素解析 「顔認証 は ヤバい ぐらい 便利」

11.

3.2 特徴のスケールを揃える (1/2) 各軸で値のスケールが異なる場合 値の標準化が必要

12.

3.2 特徴のスケールを揃える (2/2) スケールの揃え方 特徴空間の単位超立方体の体積を軸伸縮の前後で一定に保ち、かつパターン相互の距離を 最小化 → 各軸の分散を等しくする 平均値を0にしておく 学習における初期値の調整が不要 標準化の式(平均0、分散1への変換) x′i = ​ xi − m σ ​ ​ m : 平均、σ : 標準偏差

13.

3.3 特徴は多いほどよいか 3.3.1 偶然に見つかってしまってはまずい (1/4) (1) 偶然の傾向とは 特徴は多いほどよいか 特徴が多く、データ数が少ないと、偶然の傾向が現れるかもしれない 特徴の次元数が高いほど、偶然の傾向が発見される可能性が高い

14.

3.3.1 偶然に見つかってしまってはまずい (2/4) (2) 学習に必要なパターン数 超平面の容量 2(d + 1) p(n, d) : d 次元空間上で、適当に配置された n 個のパターンを任意に2クラスに分けた とき、超平面により線形分離できる確率 n < 2(d + 1) ⇒ p(n, d) ∼ 1 n = 2(d + 1) ⇒ p(n, d) = 1/2 n > 2(d + 1) ⇒ p(n, d) ∼ 0 ​ ​

15.

3.3.1 偶然に見つかってしまってはまずい (3/4) 例題3.3 データ数: 4、次元数: 1 ⇒ p(4, 1) = 1/2

16.

3.3.1 偶然に見つかってしまってはまずい (4/4) (3) 見つかるはずのないものが見つかった? n >> 2(d + 1) のとき もし、この条件で識別面が見つかったとしたら → 偶然には存在しえないものが見つかった → その識別面は必然的に存在していた

17.

3.3.2 特徴を減らそう (1/2) (1)力業で次元を減らす → 全ての組み合わせを評価する (2) スマートに主成分分析

18.

(補足)共分散行列とは (1/2) データの広がりを調べる → 共分散行列 1次元の場合 m = N1 ∑x∈χ x 1 分散 σ 2 = N ∑x∈χ (x − m)2 平均 ​ ​ ​ ​ 多次元の場合 m = N1 ∑x∈χ x 1 共分散行列 Σ = N ∑x∈χ (x − m)(x − m)T 平均ベクトル ​ ​ ​ ​

19.

(補足)共分散行列とは (2/2) 各軸の平均・分散が等しいデータを区別できる

20.

3.3.2 特徴を減らそう (2/2) 主成分分析 (principal component analysis; PCA) 主成分とは データの分散が最大となる方向 PCA のアイディア 主成分を分散の大きい順に少数抽出することで、データを少ない次元に投影(変換)する PCA の手順 Xstd = (X − m)/σ 1 T 2. 共分散行列の計算 C = N Xstd Xstd 1. データの標準化 ​ ​ ​ ​ 3. 共分散行列の固有値と固有ベクトルの計算 Cv = λv λ : 固有値, v : 対応する固有ベクトル vsorted = sort(v, by = λ) ~ = Xstd ⋅ vsorted [: d] 4. 固有値の大きい順に固有ベクトル(主成分)を並べ替える 5. データを主成分の空間に変換(投影)する Xpca ​ ​ ​ ​

21.

まとめ 特徴抽出部の役割 特徴量の計算 入力の種類および認識対象によって処理が異なる 特徴の標準化 スケールの異なる特徴の識別に対する効果を公平にする 特徴の選択 実験的に有効な特徴を調べる 低次元に変換する Jupyter notebook