フリーソフトではじめる機械学習入門 (第2版) 第12章

230 Views

October 28, 23

スライド概要

profile-image

機械学習や音声認識に関する書籍を執筆しています。

シェア

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

12. パターンマイニング … ⼥性 都会暮らし ユーザN⼈ 商品M種類 12.1 カテゴリ特徴・教師なし・パターンマイニングの問題設定 荒木雅弘: 『フリーソフトではじめる機械 12.2 頻出項目抽出 学習入門(第2版)』 (森北出版,2018年) 12.3 連想規則抽出 12.4 FP-Growthアルゴリズム 12.5 推薦システムにおける学習 12.6 まとめ スライドとJupyter notebook サポートページ

2.

12. パターンマイニング 問題設定 教師なし学習 (疎な)ベクトル → 規則性 規則性の例 頻出項目、連想規則、低次元ベクトル 機械学習 教師あり学習 教師なし学習 中間的学習 モデル推定 応用例 推薦システム パターン マイニング

3.

12.1 カテゴリ特徴・教師なし・パターンマイニングの問題設定 (1/2) データセット(正解なし) (疎な)d次元のカテゴリまたは数値ベクトル {xi } i = 1, … , N ​ 値が数値の場合でも、順序尺度(例:5段階評価値)のような実質的にはカテゴリとみなせるもの 問題設定1 データセット中で一定頻度以上で現れる特徴の組み合わせや規則を抽出 antecedents biscuits consequents bread and cake

4.

12.1 カテゴリ特徴・教師なし・パターンマイニングの問題設定 (2/2) 問題設定2 似ているデータを参考にして、空所の値を予測する 2 4 5 1 1 4 2 5 × = 2 4 2 5 3

5.

12.2 頻出項目抽出 12.2.1 頻出の基準と問題の難しさ (1/2) 例題:バスケット分析(1件分のデータをトランザクションとよぶ) バスケット分析の目的 トランザクション集合中で、一定割合以上出現する項目集合を抽出

6.

12.2.1 頻出の基準と問題の難しさ (2/2) 頻出の基準:支持度 (support) 全トランザクション数 T に対する、項目集合 items が出現するトランザクション数 Titems の割合 support(items) = Titems T ​ ​ バスケット分析の問題点 すべての可能な項目集合について支持度を計算することは現実的には不可能 商品の種類数 1,000 の店なら、項目集合の数は 21000 高頻度の項目集合に絞って計算を行う必要がある ​

7.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (1/7) 命題論理 「AならばB」 が成り立つなら、その対偶である 「¬Bならば¬A」 は必ず成り立つ A ⇒ B は ¬A ∨ B と定義されている この定義より ¬B ⇒ ¬A は ¬(¬B) ∨ (¬A) なので、 B ∨ ¬A となり、¬A ∨ B と等しい 逆 裏 対偶

8.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (2/7) a prioriな原理: 「ある項目集合が頻出」 ならば 「その部分集合も頻出である」 例) 「パン・ミルク」 が頻出ならば 「パン」 も頻出 対偶:「ある項目集合が頻出でない」 ならば 「その項目集合を含む上位集合も頻出で はない」 例) 「バター・雑誌」 が頻出でないならば 「バター・雑誌・パン」 も頻出でない

9.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (3/7) a prioriな原理の対偶を用いて頻出項目集合の候補を削減 {2,3} の項⽬集合が 頻出でないならば 01 計算の⽅向 0 1 2 3 02 03 12 13 012 013 0123 023 23 123 {2,3} を含むこれらも 頻出ではない

10.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (4/7) 頻出項目集合抽出の手順 1. 項目数1の集合 2. C1 を求める ​ C1 から支持度が閾値以下の要素を削除し、集合 F1 を求める 3. k = 2 から始め、Fk = ∅(空集合)になるまで以下を繰り返す ​ ​ ​ 1. 2. Fk−1 の要素を組合せ、項目数 k の集合 Ck を作成する ​ ​ Ck の要素で、その部分集合が Fk−1 に含まれないものを削除する 3. Ck から支持度が閾値以下の要素を削除し、Fk とする ​ ​ ​ ​

11.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (5/7) コーディング mlxtendライブラリで実装されている `apriori`, `association_rules` を利用 例題12.1 のデータで動作確認 import numpy as np import pandas as pd from mlxtend.preprocessing import TransactionEncoder from mlxtend.frequent_patterns import apriori, association_rules, fpgrowth dataset = [ ['Milk', 'Bread', 'Butter'], ['Milk', 'Bread', 'Jam'], ['Milk', 'Magazine'], ['Bread', 'Butter'], ['Milk', 'Bread', 'Butter', 'Jam'], ['Magazine'], ['Milk', 'Bread', 'Jam', 'Magazine'], ['Jam']]

12.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (6/7) 前処理 `TransactionEncoder` 疎行列形式の表現を、真偽値を値とする行列に変換 te = TransactionEncoder() te_ary = te.fit_transform(dataset) df = pd.DataFrame(te_ary, columns=te.columns_)

13.

12.2.2 Aprioriアルゴリズムによる頻出項目抽出 (7/7) `apriori`メソッドのパラメータ `min_support`: 支持度の最小値。デフォルトは0.5 `use_colnames`: 結果の表示が列名か(True)、列番号か(False:デフォルト)を指定 freq = apriori(df, min_support= 3/len(df), use_colnames=True)

14.

12.3 連想規則抽出 規則抽出 正解付きデータに対して、正解を目的変数とみなし、それに対する入力変数の関係を記述 連想規則抽出 正解なしデータに対して、特徴間の強い相関関係を記述 例 :「商品Aを買った人は商品Bも買う傾向がある」というような規則性を抽出したい 評価値の高い規則を抽出 確信度: 前提部Aが起こったときに結論部Bが起こる割合 confidence(A → B) = support(A ∪ B) TA∪B = support(A) TA ​ ​ ​ ​ リフト値: Bだけが単独で起こる割合とAが起こったときにBが起こる割合との比 lift(A → B) = confidence(A → B) support(B) ​

15.

12.3.3 規則の有用性 支持度・確信度・リフト値の意味 support({ハム, 卵}) : 0.1 顧客全体のうち、10%の顧客がハムと卵を一緒に購入している confidence(ハム⇒卵) : 0.7 ハム購入者の70%が卵も購入している lift(ハム⇒卵): 5 ランダムに選んだ顧客が卵を買う確率に対して、ハムを買った顧客が卵を買う確率は5倍大きい

16.

12.3.4 Aprioriアルゴリズムによる連想規則抽出 (1/4) a prioriな原理: 「ある項目集合を結論部に持つ規則」が頻出ならば、「その部分集合 を結論部に持つ規則」も頻出である 例)結論部が「パン・ミルク」の規則が頻出ならば、結論部が「パン」の規則も頻出である 対偶:「ある項目集合を結論部に持つ規則」が頻出でないならば、「その上位集合を結 論部に含む規則」も頻出ではない 例) 結論部が「雑誌」の規則が頻出でないならば、結論部が「パン・雑誌」の規則も頻出では ない

17.

12.3.4 Aprioriアルゴリズムによる連想規則抽出 (2/4) a priori原理に基づく探索 {3}を結論とする規則の スコアが低いならば 計算の⽅向 {3}を結論に含むこれらの 規則のスコアも低いはず

18.

12.3.4 Aprioriアルゴリズムによる連想規則抽出 (3/4) 連想規則抽出の手順 1. 頻出項目集合を求める 2. 求めた頻出項目集合の要素のそれぞれについて、その要素中のひとつの要素を結論部、残 りの要素を前提部とした規則集合 H1 を作成する。そして、H1 からスコア(確信度またはリ ​ ​ フト値)が閾値以下の要素を削除 3. k = 2 から始め、 Hk = ∅(空集合)になるまで以下を繰り返す ​ 1. 2. Hk−1 の各要素について、前提部から結論部へ項目を1つ移動した規則を作成して Hk とする ​ ​ Hk から結論部が Hk−1 の結論部を組み合わせたものでない要素を削除 3. Hk からスコアが閾値以下の要素を削除 ​ ​ ​

19.

12.3.4 Aprioriアルゴリズムによる連想規則抽出 (4/4) `association_rules`メソッドのパラメータ `metric`: 評価基準。デフォルトは `confidence` `min_threshold`: 抽出する最小値。デフォルトは0.8 抽出結果の可視化 association_rules(freq, metric='confidence', min_threshold=0.7)

20.

12.4 FP-Growthアルゴリズム (1/4) Aprioriアルゴリズムの高速化 トランザクションをコンパクトに表現し、重複計算を避ける 1. トランザクションの前処理 1. トランザクションを出現する特徴名の集合に変換 2. 各集合を出現頻度順にソート 3. 低頻度特徴をフィルタリング 2. prefixを共有する木構造(FP木)に順次挿入 3. FP木を用いて項目集合の出現頻度を高速計算

21.

12.4 FP-Growthアルゴリズム (2/4) トランザクションの前処理 トランザクションを出現する特徴名の集合に変換 各集合を出現頻度順にソート 低頻度特徴をフィルタリング 1 {r,z,h,j,p} 1 {z,r} 2 {z,y,x,w,v,u,t,s} 2 {z,x,y,s,t} 3 {z} 3 {z} 4 {r,x,n,o,s} 4 {x,s,r} 5 {y,r,x,z,q,t,p} 5 {z,x,y,r,t} 6 {y,z,x,e,q,s,t,m} 6 {z,x,y,s,t}

22.

12.4 FP-Growthアルゴリズム (3/4) prefixを共有する木構造(FP木)を作成 ソート、フィルタリング後のトランザクションデータを順次FP木に挿入 Add {z, r} Add {z, x, y, s, t} z:2 z:1 r:1 r:1 x:1 y:1 s:1 t:1

23.

12.4 FP-Growthアルゴリズム (4/4) FP木を用いて項目集合の出現頻度を高速計算 mlxtendでの実装は メソッド名 `apriori` を `fpgrowth` に変更するだけ FP⽊ ヘッダテーブル z:5 x:4 y:3 s:3 r:3 t:3 z:5 r:1 x:1 x:3 s:1 y:3 r:1 頻度計算 {x, r} の頻度を求める s:2 r:1 t:2 t:1 頻度の低い r から始める 親にxがない 親にxがある +1 親にxがある +1

24.

12.5 推薦システムにおける学習 (1/6) 協調フィルタリング アイデア:疎な行列は低次元の行列の積で近似できる 値のある部分だけで行列分解を行う 空所の値を予測する 商品M種類 数字が埋まっていない ところの値を予測 商品情報M × K ⾏列 ユーザN⼈ × = ユーザ情報N × K ⾏列

25.

12.5 推薦システムにおける学習 (2/6) 潜在因子によるデータ表現の考え方 xmn = w1n v1m + w2n v2m + ⋯ + wkn vkm ​ ​ ​ ​ ​ ​ ​ … ⼥性 都会暮らし ユーザN⼈ 商品M種類

26.

12.5 推薦システムにおける学習 (3/6) 行列分解の方法 X − U V T の最小化問題を解く 1 1 min ∥E∥2F ro = min ∥X − UV T ∥2F ro U ,V 2 U ,V 2 ​ ​ ​ ​ ​ ​ 空欄を値0とみなしてしまっている 値が存在する要素だけに限って二乗誤差を最小化 min ∑ (xij − uTi v j )2 + λ1 ∥U ∥2F ro + λ2 ∥V ∥2F ro ​ U ,V ​ ​ ​ ​ ​ ​ ​ ​ (i,j)∈Ω U , V の要素を非負に限定したものが非負値行列因子分解 (NMF : Nonnegative Matrix Factorization)

27.

12.5 推薦システムにおける学習 (4/6) 例題:映画評価データの非負値行列分解 行がユーザ(5人)、列が映画(4作品)、数値が1-5の5段階評価で0は評価なし import numpy as np from sklearn.decomposition import NMF X = np.array([ [5,3,0,1], [4,0,0,1], [1,1,0,5], [1,0,0,4], [0,1,5,4] ])

28.

12.5 推薦システムにおける学習 (5/6) 負値行列分解 `NMF` のパラメータ `n_components`: 潜在変数の次元数。デフォルトは `None` ですべての特徴が保存される その積がXに近くなるような非負値行列W, Hが得られる Wは人の傾向を、Hの転置は映画の傾向を表す2次元ベクトルのリストになっている model = NMF(n_components = 2) W = model.fit_transform(X) H = model.components_ np.dot(W,H) array([[5.2558264 , 1.99313836, 0. , 1.45512772], [3.50429478, 1.32891458, 0. , 0.9701988 ], [1.31294288, 0.94415991, 1.94956896, 3.94609389], [0.98129195, 0.72179987, 1.52759811, 3.0788454 ], [0. , 0.65008935, 2.84003662, 5.21894555]])

29.

12.5 推薦システムにおける学習 (6/6) Factorization Machine y = w0 + wi + wj + v Ti v j 補助情報を予測に取り入れることができる行列分解 ​ w0 : 定数項、wi : ユーザiのバイアス、wj : 商品j のバイアス ​ ​ ​ v Ti v j : 補助情報を含む任意の要素間で定義可能な交互作用 ​ 予測したい値 ユーザに関する補助情報 商品M種類 ユーザN⼈ ​ 商品に関する補助情報 ​ ​ ​ ​

30.

12.6 まとめ パターンマイニングは有用な規則性を発見する Aprioriアルゴリズム 出現頻度の高い項目集合を見つける 出現頻度に基づき、有用な規則を見つける FPGrowthはAprioriアルゴリズムの高速化版 行列分解 低次元ベクトル表現を見つけることにより、未知の値の予測を行う