[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning"

>100 Views

December 23, 21

スライド概要

2021/12/17
Deep Learning JP:
http://deeplearning.jp/seminar-2/

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

DEEP LEARNING JP [DL Papers] “Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning.(NIPS2021)” Okimura Itsuki, Matsuo Lab, B4 http://deeplearning.jp/ 1

2.

アジェンダ 1. 2. 3. 4. 5. 6. 7. 書誌情報 概要 問題意識 ⼆重過程理論 提案⼿法 実験 議論 2

3.

1 書誌情報 タイトル: Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning 出典: NIPS2021 https://nips.cc/Conferences/2021/ScheduleMultitrack?event=25970 著者: Maxwell Nye, Michael Henry Tessler, Joshua B. Tenenbaumなど (MIT, Facebook AI) 選んだ理由:パラメータを増やすという⽅向ではなく、既存のシステムの 組み合わせで推論能⼒の向上を⽬指すというのが良かった。 3

4.

2 概要 • 近年のニューラル⾔語モデルの発展にも関わらず, ⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。 • そこで,認知科学の⼆重過程理論をもとにニューラルアプローチと 記号的アプローチのそれぞれの⻑所を組み合わせることで, より効果的にドメイン知識を取り込むことができる⼆重過程モデルを提案 • ⾔語⽣成においては、ニューラル⽣成に最⼩限の世界モデルを 組み合わせることで,⽣成する⾔語の⼀貫性と整合性が向上することを⽰ す。 4

5.

3 問題意識 近年のニューラル⾔語モデルの発展にも関わらず, ⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。 特に,GPT-3のようなモデルは⼈間と同じような直観的で⾮体系的な パターン認識エラーに陥る。 ⼆重過程理論からヒントを得て,神経回路モデルと既存の知識との インターフェースを改善し,⼀貫性を向上させる 5

6.

4 ⼆重過程理論 ⼆重過程理論(Dual Process Theory) 推論の基礎には直感的なシステム1と熟考的なシステム2という 2つの異なる認知システムがあるという理論 システム1 直感的 連想的 速い バイアスも含む システム2 熟考的 論理的 遅い 規範的な反応 6

7.

4 ⼆重過程理論 システム1とシステム2 以下のような問題について考える。2秒で回答を考えてください。 Q. ボールとバットは合わせて1.1ドルで す。 バットはボールより1ドル高いです。 さて,ボールはいくらでしょう? A. 0.1ドル(10セント) A. 0.05ドル(5セント) 7

8.

4 ⼆重過程理論 システム1とシステム2の働き 時間に追われたりした状況であると,⼈間においてもシステム1が 論理的に整合していない回答を導くこともある。 システム2の努⼒が、システム1から⽣じるデフォルトの反応を無効にしたり、 抑制したりして、⼀貫性のない、系統性のない直感的な衝動を修正する。 8

9.

4 ⼆重過程理論 ⾔語モデルの直感的なミス GPT-3のような⾔語モデルにおいても⼈間にとってシステム1が犯すような 直感的なミスに陥る 本論⽂では⾔語モデルの出⼒に対し、⼈間におけるシステム2のような フィルタリングを組み込むことで⼀貫性と健全性の向上を⽬指す。 9

10.

5 提案⼿法 ニューラルモデルと記号論理モデルを組み合わせた⼆重過程モデル テキスト⽣成タスクを システム1のような役割を期待するニューラルモデルと システム2のような役割を期待する記号論理モデルの組み合わせで 解くことで⼀貫性の向上を⽬指す。 以降のページでは実験に⽤いた質問応答の形式で ⾃然⾔語理解の基礎的な能⼒のテストに⽤いられる bABI[J Weston, 2015]を題材に説明する。 bABIの例 出典:https://arxiv.org/pdf/1502.05698.pdf 10

11.

5 提案⼿法 1. テキスト⽣成モデルでその次に続く⽂章の候補をサンプリングする。 システム1 Daniel went to the garden. Mary traveled to the office. Daniel grabbed the apple. それまでの文章 候補生成 (ex.GPT-3) Mary dropped the apple there. Daniel went back to the garden. Daniel went to the patio. … 次の文の候補 11

12.

5 提案⼿法 2. GPT-3をfew-shotで学習した構⽂解析を⾏い,事実の抽出を⾏う。 システム1 Daniel went to the garden. Mary traveled to the office. Daniel grabbed the apple. 候補生成 (ex.GPT-3) Mary dropped the apple there. Daniel went back to the garden. Daniel went to the patio. … 次の文の候補 それまでの文章 構文解析 (GPT-3) システム2 構文解析 (GPT-3) drop(Mary, apple) go(Daniel, garden) go(Daniel, patio) … Daniel.location = garden apple.holder = Daniel Mary.location = office 最小世界モデル (minimal world model) 12

13.

5 提案⼿法 3. タスクのために設計した最⼩世界モデルで整合性を確認する。 システム1 Daniel went to the garden. Mary traveled to the office. Daniel grabbed the apple. 候補生成 (ex.GPT-3) Mary dropped the apple there. Daniel went back to the garden. Daniel went to the patio. … 次の文の候補 それまでの文章 構文解析 (GPT-3) システム2 Daniel.location = garden apple.holder = Daniel Mary.location = office 構文解析 (GPT-3) 整合性確認 (Symbolic) 最小世界モデル (minimal world model) drop(Mary, apple) ❌ go(Daniel, garden) ❌ go(Daniel, patio) ⭕ … 13

14.

5 提案⼿法 4. 整合性の確認できたものを出⼒とする。 システム1 Daniel went to the garden. Mary traveled to the office. Daniel grabbed the apple. 候補生成 (ex.GPT-3) Mary dropped the apple there. Daniel went back to the garden. Daniel went to the patio. … 次の文の候補 それまでの文章 構文解析 (GPT-3) システム2 Daniel.location = garden apple.holder = Daniel Mary.location = office 構文解析 (GPT-3) 整合性確認 (Symbolic) 最小世界モデル (minimal world model) Daniel went to the patio. drop(Mary, apple) ❌ go(Daniel, garden) ❌ go(Daniel, patio) ⭕ … 14

15.

6 実験 bABIを⽤いて質問応答タスクと物語⽣成タスクの両⽅について性能を調査 タスク 質問応答:最後の質問を解析して与える解答の正解率を計測 物語⽣成:整合性を保つために拒否される⽂の割合を計測 詳細 候補⽣成にはGPT-3をFew-shotで学習したものを使⽤ 最⼩世界モデルは,単純なPythonコードで実装され,以下のことを⾏う。 1. これまで述べてきた⼈,物,場所を追跡する 2. それまでの⾏動の結果としての世界の状態変化を修正する。 3. 候補となる⾏動が,1と2で定義される現在の世界状態に違反しているかどうかをチェックする。 ⽐較対象 ⽣成モデルのみ ⽣成モデル+RoBERTaNLIスコアリング(解答候補10個のうちもっとも含意の確率が⾼いものを選択) 15 ⽣成モデル+システム2モデル(最⼩世界モデル)

16.

6 実験 構⽂解析を⽤いることで、質問応答性能、論理的な⽣成能⼒を向上 質問応答 最⼩世界モデルは⽣成モデルのみ,または NLIスコアリングを⼤きく上回る100%の 品質管理精度を達成する 物語⽣成 ⽣成された50のストーリーにおいて, すべてのストーリーは少なくとも1⽂は⼀貫性を保 つために再サンプリングされ, ⽣成された⽂の53.1%が論理的整合性を保つために システム2モデルによって拒否 16

17.

6 実験 CLUTRR[Sinha, 2019]を⽤いて物語⽣成タスクについて性能を調査 データセット CLUTRR:⼈間が記述した家族関係を持つストーリーの 質問課題 この課題を物語⽣成タスクとして解く タスク 物語⽣成: 1.⽣成したストーリーの整合性確認を通過できた割合 2.続けて⽣成したストーリーが⼀貫しているかを⼈⼿判断 システム2モデルの整合性確認によって最初に拒否された⽂ その後整合性確認を突破した⽂を⽐較 17

18.

6 実験 CLUTRR[Sinha, 2019]を⽤いて物語⽣成タスクについて性能を調査 詳細 候補作成において以下のものを使⽤ - CLUTRRの汎化性能評価⽤のテストデータに含まれるテキスト(from dataset) - CLUTRR学習コーパスでfine-tuningしたBARTによって⽣成されたテキスト(from model) 最⼩世界モデルは,Z3ソルバ[De Moura & Bjørner, 2008]を⽤いて, 論理関係および制約のセットとして実装。 ⽐較対象 整合性確認 ⽣成モデルのみ ⽣成モデル+システム2モデル(最⼩世界モデル) ⼈⼿評価 ⽣成モデル+システム2モデル(最⼩世界モデル) ⽣成モデル+システム2モデル(NLIモデル) 18

19.

6 実験 システム2モデルによれば,しばしば⽣成モデルは整合性がない システム2モデルによる整合性確認 モデルから⽣成した(from model)条件下では,36.4%のストーリー*と71.9%の⽂しか 整合性確認を突破することができない。 しかし,93.5%のストーリーと96.3%の⽂が10サンプル以内に整合性確認を突破。 *1ストーリーは4行でサンプリング 19

20.

6 実験 システム2モデルに最⼩世界モデルを⽤いた場合、論理的⼀貫性も向上 システム2モデルで修正した⽂の論理的⼀貫性の⼈⼿評価 システム2に最⼩世界モデルを⽤いた場合, 77%(from dataset)と79%(from model)の場合で 意味のある⽂としてシステム2に修正された⽂を選択。 ⼀⽅,システム2にNLIモデルを⽤いた場合, 51%(from dataset)と58%(from model)の場合でしか ⽣成品質を改善したと評価されず。 20

21.

7 議論 システム2としての最⼩世界モデルの利⽤は拡張性に問題がある 有⽤性 本⼿法は少数の論理的制約を明⽰的に設定できる領域では有⽤である。 その⼀⽅で、制約が明⽰的に困難な場合や制約が多い場合, 最⼩世界モデルを⼿作業で設計する必要があるため,そこまでの有⽤性は認められない。 展望 現在の最⼩世界モデルは簡単に修正できるが,⼿作業で変更を⾏う必要がある。 ニューロシンボル学習技術やのニューロシンボル統合作業の要素を取り⼊れ, 構造化された知識を⾃動的に学習し更新することで改善の⾒込みがある。 21

22.

感想 モデルのパラメーターを増やさずに、ニューラルモデルと論理システムを組み合わせて モデルの推論能⼒をあげるというのが共感できる。 ⾃然⾔語推論を⽤いたフィルタリングが⼈⼿評価であまり効果的と判断されなかったのも興味深い。 ある程度のサンプリング回数までに候補⽣成に整合性のあるものが上がってくることが 前提になっている。結果としてFoundation modelには依存してしまう印象がある。 22

23.

まとめ • 近年のニューラル⾔語モデルの発展にも関わらず, ⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。 • そこで,認知科学の⼆重過程理論をもとにニューラルアプローチと 記号的アプローチのそれぞれの⻑所を組み合わせることで, より効果的にドメイン知識を取り込むことができる⼆重過程モデルを提案 • ⾔語⽣成においては、ニューラル⽣成に最⼩限の世界モデルを 組み合わせることで,⽣成する⾔語の⼀貫性と整合性が向上することを⽰ す。 23

24.

DEEP LEARNING JP [DL Papers] “Implicit Representations of Meaning in Neural Language Models (ACL2021)” Okimura Itsuki, Matsuo Lab, B4 http://deeplearning.jp/