You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
そこで本論では,対話履歴における因果関係を含む応答候補のリランキングをするためのスコアを定義.因果関係ペアに関しては,(Shibata and Kurohashiら)の大規模コーパスを利用.また分散イベント表現として,Role Factored Tensor Model (RFTM, Weber, 2018)を利用し,利用したコーパスの因果関係ペアに含まれていないとしても,ロバストな因果関係をマッチングできるようにした.人と自動評価で一貫して多用な応答を選択できていることを確認
Response Re-ranking Using Event Causality Relations
jojonki
changed the title
🚧 2019: Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
2019: Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
Aug 20, 2019
Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
Shohei Tanaka, Koichiro Yoshino, Katsuhito Sudoh, Satoshi Nakamura
Accepted by 1st Workshop NLP for Conversational AI, ACL 2019 Workshop (ConvAI)
https://arxiv.org/abs/1906.09795
概要
対話コンテキストを与えて,一貫した,多用的な応答を生成する手法を提案.提案手法では,対話履歴におけるイベントの因果関係を利用し,対話モデルから出力された応答候補をリランキングする(例えば,be stressed out" -> "relieve stress").システムのイベント因果関係知識の制限のために,イベント因果関係ロバストなマッチングのためにRole Factored Tensor Modelをベースとした分散イベント表現を利用する.
イントロ
ニューラル対話モデル(2015)は広く研究されているが,対話コンテキストを考慮する能力に乏しいため,シンプルでdull な応答を返しがちという問題がある.我々はこの問題に対して,応答候補と対話履歴の因果関係を取り込むアーキテクチャを提案することで取り組む.(Shibata and Kurohashi 2011; Shibata 2014)では原因となるイベントの後には,結果となるイベントが起きやすいということを示している.またwhy-question answeringシステムでも利用されている(Oh 2013, 2016, 2017).また因果関係の利用により多用で一貫した応答が生成できることも知られている(Fujita 2011).しかし,対話継続生徒応答の一貫性の関係に関しては依然として問題である.
そこで本論では,対話履歴における因果関係を含む応答候補のリランキングをするためのスコアを定義.因果関係ペアに関しては,(Shibata and Kurohashiら)の大規模コーパスを利用.また分散イベント表現として,Role Factored Tensor Model (RFTM, Weber, 2018)を利用し,利用したコーパスの因果関係ペアに含まれていないとしても,ロバストな因果関係をマッチングできるようにした.人と自動評価で一貫して多用な応答を選択できていることを確認
Response Re-ranking Using Event Causality Relations
Fig 1に提案手法の全体図.4つのパートから構成.
Neural Conversation Model (NCM)
beam search or sampling (Macherey et al., 2016)を利用(RNNベースのもの)
イベント因果関係ペア
原因ー結果の関係をもつペアは,Shibataらの大規模コーパスを利用して抽出される.共起統計と格フレームをベースのもの.420Kエントリが16億文から抽出される.Table 1参照.Predicate 1とargument 1が,原因,predicate 2とargument 2が結果に対応.各イベントはpredicate(必須)とargument(任意)から構成される.argumentsにはガヲニデ格のいずれか.liftは2イベント間の相互情報量.
そしてリランキングためのスコアとして下記を定義.
Distributed Event Representation Based on Role Factored Tensor Model (RFTM)
実際のコーパスで観測されるイベントペアだけの利用だけで因果関係を決定するのは難しいので,分散表現を利用する.全てのイベントは固定長のベクトルに変換され,類似度を計算するのに利用する.
まずイベントは,単体のpredicateかpredicateとargumentsのペアとして定義.argument aはvaにskip-gramを用いて埋め込みされる.predicate pはvpに各ユニットのskip-gramを用いて埋め込みされる.Fig 2にpredicate埋め込みの図を示す.predicate: relieveに対して,格を予測するようなニューラルネットで構成される.このモデルではpredicateベクトルを学習でき,argumentsを予測するようになっている.vpとvaから構成されるイベントの埋め込みに関してはRFTM (Weber 2018)を採用.下記のように定式化される.Tは3Dテンソル,Waはマトリックス.もしargumentsがない場合は,vpがそんままeになる.RFTMはイベントシーケンスを予測するように学習されるため,特定のコンテキストにおけるイベントの意味表現を獲得できる
Event Causality Relation Matching Based on Distributed Event Representation
Fig 3にイベントのマッチングの過程を示す.
実験
応答の評価に対して,自動および人評価を行う(リランキングあり・なし両方).応答生成モデルとして,アテンション付きEnc-DecモデルおよびHierachical Recurrent Enc-Dec (HRED)を採用.HREDは一貫した応答を生成しようとするが,少量のコンテキスト制約においては多様性が少ない.
学習データにはWikipediaのダンプデータを用い,skip-gramとRFTMのpredicate単語埋め込みの学習に利用.また毎日新聞のデータもRFTM学習に利用.対話データにはTwitterを利用し,2632Kの対話,平均22ターン,平均22単語長の発話,を利用.
モデル設定
細かい設定に関しては3.1参照.損失に以前Podcastで紹介したInverse Token Frequency #159 を利用.SentencePiece採用など.
リランキングスコア(式1,4)のラムダは1に設定(ちなみに0にするとリランキングなしと同じ状態)
ビームサーチの多様性
ビーム幅20でベースの応答生成モデルの多様性を測定.dist-1, 2(Li 2016)の結果をTable 3に.HREDよりもEncDecの方が高い.// だからと言ってHREDが優れていないとは言えないことに注意
自動評価の比較
自動評価の比較手法は下記.(詳細は3.3参照)
結果から以下が読み取れる
人評価
HRED,re-ranking, re-ranking (emb)の3モデルを比較.この3モデルから2つを比較する形でTable 4, 5, 6に結果を示す.評価はクラウドワーカーを利用し,2つのクライテリア(単語一貫性:対話履歴により関連している応答の単語群はどっち?,対話連続性:どちらのシステム応答が対話履歴に対する応答にふさわしいか).// Alexa Prize (Ram 2018)にインスパイさされたクライテリア
Discussion
因果関係を使ったリランキングの妥当性に関して定性的に評価.
下記はうまくいった例.理にかなっており,一貫して多様な応答を生成できている.ただしこれが主要なものではなかった
下記にうまく行っていない例を示す.
人評価の結果から適切な因果関係を選ぶ際における2つの問題を仮説.
Conclusions
NCMが生成した応答候補を因果関係に着目してリランキングする手法を提案.イベント埋め込みなどを利用してロバストな手法を提案.実験では,一貫して応答な応答を選択することができた.手法は今回日本語だが,述語項構造を利用するため,特に言語は問わない.しかし,不自然な応答は選択した因果関係によって選ばれている事例もあり,イベントの過剰一般化や自然さ改善などをfuture workとしてやりたい
コメント
The text was updated successfully, but these errors were encountered: