Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Direct Fact Retrieval from Knowledge Graphs without Entity Linking, ACL'23 #821

Open
AkihikoWatanabe opened this issue Jul 14, 2023 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

https://virtual2023.aclweb.org/paper_P1160.html

@AkihikoWatanabe
Copy link
Owner Author

AkihikoWatanabe commented Jul 22, 2023

There has been a surge of interest in utilizing Knowledge Graphs (KGs) for various natural language processing/understanding tasks. The conventional mechanism to retrieve facts in KGs usually involves three steps: entity span detection, entity disambiguation, and relation classification. However, this approach requires additional labels for training each of the three subcomponents in addition to pairs of input texts and facts, and also may accumulate errors propagated from failures in previous steps. To tackle these limitations, we propose a simple knowledge retrieval framework, which directly retrieves facts from the KGs given the input text based on their representational similarities, which we refer to as Direct Fact Retrieval (DiFaR). Specifically, we first embed all facts in KGs onto a dense embedding space by using a language model trained by only pairs of input texts and facts, and then provide the nearest facts in response to the input text. Since the fact, consisting of only two entities and one relation, has little context to encode, we propose to further refine ranks of top-k retrieved facts with a reranker that contextualizes the input text and the fact jointly. We validate our DiFaR framework on multiple fact retrieval tasks, showing that it significantly outperforms relevant baselines that use the three-step approach.

Translation (by gpt-3.5-turbo)

  • 知識グラフ(KG)を自然言語処理/理解のさまざまなタスクに活用することへの関心が高まっています。KG内の事実を取得する従来のメカニズムは、通常、エンティティの範囲検出、エンティティの曖昧さ解消、および関係の分類の3つのステップを含みます。しかし、このアプローチでは、各サブコンポーネントのトレーニングには追加のラベルが必要であり、入力テキストと事実のペアに加えて、前のステップの失敗から伝播するエラーが蓄積される可能性もあります。これらの制限に対処するために、我々はシンプルな知識取得フレームワークを提案します。このフレームワークは、入力テキストに基づいてKGから直接事実を取得するものであり、それらの表現的な類似性に基づいています。このフレームワークをDirect Fact Retrieval(DiFaR)と呼んでいます。具体的には、まず、入力テキストと事実のペアのみを使用してトレーニングされた言語モデルを使用して、KG内のすべての事実を密な埋め込み空間に埋め込みます。そして、入力テキストに対する最も近い事実を提供します。事実は、2つのエンティティと1つの関係からなるため、エンコードする文脈がほとんどありません。そのため、入力テキストと事実を共同で文脈化するリランカーを使用して、上位k個の取得された事実のランクをさらに改善することを提案します。我々のDiFaRフレームワークを複数の事実取得タスクで検証し、3ステップアプローチを使用する関連するベースラインよりも大幅に優れていることを示しました。

Summary (by gpt-3.5-turbo)

  • 従来の知識取得メカニズムの制限を克服するために、我々はシンプルな知識取得フレームワークであるDiFaRを提案する。このフレームワークは、入力テキストに基づいて直接KGから事実を取得するものであり、言語モデルとリランカーを使用して事実のランクを改善する。DiFaRは複数の事実取得タスクでベースラインよりも優れた性能を示した。

@AkihikoWatanabe AkihikoWatanabe changed the title Direct Fact Retrieval from Knowledge Graphs without Entity Linking Direct Fact Retrieval from Knowledge Graphs without Entity Linking, ACL'23 Oct 22, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant