You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
While recent language models have the ability to take long contexts as input,relatively little is known about how well the language models use longercontext. We analyze language model performance on two tasks that requireidentifying relevant information within their input contexts: multi-documentquestion answering and key-value retrieval. We find that performance is oftenhighest when relevant information occurs at the beginning or end of the inputcontext, and significantly degrades when models must access relevantinformation in the middle of long contexts. Furthermore, performancesubstantially decreases as the input context grows longer, even for explicitlylong-context models. Our analysis provides a better understanding of howlanguage models use their input context and provides new evaluation protocolsfor future long-context models.
URL
Affiliations
Abstract
Translation (by gpt-3.5-turbo)
私たちは、入力文脈内の関連情報を特定する必要がある2つのタスク、マルチドキュメントの質問応答とキー・バリューの検索における言語モデルのパフォーマンスを分析しました。
私たちは、関連情報が入力文脈の始まりや終わりにある場合、パフォーマンスが最も高くなることを見つけましたが、長い文脈の中で関連情報にアクセスする必要がある場合、パフォーマンスが著しく低下します。
さらに、入力文脈が長くなるにつれて、明示的に長い文脈を扱うモデルでもパフォーマンスが大幅に低下します。
私たちの分析は、言語モデルが入力文脈をどのように利用しているかをより良く理解するためのものであり、将来の長い文脈モデルのための新しい評価プロトコルを提供します。
Summary (by gpt-3.5-turbo)
The text was updated successfully, but these errors were encountered: