Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Measuring Inductive Biases of In-Context Learning with Underspecified Demonstrations, ACL'23 #830

Open
AkihikoWatanabe opened this issue Jul 15, 2023 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

https://virtual2023.aclweb.org/paper_P4286.html

@AkihikoWatanabe
Copy link
Owner Author

AkihikoWatanabe commented Jul 22, 2023

In-context learning (ICL) is an important paradigm for adapting large language models (LLMs) to new tasks, but the generalization behavior of ICL remains poorly understood. We investigate the inductive biases of ICL from the perspective of feature bias: which feature ICL is more likely to use given a set of underspecified demonstrations in which two features are equally predictive of the labels. First, we characterize the feature biases of GPT-3 models by constructing underspecified demonstrations from a range of NLP datasets and feature combinations. We find that LLMs exhibit clear feature biases—for example, demonstrating a strong bias to predict labels according to sentiment rather than shallow lexical features, like punctuation. Second, we evaluate the effect of different interventions that are designed to impose an inductive bias in favor of a particular feature, such as adding a natural language instruction or using semantically relevant label words. We find that, while many interventions can influence the learner to prefer a particular feature, it can be difficult to overcome strong prior biases. Overall, our results provide a broader picture of the types of features that ICL may be more likely to exploit and how to impose inductive biases that are better aligned with the intended task.

Translation (by gpt-3.5-turbo)

  • インコンテキスト学習(ICL)は、大規模言語モデル(LLMs)を新しいタスクに適応させるための重要なパラダイムですが、ICLの一般化の振る舞いはまだ十分に理解されていません。私たちは、ICLの帰納的なバイアスについて、フィーチャーバイアスの観点から調査を行います:2つのフィーチャーがラベルの予測に同じくらい寄与するような不完全なデモンストレーションが与えられた場合、ICLはどのフィーチャーをより頻繁に使用する傾向があるのかを調べます。まず、さまざまなNLPデータセットとフィーチャーコンビネーションから不完全なデモンストレーションを構築し、GPT-3モデルのフィーチャーバイアスを特徴付けます。私たちは、LLMsが明確なフィーチャーバイアスを示すことを発見しました。例えば、句読点などの浅いレキシカルな特徴ではなく、感情に基づいてラベルを予測する強いバイアスが示されます。次に、自然言語の指示を追加したり、意味的に関連するラベルの単語を使用するなど、特定のフィーチャーを好むような帰納的なバイアスを課すためのさまざまな介入の効果を評価します。私たちは、多くの介入が学習者に特定のフィーチャーを好むように影響を与えることができる一方で、強い事前のバイアスを克服するのは困難であることを発見しました。全体として、私たちの結果は、ICLがより頻繁に利用する可能性のあるフィーチャーのタイプと、意図したタスクとより一致した帰納的なバイアスを課す方法について、より広範な情報を提供します。

Summary (by gpt-3.5-turbo)

  • インコンテキスト学習(ICL)は、大規模言語モデル(LLMs)を新しいタスクに適応させるための重要なパラダイムですが、ICLの一般化の振る舞いはまだ十分に理解されていません。本研究では、ICLの帰納的なバイアスについて調査を行いました。具体的には、不完全なデモンストレーションが与えられた場合、ICLはどのフィーチャーをより頻繁に使用する傾向があるのかを調べました。実験の結果、LLMsが明確なフィーチャーバイアスを示すことがわかりました。また、特定のフィーチャーを好むような帰納的なバイアスを課すためのさまざまな介入の効果も評価しました。全体として、ICLがより頻繁に利用する可能性のあるフィーチャーのタイプと、意図したタスクとより一致した帰納的なバイアスを課す方法について、より広範な情報を提供する結果となりました。

@AkihikoWatanabe AkihikoWatanabe changed the title Measuring Inductive Biases of In-Context Learning with Underspecified Demonstrations Measuring Inductive Biases of In-Context Learning with Underspecified Demonstrations, ACL'23 Oct 22, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant