Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Chain-of-Thought Reasoning Without Prompting, Xuezhi Wang+, N/A, arXiv'24 #1247

Open
AkihikoWatanabe opened this issue Mar 5, 2024 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Mar 5, 2024

URL

Affiliations

  • Xuezhi Wang, N/A
  • Denny Zhou, N/A

Abstract

  • In enhancing the reasoning capabilities of large language models (LLMs),prior research primarily focuses on specific prompting techniques such asfew-shot or zero-shot chain-of-thought (CoT) prompting. These methods, whileeffective, often involve manually intensive prompt engineering. Our study takesa novel approach by asking: Can LLMs reason effectively without prompting? Ourfindings reveal that, intriguingly, CoT reasoning paths can be elicited frompre-trained LLMs by simply altering the \textit{decoding} process. Rather thanconventional greedy decoding, we investigate the top-$k$ alternative tokens,uncovering that CoT paths are frequently inherent in these sequences. Thisapproach not only bypasses the confounders of prompting but also allows us toassess the LLMs' \textit{intrinsic} reasoning abilities. Moreover, we observethat the presence of a CoT in the decoding path correlates with a higherconfidence in the model's decoded answer. This confidence metric effectivelydifferentiates between CoT and non-CoT paths. Extensive empirical studies onvarious reasoning benchmarks show that the proposed CoT-decoding substantiallyoutperforms the standard greedy decoding.

Translation (by gpt-3.5-turbo)

  • 大規模言語モデル(LLMs)の推論能力を向上させるために、従来の研究では、few-shotやzero-shotのchain-of-thought(CoT)プロンプティングなど、特定のプロンプティング技術に焦点を当ててきた。
    これらの方法は効果的ではあるが、しばしば手動でのプロンプトエンジニアリングが必要となる。
    本研究は、LLMsがプロンプトなしでも効果的に推論できるかどうかという新しいアプローチを取っている。
    我々の研究結果は、興味深いことに、事前学習されたLLMsからCoT推論パスを単純に\textit{デコーディング}プロセスを変更することで引き出すことができることを示している。
    従来の貪欲なデコーディングではなく、上位-$k$の代替トークンを調査することで、これらのシーケンスにCoTパスが頻繁に内在していることが明らかになっている。
    このアプローチは、プロンプティングの混乱を回避するだけでなく、LLMsの\textit{固有の}推論能力を評価することも可能となる。
    さらに、デコーディングパスにCoTが存在することは、モデルのデコードされた回答に対する信頼度が高いことと相関していることが観察されている。
    この信頼度メトリクスは、CoTパスと非CoTパスを効果的に区別する。
    様々な推論ベンチマークにおける包括的な実験研究は、提案されたCoTデコーディングが標準の貪欲なデコーディングを大幅に上回ることを示している。

Summary (by gpt-3.5-turbo)

  • LLMsの推論能力を向上させるための新しいアプローチに焦点を当てた研究が行われている。この研究では、LLMsがプロンプトなしで効果的に推論できるかどうかを検証し、CoT推論パスをデコーディングプロセスを変更することで引き出す方法を提案している。提案手法は、従来の貪欲なデコーディングではなく、代替トークンを調査することでCoTパスを見つけることができることを示しており、様々な推論ベンチマークで有効性を示している。
@AkihikoWatanabe AkihikoWatanabe changed the title Chain-of-Thought Reasoning Without Prompting, Xuezhi Wang+, N/A, arXiv'24 Mar 5, 2024
@AkihikoWatanabe
Copy link
Owner Author

以前にCoTを内部的に自動的に実施されるように事前学習段階で学習する、といった話があったと思うが、この研究はデコーディング方法を変更することで、promptingで明示的にinstructionを実施せずとも、CoTを実現するもの、ということだと思われる。
image

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant