Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Deductive Verification of Chain-of-Thought Reasoning, Zhan Ling+, N/A, arXiv'23 #710

Open
AkihikoWatanabe opened this issue Jun 16, 2023 · 0 comments
Labels

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Jun 16, 2023

URL

Affiliations

  • Zhan Ling, N/A
  • Yunhao Fang, N/A
  • Xuanlin Li, N/A
  • Zhiao Huang, N/A
  • Mingu Lee, N/A
  • Roland Memisevic, N/A
  • Hao Su, N/A

Abstract

  • Large Language Models (LLMs) significantly benefit from Chain-of-Thought(CoT) prompting in performing various reasoning tasks. While CoT allows modelsto produce more comprehensive reasoning processes, its emphasis on intermediatereasoning steps can inadvertently introduce hallucinations and accumulatederrors, thereby limiting models' ability to solve complex reasoning tasks.Inspired by how humans engage in careful and meticulous deductive logicalreasoning processes to solve tasks, we seek to enable language models toperform explicit and rigorous deductive reasoning, and also ensure thetrustworthiness of their reasoning process through self-verification. However,directly verifying the validity of an entire deductive reasoning process ischallenging, even with advanced models like ChatGPT. In light of this, wepropose to decompose a reasoning verification process into a series ofstep-by-step subprocesses, each only receiving their necessary context andpremises. To facilitate this procedure, we propose Natural Program, a naturallanguage-based deductive reasoning format. Our approach enables models togenerate precise reasoning steps where subsequent steps are more rigorouslygrounded on prior steps. It also empowers language models to carry outreasoning self-verification in a step-by-step manner. By integrating thisverification process into each deductive reasoning stage, we significantlyenhance the rigor and trustfulness of generated reasoning steps. Along thisprocess, we also improve the answer correctness on complex reasoning tasks.Code will be released at https://github.com/lz1oceani/verify_cot.

Translation (by gpt-3.5-turbo)

  • 大規模言語モデル(LLMs)は、Chain-of-Thought(CoT)プロンプティングによって、さまざまな推論タスクで大きな恩恵を受けています。CoTによって、モデルはより包括的な推論プロセスを生成できるようになりますが、中間推論ステップに重点を置くことで、幻覚や蓄積されたエラーを誘発する可能性があり、複雑な推論タスクを解決する能力が制限されることがあります。
    人間がタスクを解決するために注意深く緻密な演繹的論理推論プロセスに従事する方法に着想を得て、言語モデルが明示的で厳密な演繹的推論を実行し、自己検証を通じて推論プロセスの信頼性を確保できるようにすることを目指しています。しかし、ChatGPTなどの高度なモデルでも、演繹的推論プロセス全体の妥当性を直接検証することは困難です。このため、推論検証プロセスを一連のステップごとのサブプロセスに分解し、必要な文脈と前提条件のみを受け取るようにすることを提案します。この手順を容易にするために、自然言語ベースの演繹的推論形式であるNatural Programを提案します。このアプローチにより、モデルは、後続のステップが前のステップにより厳密に基礎づけられるように、正確な推論ステップを生成できるようになります。また、言語モデルは、ステップごとに推論自己検証を実行できるようになります。この検証プロセスを各演繹的推論段階に統合することで、生成された推論ステップの厳密性と信頼性を大幅に向上させます。このプロセスに沿って、複雑な推論タスクの回答の正確性も向上させます。
    コードはhttps://github.com/lz1oceani/verify_cotで公開されます。

Summary (by gpt-3.5-turbo)

  • 大規模言語モデル(LLMs)を使用して、Chain-of-Thought(CoT)プロンプティングによる推論タスクを解決するために、自己検証を通じて推論プロセスの信頼性を確保するNatural Programを提案する。このアプローチにより、モデルは正確な推論ステップを生成し、各演繹的推論段階に統合された検証プロセスにより、生成された推論ステップの厳密性と信頼性を向上させることができる。コードはhttps://github.com/lz1oceani/verify_cotで公開される。
@AkihikoWatanabe AkihikoWatanabe changed the title Deductive Verification of Chain-of-Thought Reasoning, Zhan Ling+, N/A, arXiv'23 Jun 16, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

1 participant