Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Enhancing Zero-Shot Chain-of-Thought Reasoning in Large Language Models through Logic, Xufeng Zhao+, N/A, arXiv'23 #1065

Open
AkihikoWatanabe opened this issue Oct 9, 2023 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Oct 9, 2023

URL

Affiliations

  • Xufeng Zhao, N/A
  • Mengdi Li, N/A
  • Wenhao Lu, N/A
  • Cornelius Weber, N/A
  • Jae Hee Lee, N/A
  • Kun Chu, N/A
  • Stefan Wermter, N/A

Abstract

  • Recent advancements in large language models have showcased their remarkablegeneralizability across various domains. However, their reasoning abilitiesstill have significant room for improvement, especially when confronted withscenarios requiring multi-step reasoning. Although large language modelspossess extensive knowledge, their behavior, particularly in terms ofreasoning, often fails to effectively utilize this knowledge to establish acoherent thinking paradigm. Generative language models sometimes showhallucinations as their reasoning procedures are unconstrained by logicalprinciples. Aiming to improve the zero-shot chain-of-thought reasoning abilityof large language models, we propose Logical Chain-of-Thought (LogiCoT), aneurosymbolic framework that leverages principles from symbolic logic to verifyand revise the reasoning processes accordingly. Experimental evaluationsconducted on language tasks in diverse domains, including arithmetic,commonsense, symbolic, causal inference, and social problems, demonstrate theefficacy of the enhanced reasoning paradigm by logic.

Translation (by gpt-3.5-turbo)

  • 最近の大規模言語モデルの進歩は、さまざまなドメインでのその驚異的な汎用性を示しています。しかし、特に多段階の推論を必要とするシナリオに直面した場合、その推論能力にはまだ大きな改善の余地があります。大規模言語モデルは広範な知識を持っていますが、特に推論の観点からは、この知識を効果的に活用して一貫した思考パラダイムを確立することができないことがしばしばあります。生成型言語モデルは、論理的な原則に制約されないため、推論手順に幻覚を示すことがあります。大規模言語モデルのゼロショットの連鎖思考推論能力を向上させることを目指して、私たちはLogical Chain-of-Thought(LogiCoT)という神経記号的なフレームワークを提案します。このフレームワークは、記号論理の原則を活用して推論プロセスを検証し、修正することができます。算術、常識、記号、因果推論、社会問題など、さまざまなドメインの言語タスクで行われた実験評価は、論理による推論パラダイムの効果を示しています。

Summary (by gpt-3.5-turbo)

  • 大規模言語モデルの進歩は驚異的だが、多段階の推論には改善の余地がある。大規模言語モデルは知識を持っているが、推論には一貫性がなく、幻覚を示すことがある。そこで、Logical Chain-of-Thought(LogiCoT)というフレームワークを提案し、論理による推論パラダイムの効果を示した。
@AkihikoWatanabe
Copy link
Owner Author

まーた新しいX of Thoughtが出た。必要そうなら読む。

@AkihikoWatanabe AkihikoWatanabe changed the title Enhancing Zero-Shot Chain-of-Thought Reasoning in Large Language Models through Logic, Xufeng Zhao+, N/A, arXiv'23 Oct 9, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant