Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Controlled Text Generation with Natural Language Instructions, Wangchunshu Zhou+, N/A, arXiv'23 #594

Open
AkihikoWatanabe opened this issue Apr 30, 2023 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Apr 30, 2023

URL

Affiliations

  • Wangchunshu Zhou, N/A
  • Yuchen Eleanor Jiang, N/A
  • Ethan Wilcox, N/A
  • Ryan Cotterell, N/A
  • Mrinmaya Sachan, N/A

Abstract

  • Large language models generate fluent texts and can follow natural languageinstructions to solve a wide range of tasks without task-specific training.Nevertheless, it is notoriously difficult to control their generation tosatisfy the various constraints required by different applications. In thiswork, we present InstructCTG, a controlled text generation framework thatincorporates different constraints by conditioning on natural languagedescriptions and demonstrations of the constraints. In particular, we firstextract the underlying constraints of natural texts through a combination ofoff-the-shelf NLP tools and simple heuristics. We then verbalize theconstraints into natural language instructions to form weakly supervisedtraining data. By prepending natural language descriptions of the constraintsand a few demonstrations, we fine-tune a pre-trained language model toincorporate various types of constraints. Compared to existing search-based orscore-based methods, InstructCTG is more flexible to different constraint typesand has a much smaller impact on the generation quality and speed because itdoes not modify the decoding procedure. Additionally, InstructCTG allows themodel to adapt to new constraints without re-training through the use offew-shot task generalization and in-context learning abilities ofinstruction-tuned language models.

Translation (by gpt-3.5-turbo)

  • 大規模言語モデルは、タスク固有のトレーニングなしに、自然言語の指示に従って幅広いタスクを解決することができ、流暢なテキストを生成することができます。しかし、異なるアプリケーションで必要な様々な制約を満たすために、彼らの生成を制御することは非常に困難です。本研究では、自然言語の説明と制約のデモンストレーションに基づいて、異なる制約を組み込むことができる制御されたテキスト生成フレームワークであるInstructCTGを提案します。特に、オフシェルフのNLPツールと簡単なヒューリスティックの組み合わせにより、自然言語テキストの基礎となる制約を抽出します。その後、制約を自然言語の指示に言い換えて、弱く監督されたトレーニングデータを形成します。制約の自然言語の説明といくつかのデモンストレーションを前置することで、事前にトレーニングされた言語モデルを微調整して、さまざまなタイプの制約を組み込むことができます。既存の探索ベースまたはスコアベースの方法と比較して、InstructCTGは、異なる制約タイプに対してより柔軟であり、デコーディング手順を変更しないため、生成品質と速度にはほとんど影響を与えません。さらに、InstructCTGは、指示に調整された言語モデルの少数ショットタスク汎化とインコンテキスト学習能力を利用して、再トレーニングなしに新しい制約に適応することができます。

Summary (by gpt-3.5-turbo)

  • 本研究では、自然言語の説明と制約のデモンストレーションに基づいて、異なる制約を組み込むことができる制御されたテキスト生成フレームワークであるInstructCTGを提案しています。制約を自然言語の指示に言い換えて、弱く監督されたトレーニングデータを形成し、事前にトレーニングされた言語モデルを微調整して、さまざまなタイプの制約を組み込むことができます。InstructCTGは、異なる制約タイプに対してより柔軟であり、生成品質と速度にはほとんど影響を与えず、再トレーニングなしに新しい制約に適応することができます。
@AkihikoWatanabe
Copy link
Owner Author

image

@AkihikoWatanabe AkihikoWatanabe changed the title a Controlled Text Generation with Natural Language Instructions, Wangchunshu Zhou+, N/A, arXiv'23 Apr 30, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant