You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Pretraining Large Language Models (LLMs) on large corpora of textual data isnow a standard paradigm. When using these LLMs for many downstreamapplications, it is common to additionally bake in new knowledge (e.g.,time-critical news, or private domain knowledge) into the pretrained modeleither through RAG-based-prompting, or fine-tuning. However, the optimalmethodology for the model to gain such new knowledge remains an open question.In this paper, we present Retrieval Augmented FineTuning (RAFT), a trainingrecipe that improves the model's ability to answer questions in a "open-book"in-domain settings. In RAFT, given a question, and a set of retrieveddocuments, we train the model to ignore those documents that don't help inanswering the question, which we call, distractor documents. RAFT accomplishesthis by citing verbatim the right sequence from the relevant document thatwould help answer the question. This coupled with RAFT's chain-of-thought-styleresponse helps improve the model's ability to reason. In domain-specific RAG,RAFT consistently improves the model's performance across PubMed, HotpotQA, andGorilla datasets, presenting a post-training recipe to improve pre-trained LLMsto in-domain RAG. RAFT's code and demo are open-sourced atgithub.com/ShishirPatil/gorilla.
URL
Affiliations
Abstract
Translation (by gpt-3.5-turbo)
これらのLLMsをさまざまな下流アプリケーションに使用する際、事前学習済みモデルに新しい知識(例:時間的に重要なニュースやプライベートドメインの知識)を追加することが一般的です。
これは、RAGベースのプロンプティングやファインチューニングを介して行われます。
ただし、モデルがそのような新しい知識を獲得するための最適な方法は未解決の問題です。
本論文では、"open-book"のドメイン設定で質問に答える能力を向上させるトレーニングレシピであるRetrieval Augmented FineTuning(RAFT)を提案します。
RAFTでは、質問と取得された文書のセットが与えられた場合、モデルを、質問に回答するのに役立たない文書(distractor documentsと呼ぶ)を無視するようにトレーニングします。
RAFTは、質問に答えるのに役立つ関連文書から正しいシーケンスをそのまま引用することでこれを達成します。
これに加えて、RAFTのchain-of-thoughtスタイルの応答が、モデルの推論能力を向上させるのに役立ちます。
ドメイン固有のRAGでは、RAFTはPubMed、HotpotQA、Gorillaデータセット全体でモデルのパフォーマンスを一貫して向上させ、事前学習済みLLMsをドメイン固有のRAGに向けて改善するためのポストトレーニングレシピを提供します。
RAFTのコードとデモはgithub.com/ShishirPatil/gorillaでオープンソースとして公開されています。
Summary (by gpt-3.5-turbo)
RAFTは、質問に回答するのに役立つ関連文書から正しいシーケンスを引用し、chain-of-thoughtスタイルの応答を通じて推論能力を向上させる。
RAFTはPubMed、HotpotQA、Gorillaデータセットでモデルのパフォーマンスを向上させ、事前学習済みLLMsをドメイン固有のRAGに向けて改善する。
The text was updated successfully, but these errors were encountered: