Skip to content

WebGao/Prompt-Learning

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

41 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Prompt Learning Beta

Contents

Basics of Prompt

1. Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference (EACL 2021) [pdf]

hard prompt MLM参数更新

Motivation

  • 由于语言、领域和任务的标注成本极高,在实际将语言模型应用到下游任务时,labeled samples很珍贵,few-shot场景非常常见,限制有监督学习,因而引起学者、从业者们对few-shot setting下执行NLP任务的关注。
  • 给预训练语言模型引入文本解释/任务描述,可以通过无监督方式有效解决一些NLP任务(zero-shot scenario)。
  • 综合考虑,本文提出引入pattern-exploiting-training,设计一种半监督训练策略PET和其改进版本iPET,将NLP的输入samples(text)映射为填空题形式(cloze-style phrase)。
Solution

Framework of PET

2. It’s Not Just Size That Matters - Small Language Models Are Also Few-Shot Learners (NAACL 2021) [pdf]

hard prompt MLM参数更新

Motivation

  • PET、iPET框架只能处理单个[mask]的完形填空,而实际任务可能会遇到多个[mask]。
  • 本文相当于PET、iPET的改进版本,将单[mask] token拓展到k个[mask] tokens。

3. AUTOPROMPT: Eliciting Knowledge from Language Models with Automatically Generated Prompts (PrePrint 2020) [pdf]

soft prompt MLM参数固定?

Motivation

  • 在使用预训练语言模型时,将下游任务定义为填空题形式(任务->语言模型,与语言模型完美契合),使用prompt沟通预训练模型和下游任务,有助于评价预训练阶段学习到的知识情况,切无需引入大量的新参数。
  • 以往专家设计的prompt(hard prompt)成本高,对许多任务而言不直观,此外,模型对prompt包含的context信息高度敏感,因此人工设计的prompt容易引入bias。
  • 为此,本文提出自动学习prompt和label的方式。
Solution

Framework of AutoPrompt

4. Prefix-Tuning: Optimizing Continuous Prompts for Generation (2021) [pdf][GitHub]

soft prefix prompt tokens hard input sample prompt tokens MLM参数固定

Motivation

  • 使用pre-train -> fine-tune范式将预训练语言模型应用下游任务时,通常需要更新预训练语言模型的参数。对不同任务需要分别fine-tune一次模型,并存储其参数,训练和存储开销昂贵。
  • 本文提出为每个任务训练连续的prefix prompt tokens(prefix of input samples),趋势语言模型执行不同任务。
Solution

Framework of Prefix-Tuning

5. PADA: A Prompt-based Autoregressive Approach for Adaptation to Unseen Domains (2021) [pdf]

soft prompt MLM

Motivation

6. WARP: Word-level Adversarial ReProgramming (ACL 2021) [pdf]

soft prompt MLM参数固定,只更新插入的prompt和label

Motivation

Solution

Framework of Warp

7. Making Pre-trained Language Models Better Few-shot Learners (2021) [pdf]

Motivation

Solution

Prompt

8. What Makes Good In-Context Examples for GPT-3? (2021) [pdf]

Motivation

Solution

Prompt

Prompt @ Recommendation

1. Prompt Learning for News Recommendation (SIGIR 2023) [pdf] 👀

soft prompt hard prompt hybrid prompt

Motivation

  • 传统新闻推荐模型:news encoder、user encoder、similarity measure 最近工作引入预训练语言模型,以pre-trian -> fine-tune范式,编码新闻内容,以进行新闻推荐。不足:因为新闻推荐任务和预训练语言模型任务存在gap,当前方法无法充分利用大语言模型的知识。
  • prompt learning以pre-train -> prompt -> predict范式将下游任务和预训练语言模型对齐,在诸多NLP任务表现出色。受此启发,本文将prompt learning模式引入新闻推荐。
Solution

Framework of Prompt4NR

Propmts of Prompt4NR

2. Personalized Prompt for Sequential Recommendation (2023) [pdf] 👀

Motivation

  • 随着预训练语言模型的火爆出圈,鉴于其其强大的知识储备、语义理解和语言处理能力,最近相关工作开始将预训练语言模型引入序列推荐。相关研究将用户历史行为视为tokens,作为预训练语言模型的输入,以缓解真实场景下用户行为数据洗漱问题。
  • 本文将预训练语言模型引入到序列推荐任务以处理few-shot和zero-shot问题,采用prompt learning范式,将推荐任务和预训练语言模型对齐,以更高效从预训练语言模型提取知识。

Challenge

  • 如何将NLP领域的prompt tuning范式引入推荐任务?
  • 如何为推荐系统设计个性化prompts(user-oriented)。
Solution

Example of prompt tuning in recommendation

Framework of Prompt4SeqRec

3. Personalized Prompt Learning for Explainable Recommendation (2023) [pdf]

Motivation

4. GPT4Rec: A Generative Framework for Personalized Recommendation and User Interests Interpretation (2023) [pdf]

Motivation

5. Large Language Models are Zero-Shot Rankers for Recommender Systems (2023) [pdf]

Testing LLM for Rec

Motivation

6. Zero-Shot Next-Item Recommendation using Large Pretrained Language Models (2023) [pdf]

7. Towards Personalized Cold-Start Recommendation with Prompts

8. Recommender Systems in the Era of Large Language Models (LLMs)

9. Generative recommendation: Towards next-generation recommender paradigm

Education

1. Matching Exemplar as Next Sentence Prediction (MeNSP): Zero-shot Prompt Learning for Automatic Scoring in Science Education

Survey

1. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing (2021) [pdf]

Motivation