Skip to content

Latest commit

 

History

History
168 lines (142 loc) · 8.34 KB

README_trans.md

File metadata and controls

168 lines (142 loc) · 8.34 KB

CMDAG: A Chinese Metaphor Dataset with Annotated Grounds 附带标注共性的中文隐喻数据集

This dataset provides a meticulously annotated and rigorously formatted collection of Chinese metaphors (~28k entries). The dataset has undergone expert quality checks and demonstrates universal characteristics. This makes it especially suitable for applications such as pre-training large-scale models.

这是一个经过精心标注、严格格式化的中文隐喻数据集(~28k),该数据集经过专家的质量检查并具有普遍性特征,适合用于大规模模型预训练等应用场景。

🔍 Read this in English.

💹 统计 Statistics

  • 平均句子长度 Average sentence length: 59.137
  • 本体-喻体对数量 Number of tenor-vehicle pairs: 36002
  • 总文本数量 Number of total contexts: 27989

✈️ 大模型(LLM)实验进度 Large Language Models (LLM) Experiment Progress

  • OpenAI Models🌐
    • ChatGPT 3.5 Turbo🤖
    • ChatGPT 4.0 🤖
  • ChatGLM🤓
  • Baichuan🌊
  • Belle🛎️
  • Baidu ERNIE🦅
  • TigerBot🐅
    • TigerBot-7B-Chat🐾
    • TigerBot-13B-Chat🐾
  • Chinese-alpaca🦙
    • Chinese-alpaca-7B🏮
    • Chinese-alpaca-13B🏮
    • Chinese-alpaca-33B🏮
  • Chinese-alpaca-2🦙
    • Chinese-alpaca-2-7B🎏
    • Chinese-alpaca-2-13B🎏
  • chinese-llama2-linly🦙
    • chinese-llama2-linly-7B🍃
    • chinese-llama2-linly-13B🍃
  • Qwen-7B-Chat🌟
  • Ziya-LLaMA-13B🌌

💼模型挑选规则 Model Selection Criteria:

  • 🌏 支持中文 Supports Chinese
  • 🔄 版本尽可能新 Uses the latest version as much as possible
  • 🧪 可以进行CoT和Prompt Engineering Can perform CoT and Prompt Engineering

📜 人工质检进度 Human evaluation progresss

  • OpenAI Models🌐
    • ChatGPT 3.5 Turbo🤖
    • ChatGPT 4.0 🤖
  • ChatGLM🤓
  • Baichuan🌊
  • Belle🛎️
  • Baidu ERNIE🦅
  • TigerBot🐅
    • TigerBot-7B-Chat🐾
    • TigerBot-13B-Chat🐾
  • Chinese-alpaca🦙
    • Chinese-alpaca-7B🏮
    • Chinese-alpaca-13B🏮
    • Chinese-alpaca-33B🏮
  • Chinese-alpaca-2🦙
    • Chinese-alpaca-2-7B🎏
    • Chinese-alpaca-2-13B🎏
  • chinese-llama2-linly🦙
    • chinese-llama2-linly-7B🍃
    • chinese-llama2-linly-13B🍃
  • Qwen-7B-Chat🌟
  • Ziya-LLaMA-13B🌌

💼 人工质检规则 Human evaluation Criteria: Evaluators rated the output on:

  • Clarity
  • Creativity
  • Authentic Expression

And a final score is calculated to determine the quality of the model's output.

🌏 大模型实验细节

🎯实验目的 Purpose of the Experiment

证明该标注完善的中文隐喻数据集,尤其在有Ground标注信息的情况下有助于大模型的隐喻生成和喻体生成任务表现,得到每个模型在相同的六个设定下的表现结果 To demonstrate that this well-annotated Chinese metaphor dataset, especially with the presence of Ground annotations, can aid large models in metaphor generation and vehicle generation tasks. The aim is to obtain performance results of each model under the same six settings.

🛠️实验设定 Experimental Setup

📊实验变量 Variables

  • 📌聚类(cluster)方法:2种,基于[CLS] token (句子层面)的embedding和基于每个word token的embedding(单词层面), 分别对应utils\bert_cluster.pycluster_and_save(以下简称聚类1)和cluster_and_save_word_embeddings(以下简称聚类2)函数
  • 🎩任务类型:2种,基于Ground的CoT的隐喻生成和基于Vehicle的CoT的隐喻生成
    • 基于Ground的CoT:
      • 实验组:基于CoT, 第一步是基于已有的聚类采样的范例,本体(Tenor)和喻体(Vehicle),生成共性(Ground),第二步是基于第一步生成的共性,使用已有的本体和喻体,生成隐喻
      • 对照组:不使用CoT, 直接使用已有的本体和喻体,生成隐喻
    • 基于Vehicle的CoT:
      • 实验组:基于CoT, 第一步是基于已有的聚类采样的范例,本体(Tenor)和共性(Ground),生成喻体(Vehicle),第二步是基于第一步生成的喻体,使用已有的本体和共性,生成隐喻
      • 对照组:不使用CoT, 直接使用已有的本体和共性,生成隐喻

因此,每个模型的实验组数是6组:基于Ground的CoT(聚类1,聚类2),基于Ground的CoT对照组,基于Vehicle的CoT(聚类1,聚类2),基于Vehicle的CoT对照组

🗄️ 已有的聚类采样的范例:指本体,喻体,共性和隐喻完善的少数样例(20条),基于聚类1和聚类2从原数据集的训练集(train_data.json)中采样得到,保存在Data\Selected Data中,聚类1对应train_clustered_sampled_20.json, 聚类2对应train_clustered_sampled_embeddings_20.json,在Prompt模型时作为第一步CoT的共同输入(如果模型有记忆能力,可以作为对话一开始的一个输入)

🔎实验数据Data\Splited Data是本数据集分割后的数据:

  • train_data: 按id排序的前80%数据,LLM实验的数据来源
  • val_data:按id排序, train_data之后的10%数据
  • test_data:按id排序, val_data之后的10%数据
  • 📂train_data_sampled_200.json:从train_data随机选择,清洗再随机挑选后的统一用于大模型实验输入的数据

📜实验步骤

  • 🖥️示例代码: 基于OpenAI GPT-4完成实验的代码在Code\OpenAI Sample Code,CoT具体的Prompt内容需要为中文,可基于模型输出效果调整Prompt的措辞,但要求保持信息的完整性,不得删除或添加关键信息,改用不同模型实验时尽可能保持统一。
  • 📉示例结果: 已完成的模型的实验结果在Experiment_Results/Model_Name目录下,每个模型的结果是6个json文件,记录上述6种设定下模型的prompt和输出等信息,要求格式, tenor,每条语料顺序等严格一致,建议每条语料内按输入在前,输出在后的顺序排列,比如基于Ground的CoT的任务的结果截取如下:
    {
        "tenor": "语言",
        "vehicle": "",
        "ground": "XXX",
        "metaphor": "XXXX"
    },

相应地,基于Vehicle的CoT的任务的结果截取如下:

    {
        "tenor": "语言",
        "ground": "无情的伤害", 
        "vehicle": "XXX",
        "metaphor": "XXX"
    },

🌅 数据集统计信息可视化 Visualization:

Tenors Word Cloud_word_cloud Tenors (English) Word Cloud_word_cloud Vehicles Word Cloud_word_cloud Vehicles (English) Word Cloud_word_cloud Grounds (Noun) Word Cloud_word_cloud Grounds (Noun) (English) Word Cloud_word_cloud Grounds (Adjective) Word Cloud_word_cloud Grounds (Adjective) (English) Word Cloud_word_cloud

🖋️ 引用 Reference

如果使用本项目的代码、数据或模型,请引用本项目。

If you were to use this project's code, dataset, or model please refer to it as following.

@inproceedings{cn_metaphor_yujie,
    title     = {CMDAG: A Chinese Metaphor Dataset with Annotated Grounds as CoT for Boosting Metaphor Generation},
    author    = {Yujie Shao and Xinrong Yao and Xingwei Qu and Chenghua Lin and Shi Wang and Stephen W. Huang and Ge Zhang and Jie Fu},
    year      = {2024},
    booktitle = {Proceedings of the LREC-COLING 2024},
    url       = {https://anonymous.4open.science/r/Chinese_Metaphor_Explanation-63F2},
}