Skip to content

Latest commit

 

History

History
125 lines (99 loc) · 3.72 KB

README_CN.md

File metadata and controls

125 lines (99 loc) · 3.72 KB

English | 简体中文

OpenBG-CSK

"CCKS2022 面向数字商务的知识图谱评测任务一:商品常识知识显著性推理"基线方法

使用

实验

运行以下指令,可以进行试验结果复现: python run.py 运行完成之后,F1分数,准确率和其他细节结果将会被输出.

训练模型

运行shell文件: bash run.sh,该文件的内容如下:

DATA_DIR="data"

MODEL_DIR="bert-base-chinese"
OUTPUT_DIR="output/save_dict/"
PREDICT_DIR="data/"
MAX_LENGTH=128
MODEL_TYPE="PMI"

python run.py \
    --data_dir=${DATA_DIR} \
    --model_dir=${MODEL_DIR} \
    --model=${MODEL_TYPE} \
    --output_dir=${MODEL_TYPE} \
    --do_train=True \
    --max_length=${MAX_LENGTH} \
    --batch_size=16 \
    --learning_rate=1e-5 \
    --epochs=10 \
    --seed=2021

推理&得到结果

运行shell文件: bash run.sh predict,该文件的内容如下:

DATA_DIR="data"

MODEL_DIR="bert-base-chinese"
OUTPUT_DIR="output/save_dict/"
PREDICT_DIR="data/"
MAX_LENGTH=128
MODEL_TYPE="PMI"


python run.py \
    --data_dir=${DATA_DIR} \
    --model_dir=${MODEL_DIR} \
    --output_dir=${OUTPUT_DIR} \
    --model=${MODEL_TYPE} \
    --max_length=${MAX_LENGTH} \
    --batch_size=16 \
    --learning_rate=1e-5 \
    --epochs=10 \
    --seed=2021

细节结果

数据集样例被放在data文件夹中: train_triple.jsonl,dev_triple.jsonl.

train_triple.jsonl文件中,数据形式是{"triple_id" : "0579","subject":"瓶装水","object":"跑步","predicate":"品类_适用_场景","salience": 0}

dev_triple.jsonl文件中,数据形式是{"triple_id":"0579","subject":"瓶装水","object":"跑步","predicate":"适用"}

基准

我们在实验数据集上测试了几个模型。我们使用KG-BERT作为基础模型并且报告了任务的基线结果如下。

Model F1 Acc.
BERT-base 55.2 55.8
RoBERTa-wwm-ext-base 56.9 57.2
PMI-tuning 60.7 61.1

KG-BERT将 头实体h,关系r,尾实体t 的文本作为双向编码器(例如bert)的输入,并且使用语言模型计算该三元组的得分。 具体而言,模型的输入是以下的格式,将h, r, t 拼接成 [CLS] h [SEP] r [SEP] t [SEP] 的格式。最终使用 权重W 对应的分类器对 [CLS] 相对的输出结果进行打分。

PMI-tuning 方法见论文。

我们列出了在基线实验期间的超参数如下:

常规超参数

Param Value
weight_decay 0.01
learning_rate 1e-5

引用

如果您使用了以上代码烦请引用以下论文:

@article{DBLP:journals/corr/abs-2205-10843,
  author    = {Yincen Qu and
               Ningyu Zhang and
               Hui Chen and
               Zelin Dai and
               Zezhong Xu and
               Chengming Wang and
               Xiaoyu Wang and
               Qiang Chen and
               Huajun Chen},
  title     = {Commonsense Knowledge Salience Evaluation with a Benchmark Dataset
               in E-commerce},
  journal   = {CoRR},
  volume    = {abs/2205.10843},
  year      = {2022},
  url       = {https://doi.org/10.48550/arXiv.2205.10843},
  doi       = {10.48550/arXiv.2205.10843},
  eprinttype = {arXiv},
  eprint    = {2205.10843},
  timestamp = {Mon, 30 May 2022 15:47:29 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-2205-10843.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}