Skip to content

AIRC-KETI/ke-t5

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

54 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

KE-T5: Korean-English T5

KE-T5는 Text-to-Text Transfer Transformer 모델을 한국어와 영어 코퍼스를 이용하여 사전학습한 모델입니다.

Vocabulary는 64,000개의 sub-word token으로 이루어져 있으며, Google의 sentencepiece를 이용하여 만들었습니다. Sentencepiece 모델은 한국어와 영어가 약 7:3의 비율로 섞인 30GB의 코퍼스를 99.95% 커버하도록 학습되었습니다.

사전학습에 사용된 비정형 코퍼스에 대한 구성과 정보는 Datasets을 참고하시기 바랍니다.


Long-KE-T5 Downstreams

기존 KE-T5보다 많은 양의 토큰을 입력으로 받고 출력으로 생성 가능한 Long KE-T5가 공개되었습니다. Long KE-T5는 입력 기준 4096 토큰, 출력 기준 1024 토큰으로 학습되었습니다. 또한 Long KE-T5를 활용한 간단한 생성 모델(Downstream Tasks) 몇 개가 공개 되었으며 지속적으로 추가 모델들이 공개될 예정입니다.

KE-T5 Downstreams

Pytorch와 Huggingface transformers를 사용하시는 분들이 Downstream task들을 비교적 쉽게 학습시킬 수 있는 KE-T5 Downstreams가 공개되었습니다. NER, Summarization, Sequence Classification등 여러 task를 학습시킬 수 있습니다.

Fine-tuning

KE-T5를 이용하여 Downstream task를 학습하기 위해서는 먼저 pre-trained model을 다운 받아야 합니다. pre-trained models에서 다운 받으실 수 있습니다

이 섹션에서는 Google Cloud Platform에서 TPU를 이용하여 학습하는 방법만 설명합니다. GPU에서 사용하실 경우 T5 github에서 설명하듯이 gin-configutils.run.mesh_devicesutils.run.mesh_shape parameter를 오버라이드 해주시면 됩니다.
TFRC를 이용하시면 TPU를 한달간 무료로 사용하실 수 있습니다.

먼저 되도록 TPU Zone과 동일한 곳에 버킷과 VM instance를 생성합니다. VM instance와 TPU의 area는 버킷보다 세분화 되어 있습니다. 생성한 VM instance에 접속한 후 아래와 같이 repository를 clone하고 필요한 python package들을 설치합니다.

Install packages

    git clone https://github.com/AIRC-KETI/ke-t5.git
    cd ke-t5
    pip3 install -r requirements.txt

datasets 폴더에 있는 script로 데이터셋을 생성하고 Bucket에 복사합니다. 아래의 스크립트에서는 생성된 데이터셋을 버킷의 root에 복사한다고 가정했습니다. 데이터셋 생성방법은 여기를 확인하시기 바랍니다.
또한 다운받은 pre-trained 모델도 버킷에 저장하고 해당 디렉토리를 PRETRAINED_MODEL_DIR 변수에 assign합니다.
학습하고자 하는 task를 TASK 변수에 assign합니다.
아래 스크립트와 같이 TPU를 생성하고 모델을 학습합니다.

Run downstream tasks on your TPU

export PROJECT_ID=your_project_id
export TPU_NAME=your_tpu_name
export ZONE=your_project_zone
export TPU_SIZE=v3-8

# create TPU
ctpu up --name=$TPU_NAME --project=$PROJECT_ID \
--zone=$ZONE --tpu-size=$TPU_SIZE --tf-version=2.4.1 --tpu-only --noconf

export PROJECT=your_project_name
export BUCKET=gs://yourbucket
export PRETRAINED_MODEL_DIR="${BUCKET}/your_pretrained_model_dir"
export DATA_DIR="${BUCKET}/tensorflow_datasets"
export MODEL_DIR="${BUCKET}/your_model_dir"

export TOKENS_PER_BATCH=65536
export PRETRAINED_STEPS=1000000
export TRAIN_STEPS=10000

export TASK=ke_t5_ko_translation_proportional
export TASK_DIR="${MODEL_DIR}/${TASK}"

export OP_CFG="${PRETRAINED_MODEL_DIR}/operative_config.gin"
export SHELL_PATH=`pwd -P`

python3 -m t5.models.mesh_transformer_main \
        --tpu="${TPU_NAME}" \
        --gcp_project="${PROJECT}" \
        --tpu_zone="${ZONE}" \
        --model_dir="${TASK_DIR}" \
        --gin_file="dataset.gin" \
        --gin_file="${OP_CFG}" \
        --gin_file="${SHELL_PATH}/ke_t5/gin/sequence_lengths/${TASK}.gin" \
        --gin_param="MIXTURE_NAME = '${TASK}'" \
        --gin_param="utils.run.batch_size = ('tokens_per_batch', ${TOKENS_PER_BATCH})" \
        --gin_param="utils.tpu_mesh_shape.model_parallelism = 1" \
        --gin_param="utils.tpu_mesh_shape.tpu_topology = '${TPU_SIZE}'" \
        --gin_param="utils.run.train_steps=$((PRETRAINED_STEPS+TRAIN_STEPS))" \
        --gin_param="utils.run.init_checkpoint='${PRETRAINED_MODEL_DIR}/model.ckpt-${PRETRAINED_STEPS}'" \
        --gin_file="learning_rate_schedules/constant_0_001.gin" \
        --t5_tfds_data_dir="${DATA_DIR}" \
        --module_import="ke_t5.tasks"

How to use a saved model (exported tensorflow model)

Pre-trained 모델의 체크포인트뿐만 아니라 일부 Downstream tasks의 saved model도 공개했습니다.
Tensorflow saved 모델은 tensorflowtensorflow_text가 설치되어 있으면 바로 사용하실 수 있습니다. 아래 예는 python에서 saved model을 사용하는 방법이며, ke_t5_nikl_summary_mixture_equal task를 다운받았다고 가정하고 있습니다.

ke_t5_nikl_summary_mixture_equal task는 ke_t5_nikl_summarization_summaryke_t5_nikl_summarization_topic의 mixture tasks이며, 각각 summarize_topicsummarize_summary로 입력 텍스트가 시작합니다. ke_t5_nikl_summarization_summary은 사람이 요약한 데이터를 이용하여 학습하며, ke_t5_nikl_summarization_topic은 topic sentences를 생성하도록 학습됩니다.

# pip install tensorflow tensorflow_text
import numpy as np
import tensorflow as tf
import tensorflow_text

model_path = "path to exported model dir"
loaded = tf.saved_model.load(model_path)
infer = loaded.signatures["serving_default"]

# source: https://news.naver.com/main/read.nhn?mode=LSD&mid=shm&sid1=102&oid=081&aid=0003173411
# press: 서울신문(www.seoul.co.kr)
# author: 이주원 기자 starjuwon@seoul.co.kr
input_str = """“처음에는 ‘금방 끝나겠지’라고 생각했는데 어느덧 100일이 됐네요. \
그동안 춥고 아프고 힘들었지만 인간으로서 대우를 받을 수만 있다면 끝까지 버틸 수 있습니다.” \
LG트윈타워 청소 노동자들이 고용승계를 주장하며 파업에 나선지 100일째를 하루 앞둔 24일 \
서울 여의도 LG트윈타워 앞 ‘행복한 고용승계 텐트촌’에서 만난 박상설(63)씨는 힘들었던 투쟁 과정을 \
회상하며 눈시울을 붉혔다. 박씨는 2017년부터 LG트윈타워에서 청소 노동을 했지만 지난 1월 1일부로 \
계약이 종료돼 직장을 떠났다. 자동차 소음과 불편한 잠자리로 텐트에서 매일 밤잠을 설치지만 투쟁을 \
포기할 수 없다고 한다. 그는 “LG가 그동안 사회적 책임과 정도경영을 강조해 왔기에 파업이 금방 끝날 \
줄 알았다”며 “버티지 못하고 점점 떠나는 동지들을 바라볼 때마다 마음이 아프지만 정당한 노동 권리를 \
인정받기 위해 끝까지 투쟁할 것”이라고 강조했다. 지난해 11월 26일부터 파업에 돌입한 청소 \
노동자들은 25일 파업 100일째를 맞는다. 건물 1층 로비에서 시위를 하던 25명의 청소 노동자들은 지난 \
22일부터 정문 앞 도보에 텐트촌을 설치하고 장소를 옮겼다. 파업 100일에 맞춰 25일까지 시민연대와 \
함께 텐트 100개를 설치하고 주·야간 연대 시위를 이어가겠다는 뜻에서다. 노동자들은 한 명이 간신히 \
누울 수 있는 크기의 텐트 안에서 딱딱한 시멘트 바닥에 몸을 기대 쪽잠을 청하고 있다. LG트윈타워를 \
관리하는 LG그룹 계열사 ‘에스엔아이코퍼레이션’은 지난해 말 ‘지수아이앤씨’와 청소 용역 계약을 \
끝내고 다른 업체와 새로 계약했다. 사측은 ‘품질 저하’를 이유로 들었다. 반면 노동자들은 2019년 \
노조를 결성하고 권리를 주장하기 시작하면서 사측 눈 밖에 났다고 주장한다. 그동안 업체가 \
변경되더라도 기존 업체 노동자들이 새 업체에 고용승계가 되는 게 관례였지만 새 업체는 고용승계를 \
보장할 수 없다고 밝혔다. 지난달까지 고용노동부 중재로 수차례 노사 교섭이 있었지만 상황은 달라지지 \
않았다. 사측은 대신 노동자들에게 다른 사업장에서 일을 하게 해주겠다고 권유했다. 하지만 노동자들은 \
노조를 인정하지 않는 대기업의 행태를 묵인한 채 사측의 권유에 따른다면 어느 사업장에서 일을 하던 \
똑같은 행태가 반복될 수밖에 없다고 목소리를 높인다. 때문에 반드시 LG트윈타워에서 정당한 권리를 \
인정받고 노동을 이어가야만 한다고 말한다. 이들은 구광모 LG그룹 회장이 나서 문제를 해결해야 한다고 \
주장한다. 이혜정 LG트윈타워 공동대책위원회 집행위원은 “구 회장이 책임있는 답변을 내놓을 때까지 \
시민사회 단위와 함께 결의를 담아 끝까지 텐트촌을 유지할 것”이라고 강조했다."""

input_str_topic = "summarize_topic: " + input_str
input_str_summary = "summarize_summary: " + input_str

x = tf.constant([input_str_topic])

result = infer(x)
print([out.decode('utf-8') for out in result['inputs'].numpy()])
print([out.decode('utf-8') for out in result['outputs'].numpy()])

# summarize_topic
# 'LG트윈타워 청소 노동자가 고용승계를 주장하며 파업에 나선지 100일째를 하루 앞둔 24일 서울 \
# 여의도 LG트윈타워 앞 ‘행복한 고용승계 텐트촌’에서 만난 박상설(63)씨는 힘들었던 투쟁 과정을 \
# 회상하며 눈시울을 붉혔다. 반면 노동자들은 2019년 노조를 결성하고 권리를 주장하기 시작하면서 사측 \
# 눈 밖에 났다고 주장한다. 때문에 반드시 LG트윈타워에서 정당한 권리를 인정받고 노동을 이어가야 \
# 한다고 말한다.

# summarize_summary
# 'LG트윈타워 청소 노동자가 고용승계를 주장하며 파업에 나선지 100일째를 맞았다. LG트윈타워를 \
# 관리하는 LG그룹 계열사 ‘에스엔아이코퍼레이션’은 지난해 말 ‘지수아이앤씨’와 청소 용역 계약을 \
# 끝내고 다른 업체와 새로 계약했다. 그러나 노동자들은 노조를 인정하지 않는 대기업의 행태를 묵인한 \
# 채 사측의 권유에 따라 노동을 이어가라고 주장한다.'

Datasets

데이터셋은 한국어의 경우 센터에서 확보하고 있는 비정형 코퍼스 중 Manual Cleaning을 여러번 진행한 데이터셋과 NIKL 데이터셋(국립 국어원 모두의 말뭉치)의 비정형 코퍼스 일부를 사용하였습니다. 영어의 경우 RealNews 데이터셋을 사용하였습니다. 데이터셋 구성은 아래와 같습니다.

ke

Dataset size: 92.02GiB
Corpus type: ko (Newspaper, Written, Web text, Messenger, Spoken) en (Newspaper)
Split
'train': total 39,344,633 examples (ko: 25,544,795, en: 13,799,838)
'validation': total 39,283 examples (ko: 25,420, en: 13,863)

ke.newslike

Dataset size: 81.74 GiB
Corpus type: ko (Newspaper) en (Newspaper)
Split
'train': total 36,534,568 examples (ko: 22,735,237, en: 13,799,838)
'validation': total 36,452 examples (ko: 22,619, en: 13,863)

ko

Dataset size: 57.77 GiB
Corpus type: ko (Newspaper, Written, Web text, Messenger, Spoken)
Split
'train': total 25,545,302 examples
'validation': total 25,450 examples

ko.newslike

Dataset size: 47.49 GiB
Corpus type: ko (Newspaper)
Split
'train': total 22,735,237 examples
'validation': total 22,619 examples


Models

Pretrained models

HuggingFace 모델 허브에 모델이 추가되어 사용이 가능합니다.
Huggingface TFT5ForConditionalGeneration, T5ForConditionalGeneration를 사용하실 경우 아래 코드와 같이 사용하시면 됩니다.

from transformers import T5Tokenizer, T5ForConditionalGeneration

model_name = 'KETI-AIR/ke-t5-base'
tokenizer = T5Tokenizer.from_pretrained(model_name)
model = T5ForConditionalGeneration.from_pretrained(model_name)
Dataset Size steps Download URL(Tensorflow) Huggingface Transformers
ke small 5.5M Download KETI-AIR/ke-t5-small
base 2.2M Download KETI-AIR/ke-t5-base
large 1.7M Download KETI-AIR/ke-t5-large
ke.newslike small 5.4M Download KETI-AIR/ke-t5-small-newslike
base 2.2M Download KETI-AIR/ke-t5-base-newslike
large 1.7M Download KETI-AIR/ke-t5-large-newslike
ko small 5.3M Download KETI-AIR/ke-t5-small-ko
base 2.3M Download KETI-AIR/ke-t5-base-ko
large 1M Download KETI-AIR/ke-t5-large-ko

Downstream models (Tensorflow saved model)

Dataset Size steps ke_t5_nikl_summary_mixture_equal ke_t5_ko_en_qa_equal ke_t5_ko_translation_proportional
ke small 1M Download Download Download
base 600K Download Download Download
large 600K Download Download Download
ke.newslike small 1M Download Download Download
base 600K Download Download Download
large 600K Download Download Download
ko small 1M Download Download Download
base 600K Download Download Download

Downstream Tasks

Tasks

KE-T5에서 지원하는 모든 task들의 목록입니다.


Korean

Task Name Input Format Output Format Task Type Language
ke_t5_kor_copora_nsmc nsmc sentence:{sentence} negative or positive Classification ko
ke_t5_kor_copora_qpair qpair question1: {question1} question2: {question2} duplicated or not_duplicate Classification ko
ke_t5_kor_copora_kornli kornli premise: {premise} hypothesis: {hypothesis} entailment or neutral or contradiction Classification ko
ke_t5_kor_copora_korsts korsts sentence1: {sentence1} sentence2: {sentence2} {score} e.g. 1.4 Predict similarity score ko
ke_t5_kor_copora_khsd khsd sentence: {sentence} hate or offensive or none Classification ko
ke_t5_nikl_cola niklcola sentence: {sentence} unacceptable or acceptable Classification ko
ke_t5_korquad_allanswers question: {question} context: {article} {answer} Extractive QA ko
ke_t5_nikl_summarization summarize: {text} {summary} Summarization ko
ke_t5_nikl_summarization_summary summarize_summary: {text} {summary} Summarization ko
ke_t5_nikl_summarization_topic summarize_topic: {text} {summary} Select topic sentences ko
klue_tc_gen klue_tc title: {text} {topic} Select topic ko
klue_nli_gen klue_nli premise: {premise} hypothesis: {hypothesis} entailment or neutral or contradiction Classification ko
klue_sts_gen klue_sts sentence1: {sentence1} sentence2: {sentence2} {score} e.g. 1.4 Predict similarity score ko
klue_re_gen klue_re text: ~~~*{subject}*~~~#{object}#~~ {relation} Select relation ko
klue_mrc_gen klue_mrc question: {question} context: {article} {answer} Extractive QA ko

English

ke_t5_glue_cola_v002

inputs

cola sentence: That picture of Susan offended her.

targets

"unacceptable", "acceptable"
ke_t5_glue_sst2_v002

inputs

sst2 sentence: a valueless kiddie paean to pro basketball underwritten by the nba.

targets

"negative", "positive"
ke_t5_glue_mrpc_v002

inputs

mrpc sentence1: The show's closure affected third-quarter earnings per share by a penny. sentence2: The company said this impacted earnings by a penny a share.

targets

"not_equivalent", "equivalent"
ke_t5_glue_qqp_v002

inputs

qqp question1: Who is going to be a better president - Hillary Clinton or Donald Trump? question2: In what aspects is Hillary Clinton better than Trump?

targets

"not_duplicate", "duplicate"
ke_t5_glue_stsb_v002

inputs

stsb sentence1: For what it's worth, dirt on the lens might not be as detrimental as you would think. sentence2: Regular dish washing fluid is great for removing grease, as it not only dissolves it but also binds it.

targets

0.4
ke_t5_glue_mnli_v002

inputs

mnli hypothesis: The other villages and settlements are not as developed. premise: Other villages are much less developed, and therein lies the essence of many delights.

targets

"entailment", "neutral", "contradiction"
ke_t5_glue_mnli_mismatched_v002

inputs

mnli hypothesis: SEND has renovated dozens of homes to sell at affordable prices. premise: In the past eight years SEND has renovated over 70 homes for affordable resale to families, created more than 100 high quality apartments, assisted 20 businesses to expand or improve their facilities, created three new parks, and taught more than 200 youth work ethics and skills.

targets

"entailment", "neutral", "contradiction"
ke_t5_glue_mnli_matched_v002

inputs

mnli hypothesis: The other villages and settlements are not as developed. premise: Other villages are much less developed, and therein lies the essence of many delights.

targets

"entailment", "neutral", "contradiction"
ke_t5_glue_qnli_v002

inputs

qnli question: When were the finalists announced? sentence: The South Florida/Miami area has previously hosted the event 10 times (tied for most with New Orleans), with the most recent one being Super Bowl XLIV in 2010.

targets

"entailment", "not_entailment"
ke_t5_glue_rte_v002

inputs

rte sentence1: Tropical Storm Irene on August 11, 2005 at 16:15 UTC. Tropical Storm Irene will increase in strength over the next several days, possibly developing into a hurricane that will hit the east coast of the United States, said the National Hurricane Center of Miami, Florida in a report today. Irene was located approximately 975 kilometers south-southeast of Bermuda at 16:00 UTC today. Forecasters say that the storm is now moving in a west- northwest direction with top sustained winds of 40 miles per hour. sentence2: A storm called Irene is going to approach the east coast of the US.

targets

"entailment", "not_entailment"
ke_t5_glue_ax_v002

inputs

mnli hypothesis: {hypothesis} premise: {premise}

targets

"entailment", "neutral", "contradiction"
ke_t5_glue_wnli_v002_simple_eval

pre-processor description (t5)

A typical example from WNLI might look like:
  {
    'sentence1': 'The fish ate the worm. It was tasty.',
    'sentence2': 'The worm was tasty.',
    'label': 1,
  }

This will be transformed to:
{
'inputs': 'wsc: The fish ate the worm. *It* was tasty.',
'targets': 'The worm',
'premise': 'The fish ate the worm. It was tasty.,
'hypothesis': 'The worm was tasty.',
'label': 1,
}

inputs

wsc: The fish ate the worm. *It* was tasty.

targets

The worm
ke_t5_super_glue_boolq_v102

inputs

boolq passage: Demon Drop -- Demon Drop is a drop tower amusement ride at Dorney Park & Wildwater Kingdom. Designed by Intamin, it is a Freefall model that was originally located at Cedar Point when it first opened to the public in 1983. It was relocated to Dorney Park following the 2009 season and reopened in 2010. It is one of the oldest of its kind still in operation. question: does cedar point still have the demon drop

targets

Yes or No
ke_t5_super_glue_cb_v102

inputs

cb hypothesis: in the circumstances she became very uneasy premise: Obeying his instruction, I proffered my hand, open palm upwards, towards the animal. The ratbird climbed on and began to preen its fur unconcernedly. Nobody will blame me if I say that in the circumstances I became very uneasy.

targets

"entailment", "contradiction", "neutral"
ke_t5_super_glue_copa_v102

inputs

copa choice1: The branch moved downstream. choice2: The river's current became stronger. premise: The tree branch landed in the river. question: effect

targets

"choice1", "choice2"
ke_t5_super_glue_multirc_v102

inputs

multirc question: Who began charging a $50 an hour minimum instead of $25 for legal services? answer: Lawyer's market paragraph: For most lawyers, full waiting rooms and appointments booked out to mid-July would equate to a lucrative law practice. But Frank Smith drives a 6-year-old car with 140,000 miles on it, and paying his senior paralegal minimum wage the last few months has put him in the red. Hoped-for federal grants haven"t come through, so he"s had to raise his rates. As of last week he charges $50 an hour minimum instead of $25 for the services of his yearling Northern Utah Legal Aid Foundation. That"s in a lawyer"s market where fees range in the $150 to $250 an hour range in the Ogden area, and up to $400 an hour in the Salt Lake area. Smith"s one-lawyer foundation basically helps the folks who have too much money to qualify for the federally funded Utah Legal Services, but not enough money to afford a lawyer.

targets

{'value': 0, 'group': 283}
ke_t5_super_glue_record_v102

inputs

record query: It has been widely speculated Mr Morrison could serve as Treasurer in Mr @placeholder's cabinet. entities: Abbott, Bill Shorten, Joe Hockey, Julie Bishop, Liberal Party, Malcolm Turnbull, Prime Ministership, Scott Morrison, Social Services, Tony Abbott, Turnbull passage: Malcolm Turnbull's triumph over Tony Abbott in a Liberal Party leadership ballot will have ramifications far beyond the Prime Minister's office. A number of government ministers and backbenchers will have their fortunes changed by the vote, which Prime Minister-elect Turnbull won 54 to 44 on Monday night. Members within the government and also the opposition are expected to be impacted by the change of Prime Minister, including Treasurer Joe Hockey, deputy leader Julie Bishop, Social Services Minister Scott Morrison and Opposition Leader Bill Shorten. Mr Turnbull, 60, has coveted the Prime Ministership for many years. His victory comes seven years after he was first appointed Liberal Party leader, only to be booted from the position by Tony Abbott in December, 2009. Malcolm Turnbull's win over Tony Abbott has created winners and losers. The Prime Minister-elect and deputy leader Julie Bishop are two winners. Opposition Leader Bill Shorten and Joe Hockey could be hurt by the vote. Mr Turnbull defeated Mr Abbott is a leadership ballot 54 votes to 44

targets

['Malcolm Turnbull', 'Turnbull']
ke_t5_super_glue_rte_v102

inputs

rte hypothesis: A storm called Irene is going to approach the east coast of the US. premise: Tropical Storm Irene on August 11, 2005 at 16:15 UTC. Tropical Storm Irene will increase in strength over the next several days, possibly developing into a hurricane that will hit the east coast of the United States, said the National Hurricane Center of Miami, Florida in a report today. Irene was located approximately 975 kilometers south-southeast of Bermuda at 16:00 UTC today. Forecasters say that the storm is now moving in a west- northwest direction with top sustained winds of 40 miles per hour.

targets

"entailment", "not_entailment"
ke_t5_super_glue_wic_v102

inputs

wic sentence1: Had unusual longevity in the company. sentence2: Her longevity as a star. word: longevity

targets (Sense match)

True or False
ke_t5_super_glue_wsc_v102

inputs

wsc: Alice was dusting the living room and trying to find the button that Mama had hidden. No time today to look at old pictures in her favorite photo album. Today she had to hunt for a button, so she put the album on a chair without even opening *it*.

targets (Coreference)

True of False
ke_t5_super_glue_wsc.fixed_v102

inputs

wsc: The stable was very roomy, with four good stalls; a large swinging window opened into the yard, which made *it* pleasant and airy.

targets (Coreference)

True or False
ke_t5_super_glue_axb_v102

inputs

rte hypothesis: {sentence1} premise: {sentence2}

targets

"entailment", "not_entailment"
ke_t5_super_glue_axg_v102

inputs

rte hypothesis: {sentence1} premise: {sentence2}

targets

"entailment", "not_entailment"
ke_t5_dpr_v001_simple

pre-processor description (t5)

A typical example from the definite pronoun resolution dataset might look like
  {
     'sentence': 'Bob asked Tom if he can lend some money.',
     'pronoun': 'he',
     'candidates': ['Bob', 'Tom'],
     'label': 1,
  }

This will be transformed to
{
    'inputs': 'wsc: Bob asked Tom if *he* can lend some money.'
    'targets': 'Tom',
}

inputs

wsc: Bob asked Tom if *he* can lend some money.

targets

Tom
ke_t5_super_glue_wsc_v102_simple_train

pre-processor description (t5)

 A typical example from SuperGLUE WSC might look like
  {
    'text': 'Mitchell asked Tom if he could lend some money.',
    'span1_text': 'Tom',
    'span2_text': 'he',
    'span2_index': 4,
  }

This will be transformed to
{
    'inputs': 'wsc: Bob asked Tom if *he* can lend some money.'
    'targets': 'Tom',
}

inputs

wsc: Bob asked Tom if *he* can lend some money.

targets

Tom
ke_t5_super_glue_wsc_v102_simple_eval

pre-processor description (t5)

 A typical example from SuperGLUE WSC might look like
  {
    'text': 'Mitchell asked Tom if he could lend some money.',
    'span1_text': 'Tom',
    'span2_text': 'he',
    'span2_index': 4,
  }

This will be transformed to
{
    'inputs': 'wsc: Bob asked Tom if *he* can lend some money.'
    'targets': 'Tom',
}

inputs

wsc: Bob asked Tom if *he* can lend some money.

targets

Tom
ke_t5_cnn_dailymail_v002

inputs

summarize: Sally Forrest, an actress-dancer who graced the silver screen throughout the '40s and '50s in MGM musicals and films such as the 1956 noir While the City Sleeps died on March 15 at her home in Beverly Hills, California. Forrest, whose birth name was Katherine Feeney, was 86 and had long battled cancer. Her publicist, Judith Goffin, announced the news Thursday. Scroll down for video. Actress: Sally Forrest was in the 1951 Ida Lupino-directed film 'Hard, Fast and Beautiful' (left) and the 1956 Fritz Lang movie 'While the City Sleeps' A San Diego native, Forrest became a protege of Hollywood trailblazer Ida Lupino, who cast her in starring roles in films including the critical and commercial success Not Wanted, Never Fear and Hard, Fast and Beautiful. Some of Forrest's other film credits included Bannerline, Son of Sinbad, and Excuse My Dust, according to her iMDB page. The page also indicates Forrest was in multiple Climax! and Rawhide television episodes. Forrest appeared as herself in an episode of The Ed Sullivan Show and three episodes of The Dinah Shore Chevy Show, her iMDB page says. She also starred in a Broadway production of The Seven Year Itch. City News Service reported that other stage credits included As You Like It, No, No, Nanette and Damn Yankees. Forrest married writer-producer Milo Frank in 1951. He died in 2004. She is survived by her niece, Sharon Durham, and nephews, Michael and Mark Feeney. Career: A San Diego native, Forrest became a protege of Hollywood trailblazer Ida Lupino, who cast her in starring roles in films.

targets

Sally Forrest, an actress-dancer who graced the silver screen throughout the '40s and '50s in MGM musicals and films died on March 15 . Forrest, whose birth name was Katherine Feeney, had long battled cancer . A San Diego native, Forrest became a protege of Hollywood trailblazer Ida Lupino, who cast her in starring roles in films .
ke_t5_squad_v010_allanswers

pre-processor description (t5)

SQuAD produces examples with this form:
    {'id': <id>, context': <article>, 'question': <question>,
     'answers': { 'text': [<n answers>] }}
This function will return examples of the format:
{'inputs': 'question: <question> context: <article>',
    'targets': '<answer_0>',
    'id': <id>, 'question': <question>, 'context': <context>,
    'answers': [<n answers>]},

inputs

question: {question} context: {article}

targets

{answer}
ke_t5_trivi_qa_v010

pre-processor description (t5)

TriviaQA produces examples with this form:
    {'entity_pages': {dict of wiki entities},
     'search_results': <dict of web search results>,
     'answer': {dict of all answers}, 'question': <question>,
     'question_id': <question_id>, 'question_source': <question_source>}
This function will return flattend examples of the format:
{'inputs': 'question: <question> context: <article>'
    'targets': 'answer: <sampled answer>'}

inputs

question: {question} context: {article}

targets

answer: {sampled answer}

Mixture Tasks


Mixture Task는 여러 Task들의 묶음입니다.

Name Tasks
ke_t5_glue_v002_proportional, ke_t5_glue_v002_equal ke_t5_glue_cola_v002, ke_t5_glue_sst2_v002, ke_t5_glue_mrpc_v002, ke_t5_glue_qqp_v002, ke_t5_glue_stsb_v002, ke_t5_glue_mnli_v002, ke_t5_glue_qnli_v002, ke_t5_glue_rte_v002, ke_t5_glue_mnli_mismatched_v002, ke_t5_glue_mnli_matched_v002, ke_t5_glue_ax_v002
ke_t5_super_glue_v102_proportional, ke_t5_super_glue_v102_equal ke_t5_dpr_v001_simple, ke_t5_super_glue_wsc_v102_simple_train, ke_t5_super_glue_wsc_v102_simple_eval, ke_t5_super_glue_boolq_v102, ke_t5_super_glue_cb_v102, ke_t5_super_glue_copa_v102, ke_t5_super_glue_multirc_v102, ke_t5_super_glue_record_v102, ke_t5_super_glue_rte_v102, ke_t5_super_glue_wic_v102, ke_t5_super_glue_axb_v102, ke_t5_super_glue_axg_v102
ke_t5_ko_text_classification_proportional, ke_t5_ko_text_classification_equal ke_t5_kor_copora_nsmc, ke_t5_kor_copora_qpair, ke_t5_kor_copora_kornli, ke_t5_kor_copora_korsts, ke_t5_kor_copora_khsd, ke_t5_nikl_cola
ke_t5_nikl_summary_mixture_equal ke_t5_nikl_summarization_summary, ke_t5_nikl_summarization_topic
ke_t5_ko_en_summary_proportional, ke_t5_ko_en_summary_equal ke_t5_cnn_dailymail_v002, ke_t5_nikl_summarization
ke_t5_ko_en_qa_proportional, ke_t5_ko_en_qa_equal ke_t5_korquad_allanswers, ke_t5_squad_v010_allanswers, ke_t5_trivia_qa_v010
ke_t5_ko_translation_proportional, ke_t5_ko_translation_equal ke_t5_ted_multi_en_ko, ke_t5_ted_multi_ko_en
ke_t5_all_proportional, ke_t5_ko_en_qa_equal all tasks

Samples

몇몇 Downstream Task들의 I/O 샘플입니다. 해당 샘플을 생성한 모델은 아래와 같습니다.

Model Spec

Dataset: ke.newslike
Model Size: small
steps: 1M


Summarization


NIKL Topic sentences

Input

summarize_topic: “처음에는 ‘금방 끝나겠지’라고 생각했는데 어느덧 100일이 됐네요. \
그동안 춥고 아프고 힘들었지만 인간으로서 대우를 받을 수만 있다면 끝까지 버틸 수 있습니다.” \
LG트윈타워 청소 노동자들이 고용승계를 주장하며 파업에 나선지 100일째를 하루 앞둔 24일 \
서울 여의도 LG트윈타워 앞 ‘행복한 고용승계 텐트촌’에서 만난 박상설(63)씨는 힘들었던 투쟁 과정을 \
회상하며 눈시울을 붉혔다. 박씨는 2017년부터 LG트윈타워에서 청소 노동을 했지만 지난 1월 1일부로 \
계약이 종료돼 직장을 떠났다. 자동차 소음과 불편한 잠자리로 텐트에서 매일 밤잠을 설치지만 투쟁을 \
포기할 수 없다고 한다. 그는 “LG가 그동안 사회적 책임과 정도경영을 강조해 왔기에 파업이 금방 끝날 \
줄 알았다”며 “버티지 못하고 점점 떠나는 동지들을 바라볼 때마다 마음이 아프지만 정당한 노동 권리를 \
인정받기 위해 끝까지 투쟁할 것”이라고 강조했다. 지난해 11월 26일부터 파업에 돌입한 청소 \
노동자들은 25일 파업 100일째를 맞는다. 건물 1층 로비에서 시위를 하던 25명의 청소 노동자들은 지난 \
22일부터 정문 앞 도보에 텐트촌을 설치하고 장소를 옮겼다. 파업 100일에 맞춰 25일까지 시민연대와 \
함께 텐트 100개를 설치하고 주·야간 연대 시위를 이어가겠다는 뜻에서다. 노동자들은 한 명이 간신히 \
누울 수 있는 크기의 텐트 안에서 딱딱한 시멘트 바닥에 몸을 기대 쪽잠을 청하고 있다. LG트윈타워를 \
관리하는 LG그룹 계열사 ‘에스엔아이코퍼레이션’은 지난해 말 ‘지수아이앤씨’와 청소 용역 계약을 \
끝내고 다른 업체와 새로 계약했다. 사측은 ‘품질 저하’를 이유로 들었다. 반면 노동자들은 2019년 \
노조를 결성하고 권리를 주장하기 시작하면서 사측 눈 밖에 났다고 주장한다. 그동안 업체가 \
변경되더라도 기존 업체 노동자들이 새 업체에 고용승계가 되는 게 관례였지만 새 업체는 고용승계를 \
보장할 수 없다고 밝혔다. 지난달까지 고용노동부 중재로 수차례 노사 교섭이 있었지만 상황은 달라지지 \
않았다. 사측은 대신 노동자들에게 다른 사업장에서 일을 하게 해주겠다고 권유했다. 하지만 노동자들은 \
노조를 인정하지 않는 대기업의 행태를 묵인한 채 사측의 권유에 따른다면 어느 사업장에서 일을 하던 \
똑같은 행태가 반복될 수밖에 없다고 목소리를 높인다. 때문에 반드시 LG트윈타워에서 정당한 권리를 \
인정받고 노동을 이어가야만 한다고 말한다. 이들은 구광모 LG그룹 회장이 나서 문제를 해결해야 한다고 \
주장한다. 이혜정 LG트윈타워 공동대책위원회 집행위원은 “구 회장이 책임있는 답변을 내놓을 때까지 \
시민사회 단위와 함께 결의를 담아 끝까지 텐트촌을 유지할 것”이라고 강조했다.


Prediction

'LG트윈타워 청소 노동자가 고용승계를 주장하며 파업에 나선지 100일째를 하루 앞둔 24일 서울 \
여의도 LG트윈타워 앞 ‘행복한 고용승계 텐트촌’에서 만난 박상설(63)씨는 힘들었던 투쟁 과정을 \
회상하며 눈시울을 붉혔다. 반면 노동자들은 2019년 노조를 결성하고 권리를 주장하기 시작하면서 사측 \
눈 밖에 났다고 주장한다. 때문에 반드시 LG트윈타워에서 정당한 권리를 인정받고 노동을 이어가야 \
한다고 말한다.

NIKL Summary

Input

summarize_topic: “처음에는 ‘금방 끝나겠지’라고 생각했는데 어느덧 100일이 됐네요. \
그동안 춥고 아프고 힘들었지만 인간으로서 대우를 받을 수만 있다면 끝까지 버틸 수 있습니다.” \
LG트윈타워 청소 노동자들이 고용승계를 주장하며 파업에 나선지 100일째를 하루 앞둔 24일 \
서울 여의도 LG트윈타워 앞 ‘행복한 고용승계 텐트촌’에서 만난 박상설(63)씨는 힘들었던 투쟁 과정을 \
회상하며 눈시울을 붉혔다. 박씨는 2017년부터 LG트윈타워에서 청소 노동을 했지만 지난 1월 1일부로 \
계약이 종료돼 직장을 떠났다. 자동차 소음과 불편한 잠자리로 텐트에서 매일 밤잠을 설치지만 투쟁을 \
포기할 수 없다고 한다. 그는 “LG가 그동안 사회적 책임과 정도경영을 강조해 왔기에 파업이 금방 끝날 \
줄 알았다”며 “버티지 못하고 점점 떠나는 동지들을 바라볼 때마다 마음이 아프지만 정당한 노동 권리를 \
인정받기 위해 끝까지 투쟁할 것”이라고 강조했다. 지난해 11월 26일부터 파업에 돌입한 청소 \
노동자들은 25일 파업 100일째를 맞는다. 건물 1층 로비에서 시위를 하던 25명의 청소 노동자들은 지난 \
22일부터 정문 앞 도보에 텐트촌을 설치하고 장소를 옮겼다. 파업 100일에 맞춰 25일까지 시민연대와 \
함께 텐트 100개를 설치하고 주·야간 연대 시위를 이어가겠다는 뜻에서다. 노동자들은 한 명이 간신히 \
누울 수 있는 크기의 텐트 안에서 딱딱한 시멘트 바닥에 몸을 기대 쪽잠을 청하고 있다. LG트윈타워를 \
관리하는 LG그룹 계열사 ‘에스엔아이코퍼레이션’은 지난해 말 ‘지수아이앤씨’와 청소 용역 계약을 \
끝내고 다른 업체와 새로 계약했다. 사측은 ‘품질 저하’를 이유로 들었다. 반면 노동자들은 2019년 \
노조를 결성하고 권리를 주장하기 시작하면서 사측 눈 밖에 났다고 주장한다. 그동안 업체가 \
변경되더라도 기존 업체 노동자들이 새 업체에 고용승계가 되는 게 관례였지만 새 업체는 고용승계를 \
보장할 수 없다고 밝혔다. 지난달까지 고용노동부 중재로 수차례 노사 교섭이 있었지만 상황은 달라지지 \
않았다. 사측은 대신 노동자들에게 다른 사업장에서 일을 하게 해주겠다고 권유했다. 하지만 노동자들은 \
노조를 인정하지 않는 대기업의 행태를 묵인한 채 사측의 권유에 따른다면 어느 사업장에서 일을 하던 \
똑같은 행태가 반복될 수밖에 없다고 목소리를 높인다. 때문에 반드시 LG트윈타워에서 정당한 권리를 \
인정받고 노동을 이어가야만 한다고 말한다. 이들은 구광모 LG그룹 회장이 나서 문제를 해결해야 한다고 \
주장한다. 이혜정 LG트윈타워 공동대책위원회 집행위원은 “구 회장이 책임있는 답변을 내놓을 때까지 \
시민사회 단위와 함께 결의를 담아 끝까지 텐트촌을 유지할 것”이라고 강조했다.


Prediction

'LG트윈타워 청소 노동자가 고용승계를 주장하며 파업에 나선지 100일째를 맞았다. LG트윈타워를 \
관리하는 LG그룹 계열사 ‘에스엔아이코퍼레이션’은 지난해 말 ‘지수아이앤씨’와 청소 용역 계약을 \
끝내고 다른 업체와 새로 계약했다. 그러나 노동자들은 노조를 인정하지 않는 대기업의 행태를 묵인한 \
채 사측의 권유에 따라 노동을 이어가라고 주장한다.'

CNN/DM

Input

summarize: Dougie Freedman is on the verge of agreeing a new two-year deal to remain at Nottingham 
Forest. Freedman has stabilised Forest since he replaced cult hero Stuart Pearce and the club's 
owners are pleased with the job he has done at the City Ground. Dougie Freedman is set to sign a new 
deal at Nottingham Forest. Freedman has impressed at the City Ground since replacing Stuart Pearce in 
February. They made an audacious attempt on the play-off places when Freedman replaced Pearce but 
have tailed off in recent weeks. That has not prevented Forest's ownership making moves to secure 
Freedman on a contract for the next two seasons.


Target

Nottingham Forest are close to extending Dougie Freedman's contract . The Forest boss took over from 
ormer manager Stuart Pearce in February . Freedman has since lead the club to ninth in the 
hampionship .


Prediction

Dougie Freedman set to sign a two-year deal at Nottingham Forest . Freedman replaced Stuart Pearce in 
February . Forest have made an audacious bid on the play-off places .

Translation

en: Our goal is to make sure that no child is left behind , not because of cost or access .
ko: 우리의 목표는 어떤 아이도 소외시키지 않는 겁니다 . 비용이나 접근성 때문에 그런 일이 생기지 않게요 .

Ko2En

We aim is not to marginalize any child because of the cost or the access .

En2Ko

우리의 목표는 어떤 아이도 뒤처지지 않는 것입니다 . 원조나 지원에 의해서가 아니라요 .

Performance

Downstream task들의 성능입니다. Mixture task들로 성능을 측정하였으며 시간 관계상 튜닝은 하지 않았습니다.
성능을 높이기 위해서는 mixture task가 아닌 개별 task로 학습을 진행하십시오. (예를 들어 NIKL CoLA의 경우 개별 task로 학습을 진행할 경우 튜닝을 하지 않아도 small model에서 약 20의 성능이 나옵니다.)

Summarization과 Extractive QA의 경우 입력이 모델들의 최대 시퀀스 길이인 512를 넘을 수가 있습니다. 이 경우 넘는 부분을 그냥 버리고 학습과 성능측정을 진행했습니다. 즉, 요약의 경우 512 토큰을 초과하는 부분은 요약이 되지 않고, extractive QA의 경우 question에 대한 정답이 512 토큰을 초과하는 부분에 존재하면 답을 찾을 수 없습니다. 이러한 경우를 처리하여 성능을 높이기 위해서는 직접 학습 프로그램을 만들어 사용하셔야 합니다. (e.g. Extractive QA의 경우, BERT에서처럼 document span으로 분리하여 해당 span에 정답이 있는지 없는지로 학습.)

Korean

Task: ke_t5_ko_text_classification_proportional

Click
Dataset Size steps NIKL CoLA NSMC Question-pair KorNLI KorSTS Hate Speech
Mattew's Accuracy F1 Accuracy Accuracy Pearson Spearman Accuracy
ke small 1M -3.716 87.9 87.9 91.5 73.41 78.19 77.9 60.65
base 600K 12.51 88.95 93.7 91.49 78.67 80.02 79.73 64.14
large 600K 13.31 89.7 89.74 92.52 79.76 83.65 83.25 62.82
ke.newslike small 1M 4.088 88.09 90.55 91.94 74.82 76.76 77.15 60.89
base 600K 8.773 87.07 89.52 92.38 76.1 79.38 79.25 61.85
large 600K 5.145 88.97 89.96 92.62 79.48 80.86 81.29 61.25
ko small 1M 0.7339 86.2 88.93 92.08 74.38 77.24 75.99 59.93
base 600K

English

GLUE

Task: ke_t5_glue_v002_proportional

Click
Dataset Size steps GLUE CoLA SST-2 MRPC STS-B
Average Mattew's Accuracy F1 Accuracy Pearson Spearman
ke small 1M 27.31 89.11 88.69 84.31 81.14 81.38
base 600K 38.26 83.73 90.43 86.76 85.8 85.82
large 600K 39.85 91.28 89.05 85.05 88.14 88.14
ke.newslike small 1M 28.04 88.07 88.7 85.29 84.6 84.33
base 600K 48.18 91.4 88.93 84.56 86.63 86.32
large 600K 45.26 92.32 89.32 85.05 87.92 87.85
ko small 1M 8.699 82.8 85.46 79.66 76.75 76.35
base 600K 5.622 82.23 83.2 84.8 80.78 80.89
Dataset Size steps QQP MNLI-m MNLI-mm QNLI RTE WNLI
F1 Accuracy Accuracy Accuracy Accuracy Accuracy Accuracy
ke small 1M 83.54 89.07 78.06 78.94 86.55 64.26
base 600K 90.19 86.78 83.73 83.86 89.79 79.42
large 600K 86.5 89.86 83.73 84.39 90.21 79.42
ke.newslike small 1M 86.06 89.41 78.61 79.34 85.85 67.15
base 600K 86.91 90.43 82.79 83.44 90 76.9
large 600K 87.67 90.64 86.14 85.78 92.04 82.67
ko small 1M 83.48 87.61 72.68 72.91 87.58 62.82
base 600K 85.06 88.79 75.62 75.97 82.35 62.45

Super GLUE

Task: ke_t5_super_glue_v102_proportional

Click
Dataset Size steps SuperGLUE BoolQ CB COPA MultiRC ReCoRD RTE WiC WSC
Average Accuracy F1 Accuracy Accuracy F1a EM F1 EM Accuracy Accuracy Accuracy
ke small 1M 70.86 70.34 76.79 54 65.57 17.94 63.86 61.87 63.9 60.97 59.25
base 600K 77.31 73.08 87.5 72 73.24 31.9 76.9 76.07 79.78 64.73 74.04
large 600K 76.06 61 87.5 67 76.25 36.62 81.29 80.31 82.31 63.95 72.12
ke.newslike small 1M 70.8 83.93 85.24 55 67.35 20.15 63.85 62.06 66.06 68.03 67.31
base 600K 73.77 60.29 85.71 60.85 72.56 32.32 77.35 74.62 76.9 67.24 73.08
large 600K 79.36 75.99 82.29 66 76.54 39.24 83.05 82.2 79.42 69.44 77.88
ko small 1M 66.18 53.08 66.07 52 63.31 18.47 47.41 46.42 58.84 58.31 60.58
base 600K 69.66 56.5 69.64 49 67.19 18.36 55.45 54.51 66.06 63.95 61.06

Korean - English

Extractive QA

Task: ke_t5_ko_en_qa_equal

Click
Dataset Size steps SQuAD KorQuAD 1.1
EM F1 EM F1
ke small 1M 72.88 82.8 82.16 88.39
base 600K 78.43 88.01 85.45 91.11
large 600K 81.33 90.03 86.27 92.06
ke.newslike small 1M 73.75 84.45 83.25 89.17
base 600K 79.21 88.02 85.36 91.22
large 600K 81.06 90.35 86.76 92.21
ko small 1M 63.89 75.13 82.78 88.99
base 600K 69.52 80.29 85.4 91.35

Translation

Task: ke_t5_ko_translation_proportional

Click
Dataset Size steps TED multilingual
en->ko ko->en
Rouge-1 Rouge-2 Rouge-L Rouge-1 Rouge-2 Rouge-L
ke small 1M 10.02 2.072 9.951 39.19 19.78 35.15
base 600K 12.03 2.805 11.94 44.12 19.76 39.35
large 600K 11.45 2.96 44.52 20.21
ke.newslike small 1M 11.69 2.524 10.58 39.66 19.74 40.06
base 600K 12.21 2.855 12.09 44.43 20.03 40.49
large 600K 11.73 2.948 11.61 46.84 22.29 42.98
ko small 1M 10.3 1.993 10.16 38.96 14.79 35.02
base 1M 11.4 2.481 11.25 42.43 17.45 38.25

Summarization

Task: ke_t5_ko_en_summary_proportional for CNN/DM, ke_t5_nikl_summary_mixture_equal for NIKL summarization

Click
Dataset Size steps CNN/DM NIKL summarization
summary topic
Rouge-1 Rouge-2 Rouge-L Rouge-1 Rouge-2 Rouge-L Rouge-1 Rouge-2 Rouge-L
ke small 1M 37.94 17.9 35.86 38.85 18.65 37.35 48.79 32.51 47.75
base 600K 37.84 15.38 38.33 40.86 19.58 39.36 50.71 35.43 50.35
large 600K 40.15 17.78 40.54 20.04 39.25 55.52 37.72 54.78
ke.newslike small 1M 38.17 17.59 36.52 38.28 18.15 37.18 50.11 33.09 49.94
base 600K 40.64 18.98 38.03 40.54 20.44 39.23 54 37.63 53.2
large 600K 39.48 17.46 36.79 39.76 18.12 38.25 53.58 38.17 53.15
ko small 1M 37.39 16.49 35.73 39.2 17.95 50.28 34.95
base 600K 39.3 17.94 36.66 37.93 17.74 36.36 48.71 33.85 48.15

bibtex

KE-T5를 이용하여 연구를 진행하실 경우 아래와 같이 인용해주시길 바랍니다.

@inproceedings{kim-etal-2021-model-cross,
    title = "A Model of Cross-Lingual Knowledge-Grounded Response Generation for Open-Domain Dialogue Systems",
    author = "Kim, San  and
      Jang, Jin Yea  and
      Jung, Minyoung  and
      Shin, Saim",
    booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2021",
    month = nov,
    year = "2021",
    address = "Punta Cana, Dominican Republic",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/2021.findings-emnlp.33",
    doi = "10.18653/v1/2021.findings-emnlp.33",
    pages = "352--365",
    abstract = "Research on open-domain dialogue systems that allow free topics is challenging in the field of natural language processing (NLP). The performance of the dialogue system has been improved recently by the method utilizing dialogue-related knowledge; however, non-English dialogue systems suffer from reproducing the performance of English dialogue systems because securing knowledge in the same language with the dialogue system is relatively difficult. Through experiments with a Korean dialogue system, this paper proves that the performance of a non-English dialogue system can be improved by utilizing English knowledge, highlighting the system uses cross-lingual knowledge. For the experiments, we 1) constructed a Korean version of the Wizard of Wikipedia dataset, 2) built Korean-English T5 (KE-T5), a language model pre-trained with Korean and English corpus, and 3) developed a knowledge-grounded Korean dialogue model based on KE-T5. We observed the performance improvement in the open-domain Korean dialogue model even only English knowledge was given. The experimental results showed that the knowledge inherent in cross-lingual language models can be helpful for generating responses in open dialogue systems.",
} 
@misc{ke_t5,
    author       = {KETI AIRC},
    title        = {KE-T5: Korean English T5},
    month        = mar,
    year         = 2021,
    url          = {https://github.com/AIRC-KETI/ke-t5}
}

Note

KE-T5는 TFRC 프로그램의 지원으로 학습되었습니다.
KE-T5의 한국어 요약 학습에는 국립국어원의 모두의 말뭉치-문서 요약 말뭉치가 사용되었습니다.
KE-T5의 ke, ko 사전학습에 국립국어원 모두의 말뭉치가 사용되었습니다.

Acknowledgement

본 연구는 정부(과학기술정보통신부)의 재원으로 지원을 받아 수행된 연구입니다. (정보통신기획평가원, 2022-0-00320), (정보통신기획평가원, 2022-0-00608), (정보통신기획평가원, 2021-0-00537), (정보통신산업진흥원, S0316-21-1002)

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages