🐳KoR-Orca-Platypus-13B🥮:
KoT-Platypus2-13B🥮:
KO-Platypus2-13B🥮:
CoTy-platypus-ko🥮:
KoT-platypus2-7B🥮:
KO-Platypus2-7B🥮:
Poly-platypus-ko🥮:
KOpen-Platypus🥮:
본 연구는 (주)마커와 (주)미디어그룹사람과숲의 오픈소스 LLM 연구 컨소시엄에서 진행되었습니다.
-
최근 llama-2 등장으로 LLM 분야가 다시 활발해지는 가운데, Open-Platypus 데이터셋 활용하여 llama-2를 fine-tuning한 Platpyus 모델이 등장하였습니다!🤗
-
하지만 Open-Platypus 데이터셋은 대부분 영어로만 구성되어 있기 때문에 한국어에 접목하기에는 한계가 있었습니다.
-
이것을 동기부여로 삼아서, 한국어 기반의 Open-Platypus 데이터셋을 제작한 후, Ko-Platypus를 만들기로 계획하였습니다!🙂🙂
-
Open-Platypus를 DeepL Pro API를 활용하여 번역을 진행한 후, 약 25,000개의 데이터를 수작업으로 체크하였고 약 144시간 정도 소요하여서 번역 오류를 대부분 고쳤습니다😭😭
-
이렇게 만들어진 🥮KOpen-Platypus🥮 데이터셋을 활용하여 beomi님의 llama-2-ko 모델을 fine-tuning 하였습니다.
-
결과적으로 Ko-Platypus2-7B-EX 모델을 만들게 되었고✌, 성능평가를 위해 Polyglot-Ko와 llama-2-ko 모델과 비교를 진행했습니다.🙂🙃
Model | Average | Ko-ARC | Ko-HellaSwag | Ko-MMLU | Ko-TruthfulQA | Ko-CommonGen V2 | Dataset | Base_model |
---|---|---|---|---|---|---|---|---|
🐳KoR-Orca-Platypus-13B | 50.13 | 42.06 | 53.95 | 42.28 | 43.55 | 68.78 | KOR-OpenOrca-Platypus | ko-en-llama2-13b |
KoT-Platypus2-13B | 49.55 | 43.69 | 53.05 | 42.29 | 43.34 | 65.38 | KoCoT | KO-platypus2-13B |
KO-platypus2-13B | 47.90 | 44.20 | 54.31 | 42.47 | 44.41 | 54.11 | KOpen-platyus | ko-en-llama2-13b |
CoTy-platypus-ko-12.8b | 46.44 | 34.98 | 49.11 | 25.68 | 37.59 | 84.86 | KoCoT | Poly-playtypus-ko-12.8b |
KoT-platypus2-7B | 45.62 | 38.05 | 49.63 | 34.68 | 37.69 | 68.08 | KoCoT | KO-platypus2-7B |
KO-Platypus2-7B | 45.41 | 39.08 | 50.86 | 34.60 | 37.94 | 64.55 | KOpen-platyus | llama-2-ko-7B |
Poly-platypus-ko-12.8b | 44.95 | 35.15 | 50.39 | 25.68 | 38.74 | 74.88 | KOpen-platyus | Polyglot-ko-12.8b |
CoT-llama-2k-7b | 41.54 | 36.77 | 49.38 | 29.80 | 37.76 | 53.99 | KoCoT | llama-2-ko-7B |
- llama-2-ko-7B를 fine-tuning한 모델
- 🥮KO-Platypus2-7B-ex🥮 모델은 zero-shot에서 llama-2-ko보다 높은 성능을 보여주었고, BoolQ의 경우에는 Polyglot-Ko보다 높은 성능을 보여주었습니다.✌✌
-
2023.10.14
- Llama2-13B를 KOR-Orca-Platypus 데이터셋을 활용하여 fine-tuning한 🐳KoR-Orca-Platypus-13B Model 제작 완료.
- HuggingFace KO-LLM 리더보드 1등 달성.
-
2023.10.08
- CoT 방식으로 re-fine-tuning한 KoT-platypus-13B🤗 Model 제작 완료.
- HuggingFace KO-LLM 4등(
1등) 달성.
-
2023.10.05
- ko-en-llama2-13b를 기반으로 한 Ko-platypus2-13B🤗 Model 제작 완료.
- HuggingFace KO-LLM
5등(1등) 달성.
-
2023.10.04
- CoT방식으로 Poly-platypus-ko를 fine-tuning한 CoTy-platypus-ko-12.8b🤗 Model 제작 완료.
- HuggingFace KO-LLM
5등(2등) 달성.
-
2023.10.02
- Polyglot-ko를 기반으로 하여 Poly-platypus-ko-12.8b🤗 Model 제작 완료.
- HuggingFace KO-LLM 리더보드
4등달성.
-
2023.10.01
- CoT방식으로 re-fine-tuning한 KoT-platypus2-7B🤗 Model 제작 완료.
- HuggingFace KO-LLM 리더보드
5등(1등) 달성.
-
2023.09.29
- Ko-platypus2-7B🤗 Model KO-LLM leaderboard🤗에서
2등(1등) 달성.
- Ko-platypus2-7B🤗 Model KO-LLM leaderboard🤗에서
### KO-Platy
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
repo = "kyujinpy/KO-Platypus2-7B-ex"
ko_platypus = AutoModelForCausalLM.from_pretrained(
repo,
return_dict=True,
torch_dtype=torch.float16,
device_map='auto'
)
ko_platypus_tokenizer = AutoTokenizer.from_pretrained(repo)
- First download the origina repo Platypus
- 🥮Run the file🥮: Training Code
*Note: You must access the original llama-2.
**Note: You must generate your huggingface token. And after login, you can implement this colab.
***Note: If you run Platypus in colab, you must use A100 GPU.
from datasets import load_dataset
# dataset testing
dataset = load_dataset("kyujinpy/KOpen-platypus")
I think that KOpen-Platypus is higher quality korean-translation dataset than just using DeepL. Because I almost check translation-error.
Procedure
- First, I use DeepL Pro API and Selenium Code.
- Second, checking all data. If there are some errors, I modify translation myself.
*If you want more detail, see below
Post-procesing
.
- Result of just code
- Result of code+explanation
- Float missing
- Math symbol
- Not translation or cut off translation result
*Note: If you want to see more detail example, visit huggingface or Ko-Platypus-blog.
When I evaluated Ko-Platy, I used this repo.
And, implement below code.
# In colab,
!python main.py \
--model gpt2 \
--model_args pretrained=..your_model_name.. \
--tasks kobest_hellaswag,kobest_copa,kobest_boolq,kobest_sentineg \
--device cuda:0 \
--num_fewshot 0 # 5, 10, 25, ...
Model | 0-shot | 5-shot | 10-shot | 50-shot |
---|---|---|---|---|
Polyglot-ko-1.3b | 0.7196 | 0.7193 | 0.7204 | 0.7206 |
Polyglot-ko-3.8b | 0.7595 | 0.7608 | 0.7638 | 0.7788 |
Polyglot-ko-5.8b | 0.7745 | 0.7676 | 0.7775 | 0.7887 |
Polyglot-ko-12.8b | 0.7937 | 0.8108 | 0.8037 | 0.8369 |
Llama-2-Ko-7b 20B | 0.7388 | 0.7626 | 0.7808 | 0.7979 |
Llama-2-Ko-7b 40B | 0.7436 | 0.7927 | 0.8037 | 0.8259 |
KO-platypus2-7B-EX(ours) | 0.7509 | 0.7899 | 0.8029 | 0.8290 |
Model | 0-shot | 5-shot | 10-shot | 50-shot |
---|---|---|---|---|
Polyglot-ko-1.3b | 0.5247 | 0.5260 | 0.5278 | 0.5427 |
Polyglot-ko-3.8b | 0.5707 | 0.5830 | 0.5670 | 0.5787 |
Polyglot-ko-5.8b | 0.5976 | 0.5998 | 0.5979 | 0.6208 |
Polyglot-ko-12.8b | 0.5954 | 0.6306 | 0.6098 | 0.6118 |
Llama-2-Ko-7b 20B | 0.4518 | 0.4668 | 0.4726 | 0.4828 |
Llama-2-Ko-7b 40B | 0.4562 | 0.4657 | 0.4698 | 0.4774 |
KO-platypus2-7B-EX(ours) | 0.4571 | 0.4461 | 0.4371 | 0.4525 |
Model | 0-shot | 5-shot | 10-shot | 50-shot |
---|---|---|---|---|
Polyglot-ko-1.3b | 0.3552 | 0.4751 | 0.4109 | 0.4038 |
Polyglot-ko-3.8b | 0.4320 | 0.5263 | 0.4930 | 0.4038 |
Polyglot-ko-5.8b | 0.4356 | 0.5698 | 0.5187 | 0.5236 |
Polyglot-ko-12.8b | 0.4818 | 0.6041 | 0.6289 | 0.6448 |
Llama-2-Ko-7b 20B | 0.3607 | 0.6797 | 0.6801 | 0.6622 |
Llama-2-Ko-7b 40B | 0.5786 | 0.6977 | 0.7084 | 0.7144 |
KO-platypus2-7B-EX(ours) | 0.6028 | 0.6979 | 0.7016 | 0.6988 |
Model | 0-shot | 5-shot | 10-shot | 50-shot |
---|---|---|---|---|
Polyglot-ko-1.3b | 0.6790 | 0.6257 | 0.5514 | 0.7851 |
Polyglot-ko-3.8b | 0.4858 | 0.7950 | 0.7320 | 0.7851 |
Polyglot-ko-5.8b | 0.3394 | 0.8841 | 0.8808 | 0.9521 |
Polyglot-ko-12.8b | 0.9117 | 0.9015 | 0.9345 | 0.9723 |
Llama-2-Ko-7b 20B | 0.4855 | 0.8295 | 0.8711 | 0.8513 |
Llama-2-Ko-7b 40B | 0.4594 | 0.7611 | 0.7276 | 0.9370 |
KO-platypus2-7B-EX(ours) | 0.5821 | 0.7653 | 0.7991 | 0.8643 |
Kopen-Platypus🥮
KO-Platypus2-7B-ex🥮
KO-Platypus2-13B🥮
Platypus
llama-2
llama-2-ko
ko-en-llama2
ko-lm-evaluation-harness
- Make KO-Platypus-7B-EX
- Share huggingface repo
- Share evaluation results
- Share sample code
I made the image, inspired by Platypus-LLM.
I used Playground AI, then applying prompt engineering. (For example, img2img, guidance etc...)
When I made Ko-Platy
image, I use prompt like below.
Prompt: 'Platypus wears a pretty traditional Korean clothes with 한국어 책'
Guidance: 10
Quality: 70~100
img2img: 'Platypus.png'
Model: SDXL