๐ค Huggingface Hub์ ์ ๋ก๋ ๋ ๋ชจ๋ธ์ ๋ฐ๋ก ์ฌ์ฉํ ์ ์์ต๋๋ค :)
# Load model directly
from transformers import AutoTokenizer, AutoModelForPreTraining
tokenizer = AutoTokenizer.from_pretrained("oneonlee/KoAirBERT")
model = AutoModelForPreTraining.from_pretrained("oneonlee/KoAirBERT")
KoAirBERT๋ klue/bert-base ๋ชจ๋ธ์ MLM ๋ฐ NSP ๋ฐฉ์์ Post-training์ ์ถ๊ฐ๋ก ์ํํ ๋ชจ๋ธ์
๋๋ค.
ํ์ต์๋ ์ง์ ๊ตฌ์ถํ ํ๊ตญ์ด ํญ๊ณต์์ ๋๋ฉ์ธ ๋ฐ์ดํฐ์
์ ์ฌ์ฉํ๊ณ , NVIDIA RTX A6000 48GB 1์ฅ์ ์ฌ์ฉํ์ฌ ์ฝ 40๋ถ ์์๋์์ต๋๋ค.
ํ์ต ์ธํ
์ ์๋์ ๊ฐ์ต๋๋ค.
Params | Initial learning rate | Batch Size | Epochs | Max length* | Weight decay |
---|---|---|---|---|---|
111M | 5e-5 | 8 | 3 | 512 | 0.01 |
๋ฐ์ดํฐ ๋ช | ๋ฐ์ดํฐ ๊ฑด ์ | ๋ฌธ์ฅ ์ | ๋จ์ด ์ |
---|---|---|---|
์์ ์ฅ์ ๋ณด๊ณ ๋ฐ์ดํฐ | 684 | 10,018 | 69,472 |
๊ณ ์ฅ ๋ณด๊ณ ๋ฐ์ดํฐ | 1,771 | 10,480 | 85,165 |
ํญ๊ณต์ฒ ๋์ฌ๊ณ ์กฐ์ฌ์์ํ ์ฌ๊ณ ยท์ค์ฌ๊ณ ๋ณด๊ณ ์ | 54 | 1,850 | 33,935 |
ํญ๊ณต์์ ๋ฌธํ์งํ ๋ถ์ ๋ฐ์ดํฐ | 1,055 | 3,652 | 244,032 |
GYRO ํญ๊ณต ์์ ์์จ ๋ณด๊ณ ์ โ ๋ณธ๋ฌธ ์ฆ๊ฐ ๋ฐ์ดํฐ | 6,776 | 66,848 | 1,214,061 |
ํญ๊ณต์ ๋ณดํฌํธ์์คํ ํญ๊ณต ์ฉ์ด์ฌ์ | 4,961 | 15,312 | 167,295 |
ํญ๊ณต์ํค | 4,314 | 38,927 | 766,214 |
----------------------------------------------- | -------------- | -------- | ---------- |
๋์ | 19,615 | 147,087 | 2,580,174 |
- BERT
- klue/bert-base
- huggingface/transformers - pytorch language-modeling examples
- ํญ๊ณต ์์ ์ ๋ณด์ง (GYRO)
- ํญ๊ณต์ฒ ๋์ฌ๊ณ ์กฐ์ฌ์์ํ ์ฌ๊ณ ยท์ค์ฌ๊ณ ๋ณด๊ณ ์
- ํญ๊ณต์ํค
- ํญ๊ณต์ ๋ณดํฌํธ์์คํ ํญ๊ณต ์ฉ์ด์ฌ์
- ํญ๊ณต์์ ์์จ๋ณด๊ณ ๋ฐฑ์(2021)
์ด ์ฝ๋๋ฅผ ์ฐ๊ตฌ์ฉ์ผ๋ก ์ฌ์ฉํ๋ ๊ฒฝ์ฐ ์๋์ ๊ฐ์ด ์ธ์ฉํด์ฃผ์ธ์.
@software{lee_2023_10158254,
author = {Lee, DongGeon},
title = {KoAirBERT: Korean BERT Model Specialized for Aviation Safety Domain},
month = nov,
year = 2023,
publisher = {Zenodo},
version = {v1.0.1},
doi = {10.5281/zenodo.10171038},
url = {https://doi.org/10.5281/zenodo.10171038}
}
KoAirBERT
๋ AGPL-3.0
๋ผ์ด์ ์ค ํ์ ๊ณต๊ฐ๋์ด ์์ต๋๋ค. ๋ชจ๋ธ ๋ฐ ์ฝ๋๋ฅผ ์ฌ์ฉํ ๊ฒฝ์ฐ ๋ผ์ด์ ์ค ๋ด์ฉ์ ์ค์ํด์ฃผ์ธ์. ๋ผ์ด์ ์ค ์ ๋ฌธ์ LICENSE ํ์ผ์์ ํ์ธํ์ค ์ ์์ต๋๋ค.