Deep Learning ํ์ต์ ํ๊ฑฐ๋ ๋ํ๋ฅผ ๋๊ฐ๋ณด๋ฉด Transformer
๊ธฐ๋ฐ ๋ชจ๋ธ ํน์ Transformer
๊ทธ ์์ฒด๋ฅผ ์ฌ์ฉํ์ฌ ์ฑ๋ฅ์ ๋ด๊ฑฐ๋ ์ฌ์ฉ์ ํ์๋ค๋ ์๋ฆฌ๋ฅผ ๋ง์ด ๋ฃ๋๋ค. ๊ทธ๋ฐ๋ฐ ๋๋ ๋ํ์์ ํน์ ์คํฐ๋ ๋ชจ์์์ Transformer
๋ฅผ ์ฌ์ฉํด ๋ณด์์ง๋ง, ํด๋น ๋ชจ๋ธ์ ๋ํ ์ดํด๋๊ฐ ๋ถ์กฑํ์๋ค๋ ๊ฒ์ ๊นจ๋ฌ์๋ค. ๊ทธ๋์ ์ด์ Transformer
์์ฒด์ ๋ํด ํ์ต์ ํด๋ณด๊ณ ์ํ๋ค.
Although the Transformer is the most famous model for it's high perfomance in Deep Learning fields, I have been implementing without deep understanding. This repository is for studying the
Transformer
.
$> tree -d
.
โโโ /config
โ โโโ configuration files
โโโ /modules
โ โโโ multihead_attention_layer.py
โ โโโ encoder_layer.py
โ โโโ decoder_layer.py
โ โโโ transformer.py
โ โโโ utils.py
โโโ train.py
โโโ evaluation.py
- TODO
- TODO
- markdown ์ ๋ฆฌํ๊ธฐ
- repository ๊ตฌ์กฐ ์ ๋ฆฌํ๊ธฐ
- transformer ๊ตฌํํ๊ธฐ
- attention ๊ตฌํํ๊ธฐ
- transformer ๊ตฌํ
- training code ๊ตฌํ
- evaluation code ๊ตฌํ