Skip to content

Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer

Notifications You must be signed in to change notification settings

zxuu/Self-Attention

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

70 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Self-Attention(pytorch实现)

参考这篇博客手撕Transformer Transformer输入输出细节以及代码实现(pytorch)

**OneHead文件夹**下是单头自注意力机制的实现(无Mask) **MultiHead文件夹**下是多头自注意力机制的实现(无Mask) **Encoder文件夹**下是Ecoder编码器的完整实现(有mask) **Decoder文件夹**下是Decoder解码器的完整实现(有mask) **Transformer文件夹**下是把Encoder和Decoder两部分的合并,形成完整的transformer结构

Train文件夹是训练部分
Test文件夹是测试部分
Utils文件夹是工具包,包括一些常量的定义,还有Dataloader

My_Transformer.py是完整的transformer构建、数据输入、测试的例子

torch、transformer版本

torch                          1.13.1+cu117
torchaudio                     0.13.1+cu117
torchvision                    0.14.1+cu117
transformers                   4.26.1

输入例子

             # Encoder_input    Decoder_input        Decoder_output
sentences = [['我 是 学 生 P' , 'S I am a student'   , 'I am a student E'],         # S: 开始符号
             ['我 喜 欢 学 习', 'S I like learning P', 'I like learning P E'],      # E: 结束符号
             ['我 是 男 生 P' , 'S I am a boy'       , 'I am a boy E']]             # P: 占位符号,如果当前句子不足固定长度用P占位 pad补0

My_transformer.py输出(直接运行即可)

......
Epoch: 0050 loss = 0.088758
Epoch: 0050 loss = 0.003786
['', '', '', '', 'P'] -> ['I', 'am', 'a', 'student', 'E']

About

Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published