Skip to content

Latest commit

 

History

History
274 lines (199 loc) · 11.1 KB

distill_cn.md

File metadata and controls

274 lines (199 loc) · 11.1 KB

简体中文 | English

模型蒸馏教程

1 简介

模型蒸馏基于”教师-学生模型“的思想,使用大的教师模型指导小的学生模型进行训练,是一种常见的模型压缩方法。相比于单独训练学生模型,模型蒸馏通常可以提升学生模型的精度。

常规的模型训练中,模型前向计算的输出和真实label计算得到常规loss,再进行梯度反向传播。 常见的模型蒸馏训练中,教师模型只有前向计算,学生模型有前向计算和反向传播,有多个loss指导学生模型进行训练:学生模型前向计算的输出和真实label计算得到常规loss;学生模型前向计算的输出和教师模型前向计算的输出计算得到蒸馏loss。 更多模型蒸馏的介绍,请参考Survey

PaddleSeg基于PaddleSlim,集成了模型蒸馏的功能,主要使用步骤是:

  • 选定学生模型和教师模型;
  • 训练教师模型;
  • 蒸馏参数配置;
  • 进行模型蒸馏的训练,得到训练好的学生模型。

以下,我们首先以一个模型蒸馏的示例进行说明,然后介绍一些高阶使用方法。

2 模型蒸馏示例

2.1 环境准备

请参考安装文档准备好PaddleSeg的基础环境,测试是否安装成功。

安装PaddleSlim。

git clone https://github.com/PaddlePaddle/PaddleSlim.git

# 切换到特定commit id
git reset --hard 15ef0c7dcee5a622787b7445f21ad9d1dea0a933

# 安装
python setup.py install

2.2 选定学生和教师模型

示例中,我们使用视盘分割(optic disc segmentation)数据集,教师模型是以ResNet50_vd为Backbone的DeepLabV3P(简称DeepLabV3P_ResNet50_vd),学生模型是以ResNet18_vd为Backbone的DeepLabV3P(简称DeepLabV3P_ResNet18_vd)。

2.3 训练教师模型

教师模型DeepLabV3P_ResNet50_vd的config文件在PaddleSeg/configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml,具体参数不再赘述。

执行如下命令,指定使用的GPU卡。

# Linux下,设置1张可用的卡
export CUDA_VISIBLE_DEVICES=0

# windows下请执行以下命令
# set CUDA_VISIBLE_DEVICES=0

在PaddleSeg根目录下执行如下命令,训练教师模型。

python tools/train.py \
    --config configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml \
    --do_eval \
    --use_vdl \
    --save_interval 250 \
    --num_workers 3 \
    --seed 0 \
    --save_dir output/deeplabv3p_resnet50

训练结束后,教师模型的mIou为91.54%(实际可能有点差异),对应的权重保存在output/deeplabv3p_resnet50/best_model/model.pdparams

2.4 训练学生模型

为了和蒸馏训练对比学生模型的精度,这里先单独训练学生模型。此步骤非必须,只是为了对比观察,大家可以视情况跳过。

学生模型DeepLabV3P_ResNet18_vd的config文件在PaddleSeg/configs/quick_start/deeplabv3p_resnet18_os8_optic_disc_512x512_1k_student.yml

在PaddleSeg根目录下执行如下命令,训练学生模型。

python tools/train.py \
    --config configs/quick_start/deeplabv3p_resnet18_os8_optic_disc_512x512_1k_student.yml \
    --do_eval \
    --use_vdl \
    --save_interval 250 \
    --num_workers 3 \
    --seed 0 \
    --save_dir output/deeplabv3p_resnet18

训练结束后,模型的mIou为83.93%(实际可能有点差异),对应的权重保存在output/deeplabv3p_resnet18/best_model/model.pdparams

2.5 蒸馏配置

修改教师模型的config文件(PaddleSeg/configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml),将文件中最后一行pretrained字段设置为”训练教师模型”步骤中的权重路径,如下所示。

model:
  type: DeepLabV3P
  backbone:
    type: ResNet50_vd
    output_stride: 8
    multi_grid: [1, 2, 4]
    pretrained: Null
  num_classes: 2
  backbone_indices: [0, 3]
  aspp_ratios: [1, 12, 24, 36]
  aspp_out_channels: 256
  align_corners: False
  pretrained: output/deeplabv3p_resnet50/best_model/model.pdparams

学生模型的config文件中,除了常规loss,还新增了distill_loss,如下所示。 常规loss是配置学生模型输出和真实label的损失计算,distill_loss是配置学生模型输出和教师模型输出的损失计算,types表示loss类型,coef是loss的比例系数。distill_loss types目前仅支持设置为KLLoss。

loss:
  types:
    - type: CrossEntropyLoss
  coef: [1]

# distill_loss is used for distillation
distill_loss:
  types:
    - type: KLLoss
  coef: [3]

2.6 蒸馏训练

基于学生和教师模型的配置文件,在PaddleSeg根目录下执行如下命令,调用蒸馏的接口deploy/slim/distill/distill_train.py,进行蒸馏训练。

python deploy/slim/distill/distill_train.py \
       --teather_config ./configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml \
       --student_config ./configs/quick_start/deeplabv3p_resnet18_os8_optic_disc_512x512_1k_student.yml \
       --do_eval \
       --use_vdl \
       --save_interval 250 \
       --num_workers 3 \
       --seed 0 \
       --save_dir output/deeplabv3p_resnet18_distill

在蒸馏训练中,使用教师模型配置文件中model配置信息创建教师模型,使用学生模型配置文件中model配置信息创建学生模型,使用学生模型中dataset、loss、optimizer等配置信息执行训练。

注意,蒸馏训练会加载两个模型,显存占用较大(9G),所以大家需要根据实际情况调整batch_size。

蒸馏训练结束后,学生模型的mIoU是85.79%(实际可能有点差异),对应权重保存在output/deeplabv3p_resnet18_distill/best_model

对比发现,单独训练的学生模型mIoU是83.93%,蒸馏训练的学生模型mIoU是85.79%,mIoU提高了1.86%。

3 高阶使用方法

3.1 多卡训练

如果模型蒸馏想要使用多卡训练,需要将环境变量CUDA_VISIBLE_DEVICES指定为多卡(不指定时默认使用所有的gpu),并使用paddle.distributed.launch启动训练脚本。注意,由于windows下不支持nccl,无法使用多卡训练。

export CUDA_VISIBLE_DEVICES=0,1,2,3 # 设置4张可用的卡

python -m paddle.distributed.launch deploy/slim/distill/distill_train.py \
       --teather_config ./configs/quick_start/deeplabv3p_resnet50_os8_optic_disc_512x512_1k_teacher.yml \
       --student_config ./configs/quick_start/deeplabv3p_resnet18_os8_optic_disc_512x512_1k_student.yml \
       --do_eval \
       --use_vdl \
       --save_interval 250 \
       --num_workers 3 \
       --seed 0 \
       --save_dir output/deeplabv3p_resnet18_distill

3.2 调整loss的系数

在学生模型的配置文件中,大家可以调整常规loss和distill_loss的coef系数,提高学生模型的精度。

3.3 使用内部Tensor计算蒸馏loss

上述示例为了简单起见,我们只使用了学生模型和教师模型的输出Tensor计算蒸馏loss。此外,我们也支持使用模型内部Tensor进行蒸馏。

1)选定学生和教师模型的内部Tensor

目前,PaddleSeg支持选定学生和教师模型中相同维度的内部Tensor进行蒸馏。所以,要求大家熟悉模型内部结构和内部Tensor的维度。

2)设置模型内部Tensor

deploy/slim/distill/distill_config.py文件的prepare_distill_adaptor函数中,可以通过StudentAdaptor类和TeatherAdaptor类分别设置学生和教师模型的内部Tensor,用于后面的蒸馏。我们以设置StudentAdaptor类为例进行说明,TeatherAdaptor类设置方法相同。

有必要提前说明,Paddle的API有两类:第一类是Layer API(继承paddle.nn.Layer,比如paddle.nn.Conv2D);第二类是Function API(不继承paddle.nn.Layer,比如paddle.reshape)。分辨特定API类别的方法是,首先在Paddle官网搜该API,然后点击源码查看内部实现是类还是函数,分别是Layer API和Function API。

StudentAdaptor类继承AdaptorBase类,我们修改mapping_layers字典来设置内部Tensor。

如果选定的内部Tensor是Layer API的输出,设置方法是mapping_layers['name_index'] = 'layer_name'

如果选定的内部Tensor是Layer API的输出,设置方法是在if self.add_tensor内部修改mapping_layers['name_index'] = 'tensor_name'.

举例,定义如下模型。

class Model(nn.Layer):
    def __init__(self):
        super(Model, self).__init__()
        self.conv1 = nn.Conv2D(3, 3, 3, padding=1)
        self.conv2 = nn.Conv2D(3, 3, 3, padding=1)
        self.conv3 = nn.Conv2D(3, 3, 3, padding=1)
        self.fc = nn.Linear(3072, 10)

    def forward(self, x):
        conv1_out = self.conv1(x)
        conv2_out = self.conv2(conv1_out)
        conv3_out = self.conv3(conv2_out)
        tself.reshape_ou = paddle.reshape(conv3_out, shape=[x.shape[0], -1])
        out = self.fc(self.reshape_out)
        return out

选定第二个卷积的输出Tensor和reshape后的Tensor作为蒸馏的内部Tensor,则StudentAdaptor配置如下。 对于第二个卷积的输出Tensor,是Layer API的输出,直接定义mapping_layers['hidden_0'] = 'conv2'(conv2是Layer名字)。 reshape后的Tensor,是Function API的输出,首先需要在模型定义中将该Tensor定义为类变量,然后在if self.add_tensor中定义mapping_layers["hidden_1"] = self.model.reshape_out(self.model.reshape_out是tensor在模型中的名字)。

class StudentAdaptor(AdaptorBase):
    def mapping_layers(self):
        mapping_layers = {}
        mapping_layers['hidden_0'] = 'conv2'   # The output of Layer API
        if self.add_tensor:
            mapping_layers["hidden_1"] = self.model.reshape_out # The output of Function API
        return mapping_layers

3)配置蒸馏参数

第二步设置学生和教师模型的内部Tensor后,接下来配置蒸馏的参数。

deploy/slim/distill/distill_config.py文件的prepare_distill_config函数中,我们修改distill_config来配置蒸馏的参数。

复用第二步的示例,我们可以定义如下的蒸馏参数。

  • config_1中feature_type表示使用内部tensor的类别
  • s_feature_idx和t_feature_idx分别表示使用学生和教师模型的index
  • loss_function表示两个内部Tensor蒸馏计算的Loss方式,目前只支持设置为SegChannelwiseLoss
  • weight表示多个Loss加权求和时,该Loss的加权系数
  • 可以定义多组内部Tensor进行蒸馏
def prepare_distill_config():
    """
    Prepare the distill config.
    """
    config_1 = {
        'feature_type': 'hidden',
        's_feature_idx': 0,
        't_feature_idx': 0,
        'loss_function': 'SegChannelwiseLoss',
        'weight': 1.0
    }
    config_2 = {
        'feature_type': 'hidden',
        's_feature_idx': 1,
        't_feature_idx': 1,
        'loss_function': 'SegChannelwiseLoss',
        'weight': 1.0
    }
    distill_config = [config_1, config_2]

    return distill_config

4)蒸馏训练

deploy/slim/distill/distill_config.py文件中设置模型内部Tensor和配置蒸馏参数后,可以进行蒸馏训练。

内部Tensor和输出Tensor可以同时用于模型蒸馏,只需要同时在配置文件中设置相应参数。