Skip to content

Latest commit

 

History

History
284 lines (210 loc) · 12.9 KB

getting_started.md

File metadata and controls

284 lines (210 loc) · 12.9 KB

开始使用


请参考安装指南配置运行环境,并根据快速开始文档准备flower102数据集,本章节下面所有的实验均以flower102数据集为例。

PaddleClas目前支持的训练/评估环境如下:

└── CPU/单卡GPU
    ├── Linux
    └── Windows

└── 多卡GPU
    └── Linux

1. 基于CPU/单卡GPU上的训练与评估

在基于CPU/单卡GPU上训练与评估,推荐使用tools/train.pytools/eval.py脚本。关于Linux平台多卡GPU环境下的训练与评估,请参考2. 基于Linux+GPU的模型训练与评估

1.1 模型训练

准备好配置文件之后,可以使用下面的方式启动训练。

python tools/train.py \
    -c configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
    -o pretrained_model="" \
    -o use_gpu=True

其中,-c用于指定配置文件的路径,-o用于指定需要修改或者添加的参数,其中-o pretrained_model=""表示不使用预训练模型,-o use_gpu=True表示使用GPU进行训练。如果希望使用CPU进行训练,则需要将use_gpu设置为False

更详细的训练配置,也可以直接修改模型对应的配置文件。具体配置参数参考配置文档

运行上述命令,可以看到输出日志,示例如下:

  • 如果在训练中使用了mixup或者cutmix的数据增广方式,那么日志中将不会打印top-1与top-k(默认为5)信息:

    ...
    epoch:0  , train step:20   , loss: 4.53660, lr: 0.003750, batch_cost: 1.23101 s, reader_cost: 0.74311 s, ips: 25.99489 images/sec, eta: 0:12:43
    ...
    END epoch:1   valid top1: 0.01569, top5: 0.06863, loss: 4.61747,  batch_cost: 0.26155 s, reader_cost: 0.16952 s, batch_cost_sum: 10.72348 s, ips: 76.46772 images/sec.
    ...
    
  • 如果训练过程中没有使用mixup或者cutmix的数据增广,那么除了上述信息外,日志中也会打印出top-1与top-k(默认为5)的信息:

    ...
    epoch:0  , train step:30  , top1: 0.06250, top5: 0.09375, loss: 4.62766, lr: 0.003728, batch_cost: 0.64089 s, reader_cost: 0.18857 s, ips: 49.93080 images/sec, eta: 0:06:18
    ...
    END epoch:0   train top1: 0.01310, top5: 0.04738, loss: 4.65124,  batch_cost: 0.64089 s, reader_cost: 0.18857 s, batch_cost_sum: 13.45863 s, ips: 49.93080 images/sec.
    ...
    

训练期间也可以通过VisualDL实时观察loss变化,详见VisualDL

1.2 模型微调

根据自己的数据集路径设置好配置文件后,可以通过加载预训练模型的方式进行微调,如下所示。

python tools/train.py \
    -c configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
    -o pretrained_model="./pretrained/MobileNetV3_large_x1_0_pretrained" \
    -o use_gpu=True

其中-o pretrained_model用于设置加载预训练模型权重文件的地址,使用时需要换成自己的预训练模型权重文件的路径,也可以直接在配置文件中修改该路径。

我们也提供了大量基于ImageNet-1k数据集的预训练模型,模型列表及下载地址详见模型库概览

1.3 模型恢复训练

如果训练任务因为其他原因被终止,也可以加载断点权重文件,继续训练:

python tools/train.py \
    -c configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
    -o checkpoints="./output/MobileNetV3_large_x1_0/5/ppcls" \
    -o last_epoch=5 \
    -o use_gpu=True

其中配置文件不需要做任何修改,只需要在继续训练时设置checkpoints参数即可,表示加载的断点权重文件路径,使用该参数会同时加载保存的断点权重和学习率、优化器等信息。

注意

  • 参数-o last_epoch=5表示将上一次训练轮次数记为5,即本次训练轮次数从6开始计算,该值默认为-1,表示本次训练轮次数从0开始计算。

  • -o checkpoints参数无需包含断点权重文件的后缀名,上述训练命令会在训练过程中生成如下所示的断点权重文件,若想从断点5继续训练,则checkpoints参数只需设置为"./output/MobileNetV3_large_x1_0_gpupaddle/5/ppcls",PaddleClas会自动补充后缀名。

    output/
    └── MobileNetV3_large_x1_0
        ├── 0
        │   ├── ppcls.pdopt
        │   └── ppcls.pdparams
        ├── 1
        │   ├── ppcls.pdopt
        │   └── ppcls.pdparams
        .
        .
        .

1.4 模型评估

可以通过以下命令进行模型评估。

python tools/eval.py \
    -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
    -o pretrained_model="./output/MobileNetV3_large_x1_0/best_model/ppcls"\
    -o load_static_weights=False

上述命令将使用./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml作为配置文件,对上述训练得到的模型./output/MobileNetV3_large_x1_0/best_model/ppcls进行评估。你也可以通过更改配置文件中的参数来设置评估,也可以通过-o参数更新配置,如上所示。

可配置的部分评估参数说明如下:

  • ARCHITECTURE.name:模型名称
  • pretrained_model:待评估的模型文件路径
  • load_static_weights:待评估模型是否为静态图模型

注意: 如果模型为动态图模型,则在加载待评估模型时,需要指定模型文件的路径,但无需包含文件后缀名,PaddleClas会自动补齐.pdparams的后缀,如1.3 模型恢复训练

2. 基于Linux+GPU的模型训练与评估

如果机器环境为Linux+GPU,那么推荐使用paddle.distributed.launch启动模型训练脚本(tools/train.py)、评估脚本(tools/eval.py),可以更方便地启动多卡训练与评估。

2.1 模型训练

参考如下方式启动模型训练,paddle.distributed.launch通过设置gpus指定GPU运行卡号:

# PaddleClas通过launch方式启动多卡多进程训练

export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
        -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml

其中,-c用于指定配置文件的路径,可通过配置文件修改相关训练配置信息,也可以通过添加-o参数来更新配置:

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
        -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
        -o pretrained_model="" \
        -o use_gpu=True

-o用于指定需要修改或者添加的参数,其中-o pretrained_model=""表示不使用预训练模型,-o use_gpu=True表示使用GPU进行训练。

输出日志信息的格式同上,详见1.1 模型训练

2.2 模型微调

根据自己的数据集配置好配置文件之后,可以加载预训练模型进行微调,如下所示。

export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
        -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
        -o pretrained_model="./pretrained/MobileNetV3_large_x1_0_pretrained"

其中pretrained_model用于设置加载预训练权重文件的路径,使用时需要换成自己的预训练模型权重文件路径,也可以直接在配置文件中修改该路径。

30分钟玩转PaddleClas尝鲜版进阶版中包含大量模型微调的示例,可以参考该章节在特定的数据集上进行模型微调。

2.3 模型恢复训练

如果训练任务因为其他原因被终止,也可以加载断点权重文件继续训练。

export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
        -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
        -o checkpoints="./output/MobileNetV3_large_x1_0/5/ppcls" \
        -o last_epoch=5 \
        -o use_gpu=True

其中配置文件不需要做任何修改,只需要在训练时设置checkpoints参数与last_epoch参数即可,该参数表示加载的断点权重文件路径,使用该参数会同时加载保存的模型参数权重和学习率、优化器等信息,详见1.3 模型恢复训练

2.4 模型评估

可以通过以下命令进行模型评估。

python tools/eval.py \
    -c ./configs/quick_start/MobileNetV3_large_x1_0_finetune.yaml \
    -o pretrained_model="./output/MobileNetV3_large_x1_0/best_model/ppcls"\
    -o load_static_weights=False

参数说明详见1.4 模型评估

3. 使用预训练模型进行模型预测

模型训练完成之后,可以加载训练得到的预训练模型,进行模型预测。在模型库的 tools/infer/infer.py 中提供了完整的示例,只需执行下述命令即可完成模型预测:

python tools/infer/infer.py \
    -i 待预测的图片文件路径 \
    --model MobileNetV3_large_x1_0 \
    --pretrained_model "./output/MobileNetV3_large_x1_0/best_model/ppcls" \
    --use_gpu True \
    --class_num 1000

参数说明:

  • image_file(简写 i):待预测的图片文件路径或者批量预测时的图片文件夹,如 ./test.jpeg
  • model:模型名称,如 MobileNetV3_large_x1_0
  • pretrained_model:模型权重文件路径,如 ./output/MobileNetV3_large_x1_0/best_model/ppcls
  • use_gpu : 是否开启GPU训练,默认值:True
  • class_num : 类别数,默认为1000,需要根据自己的数据进行修改。
  • resize_short: 对输入图像进行等比例缩放,表示最短边的尺寸,默认值:256
  • resize: 对resize_short操作后的进行居中裁剪,表示裁剪的尺寸,默认值:224
  • pre_label_image : 是否对图像数据进行预标注,默认值:False
  • pre_label_out_idr : 预标注图像数据的输出文件夹,当pre_label_image=True时,会在该文件夹下面生成很多个子文件夹,每个文件夹名称为类别id,其中存储模型预测属于该类别的所有图像。

注意: 如果使用Transformer系列模型,如DeiT_***_384, ViT_***_384等,请注意模型的输入数据尺寸,需要设置参数resize_short=384, resize=384

4. 使用inference模型进行模型推理

通过导出inference模型,PaddlePaddle支持使用预测引擎进行预测推理。接下来介绍如何用预测引擎进行推理: 首先,对训练好的模型进行转换:

python tools/export_model.py \
    --model MobileNetV3_large_x1_0 \
    --pretrained_model ./output/MobileNetV3_large_x1_0/best_model/ppcls \
    --output_path ./inference \
    --class_dim 1000

其中,参数--model用于指定模型名称,--pretrained_model用于指定模型文件路径,该路径仍无需包含模型文件后缀名(如1.3 模型恢复训练),--output_path用于指定转换后模型的存储路径,class_dim表示模型所包含的类别数,默认为1000。

注意

  1. --output_path表示输出的inference模型文件夹路径,若--output_path=./inference,则会在inference文件夹下生成inference.pdiparamsinference.pdmodelinference.pdiparams.info文件。
  2. 可以通过设置参数--img_size指定模型输入图像的shape,默认为224,表示图像尺寸为224*224,请根据实际情况修改。

上述命令将生成模型结构文件(inference.pdmodel)和模型权重文件(inference.pdiparams),然后可以使用预测引擎进行推理:

python tools/infer/predict.py \
    --image_file 图片路径 \
    --model_file "./inference/inference.pdmodel" \
    --params_file "./inference/inference.pdiparams" \
    --use_gpu=True \
    --use_tensorrt=False

其中:

  • image_file:待预测的图片文件路径,如 ./test.jpeg
  • model_file:模型结构文件路径,如 ./inference/inference.pdmodel
  • params_file:模型权重文件路径,如 ./inference/inference.pdiparams
  • use_tensorrt:是否使用 TesorRT 预测引擎,默认值:True
  • use_gpu:是否使用 GPU 预测,默认值:True
  • enable_mkldnn:是否启用MKL-DNN加速,默认为False。注意enable_mkldnnuse_gpu同时为True时,将忽略enable_mkldnn,而使用GPU运行。
  • resize_short: 对输入图像进行等比例缩放,表示最短边的尺寸,默认值:256
  • resize: 对resize_short操作后的进行居中裁剪,表示裁剪的尺寸,默认值:224

注意: 如果使用Transformer系列模型,如DeiT_***_384, ViT_***_384等,请注意模型的输入数据尺寸,需要设置参数resize_short=384, resize=384

  • 如果你希望评测模型速度,建议使用该脚本(tools/infer/predict.py),同时开启TensorRT加速预测。