Skip to content

codingzhj/Alibaba-German-AI-Challenge

Repository files navigation

Alibaba-German-AI-Challenge

多通道城市图像分类

2018.11.15

  • 第一次线上测评,利用两层卷积两层全连接网络制作的baseline线上accuracy达到0.702,当天排名第二名
    • 该baseline使用的时GD算法进行参数寻优,之后可以使用Adam算法进行替代观察线上成绩
  • 根据官方给出的analysis文件中EDA的方法,plot出一个样本的18个通道的图像
  • 由于在dataset中label是one-hot形式的,所以利用一下代码计算出vali数据集中各类别的数量:
label_qty = np.sum(label, axis=0)

2018.11.16

  • 第二次线上测评,网络结构并不发生变化,使用adam算法替换gd算法,提高收敛速度
  • 线上accuracy是0.663,当天排名第一,总排名依然第二
  • 本次实验使用10k个batch进行训练,batch_size是200

2018.11.25

  • 网络结构采用两个3 * 3卷积层+池化+两个3 * 3卷积层+池化+3层全连接(1024+2048+17)
  • 优化算法对比了Adam、RSMProp、SGD,得出结论,RSMProp不适合mini-batch学习,使用该方法学习率会忽上忽下变化极大
  • SGD算法固定学习率导致收敛速度非常慢,做高效率实验还是要使用Adam算法寻优
  • 在固定网络结构,固定优化算法以及学习率的情况下,改变batch_size作对比实验
    • 优化算法:RSMProp,batch_size:256,learning_rate:1e-4时,线下vali_acc收敛于0.75左右,线上acc0.686
    • 优化算法:Adam,batch_size:1024,learning_rate:1e-4时,线下vali_acc收敛于0.76左右,线上acc0.724,总排名14
  • 接下来固定使用Adam进行对比实验,优化网络结构以及数据输入,做更大的batch_size的对比试验,尝试增加全连接层数量以及节点数观察分类效果
  • 尝试制作两个分类器(s1,s2)分别只使用两个卫星的数据进行训练,比较两个分类器性能

2018.11.28

  • 在损失函数中加入了L2正则化项,比较了0.1、0.01、0.001分别作为正则化系数得到的分类结果,得到0.01较优
  • 使用L2正则化的损失函数,并且使用shuffle全部数据集作为训练集进行训练,最终线上acc0.748,总排名15
  • 之后进行了CNN的深化构建,对比了4conv+3fc、5conv+3fc、6conv+3fc在相同学习率,相同batch_size,相同优化算法下分类结果,得到微小提升
  • 接着进行了一个二段训练的尝试,先使用shuffle全数据进行训练(18k个batch),再用vali数据进行训练(2k个batch)
  • 使用5conv+3fc,正则化损失函数,二段训练,线上acc0.781,总排名14
  • 得到结论,正则化可以加快训练速度并且可以得到稀疏解,提高泛化能力

About

多通道城市图像分类

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published