机器学习实践:图像分类

防止过拟合

与所有机器学习模型一样,训练卷积神经网络时会遇到的一个关键问题是过拟合:模型紧密拟合训练数据的具体特征,以至于无法泛化到新样本。构建 CNN 时,您可以通过以下两种方法来防止出现过拟合:

  • 数据增强:通过随机转换现有图像生成一组新的图像,人为地增加训练样本的多样性和数量(参见图 7)。当原始训练数据集相对较小时,数据增强方法尤为有用。
  • dropout 正规化:在一个训练梯度步长中随机地从神经网络中移除一些单元。

单张狗狗图像的数据增强示意图,通过随机转换生成 9 张新图 图 7. 单张狗狗图像的数据增强(摘自 Kaggle 上的“Dogs vs. Cats”数据集)。左图:训练集中的原始狗狗图像。右图:对原始图像进行随机转换后生成的九张新图。