机器学习实践课程:图像分类

防止过拟合

与任何机器学习模型一样,训练卷积神经网络时的主要关注点是过拟合:这种模型过于局限于训练数据的细节,无法泛化到新的示例。构建 CNN 时,有以下两种技术可以防止过拟合:

  • 数据增强:通过对现有图像执行随机转换,创建一组新变体,人为地增加训练样本的多样性和数量(参见图 7)。当原始训练数据集相对较小时,数据增强方法尤其有用。
  • 丢弃正则化:在训练梯度步长中随机地从神经网络中移除单元。

单只狗狗图片的数据增强示意图,通过随机转换生成 9 张新图片 图 7. 单张狗狗图片的数据增强(摘自 Kaggle 上的“Dogs vs. Cats”数据集)。左图:训练集中的原始狗狗图像。右图:使用随机转换从原始图片生成九张新图片。