术语表

过度拟合

了解如何识别、预防和解决机器学习中的过拟合问题。探索提高模型泛化和实际性能的技术。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

机器学习(ML)中的过拟合是指模型对训练数据的学习效果太好,捕捉到的是噪音和随机波动,而不是基本模式。这会导致模型在训练数据集上表现出色,但对未见过的新数据的泛化能力却很差。从本质上讲,模型变得过于复杂,专门为训练示例量身定制,类似于记忆答案而不是理解概念。这是训练人工智能模型时经常遇到的难题,尤其是像Ultralytics YOLO 用于物体检测图像分割等任务的神经网络这样的复杂算法。

了解过度拟合

过度拟合之所以会出现,是因为 ML 模型的目标是尽量减少训练数据的误差。如果模型拥有过高的复杂度(例如,深度学习模型中参数或层数过多),它甚至可以拟合训练集中存在的随机噪声。这种噪声并不代表真正的潜在模式,也不太可能出现在新的数据集中。试想一下,在某一天根据某人的精确测量量身定制一套西装,如果他的体重稍有波动或有其他人试穿,这套西装可能就不太合身了。在人工智能中,这种训练数据上的 "完美契合 "会导致在真实世界数据上缺乏灵活性和性能低下,这通常被称为泛化能力差。

与此相反的问题是拟合不足,即模型过于简单,无法捕捉数据的潜在结构。拟合不足的模型在训练数据和新数据上的表现都很差,因为它还没有学到足够的知识。我们的目标是找到一个最佳平衡点(通常在偏差-方差权衡的背景下进行讨论),创建一个能很好地泛化到未见数据的模型。高方差是过拟合的特征,而高偏差则是欠拟合的特征。理解这一权衡概念对模型开发至关重要。

过度拟合的真实案例

  • 医学图像分析:考虑一个为医学图像分析而训练的模型,比如检测核磁共振成像扫描中的肿瘤。如果训练数据主要来自单一的MRI 扫描仪模型,人工智能可能会过度适应该机器的特定图像特征(如噪声模式或分辨率)。当遇到来自不同扫描仪的扫描数据或质量较低的图像时,人工智能的性能可能会大幅下降,因为它学到的是机器特有的伪影,而不是一般的肿瘤特征。数据集偏差会加剧这一问题。
  • 自动驾驶汽车: 自动驾驶汽车中使用的物体检测模型可能主要是根据晴朗天气下拍摄的图像进行训练的。该模型在类似的测试数据上可以达到很高的准确度,但在大雨、大雾或夜间等不利条件下,却无法可靠地检测到行人、骑车人或其他车辆。该模型过度适应了训练环境中的特定视觉线索(如强烈的阴影、明亮的光线),而不是学习不同条件下物体的稳健、一般特征。使用COCOArgoverse 等数据集来确保训练数据的多样性,有助于缓解这一问题。

识别过度拟合

通常通过比较模型在训练数据集和单独验证数据集上的性能来识别过度拟合。

  • 性能指标:监控准确率精确度召回率F1 分数等指标。如果训练指标不断提高,而验证指标却趋于平稳或恶化,那么模型很可能是过度拟合。损失函数值通常会在训练集上显著下降,但在验证集上却上升或停滞不前。您可以探索各种YOLO 性能指标进行评估。
  • 学习曲线:绘制模型在训练集和验证集上历时的性能(如损失或准确率)曲线,可以直观地了解模型的性能。训练曲线(不断提高)与验证曲线(停滞或下降)之间的差距不断扩大,是过度拟合的典型迹象。可视化学习曲线有助于诊断这种情况。

防止过度拟合

有几种技术可以帮助减轻过度拟合,提高模型的泛化能力:

  • 交叉验证 K-Fold 交叉验证等技术使用不同的数据子集进行训练和验证,从而对模型在未见数据上的性能做出更可靠的估计。
  • 数据增强通过应用旋转、缩放、裁剪和颜色偏移等变换,人为增加训练数据集的大小和多样性。Ultralytics YOLO 内置数据增强技术,有助于提高鲁棒性。
  • 正则化根据模型复杂度(如权重大小)对损失函数进行惩罚。常见的方法包括L1 和 L2 正则化,这两种方法不鼓励使用大权重。了解更多有关L1 和 L2 正则化方法的信息。
  • 早期停止:在训练过程中监控模型在验证数据集上的性能,并在验证性能开始下降时停止训练过程,防止模型在以后的历时中学习到噪声。请参阅Keras 中关于早期停止的解释。
  • 辍学在训练过程中,随机将一部分神经元的激活设置为零。这将迫使网络学习不依赖于任何单一神经元的更强健的特征。此处将详细解释 "剔除 "概念
  • 模型剪枝在训练好的神经网络中删除不太重要的参数或连接,以降低其复杂性,同时又不会对性能产生重大影响。Neural Magic 提供剪枝工具
  • 简化模型架构:使用不太复杂的模型(例如,减少层数或参数)可以防止过度拟合,尤其是在数据集较小的情况下。这可能需要选择一个较小的模型变体,比如比较YOLOv8n 和YOLOv8x
  • 获取更多数据:增加高质量训练数据量通常是提高泛化能力和减少过度拟合的最有效方法之一。探索各种Ultralytics 数据集

通过了解和解决过拟合问题,开发人员可以建立更可靠、更有效的人工智能模型。Ultralytics HUB等工具可协助进行实验跟踪和模型评估,在模型开发生命周期内帮助检测和缓解过度拟合问题。

阅读全部
OSZAR »