释放迁移学习的威力,节省时间、提高人工智能性能,并使用预训练模型利用有限的数据处理新任务。
迁移学习是一种机器学习(ML)技术,它将为特定任务开发的模型重新用作第二个相关任务模型的起点。迁移学习需要大量的数据和计算资源,而不是从头开始建立模型,它利用从源任务中学到的知识(特征、模式和权重)来改进目标任务的学习。当目标任务的标注数据有限时,这种方法尤其有用,它能大大加快训练过程,与只在目标数据集上进行训练相比,往往能取得更好的成绩。
迁移学习背后的核心理念是,在大型通用数据集(如用于图像任务的ImageNet或用于自然语言处理 (NLP) 的海量文本语料库)上训练的模型,可以学习到对许多其他相关任务有用的通用特征。例如,在计算机视觉(CV)领域,卷积神经网络(CNN)的初始层可以学习检测边缘、纹理和简单形状,这些都是适用于各种图像识别问题的基本视觉元素。
在应用迁移学习时,通常会从预先训练好的模型开始。根据源任务和目标任务之间的相似性以及目标数据集的大小,您可以
迁移学习被广泛应用于各个领域:
Ultralytics HUB等平台通过提供预训练模型(如 Ultralytics YOLOv8和 YOLO11等)和工具,在用户特定的数据集上轻松进行自定义训练,从而简化了迁移学习的应用过程。框架,如 PyTorch和 TensorFlow等框架也为迁移学习工作流的实施提供了广泛的支持和教程。要深入了解理论,斯坦福 CS231n 转移学习概述或"深度转移学习调查 "等学术调查等资源都能提供有价值的见解。