迁移学习是一种深深的学习方法,其中,已被训练为一个任务模型作为起点,以培养对类似任务的典范。微调与迁移学习网络是比从头训练网络通常更快,更容易。该方法通常用于对象检测,图像识别,语音识别以及其它应用。
迁移学习是一种流行的技术,因为:
- 它可以让您通过利用那些已经接受过培训的大型数据集热门机型训练使用相对少标记的数据模型。
- 它可以大大减少培训时间和计算资源。随着迁移学习,该模型并不需要接受培训,为尽可能多的时期(在整个数据集完整的训练周期)作为一种新的模式将需要。
从头开始与转让Learning培训
深学习的两种常用的方法是培训从无到有,迁移学习的典范。这两种方法都有优势,可用于不同的深度学习任务。
制定并从头开始训练模型适用于不能使用该模型已经存在的非常具体的任务更好。缺点是这种方法通常需要大量的数据,以产生准确的结果,例如,当要被验证和文本需要提供大量的数据样本。如果您没有访问到一个文本分析任务预训练模型,建议从头开始开发一个模型。
转移学习是这样的任务非常有用物体识别,为此,流行的各种预训练模式如AlexNet和GoogLeNet,可以使用作为起始点。例如,如果你有一个植物学项目中,花需要进行分类和有限的数据是可用的,你可以从AlexNet模型,划分了图像到1000个不同的类别转移重量和层,并更换最终的分类层。
下面将图形显示从头开始训练了与迁移学习模型和模型中的网络性能。随着迁移学习,就可以实现在更短的时间内提高模型的准确性。
迁移学习是如何实现的?
这种方法一般遵循这些工艺步骤:
- 加载预训练网络。选择已经训练了类似新任务的任务相关的网络。
- 新任务更换分级层。您也可以选择微调取决于可用的新任务和数据的权重。一般情况下,你有更多的数据,层数越多,你可以选择微调。数据较少,微调可能导致过度拟合模型。
- 列车上的数据在网络中的新任务。
- 新网络的测试精度。