7 Matching Annotations
  1. Mar 2017
    1. 许多正则化方法通过对目标函数 JJJ添加一个参数范数惩罚Ω(θ)Ω(θ)\Omega(\Vtheta),限制模型(如神经网络、线性回归或逻辑回归)的学习能力

      许多正则化方法都是基于限制模型的能力,如在神经网络、线性回归或者逻辑回归中,通过对目标函数J增加一个参数范数惩罚项Ω(θ)Ω(θ)|Omega(\Vtheta)。

    2. 在机器学习中许多策略通过明确设计,以增大训练误差为代价来减少测试误差

      许多机器学习中精心设计的策略目标都在于减少测试误差(test error),与之相伴的就是有可能带来训练误差的增加。

    3. 设计不仅在训练数据上表现好,并且能在新输入上泛化好的算法是机器学习中的一个核心问题

      机器学习的一个核心问题在于,如何使算法不仅在训练数据上表现良好,并且在新输入的样本上也有同样的性能。