7 Matching Annotations
  1. Mar 2017
    1. 而其他可能使用梯度为0的解析解

      而其他在梯度为0的情况下会使用解析解

    2. 大小

      规模

    3. 当J^J^\hat J取最小时,其梯度

      当梯度为0时,J^J^\hat J取得最小

    4. 许多正则化方法通过对目标函数 JJJ添加一个参数范数惩罚Ω(θ)Ω(θ)\Omega(\Vtheta),限制模型(如神经网络、线性回归或逻辑回归)的学习能力

      许多正则化方法都是基于限制模型的能力,如在神经网络、线性回归或者逻辑回归中,通过对目标函数J增加一个参数范数惩罚项Ω(θ)Ω(θ)|Omega(\Vtheta)。

    5. 参数范数惩罚

      参数、范数、惩罚

    6. 在机器学习中许多策略通过明确设计,以增大训练误差为代价来减少测试误差

      许多机器学习中精心设计的策略目标都在于减少测试误差(test error),与之相伴的就是有可能带来训练误差的增加。

    7. 设计不仅在训练数据上表现好,并且能在新输入上泛化好的算法是机器学习中的一个核心问题

      机器学习的一个核心问题在于,如何使算法不仅在训练数据上表现良好,并且在新输入的样本上也有同样的性能。