286 Matching Annotations
  1. Jan 2017
  2. exacity.github.io exacity.github.io
    1. 我们不可能一下子描述全面覆盖主题的所有略微相似的应用 。

      我们不可能全面描述与此主题相关的所有应用 。

    2. 在本文写作之时,这项调查尽可能提供了有代表性的样本。

      本项调查提供了在本文写作之时的具有代表性的样本。

    3. ,其中的挑战更困难并且远远没有解决(相比目前为止所描述的情况)。

      。并且相比目前为止所描述的情况,其中的挑战更困难并且远远没有解决。

    4. 深度学习方法在语言模型、机器翻译和自然语言处理方面非常成功,因为使用符号{cite?}和词嵌入{cite?}。

      由于使用了符号\citep{Rumelhart86b-small}和词嵌入\citep{Deerwester90,BenDucVin01-small},深度学习方法在语言模型、机器翻译和自然语言处理方面非常成功。

    5. 直到学习者选择正确的决定之前都无法学习正确的决定。

      在学习者选择正确的决定之前,该系统都无法学习正确的决定。

    6. Netflix奖(目的是仅基于大量匿名用户的之前评级预测电影的评级)的竞争中

      Netflix奖的预测比赛中(目的是仅基于大量匿名用户的之前评级预测电影的评级)

    7. 如果展示了广告或向该用户推荐了该产品,推荐系统要么预测一些行为的概率(用户购买产品或该行为的一些代替)或预期增益(其可取决于产品的价值)。

      推荐系统通过预测一些行为的概率(用户购买产品或该行为的一些代替)或预期增益(其可取决于产品的价值)来向用户展示广告或是推荐产品。

    8. 随机选择负词,如使用启发式采样更可能被误解的词。

      负词是被随机选取的,如使用启发式采样更可能被误解的词。

    9. 加速神经语言模型训练的一种方式是避免明确计算所有词(未出现在下一位置)对梯度的贡献。

      加速神经语言模型训练的一种方式是,避免明确计算所有未出现在下一位置的词对梯度的贡献。

    10. 这增加了表示该矩阵的高存储成本,以及乘以它的高计算成本。

      这造成了表示该矩阵的高存储成本,以及与之相乘的高计算成本。

    11. 神经语言模型在识别两个相似的词的基础上,而不丧失将每个词编码为彼此不同的能力。

      神经语言模型能够识别两个相似的词,并且不丧失将每个词编码为彼此不同的能力。

    12. 因为最大似然估计可以简单地统计每个可能的nnn-gram在训练集中出现的次数。

      因为最大似然估计可以通过简单地统计每个可能的$n$-gram在训练集中出现的次数来获得。

    13. 学习者必须用一种人类语言读取句子并用另一种人类语言发出等同的句子

      学习者需要读取一种人类语言的句子,并另一种人类语言发出等同的句子

    14. 让简单的程序能够高效明确地解析,计算机程序通常读取和发出特殊化的语言

      为了让简单的程序能够高效明确地解析,计算机程序读取与发出的语言通常是经过特殊化的

    15. 在这之前的长达十年左右的时间基于GMM-HMM的系统的传统技术已经停滞不前了,尽管数据集的规模是随时间增长的

      在这之前的长达十年左右的时间内,尽管数据集的规模随时间增长,然而基于GMM-HMM的系统的传统技术已经停滞不前了

    16. 可以为许多任务安全移除的最明显的变化源之一是图像中的对比度量。

      在许多任务中,对比度是能够安全移除的最为明显的变化源之一。

    17. 对比度仅指图像中亮像素和暗像素之间差异的大小。

      简单地说,对比度指的是图像中亮像素和暗像素之间差异的大小。

    18. 减少数据中的变化量可以减少泛化误差并减小拟合训练集所需模型的大小。

      减少数据中的变化量既能够减少泛化误差,也能够减小拟合训练集所需模型的大小。

    19. 许多应用领域需要复杂精细的预处理,因为原始输入以许多深度学习架构难以表示的形式出现。

      由于原始输入往往以深度学习架构难以表示的形式出现,许多应用领域需要复杂精细的预处理。

    20. 修复图像中的缺陷或从图像中移除对象这样的计算机视觉任务

      即修复图像中的缺陷或从图像中移除对象这样的计算机视觉任务

    21. 因为生成模型已经是深度学习研究的指导原则,还有大量使用深度模型的图像合成工作

      由于生成模型已经是深度学习研究的指导原则,因此还有大量图像合成工作使用了深度模型

    22. 因此,在针对诸如手机等低功率设备开发新的硬件设计时,研究专用硬件是进一步推动其发展的方式,旨在用于深度学习的一般公众应用(例如,具有语音、计算机视觉或自然语言功能的设施)。

      因此,在针对诸如手机等低功率设备开发新的硬件设计,并且想要用于深度学习的一般公众应用(例如,具有语音、计算机视觉或自然语言功能的设施)等时,研究专用硬件能够进一步推动其发展。

    23. 这与20世纪90年代的情况(前面的神经网络时代)非常不同,其中神经网络的硬件实现(从开始到芯片的可用性可能需要两年)不能跟上快速进展和价格低廉的通用CPU的脚步

      这与20世纪90年代的情况(上一个神经网络时代)的不同之处在于,神经网络的硬件实现(从开始到芯片可用可能需要两年)跟不上快速进展和价格低廉的通用CPU的脚步

    24. 在实时系统中,样本必须连续处理,对工作负载进行分区可能会导致负载均衡问题

      然而在实时系统中,样本必须连续处理,对工作负载进行分区可能会导致负载均衡问题

    25. 可以将样本分成组缓解这些问题,这些组都采用相同的分支并且同时处理这些样本组

      可以通过将样本分成组,并且都采用相同的分支并且同时处理这些样本组的方式来缓解这些问题

    26. GPU的实现也将是缓慢的,因为缺乏级联的内存操作以及warp成员使用不同分支时需要串行化操作

      此外,由于缺乏级联的内存操作以及warp成员使用不同分支时需要串行化操作,GPU的实现也会很慢

    27. ,许多窗口会被检查,如果它们不包含面部则被拒绝。

      。分类器检查许多的窗口,如果这些窗口内不包含面部则拒绝。

    28. 系统作为一个整体显然具有高容量,因为它的一些个体成员是高容量的

      由于系统中的一些个体成员具有高容量,因此系统作为一个整体显然也具有高容量

    29. 最好能够从一个类似于真实的测试数据(后面会用到)的分布中

      最好从类似于之后将提供给模型的真实测试数据的分布中

    30. 我们就可以生成一个拥有了无穷多训练样本的训练集,只需将fff作用于任意生成的xx\Vx。

      我们就可以通过将$f$应用与随机采样点$x$,来生成有无穷多训练样本的训练集

    31. 仅仅训练样本数是有限的,所以网络的规模是受限的。

      只是因为训练样本数是有限的,所以模型的规模才变得必要。

    32. 这种方法减少了每一个梯度下降所获得的平均提升,因为一些核把其他的核所更新的参数(写)覆盖了。

      由于一些核把其他的核所更新的参数覆盖了,因此这种方法减少了每一步梯度下降所获得的平均提升。

    33. 机器学习库Pylearn2 {cite?}通过调用Theano {cite?}和cuda-convnet {cite?}提供的高性能操作,囊括了许多机器学习算法

      机器学习库Pylearn2 {cite?}将其所有的机器学习算法都通过调用Theano {cite?}和cuda-convnet {cite?}所提供的高性能操作来指定。

    34. 使用显卡训练神经网络的热度在通用GPU发布以后开始爆炸性增长

      在通用GPU发布以后,使用显卡训练神经网络的热度开始爆炸性地增长

    35. 将计算的输出值作为像素值写入缓冲区,GPU可以用于科学计算

      只要将计算的输出值作为像素值写入缓冲区,GPU就可以用于科学计算