15 Matching Annotations
  1. Last 7 days
    1. SubQ Sparse Attention is 52× faster than FlashAttention in our architecture-level comparison, while requiring 63% less compute.

      SubQ稀疏注意力比FlashAttention快52倍,同时减少63%的计算需求。这是一个显著的性能优势数据,表明SubQ在架构层面实现了重大突破,不仅提升了速度,还大幅降低了计算成本。

    2. With a research result at 12 million tokens, SubQ's architecture reduces attention compute by almost 1,000x compared to other frontier models.

      这是一个惊人的性能提升数据,SubQ架构将注意力计算减少了近1000倍,同时支持1200万token的上下文。这个数据点极具说服力,表明SubQ在计算效率方面实现了数量级的突破,远超现有前沿模型。

    1. Overall, it usually takes me about two hours to do this task. If only it were as simple as a single copy and paste, life would be so much easier — or so I thought.

      作者完成文章发布任务通常需要约2小时,而AI在这一任务上表现极差。这一时间对比数据点突显了AI在看似简单任务上的局限性,支持了莫拉维克悖论的观点。然而,作者没有提供AI完成该任务的具体时间数据,这使得比较不够完整。

  2. May 2026
    1. By predicting these unified tokens, it effectively leverages diverse human data to achieve state-of-the-art data efficiency and robust out-of-distribution (OOD) generalization.

      这一实验结果展示了UniT在利用人类数据实现高效和鲁棒泛化方面的潜力,为数据效率和泛化能力提供了新的标准。

  3. Apr 2026
    1. What used to take reps 5-6 hours a week now runs automatically in the background on every deal.

      这是一个具体的效率提升数据,显示工作空间代理可以将销售代表每周5-6小时的工作自动化。这相当于每周节省约12.5%-15%的工作时间,是一个显著的效率提升,特别是在销售团队中。

    1. 🔹 **DeepSeek-V4-Flash:** 284B total / 13B active params. Your fast, efficient, and economical choice.

      DeepSeek-V4-Flash的参数规模明显小于Pro版本:总参数2840亿,活跃参数130亿。参数效率比约为4.6%,略高于Pro版本。这种参数设计使其在保持性能的同时实现更快响应和更低成本,适合需要快速响应的应用场景。

  4. Jan 2023
    1. 个人学习可能取决于他人行为的主张突出了将学习环境视为一个涉及多个互动参与者的系统的重要性
  5. Aug 2020
  6. Sep 2019
  7. May 2014