25 Matching Annotations
  1. Last 7 days
    1. Experiments across six game environments show that COSPLAY with an 8B base model achieves over 25.1 percent average reward improvement against four frontier LLM baselines on single player game benchmarks while remaining competitive on multi player social reasoning games.

      在六个游戏环境中进行的实验表明,COSPLAY框架在单人游戏基准测试中,与四个前沿的LLM基线相比,平均奖励提高了25.1%,同时在多人社交推理游戏中也保持了竞争力。

  2. Dec 2024
    1. coalesce 会降低同一个 stage 计算的并行度,导致 cpu 利用率不高,任务执行时间变长。我们目前有一个实现是需要将最终的结果写成单个 avro 文件,前面的转换过程可能是各种各样的,我们在最后阶段加上 repartition(1).write().format('avro').mode('overwrite').save('path')。最近发现有时前面的转换过程中有排序时,使用 repartition(1) 有时写得单文件顺序不对,使用 coalesce(1) 顺序是对的,但 coalesce(1) 有性能问题。目前想到可以 collect 到 d

      https://stackoverflow.com/questions/31610971/spark-repartition-vs-coalesce

  3. Aug 2024
  4. Dec 2022
  5. Aug 2022
  6. Mar 2022