1 Matching Annotations
  1. Last 7 days
    1. On a single H200 GPU with 1.5TB host memory, MegaTrain reliably trains models up to 120B parameters.

      令人惊讶的是:仅使用一块配备1.5TB主机内存的H200 GPU就能训练1200亿参数的模型,这打破了人们对大规模模型必须依赖多GPU集群的固有印象。这一技术突破可能使超大规模模型训练变得更加普及和经济。