we can reach the same capabilities with over an order of magnitude less compute than our previous model, Llama 4 Maverick.
令人惊讶的是:Meta声称他们的新模型Muse Spark在计算效率上取得了突破性进展,仅用前代模型Llama 4 Maverick十分之一的计算量就能达到相同能力。这种数量级的效率提升在AI领域极为罕见,可能代表着训练算法和架构设计的重大革新。
we can reach the same capabilities with over an order of magnitude less compute than our previous model, Llama 4 Maverick.
令人惊讶的是:Meta声称他们的新模型Muse Spark在计算效率上取得了突破性进展,仅用前代模型Llama 4 Maverick十分之一的计算量就能达到相同能力。这种数量级的效率提升在AI领域极为罕见,可能代表着训练算法和架构设计的重大革新。